全新算法助機器學(xué)習抵抗干擾
機器學(xué)習模型受到攻擊將產(chǎn)生嚴重的后果,但如果對這一情形提前預防呢?就像人類(lèi)針對即將到來(lái)的病毒去接種疫苗一樣。據澳大利亞聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)官方網(wǎng)站消息,該機構的一個(gè)研究團隊,日前開(kāi)發(fā)了一套人工智能(AI)最新算法,可幫助機器學(xué)習抵御可能遇到的干擾。
本文引用地址:http://dyxdggzs.com/article/201907/402344.htm機器學(xué)習是人工智能的核心,也是使計算機具有智能的根本途徑。機器學(xué)習主旨是讓計算機去模擬或實(shí)現人類(lèi)的學(xué)習行為,以獲取新的知識或技能,并重新組織已有的知識結構,使之不斷改善自身的性能。
機器學(xué)習雖然可以在大數據訓練中學(xué)到正確的工作方法,但它也很容易受到惡意干擾。通常攻擊者是通過(guò)輸入惡意數據來(lái)“欺騙”機器學(xué)習模型,導致其出現嚴重故障。
此次,開(kāi)發(fā)出新算法的研究團隊——“Data61”機器學(xué)習小組領(lǐng)導者理查德·諾克表示,攻擊者會(huì )在進(jìn)行圖像識別時(shí),在圖像上添加一層干擾波,達到“欺騙”的目的,從而讓機器學(xué)習模型產(chǎn)生錯誤的圖像分類(lèi)。
諾克及其團隊成員研發(fā)的新算法,通過(guò)一種類(lèi)似疫苗接種的思路,可以幫助機器學(xué)習“修煉”出抗干擾能力。這是針對機器學(xué)習模型打造的防干擾訓練,譬如,在圖片識別領(lǐng)域,該算法能夠對圖片集合進(jìn)行微小的修改或使其失真,激發(fā)出機器學(xué)習模型“領(lǐng)會(huì )”到越來(lái)越強的抗干擾能力,并形成相關(guān)的自我抗干擾訓練模型。
經(jīng)過(guò)此類(lèi)小規模的失真訓練后,最終的抗干擾訓練模型將更加強大,當真正的攻擊到來(lái)之時(shí),機器學(xué)習模型將具備“免疫”功能。
評論