Google AI能自行發(fā)展加密技術(shù) 防止第三方窺探
Google近年積極開(kāi)發(fā)自有人工智能(AI)技術(shù),最新研究報告稱(chēng)該公司打造的實(shí)驗AI系統已具備可自行設計加密演算法的能力,借此能夠達到保密目的,避免第三方窺探內容。
本文引用地址:http://dyxdggzs.com/article/201611/339654.htm這項研究成果稱(chēng)為“用對抗神經(jīng)密碼技術(shù)學(xué)習安全通訊”,Google旗下Google Brain研究團隊人員Martin Abadi及David Andersen在報告中,介紹神經(jīng)網(wǎng)路如何自行發(fā)展簡(jiǎn)單加密技術(shù)以防止第三方窺探的技術(shù),且過(guò)程中無(wú)需外部輸入特定加密演算法即可進(jìn)行。
這套實(shí)驗Google Brain設計了“Bob”、“Alice”及“Eve”三個(gè)神經(jīng)網(wǎng)路,由Alice及Bob之間彼此收發(fā)訊息,訓練Alice將一串16位元由0與1組成的訊息傳送給Bob,Bob則必須嘗試對發(fā)送的訊息解密,但不讓Eve獲得這組訊息內容,要由Eve試圖窺探并解碼該訊息。Alice與Bob之間則擁有一個(gè)共享金鑰,即所謂的對稱(chēng)加密。
研究人員只給定上述假設實(shí)驗情況,未指定Alice與Bob之間要以何種方法傳送訊息,所以上述所有AI都不知道如何進(jìn)行加密也不清楚應使用何種加密技術(shù),僅透過(guò)可衡量損失及錯誤程度的損失函數來(lái)判斷自身表現,并不斷演進(jìn)出正確的方法。
Alice、Bob及Eve都是采用相同的混合與轉換神經(jīng)網(wǎng)路,初始化皆是獨立進(jìn)行,Google研究人員在單顆繪圖芯片(GPU)系統中以TensorFlow反覆進(jìn)行這項實(shí)驗,由Alice不斷發(fā)送訊息給Bob接收及解讀,同時(shí)Eve也嘗試進(jìn)行解讀。
起初Bob及Eve的錯誤率都很高,但隨著(zhù)測試次數增加,兩者的錯誤率都逐漸下降,約進(jìn)行到5,000~1萬(wàn)步(step)之間的測試次數后,Eve的錯誤率開(kāi)始減少,Bob更是大幅下降,不過(guò)1萬(wàn)步后當Alice與Bob改變加密方法后,Eve的錯誤率又開(kāi)始攀升。
到了1.5萬(wàn)步后Bob的錯誤率已降至幾近0,Eve的錯誤率則仍有一定程度,由此顯示Eve只是在進(jìn)行隨機猜測,Alice與Bob之間則已改善及發(fā)展出彼此能夠秘密通訊、防止Eve偷窺的方式。
Google研究人員未詳細分析Alice與Bob之間設計的是何種加密演算法,最后僅得出結論指出,神經(jīng)網(wǎng)路確實(shí)能夠進(jìn)行通訊內容傳輸的自我防護,且只需與Alice說(shuō)明保密的重要性高于一切即可,無(wú)需事先告知要以何種加密演算法進(jìn)行保密。另一方面從Eve的實(shí)驗結果看來(lái),Google研究人員則認為神經(jīng)網(wǎng)路成為密碼分析專(zhuān)家的機率不高。未來(lái)Google還將針對其他加密演算法進(jìn)行實(shí)驗。
評論