如何防止“有毒”的AI模型釋放現實(shí)世界的混亂
對越來(lái)越多數據無(wú)情、貪婪的胃口可能是人工智能的致命缺陷;或者至少是“毒藥”滲入的最快方式。網(wǎng)絡(luò )攻擊者以虛假或誤導性信息的形式將小劑量的“有毒數據”偷偷帶入至關(guān)重要的 AI 訓練集中。任務(wù):破壞曾經(jīng)可靠的模型,使它們朝著(zhù)完全不同的方向傾斜。
本文引用地址:http://dyxdggzs.com/article/202504/469932.htm我們今天遇到的大多數 AI 系統——從 ChatGPT 到 Netflix 的個(gè)性化推薦——都足夠“智能”,因為它們接受了大量的文本、圖像、語(yǔ)音和其他數據的訓練,因此只能完成如此令人印象深刻的壯舉。如果這個(gè)豐富的寶庫被污染,模型的行為就會(huì )變得不穩定。
現實(shí)世界的影響遠遠超出了聊天機器人說(shuō)胡言亂語(yǔ)或文本到圖像生成器在被要求提供鳥(niǎo)時(shí)生成飛機圖像的范疇。不良行為者群體可能會(huì )導致自動(dòng)駕駛汽車(chē)無(wú)視紅燈,或者在更大范圍內觸發(fā)電網(wǎng)中斷和停電。
為了抵御各種數據中毒攻擊的威脅,FIU 網(wǎng)絡(luò )安全研究人員團隊結合了兩種新興技術(shù)(聯(lián)合學(xué)習和區塊鏈),以更安全地訓練 AI。根據 IEEE Access 上發(fā)表的一項研究,該團隊的創(chuàng )新方法成功地檢測并刪除了不誠實(shí)的數據,以免它損害訓練數據集。
“我們已經(jīng)構建了一種方法,可以在關(guān)鍵基礎設施彈性、交通網(wǎng)絡(luò )安全、醫療保健等方面有許多應用,”奈特基金會(huì )計算與信息科學(xué)學(xué)院首席研究員兼 FIU 助理教授 Hadi Amini 說(shuō)。
該團隊新方法的第一部分涉及聯(lián)合學(xué)習。這種獨特的 AI 訓練方式使用訓練模型的迷你版本,該模型直接在您的設備上學(xué)習,并且僅與公司服務(wù)器上的全局模型共享更新(不是您的個(gè)人數據)。雖然保護了隱私,但這種技術(shù)仍然容易受到數據中毒攻擊。
“在用戶(hù)數據進(jìn)入模型之前驗證數據是誠實(shí)的還是不誠實(shí)的,這是聯(lián)邦學(xué)習的一個(gè)挑戰,”Amini 實(shí)驗室的博士生、該研究的主要作者 Ervin Moore 解釋說(shuō)?!八?,我們開(kāi)始考慮使用區塊鏈來(lái)減輕這個(gè)缺陷?!?/p>
區塊鏈因其在比特幣等加密貨幣中的作用而廣為人知,它是一個(gè)分布在計算機網(wǎng)絡(luò )上的共享數據庫。數據存儲在按時(shí)間順序鏈接在鏈上的區塊中。每個(gè)區塊都有自己的指紋,以及前一個(gè)區塊的指紋,使其幾乎是防篡改的。
整個(gè)鏈遵循一定的結構(數據如何在區塊內打包或分層)。這就像一個(gè)審查過(guò)程,以確保不會(huì )添加隨機塊。把它想象成一份準入清單。
研究人員在構建模型時(shí)利用了這一點(diǎn)。它比較了區塊更新,計算了異常值更新是否具有潛在毒性。記錄可能有害的更新,然后從網(wǎng)絡(luò )聚合中丟棄。
“我們的團隊現在正在與國家交通網(wǎng)絡(luò )安全和彈性中心的合作者密切合作,利用尖端的量子加密來(lái)保護數據和系統,”Amini 說(shuō),他還領(lǐng)導 FIU 的網(wǎng)絡(luò )安全和 AI 專(zhuān)家團隊,研究互聯(lián)和自動(dòng)駕駛交通系統的安全 AI?!拔覀兊哪繕耸谴_保美國交通基礎設施的安全,同時(shí)利用先進(jìn)人工智能的力量來(lái)增強交通系統?!?/p>
Moore 將繼續這項研究,作為他正在進(jìn)行的研究的一部分,以開(kāi)發(fā)可用于關(guān)鍵基礎設施安全的安全 AI 算法。
評論