未來(lái)挑戰:確保人工智能的安全
隨著(zhù)人工智能及其在未來(lái)扮演的角色成為社會(huì )討論的焦點(diǎn),恩智浦也在探索一個(gè)關(guān)鍵問(wèn)題:如何從開(kāi)發(fā)流程著(zhù)手,確保人工智能和機器學(xué)習的安全?
本文引用地址:http://dyxdggzs.com/article/202105/425938.htm在恩智浦,我們會(huì )按照客戶(hù)提出的正式要求,為硬件開(kāi)發(fā)相應的功能。為了滿(mǎn)足客戶(hù)的要求,我們首先列出一些已知的輸入信息,也就是用例。用例可能是雷達傳感器在汽車(chē)中的位置(面朝前方或角落)、電動(dòng)汽車(chē)電池的工作電壓、汽車(chē)駕駛艙內的屏幕數量等。然后,我們再定義設計,驗證功能是否按照預期方式工作,而且我們不僅在模擬環(huán)境中驗證,還在實(shí)地環(huán)境中驗證。在實(shí)地環(huán)境中,因為無(wú)法控制功能實(shí)際接收到的輸入,所以要在選定的用例范圍內,將功能設計得盡可能穩定可靠。
但對于人工智能而言,這個(gè)開(kāi)發(fā)過(guò)程會(huì )有一點(diǎn)變化。我們仍然會(huì )定義用例,但還要為每個(gè)用例分配明確定義的輸出。我們會(huì )將這個(gè)任務(wù)交給計算機完成,然后再定義功能。從示例中學(xué)習的過(guò)程可稱(chēng)為訓練,我們要教計算機做出我們需要的響應。
一旦對計算機進(jìn)行了用例訓練,即可將這些知識轉移到設備,讓設備將知識應用于實(shí)地環(huán)境,更好地處理難以預知的數據,這個(gè)過(guò)程就稱(chēng)為推理。它與非人工智能流程的關(guān)鍵差別在于,在人工智能的開(kāi)發(fā)中,工程師不一定像過(guò)去那樣理解功能本身。
因此我們必須進(jìn)行評估,調節機器的行為,直至輸出的結果符合我們最初的預期。對于需要高計算量的設備,這個(gè)調節過(guò)程在云端進(jìn)行,而不是在邊緣進(jìn)行。
什么是安全的人工智能/機器學(xué)習?為什么我們需要它?
人工智能和機器學(xué)習將被應用于汽車(chē)安全功能,因此必須確保它們不會(huì )違反安全規則。從汽車(chē)行業(yè)背景來(lái)思考人工智能和機器學(xué)習時(shí),汽車(chē)OEM面臨的問(wèn)題是如何了解特定功能的風(fēng)險級別,以及它們可能對人造成的傷害。因此,在定義功能時(shí),既要避免系統性故障,還要減少隨機故障。我們利用安全管理流程和安全架構來(lái)滿(mǎn)足這些要求,從而在由人管理的開(kāi)發(fā)中,實(shí)現設備監控。
但是,僅遵循我們現有的開(kāi)發(fā)流程是不夠的,因為訓練和推理在本質(zhì)上有所不同。因此,我們需要定義不同的問(wèn)題陳述。首先,我們必須了解訓練數據是否存在系統性故障。其次,我們還必須了解人工智能模型是如何創(chuàng )建的。該模型是否會(huì )產(chǎn)生可能導致系統性故障的不必要偏差?此外,在推理過(guò)程中,模型的執行是否存在隨機故障?
在這一方面,機器學(xué)習質(zhì)??梢园l(fā)揮作用,涉及到訓練和評估步驟的完整性、正確性和一致性,涵蓋所有頂級安全流程和數據管理,其目的是確保使用的數據是正確和完整的,不存在任何偏差。
在推理層面上,安全機制可以確保硬件的完整性,而這些硬件可能是任何形式的硬件內核。經(jīng)典的安全機制具有ECC/奇偶校驗、鎖步和流量監控功能。另外,其還能夠利用安全封裝器加以增強,對數據進(jìn)行更多檢查,從統計上衡量安全性能。
恩智浦有關(guān)算法道德的白皮書(shū)闡述了恩智浦對人工智能開(kāi)發(fā)完整性的看法,并探討了可靠人工智能的安全性和透明度。我們有一款名為Auto eIQ的專(zhuān)用軟件,可幫助開(kāi)發(fā)人員評估和優(yōu)化訓練模型,并將訓練模型部署到目標環(huán)境中,幫助我們持續提高模型的可靠性。
作者
Andres Barrilado
恩智浦半導體功能安全評估員
Andres在恩智浦核心團隊中擔任功能安全評估員。過(guò)去,Andres還曾經(jīng)擔任雷達前端設備的安全架構師,以及汽車(chē)傳感器的應用工程師。
評論