人工智能威脅論也許真的存在!
如今人工智能發(fā)展火熱,機器學(xué)習預見(jiàn)成熟,智能化未來(lái)似乎指日可待。表面上似乎一切都在按部就班的進(jìn)行,但背后也不乏暴露出很多問(wèn)題。就像近期人工智能威脅論就引發(fā)了不少的言論激戰,揪其根源還是人工智能是否能夠有意識違背人類(lèi)意愿操控事務(wù)的問(wèn)題。
本文引用地址:http://dyxdggzs.com/article/201808/391402.htm因此,我們或許想問(wèn):人工智能機器人究竟有多強大?機器人真的會(huì )“反噬”人類(lèi)嗎?《終結者》里的Skynet(天網(wǎng))會(huì )真的發(fā)生在現實(shí)生活中嗎?
強弱AI
首先我們應該區分兩個(gè)概念:強AI和弱AI。強AI 是指一種能夠思考并可以感知自身存在的假想機器。它不僅可以解決人類(lèi)為其定制的任務(wù),還可以學(xué)習新事物。
弱AI目前很常見(jiàn),它是一種用于解決特定問(wèn)題的應用程序,例如圖像識別、汽車(chē)駕駛、playing Go(圍棋)等,也就是我們常說(shuō)的“機器學(xué)習”。
目前,我們還無(wú)法預測強AI什么時(shí)候能夠真正被研發(fā)出來(lái)。專(zhuān)家們經(jīng)過(guò)調研推斷的結果也是“有朝一日”。
相比強AI,弱AI目前已經(jīng)存在,很多領(lǐng)域都可以看到弱AI的身影,并且應用范圍每年都在增長(cháng)。通過(guò)實(shí)例學(xué)習,機器學(xué)習幾乎可以讓我們在無(wú)需編程的情況下處理實(shí)際任務(wù)。
人工智能威脅論真的存在嗎?
我們通過(guò)建立數學(xué)模型(“學(xué)習”算法),教會(huì )機器人解決具體問(wèn)題。機器人會(huì )按照我們規劃好的模型法去執行任務(wù),也就是說(shuō)機器學(xué)習的一切行為都是基于我們的操控,我們似乎不用擔心電影《終結者》天網(wǎng)的發(fā)生。但如果我們抱有這樣天真的想法,我們就錯了,因為機器學(xué)習仍然可能違背人類(lèi)的意愿去執行錯誤的任務(wù)。
1.不良企圖
如果我們教一個(gè)無(wú)人機軍隊使用機器學(xué)習去殺人,那么結果是否符合道德行為標準?
基于這個(gè)話(huà)題還發(fā)生過(guò)一場(chǎng)鬧聞。2017年,谷歌正在開(kāi)發(fā)一款用于軍事項目的軟件,名為Maven。該項目涉及到無(wú)人機,以及未來(lái)完全自主武器系統的制造。因此,谷歌的12名員工辭職以示抗議,另外有4000名員工簽署了一份請愿書(shū),要求公司放棄與軍方的合同。與此同時(shí),人工智能、倫理學(xué)領(lǐng)域的1000多名知名科學(xué)家一起寫(xiě)了一封致谷歌的公開(kāi)信,要求該公司放棄該項目并支持禁止自主武器的國際協(xié)議。
2.開(kāi)發(fā)者偏見(jiàn)
即使機器學(xué)習算法開(kāi)發(fā)人員沒(méi)有惡意,但他們中的很多人還是金錢(qián)價(jià)值觀(guān),他們的最終目的還是為了賺錢(qián)。也就是說(shuō),他們的算法是為了使自己受益而創(chuàng )建的,并非是為了社會(huì )利益。例如,一些醫療算法會(huì )推薦昂貴的治療方法,卻很少推薦最佳患者治療方案。
實(shí)際生活中算法的道德規范問(wèn)題似乎也沒(méi)有很大體現。例如,交通速度和車(chē)禍死亡率之間是可以存在折中方案的。我們可以將自動(dòng)駕駛汽車(chē)的最高行駛速度限制在15英里小時(shí)以下,這樣幾乎可以將車(chē)禍死亡率降到零,但這樣卻損失了汽車(chē)的其他優(yōu)勢。
3.違背邏輯規范
電腦系統在默認的情況下,對邏輯規范一無(wú)所知。一種算法可以將國家預算與“最大化GDP/勞動(dòng)生產(chǎn)率/預期壽命”的目標結合起來(lái),但如果沒(méi)有在模型中編制限制,它可能會(huì )取消學(xué)校、收容所和環(huán)境的預算,因為它們不會(huì )直接增加GDP。
為了一個(gè)目標,我們可以讓機器學(xué)習執行任何一個(gè)復雜任務(wù),但前提是要融入相關(guān)的邏輯規范。
4.改變人類(lèi)偏好
機器學(xué)習給我們的生活帶來(lái)了很多便利,但無(wú)形之中也在改變我們的生活常態(tài)甚至個(gè)人行為偏好。例如智能電影推薦,機器學(xué)習會(huì )根據您對電影的評分,將您的偏好與其他用戶(hù)進(jìn)行對比,然后向您推薦電影。長(cháng)期下來(lái),您的偏好將因為電影推薦系統而被改變,興趣范圍也會(huì )被縮小。
但可怕的是,我們并沒(méi)有意識到這種改變的發(fā)生,沒(méi)有意識到計算機對我們的操控。
5.錯誤的相關(guān)性
當完全彼此獨立的事物表現出非常相似的行為時(shí),就會(huì )產(chǎn)生一種虛假的關(guān)聯(lián),這就會(huì )造成一種錯覺(jué),認為它們之間存在某種聯(lián)系。例如,你會(huì )認為美國的人造黃油消費與緬甸州的離婚率密切相關(guān)嗎?
我想任何一個(gè)有點(diǎn)學(xué)識的人都不會(huì )認為二者是相關(guān)的。但數學(xué)模型不具備這樣的經(jīng)驗學(xué)識,它只是用來(lái)學(xué)習和數據概括的工具,在它的邏輯系統里,這樣相似性的曲線(xiàn)變化表明二者之間一定有著(zhù)某種聯(lián)系。
6.反饋循環(huán)
相比錯誤相關(guān)性,反饋循環(huán)影響更大。反饋循環(huán)是指算法決策影響現實(shí)的情況,反過(guò)來(lái)又使算法確信其結論是正確的。
例如,加利福尼亞的一項預防犯罪計劃表明,警察應該根據當地的案件數量斷定犯罪率,然后根據犯罪率派遣相應的警官。但最終會(huì )陷入到這樣一個(gè)循環(huán)里:一個(gè)街區的警察增加,當地居民的報警次數就會(huì )增多,從而增高犯罪率,按照預防犯罪計劃就要派遣更多的警察,警察數量增多,人們的報案數量就又增多,報案率上升,便又增加警察數量······
7.“被污染”的參考數據
算法學(xué)習的結果很大程度上取決于參考數據,它們構成了學(xué)習的基礎。然而,數據很有可能會(huì )因為某種偶然的情況或是個(gè)人意圖而發(fā)生扭曲,即數據“被污染”。
一個(gè)經(jīng)典的例子就是2016年微軟推出的聊天機器人Tay,微軟將這款機器人視為“對話(huà)理解”的實(shí)驗。微軟表示,與Tay進(jìn)行的聊天越多,它就會(huì )越聰明。但是微軟的此次聊天實(shí)驗卻只進(jìn)行了24小時(shí)就不得不停止,因為無(wú)辜的聊天機器人竟然在24小時(shí)內被教會(huì )了大量種族歧視、性別歧視的用語(yǔ)。Tay的案例為機器學(xué)習的研發(fā)工作敲了警鐘,反應了“被污染” 數據的嚴重性。
8.機器欺騙
即便是一個(gè)功能、數據都良好的模型,它工作原理的泄露也會(huì )讓惡人鉆了空子。例如,有一組研究人員研發(fā)了一種可以欺騙面部識別算法的特殊眼鏡,這種眼鏡會(huì )在圖像中引入最小的失真,從而改變面部識別結果。
怎樣解決?
2016年,奧巴馬政府的大數據工作組發(fā)布了一份報告,警告:“在自動(dòng)化決策中可能存在編碼歧視”。該報告還呼吁創(chuàng )建遵循平等原則的算法。
但將報告完全落實(shí)應用就很難了。
首先,機器學(xué)習數學(xué)模型很難測試和修復。因為在機器學(xué)習中,一切都取決于學(xué)習樣本的大小,樣本的數量是有限的。
舉一個(gè)經(jīng)典的例子:早在2015年,軟件工程師JackyAlciné曾指出谷歌照片中的圖像識別算法將他的黑人朋友歸類(lèi)為“大猩猩”。谷歌對此錯誤感到震驚,并向 Alciné表示歉意,承諾修復該錯誤。然而三年后,谷歌除了禁止在圖像標記中使用“大猩猩”等類(lèi)似詞語(yǔ)外,并沒(méi)有其他更好的解決方案。
其次,機器學(xué)習算法的決策很難被理解和解釋。神經(jīng)網(wǎng)絡(luò )會(huì )在其內部安排加權系數來(lái)得到答案。但其過(guò)程是怎樣的呢?錯誤答案如何被修正呢?
舉兩個(gè)例子:2015年的一項研究顯示,谷歌廣告高薪工作的瀏覽次數,男性高于女性。亞馬遜當天免費送貨服務(wù),非洲裔美國人社區(黑人社區)卻享受不到?;谶@兩種情況,兩家公司均表示無(wú)法解釋這些由算法做出的決定。
基于這些算法決策,沒(méi)有人應用受到責備。因此我們需要對機器人制定出一套法律法規來(lái)規定機器人的行為決策。2018年5月,德國人邁出了第一步,他們發(fā)布了世界上第一個(gè)自動(dòng)駕駛汽車(chē)指南。部分內容為:
與一切財產(chǎn)相比,人類(lèi)生命至上。
不可避免性事故,不得有歧視,不得有任何區別性因素存在。
如果自動(dòng)駕駛比人類(lèi)駕駛造成的事故少,那么自動(dòng)駕駛系統將成為道德要求。
很明顯,機器學(xué)習在個(gè)別任務(wù)的管理能力上確實(shí)比人類(lèi)強,導致我們對機器學(xué)習的依賴(lài)程度越來(lái)越高。因此記住這些機器學(xué)習缺陷就顯得尤為重要,研發(fā)人員應該在開(kāi)發(fā)階段測試好所有可能存在的問(wèn)題,并設置好算法的監控措施。
評論