詮釋AI(人工智能)的兩大特征:黑盒子與不確定性
高煥堂? (臺灣VR產(chǎn)業(yè)聯(lián)盟主席,廈門(mén)VR/AR協(xié)會(huì )榮譽(yù)會(huì )長(cháng)兼顧問(wèn))
摘? 要:AI擅長(cháng)尋找大數據中的規律,其亮麗的表現已經(jīng)令人類(lèi)嘆為觀(guān)止。在學(xué)習AI時(shí),如果您能深刻掌握AI的黑盒子(Black box)和不確定性(Uncertainty),將更能發(fā)揮AI的專(zhuān)長(cháng)來(lái)幫助人類(lèi)。
關(guān)鍵詞:AI;黑盒子;不確定性
1 AI的長(cháng)處
當今基于深度學(xué)習的AI(人工智能)非常擅長(cháng)于:從大數據的復雜關(guān)系中尋找出人類(lèi)難以得知的規則(規律性或法則)。人們對周遭大環(huán)境的隱藏規律太多未知,AI可以協(xié)助人們去探索未知,補足人類(lèi)的短處。
那么,人們?yōu)槭裁葱枰狝I的助力呢? 因為人們常常只能觀(guān)察到小數據,只能歸納出局部性的規律,然后從各個(gè)局部性規律中,抽象出原則(Principle),然后掌握原則,并相信它(原則)就代表全體規律,乃是恒久不變之“道”。
如今,AI逐漸打破了這項數千年來(lái)的迷思。AI迅速掌握全體大數據,迅速找出全體新規律,顛覆人類(lèi)所相信的原則。于是,擅于借助于A(yíng)I者就可得到新規律來(lái)引領(lǐng)大潮流。反之,不擅于借助AI者,堅守舊原則,就很可能成為沒(méi)落貴族了。
雖然AI擅長(cháng)從“小范圍大數據”中找規律;但是人類(lèi)則擅長(cháng)在“小數據”中找規律,又能舉一反三,應用于“大范圍”上。兩者互補且相輔相成。
例如,在商業(yè)競爭環(huán)境中,AI可以幫企業(yè)取得相關(guān)產(chǎn)業(yè)的全域最佳解(Global optima),輕易地打敗傳統(無(wú)AI)的企業(yè)競爭者,因為這些傳統企業(yè)只能憑借人的視野和經(jīng)驗,只能取得局部最佳解(Localoptima)。
AI有兩項特性:①黑箱式推理;②不確定行為。當 今AI技術(shù)是基于算法和大數據相關(guān)性(Correlation)而進(jìn)行歸納推理,屬于低階因果關(guān)系的推理(如圖1)。
基于底層的算法,搭配歸納推理能力,AI能夠從大數據的復雜關(guān)系中找出規則(規律性或法則),并進(jìn)行預測(如圖2)。
依循AI自己找出的規則,就能針對應用資料來(lái)進(jìn)行預測或判斷,并且輸出結果(如圖3)。
由于A(yíng)I尋覓出來(lái)的規則,只能以成千上億個(gè)數字表示,成為無(wú)(文)字天書(shū)。讓人們對其判斷理由無(wú)從理解(Incomprehensibility),且對其推理過(guò)程無(wú)法解釋?zhuān)↖nexplainability),所以稱(chēng)之為:黑盒子(如圖4)。
同時(shí),常常因為訓練數據的偏差或算法參數設定等,都會(huì )讓AI產(chǎn)生意外的結果,讓人們捉摸不定其行為,通稱(chēng)為:AI不確定性(Uncertainty of AI)。
3 AI的兩層規則(Rules)
關(guān)于A(yíng)I與規則的關(guān)系,首先從AI的算法說(shuō)起,什么是AI的算法呢?
“算法”是人們給予AI機器的規則(Rules)。這種規則是媽媽層級的規則(Meta-rules),成為AI的底層框架,此框架支撐AI的歸納性能力,能夠從大數據中找出規則(規律性或法則),就生出兒女層級的規則(如圖5)。
因為是歸納法,所以媽媽如何生出兒女,其過(guò)程是黑盒子。當AI訓練完畢,投入實(shí)際應用時(shí),是依循兒女層級的規則而執行。所以,人們常常無(wú)法充分掌控AI的行為。
也許您會(huì )認為算法能充分掌控AI的行為。其實(shí)不然,掌控得了媽媽?zhuān)⒉灰欢苷瓶仄鋬号?,因此人們常常無(wú)法充分理解和解釋AI行為的背后理由。
當今的AI神經(jīng)網(wǎng)絡(luò )(NN)受人腦的啟發(fā),一個(gè)神經(jīng)網(wǎng)絡(luò )類(lèi)似于大腦中神經(jīng)元的連接系統,由成千上萬(wàn)個(gè)微小的神經(jīng)元連接,經(jīng)由一系列數學(xué)計算,形成數百萬(wàn)個(gè)復雜而微小變化的連結,人類(lèi)無(wú)法精準地確定正在發(fā)生的連接結果,只會(huì )得到1個(gè)輸出的結果。
這種“輸入數據和答案之間的不可觀(guān)察的空間”,通稱(chēng)為黑盒子。在A(yíng)I領(lǐng)域常拿這個(gè)名詞來(lái)描述神經(jīng)網(wǎng)絡(luò )的內心深處如何在“暗處”運作的神秘景象。對于人類(lèi)來(lái)說(shuō),至今仍然太難理解了。
4 舉例說(shuō)明:從傳統IT邁向AI
4.1 傳統IT:人們把規則寫(xiě)入電腦
人們最常見(jiàn)的迷思是:延續傳統IT思維,想把自己心中的規則輸入給AI。例如,當您想讓AI來(lái)進(jìn)行二進(jìn)位的加法運算——如(011)和(011)兩數相加。在傳統IT里,您會(huì )利用程序(如Python)的“編程邏輯”來(lái)把心中的規則表達于Python程序碼里,經(jīng)過(guò)編譯(Compile)、連結(Link)之后,載入到電腦里。例如,計算二進(jìn)位的 (011)和(011)相加時(shí),您會(huì )運用二進(jìn)位加法的基本規則是:個(gè)位數1和1相加,得到0,且進(jìn)位 1。下一位則是:1和1和進(jìn)位1相加,得到1,且進(jìn)位 1。再下一位則是:0和0和進(jìn)位1相加,得 到1。于是,得到結果是:二進(jìn)位的110。然后,寫(xiě)成Python程序碼來(lái)表達之:
此時(shí)您需要編程技能和嚴密的程序邏輯。所以,在傳統小數據時(shí)代的IT邏輯編程,是讓人類(lèi)表達其心中的規則,以程序碼敘述出來(lái),植入到電腦中,讓電腦替人類(lèi)快速執行(規則)。所以,您需要努力學(xué)習編程;然而那是傳統IT邏輯思維,不是當今AI的邏輯思維。
4.2 AI:自己找出規則(規律性或法則)
基于大數據的AI邏輯思維是:人類(lèi)只需要給它(電腦)答案,由它自己歸納出規則。例如二進(jìn)位加法:
基于大數據的AI邏輯思維是:人類(lèi)只需要給它(電腦)答案,由它自己歸納出規則。例如二進(jìn)位加法如圖6。
人們只要給電腦考卷(即輸入值011和011),并且給予答案(即輸出值110)就可以了。AI能自己歸納出規則,并計算出非常接近正確的答案(如圖7)。
AI計算出來(lái)的答案:[0.98, 0.93, 0.09],只是非常接近正確答案:[1,1,0]。AI自己以權重(數字)來(lái)表達它自己歸納出來(lái)的規則(如圖8)。
在傳統小數據時(shí)代的IT邏輯編程,是讓人類(lèi)表達其心中的規則,以程序碼敘述出來(lái)。如今的AI,并不需要人類(lèi)去表達心中的規則,反而AI基于大數據而能歸納出比人類(lèi)更優(yōu)質(zhì)、可信的規則。
5 細說(shuō)AI的“不確定性”
5.1 AI的特質(zhì):“不確定”行為
如前文所述,AI的特質(zhì)是非常清晰的:它依賴(lài)大數據表層(淺層)的相關(guān)性,作為歸納法推理的基礎。而歸納性推理是一種“黑盒子”思維,只有結論而沒(méi)有推理過(guò)程的。
當AI訓練完畢,投入實(shí)際應用時(shí),是依循AI自己歸納出來(lái)的規則而執行。所以,人們常常無(wú)法充分理解和解釋AI行為的理由。AI自己講不清楚,甚至AI專(zhuān)家也講不清楚。這是人們對于A(yíng)I行為的不確定感。
于此也推薦您聽(tīng)聽(tīng)Janelle Shane于2019年4月在Ted上演講,主題是:AI的危險比你想象的更怪異(The dangerof AI is weirder than you think)[1]。
為了有效提升人們對A I的信賴(lài)度(即降低不確定感),許多專(zhuān)家聯(lián)合起來(lái)籌組了聯(lián)盟:A I不確定性聯(lián)盟(The Association for Uncertainty in ArtificialIntelligence,簡(jiǎn)稱(chēng)AUAI)[2]。并且定期召開(kāi)大型會(huì )議,研討各種可能的解決途徑。
5.2 AI不擅長(cháng)“不確定性”的事物
俗語(yǔ)說(shuō),優(yōu)點(diǎn)的另一面往往是缺點(diǎn)。AI擅長(cháng)于歸納性推理(考古),迅速找出事物幕后蘊藏的規律性。對于沒(méi)有經(jīng)歷過(guò)的未知事物通常是無(wú)法理解和判斷的。此外,因為AI沒(méi)有擬定(對未來(lái)的)假設或假說(shuō)(Hypothesis)的能力,而且它又沒(méi)有關(guān)于未來(lái)可變事物的數據。所以,AI對中長(cháng)期的未來(lái)事物變遷的預測能力卻非常薄弱。這些未知的、未來(lái)變遷的不確定的部分,都是AI不擅長(cháng)的。
在A(yíng)I時(shí)代里,AI負責考古和探索眼前事實(shí);人類(lèi)觀(guān)想未來(lái)和擬定假設性方案。AI的能力與人類(lèi)能力,形成互補,相輔相成,共同邁向人機共舞的社會(huì )。
參考文獻
[1] AI報道.從冰激凌實(shí)驗看懂AI(2019-12-10)[R/OL].https://baijiahao.baidu.com/s?id=1652513012407958900&wfr=spider&for=pc.
[2] AUAI[R/OL].http://www.auai.org/.
本文來(lái)源于科技期刊《電子產(chǎn)品世界》2020年第02期第88頁(yè),歡迎您寫(xiě)論文時(shí)引用,并注明出處。
評論