《科學(xué)大家》專(zhuān)欄 | 如何創(chuàng )造可信的AI?
撰文:蓋瑞·馬庫斯 (Gary Marcus) 紐約大學(xué)心理學(xué)與認知科學(xué)教授、暢銷(xiāo)書(shū)作家;歐內斯特·戴維斯(Ernest Davis)紐約大學(xué)柯朗數學(xué)科學(xué)研究所計算機科學(xué)教授。人工智能領(lǐng)域科學(xué)家
本文引用地址:http://dyxdggzs.com/article/202007/416525.htm自從人工智能誕生之始,業(yè)界專(zhuān)家就一直愿景有余、落地不足。60年前,明斯基、麥卡錫等先驅人物曾篤信,AI 問(wèn)題將在20世紀末之前被徹底解決。明斯基有句廣為流傳的名言:“一代人之內,人工智能的問(wèn)題將在總體上得到解決?!?/p>
這些預言卻未能實(shí)現,而新畫(huà)的“大餅”卻層出不窮。2002年,未來(lái)學(xué)家雷·庫茲韋爾公開(kāi)斷言AI 將在2029 年之前“超越人類(lèi)本身的智慧”。2018 年11 月,著(zhù)名AI 研究機構OpenAI的聯(lián)合創(chuàng )始人伊利亞· 蘇茨科弗提出:“我們應嚴肅認真地考慮近期實(shí)現通用人工智能(AGI)的可能性?!?/p>
雖然從理論上講,庫茲韋爾和蘇茨科弗的預言有望實(shí)現,但可能性非常渺茫。我們距離具有人類(lèi)智能靈活性的通用人工智能僅積跬步,還需要大量的基礎性進(jìn)步。并且繼續復制目前的行業(yè)經(jīng)驗是遠遠不夠的。
即便并不是每個(gè)人都像庫茲韋爾和蘇茨科弗那樣積極樂(lè )觀(guān),但從醫療行業(yè)到無(wú)人駕駛汽車(chē)領(lǐng)域,各種野心勃勃的承諾依然隨處可見(jiàn)。
虎頭蛇尾的AI項目
2012 年,我們經(jīng)常聽(tīng)到人們談起“自動(dòng)駕駛汽車(chē)將在不久的將來(lái)成為現實(shí)”。2016 年,IBM 宣稱(chēng),在“Jeopardy !”智力問(wèn)答節目中奪魁的AI 系統沃森將會(huì )“在醫療行業(yè)掀起一場(chǎng)革命”。
2015 年,Facebook 啟動(dòng)了M 計劃。這是一個(gè)目標遠大、覆蓋范圍廣泛的聊天機器人項目,有能力應對你的每一種需求比如,比如預訂餐廳座位,或是規劃下一次度假旅行。
但直至今日,上述目標無(wú)一落實(shí)。
無(wú)人駕駛汽車(chē)也局限在高速公路環(huán)境中,還需要人類(lèi)司機就位才能保證安全。隨著(zhù)早期的樂(lè )觀(guān)態(tài)度逐漸冷卻,人們普遍認為,要達到真正的無(wú)人駕駛,尚需至少10 年的發(fā)展。
同樣,IBM 的沃森向醫療方向的轉型也冷卻了下來(lái)。當醫生將病人的胸痛癥狀告知沃森系統時(shí),沃森并沒(méi)有提出心臟病、心絞痛或主動(dòng)脈撕裂等可能的診斷。2016至2017 年,利用沃森開(kāi)展的關(guān)于腫瘤學(xué)、罕見(jiàn)病等合作項目被先后叫停。
沃森的問(wèn)題被曝光后不久,Facebook 的M計劃也被叫停。此時(shí)距離項目啟動(dòng)的時(shí)間還不到3 年。
即便如此,看好AI 的呼聲依然狂熱。谷歌前首席執行官施密特曾信心滿(mǎn)滿(mǎn)地宣布,AI 會(huì )解決氣候變化、貧困、戰爭和癌癥等諸多社會(huì )問(wèn)題。
還有些人因AI 的潛在危害而苦惱不已,而這些擔憂(yōu)與實(shí)際情況相去甚遠。亨利·基辛格在文章中稱(chēng),AI 的危險可能極其巨大,“人類(lèi)歷史可能重蹈印加人的覆轍,面對AI,就像印加人面對無(wú)法理解的西班牙文化一樣,甚至會(huì )對其產(chǎn)生崇拜和敬畏之心”。 埃隆·馬斯克曾提出警告,推進(jìn)AI 向前發(fā)展的行為無(wú)異于“召喚惡魔”,為人類(lèi)帶來(lái)“比核武器更恐怖”的危險。已故史蒂芬·霍金曾說(shuō)過(guò),AI 的發(fā)明可能是“人類(lèi)文明史上最可怕的事件”。
但是,他們所討論的AI 究竟是什么樣的AI ?
真的有可信的AI 嗎
人們之所以總是過(guò)高地估計AI 的實(shí)際能力,一部分原因在于媒體的夸張宣傳,濫用“歷史性突破”式的表述。技術(shù)報道的夸大其詞,會(huì )直接導致公眾形成AI成真近在咫尺的印象。而實(shí)際上,我們還有很漫長(cháng)的夜路要走。
從今往后,若再聽(tīng)說(shuō)某個(gè)成功的AI 案例,建議讀者提出以下6 個(gè)問(wèn)題:
1。 拋開(kāi)華而不實(shí)的文筆,此AI 系統究竟實(shí)際做到了哪些事?
2。 此成果的通用性有多強?(例如閱讀任務(wù),是能測量閱讀中的所有方面,還是只有其中的一小部分?)
3。 有沒(méi)有演示程序,能讓我用自己的例子來(lái)實(shí)驗一下?如果沒(méi)有,請保持懷疑態(tài)度。
4。 如果研究人員或媒體稱(chēng)此AI 系統強于人類(lèi),那么具體指哪些人類(lèi),強出多少?
5。 被報道的研究成果中所成功完成的具體任務(wù),實(shí)際上與真正的人工智能相距多遠?
6。 此系統的魯棒性如何?如果使用其他數據集,在沒(méi)有大規模重新訓練的情況下,是否還能成功?
狹義AI 與廣義AI
一言以蔽之,目前的AI 是在限制領(lǐng)域內專(zhuān)用的狹義AI,只能應用于其設計初衷所針對的特定任務(wù),前提是系統所遇到的問(wèn)題在算法預測的范圍內。這使得AI基本等同于數字化白癡專(zhuān)家:可以讀懂銀行支票、給照片打標簽、以世界冠軍的水準玩棋牌游戲,但也僅限于此。生活中,我們本想要的是能迅速執行指令、給孩子換尿布、給家人做飯的“機器人羅茜”,實(shí)際是扁圓形掃地機器人。
2018年春,當谷歌發(fā)布Duplex系統之時(shí),人們還在爭論計算機在打電話(huà)時(shí)是否應該主動(dòng)自報身份。但實(shí)際上,Duplex 的有效場(chǎng)景非常狹窄:預訂餐廳座位、跟發(fā)型師預約理發(fā)時(shí)間、查看某些商鋪的營(yíng)業(yè)時(shí)間。
狹義AI 正日新月異地發(fā)展。但AI 遠不止這么簡(jiǎn)單。
AI 應當能治愈癌癥、搞清楚大腦的工作方式、發(fā)明出新材料、提高農業(yè)和交通的效率、應對氣候變化?,F在與谷歌同屬一家母公司Alphabet 的DeepMind 曾有一句口號:“搞定智慧,然后用智慧搞定所有其他問(wèn)題?!?/p>
等到全能機器人管家真正到來(lái)的那一天,人們就可以從家務(wù)中解放雙手,殘障人士也有可靠的助手。機器人還能取代人類(lèi)從事危險工作,地下、水下、火災現場(chǎng)、坍塌建筑物、火山內部、出故障的核反應堆等場(chǎng)景。屆時(shí),因公致死事件將大幅減少,而采寶貴自然資源的能力將大幅提高。
現在仍然缺少一些重要的東西,僅靠狹義AI 是不夠的。
令人擔憂(yōu)的是,更多的權力還在不停地被交到不可靠的機器手中。這些機器不具備對人類(lèi)價(jià)值觀(guān)的理解,根本無(wú)法解決利害關(guān)系較大的問(wèn)題。
問(wèn)題核心在于“信任”。如今的狹義AI 系統只能按照編程邏輯工作,完成被程序員精準預期到的任務(wù)。如果狹義AI 系統給你推送了一條錯誤的廣告,影響不大。但如果AI 系統駕駛著(zhù)汽車(chē),全速撞向其數據庫中并不存在的外觀(guān)奇特的車(chē)輛,或是給癌癥病人下了錯誤的診斷呢?
如今的AI 界所普遍欠缺的是廣義AI(Broad AI),也就是“通用人工智能”。廣義AI 的目標,就是要像人類(lèi)一樣,有能力靈活適應這個(gè)本質(zhì)上疆域無(wú)限的世界。但廣義AI 領(lǐng)域的進(jìn)展要比狹義AI 緩慢許多。
真實(shí)生活沒(méi)有完美的數據庫能窮盡并預演生活中每種可能性及應對方式。舉例來(lái)說(shuō),擁有智慧的新聞閱讀系統,必須有能力掌握普通成年人的“常識”而不用新聞提及,比如“你能用螺絲刀擰緊螺絲” “手槍形狀的巧克力不能射出真正的子彈”。這種靈活性正是通用人工智能:普通人擁有的智能。這一點(diǎn)狹義AI的大數據“訓練”路徑無(wú)法企及。
狹義AI 領(lǐng)域的研究者常常會(huì )忽略現有數據庫之外的異常值(outliers)。但是,如何利用通用人工智能來(lái)應對開(kāi)放性的系統,而非利用專(zhuān)為封閉性系統設計的蠻力,才是行業(yè)發(fā)展的關(guān)鍵所在。
理想與現實(shí)之間的鴻溝
理想與現實(shí)之間,存在著(zhù)一個(gè)被稱(chēng)為AI 鴻溝的大坑。追根溯源,此大坑可一分為三。其中每一個(gè)都需要我們坦誠面對。
第一個(gè)坑,我們稱(chēng)之為“輕信坑”。人類(lèi)在進(jìn)化過(guò)程中,并沒(méi)有發(fā)展出在人類(lèi)和機器之間進(jìn)行區分的辨別能力。而機器的行為看起來(lái)總與人有所相似,所以人們會(huì )下意識從人類(lèi)的思維機制、認知的角度去看待機器。事實(shí)上,機器遵從的規則簡(jiǎn)單通透。從社會(huì )心理學(xué)角度看,此現象稱(chēng)為“基本超歸因錯誤”。
基本超歸因錯誤的早期案例之一,是60 年代中期一個(gè)名叫伊麗莎(Eliza)的聊天機器人。與之交流的人們總覺(jué)得它聽(tīng)懂了。事實(shí)上,它只是聯(lián)系前文在關(guān)鍵詞之間做了對應,當不知道該說(shuō)什么時(shí),它會(huì )說(shuō):“跟我講講你的童年時(shí)代?!比绻闾岬搅四赣H,它就會(huì )聊家庭,但卻不明白家庭概念與重要性,這并非真正的智能。
盡管如此,依舊有人會(huì )和伊麗莎一連聊好幾個(gè)小時(shí),誤以為它懂自己。用伊麗莎的創(chuàng )造者約瑟夫· 魏岑鮑姆(Joseph Weizenbaum)的話(huà)說(shuō):
人們本來(lái)對和機器對話(huà)這件事心知肚明,但很快就會(huì )將這一事實(shí)拋在腦后。就像去劇院看戲的人們一樣,在一環(huán)扣一環(huán)的情節渲染下,很快就會(huì )忘記他們眼前的一幕并非“真情實(shí)景”。人們常常要求和系統進(jìn)行私下交流,并且在交流一段時(shí)間之后,堅持認為此機器真的懂他們,無(wú)論我再怎么解釋也沒(méi)用。
第二個(gè)坑,我們稱(chēng)之為“虛幻進(jìn)步坑”:誤以為AI 解決了簡(jiǎn)單問(wèn)題,就是飛躍性進(jìn)步。沃森在Jeopardy !中獲勝就被認為在語(yǔ)言理解方面走出了一大步,正是這樣。
相比之下,現實(shí)中完美而清晰的模擬數據根本就不存在,也無(wú)法大量試錯,人們只能用有限的次數來(lái)嘗試不同策略。
第三個(gè)坑,就是我們所稱(chēng)的“魯棒坑”。在業(yè)界時(shí)常發(fā)生:每當AI 解決方案能在某些時(shí)候發(fā)揮作用,人們就會(huì )假定,只要再多一點(diǎn)數據,此系統就能在所有的時(shí)刻發(fā)揮作用。
在當下的AI 研究中,魯棒性未得到足夠重視。部分源于目前的研究領(lǐng)域的容錯率較高,比如廣告和商品推薦。但在無(wú)人駕駛汽車(chē)、老人照護、醫療規劃等領(lǐng)域中,魯棒性都至關(guān)重要。沒(méi)人會(huì )花錢(qián)買(mǎi)個(gè)只能以五分之四的概率將爺爺安全抱到床上的機器人管家。
就算是目前AI 最擅長(cháng)的領(lǐng)域,也潛藏危機。以圖像識別為例,很多時(shí)候AI不僅無(wú)法識別,還會(huì )犯低級錯誤。如果你給所謂的“自動(dòng)標題系統”看一張貼著(zhù)許多貼紙的停車(chē)標志,系統會(huì )錯誤地識別為“裝了許多食品和飲料的冰箱”。
沒(méi)人對這類(lèi)錯誤做任何解釋?zhuān)@并不少見(jiàn)。
同樣,無(wú)人駕駛汽車(chē)也不能百分百識別。比如特斯拉屢次撞向路邊的消防車(chē)。而對電網(wǎng)進(jìn)行控制或對公共健康進(jìn)行監查的系統,若出現類(lèi)似的盲點(diǎn),其后果更加危險。
如何跨越AI 鴻溝
若想跨越“AI 鴻溝”這個(gè)大坑向前走,我們需要做到三件事:搞清楚AI技術(shù)的利害關(guān)系;想明白當前的系統為什么解決不了問(wèn)題;找到新策略。
工作機會(huì )、人身安全、社會(huì )結構,這些都與AI 的發(fā)展息息相關(guān)。由此可見(jiàn),所有人都迫切需要緊跟AI 行業(yè)的最新進(jìn)展,都需要用批判的眼光去審視AI,區分宣傳與實(shí)情。
AI 前行的最佳方向,應在人類(lèi)心智的內在結構中尋找線(xiàn)索。它不必是人類(lèi)的完美復制品,但AI 依然有許多需要向人類(lèi)學(xué)習的地方,尤其要向極具吸收并理解新概念能力的小孩子學(xué)習。
計算機總被認為在某方面擁有“超人類(lèi)”能力,但人類(lèi)的大腦依然在5個(gè)基本方面令計算機望塵莫及:理解語(yǔ)言、周遭世界,靈活適應新環(huán)境,在沒(méi)有大數據時(shí)快速學(xué)習新事物、進(jìn)行推理。相比之下,行業(yè)對于制造“白板”機器的癡迷是一個(gè)嚴重的錯誤:這些機器完全依靠數據而非知識驅動(dòng)。
用不了多久,AI 就會(huì )像電力一樣普及到千家萬(wàn)戶(hù)。隨著(zhù)越來(lái)越多的權力被交給AI,人類(lèi)就要不斷提高警戒。沒(méi)有什么比修正AI 的前行方向更為緊迫的任務(wù)了。
也許只有搞明白人類(lèi)的大腦是如何做到這些的(不是深度學(xué)習擅長(cháng)的那種對相關(guān)性的搜尋),才能獲得AI 迫切需要的重啟契機,打造出深度、可靠、值得信任的AI 系統。
當下AI 的9 個(gè)風(fēng)險
當然,所有的技術(shù)都會(huì )出錯,就連人們最熟悉的古老技術(shù)也會(huì )出問(wèn)題。就在本書(shū)開(kāi)始撰寫(xiě)前不久,邁阿密的一處人行天橋在剛剛安裝好5 天之后便突然坍塌,奪去了6 個(gè)人的生命。盡管人類(lèi)在橋梁建設方面已經(jīng)積累了3000 多年的經(jīng)驗。
在人工智能從根本上得到重構和改進(jìn)之前,風(fēng)險無(wú)處不在。這里有9 個(gè)風(fēng)險是我們最擔心的。
第一個(gè)風(fēng)險是前文提到的基本超歸因錯誤。在A(yíng)I水平獲得大幅提升之前,我們需要時(shí)刻保持警醒,不能將太多的信任交到AI手中。
第二個(gè)風(fēng)險是魯棒性的缺失。要讓無(wú)人駕駛汽車(chē)具備隨機應變的能力,就要有更好的人工智能方法。
第三個(gè)風(fēng)險是,現代機器學(xué)習嚴重依賴(lài)于大量訓練集的精準細節,如果將這樣的系統應用于訓練過(guò)的特定數據集之外的全新問(wèn)題,就沒(méi)法用了。
第四個(gè)風(fēng)險是,盲目地過(guò)分依賴(lài)于數據,這也會(huì )導致過(guò)時(shí)的社會(huì )偏見(jiàn)長(cháng)期存在。2013 年,哈佛大學(xué)計算機科學(xué)家拉坦婭· 斯威尼發(fā)現,谷歌搜索典型黑人名字,會(huì )出現許多關(guān)于逮捕記錄信息查詢(xún)的廣告。但白人常用名,則沒(méi)有此類(lèi)情況。但迄今為止,還沒(méi)人找到針對此問(wèn)題的通用解決方案。
第五個(gè)風(fēng)險是,當代AI 對訓練集的嚴重依賴(lài),也會(huì )引發(fā)有害的回音室效應,系統最后會(huì )被自己之前產(chǎn)出的數據訓練。
第六個(gè)風(fēng)險是,有些程序依賴(lài)于公眾可任意操縱的數據,導致程序被愚弄。比如2018 年7 月,人們成功讓谷歌圖片對“白癡”一詞的搜索結果變成了特朗普的照片。
第七個(gè)風(fēng)險是,之前已經(jīng)存在的社會(huì )偏見(jiàn)再加上回音室效應,會(huì )進(jìn)一步加劇社會(huì )偏見(jiàn)的程度。例如根據歷史數據訓練的程序會(huì )建議在少數族裔社區配備更多警力、更快逮捕、判處更長(cháng)監禁。然后,該程序再去跑全新的數據,新數據會(huì )強化之前的判斷,而程序也會(huì )帶著(zhù)更強的信心,給出同一類(lèi)帶有偏見(jiàn)的推薦。
第八個(gè)風(fēng)險是,太容易落入錯誤目標的陷阱。比如程序員鼓勵踢足球的機器人以盡可能多的次數去觸碰足球。結果機器人站在球旁邊不停地快速抖動(dòng)。
第九個(gè)風(fēng)險是,由于A(yíng)I 的潛在影響范圍非常之廣,可能被人利用。惡意跟蹤者利用基礎AI 技術(shù)就能監控和操縱受害人。垃圾郵件傳播者一直利用AI 識別模糊的符號,繞開(kāi)網(wǎng)站用來(lái)區分人類(lèi)和機器的圖片驗證碼。
但我們認為,上述問(wèn)題中有很多是可以解決的,但現有技術(shù)還沒(méi)這個(gè)水平?,F如今的AI 被數據像奴隸一樣驅趕,對程序員和系統設計師希望其遵從的道德價(jià)值觀(guān)一無(wú)所知。但這并不意味著(zhù)未來(lái)所有的AI 也存在同樣的問(wèn)題。
這僅靠大數據,是辦不到的。只能逐一解決窄問(wèn)題的AI在需要應對核心問(wèn)題時(shí),只能繞道走。在迫切需要大腦移植手術(shù)時(shí),只給出創(chuàng )可貼。長(cháng)此以往,整個(gè)行業(yè)就會(huì )陷入永無(wú)休止的“打地鼠”大戰,用短期數據補丁來(lái)解決特定問(wèn)題。
誠然,最近幾年來(lái),AI的發(fā)展速度驚人。從下棋到語(yǔ)音識別再到人臉識別,AI 都取得了長(cháng)足的進(jìn)步。我們特別欣賞的一家名叫Zipline 的創(chuàng )業(yè)公司,用AI 技術(shù)引導無(wú)人機將血液送給非洲患者。這在幾年前還無(wú)法實(shí)現。
其中許多成功案例,大都得到了兩個(gè)因素的驅動(dòng):第一,硬件的進(jìn)步,通過(guò)讓許多機器并行工作,更大的內存和更快的計算速度成為現實(shí);第二,大數據,包含十億字節、萬(wàn)億字節乃至更多數據的巨大數據集。
和數據同時(shí)出現的,還有用于數據處理的算法—“深度學(xué)習”。深度學(xué)習是一種極其強大的統計引擎。從DeepMind的AlphaZero 和AlphaZeroa,到谷歌最近推出的對話(huà)和語(yǔ)音合成系統谷歌Duplex,其核心都是深度學(xué)習。在這些案例中,大數據、深度學(xué)習再加上速度更快的硬件,便是AI 的制勝之道。
什么是深度學(xué)習
深度學(xué)習基于兩個(gè)基本思想。第一個(gè)叫作分層模式識別,部分源于50年代的一系列實(shí)驗。休伯爾和維澤爾發(fā)現,視覺(jué)系統中的不同神經(jīng)元對視覺(jué)刺激有不同的反應方式。他們提出,針對復雜刺激的識別可能會(huì )通過(guò)一系列不斷提高的抽象層級實(shí)現,比如從線(xiàn)條到字母再到詞匯。
80年代,日本神經(jīng)網(wǎng)絡(luò )先鋒人物福島邦彥將上述思想在計算機實(shí)踐中落地,打造出了“神經(jīng)認知機”,并證明它可以用于計算機視覺(jué)的某些方面。這是AI史上的重要里程碑事件。
因為每個(gè)分層上所包含的“節點(diǎn)”,跟簡(jiǎn)化的神經(jīng)元略有相似,這種系統被叫作神經(jīng)網(wǎng)絡(luò )。節點(diǎn)之間的連接,被稱(chēng)為連接權值,簡(jiǎn)稱(chēng)權值。從節點(diǎn)A 到節點(diǎn)B 的連接權值越大,A 對B 的影響就越強。神經(jīng)網(wǎng)絡(luò )就是關(guān)于這些權值的一個(gè)函數。
第二個(gè)基本思想是學(xué)習。舉例來(lái)說(shuō),通過(guò)加強特定輸入配置對應特定輸出的權重,就能“訓練”一個(gè)網(wǎng)絡(luò )去學(xué)習將特定輸入與相應輸出聯(lián)系在一起。假設你想讓網(wǎng)絡(luò )學(xué)習像素網(wǎng)格上不同字母的名稱(chēng)。通過(guò)一系列試錯和調整,系統會(huì )逐漸開(kāi)始將網(wǎng)格上端的像素與諸如T 和E 這樣的字母聯(lián)系起來(lái),將左邊緣的像素與字母E、F 和H 聯(lián)系起來(lái),慢慢掌握不同位置上的像素與對應標簽之間的相關(guān)性。
在50年代,羅森布拉特已經(jīng)充分認識到這一思路的可行性,但囿于當時(shí)的網(wǎng)絡(luò )只有一個(gè)輸入層和一個(gè)輸出層,當時(shí)沒(méi)人能給出可行的解決方案。那時(shí)的原生態(tài)神經(jīng)網(wǎng)絡(luò ),只有輸入層(圖像)和輸出層(標簽),中間空無(wú)一物。
另一個(gè)重要思想由楊立昆在80年代后期提出,如今仍然被廣泛采用。這項技術(shù)叫作卷積。卷積能構建起一系列的連接,無(wú)論某物體出現在圖像的哪個(gè)位置,它依然能被系統識別出來(lái)。由此,卷積技術(shù)提升了物體識別系統的效率。
雖然從數學(xué)上看起來(lái)不錯,但當時(shí)卻沒(méi)有足夠說(shuō)服力。因為需要數量龐大到無(wú)法想象的節點(diǎn),而當時(shí)的計算機不可能在合理的時(shí)間之內完成所有計算。
這些問(wèn)題一直沒(méi)有行之有效的解決方案,直到GPU橫空出世。最終催化出這場(chǎng)深度學(xué)習革命的除了一些重要的技術(shù)調整之外,就是找到了高效利用GPU的辦法,用更多的分層打造出更為復雜的模型,實(shí)現利用4 層或更多,有時(shí)達到100 多層訓練網(wǎng)絡(luò )的深度學(xué)習。
深度學(xué)習取得了真正令人矚目的好成績(jì)?,F在只需幾小時(shí)或幾天的計算時(shí)間,系統便能得出優(yōu)異成果。深度學(xué)習在許多方面的使用過(guò)程中都更加輕松簡(jiǎn)易。從某種程度上說(shuō),深度學(xué)習在許多問(wèn)題上都可以在沒(méi)有大量特征工程的情況下正常工作。
而且深度學(xué)習擁有極高的通用性。深度學(xué)習能用已故藝術(shù)大師的風(fēng)格創(chuàng )造出合成藝術(shù),比如將你的風(fēng)景照片轉換為凡· 高風(fēng)格,能給老照片上色。
2016 年,著(zhù)名AI研究學(xué)者吳恩達曾在《哈佛商業(yè)評論》發(fā)表文章稱(chēng):“如果普通人能在不到一秒的時(shí)間內完成某一項腦力工作,那么我們很可能可以在現在或不遠的將來(lái)用AI 將其自動(dòng)化?!?/p>
深度學(xué)習的三個(gè)核心問(wèn)題
盡管事實(shí)證明深度學(xué)習比之前的任何一門(mén)技術(shù)都要強大得多,但人們似乎依舊對其期望過(guò)高。2012 年,馬庫斯以他十幾年前對深度學(xué)習上一代技術(shù)進(jìn)行的研究為基礎,在《紐約客》上發(fā)表了一篇文章,文中寫(xiě)道:
從現實(shí)角度來(lái)看,深度學(xué)習只不過(guò)攻克了智能機器這一巨大挑戰中的一小部分。深度學(xué)習這類(lèi)技術(shù)缺乏表示因果關(guān)系(例如疾病及其癥狀之間的關(guān)系)的方法,很可能在面對“兄弟姐妹”或“與之相同”等抽象概念時(shí)遇到問(wèn)題。深度學(xué)習無(wú)法進(jìn)行邏輯推理,在抽象知識的理解方面也有很長(cháng)一段路要走……
幾年之后,上述說(shuō)法依然適用。深度學(xué)習不是萬(wàn)能藥,依然與我們在開(kāi)放系統中需要的通用人工智能相去甚遠。
特別需要強調的是,深度學(xué)習面臨三個(gè)核心問(wèn)題,每一個(gè)問(wèn)題既會(huì )影響到深度學(xué)習自身,也會(huì )影響到嚴重依賴(lài)于深度學(xué)習的其他流行技術(shù),比如深度強化學(xué)習:
第一,深度學(xué)習是貪婪的。為了將神經(jīng)網(wǎng)絡(luò )中的所有連接都調校準確,深度學(xué)習常常需要大量的數據。AlphaGo 要下3000 萬(wàn)盤(pán)棋,才能達到超人類(lèi)的水平。如果數據量減少,深度學(xué)習的表現水平也會(huì )急轉直下。而相比之下,我們人類(lèi)在學(xué)習過(guò)程中并不需要這么多的數據。深度學(xué)習本質(zhì)上是無(wú)法做到這樣的快速學(xué)習的。
深度學(xué)習之所以搞不定語(yǔ)言和翻譯,就是因為帶有新意義的新句子層出不窮。你所面對的現實(shí)世界問(wèn)題與訓練系統所使用的數據相差越大,系統的可靠性就越低。
第二,深度學(xué)習是不透明的。神經(jīng)網(wǎng)絡(luò )由大量數值矩陣組合而成,其中任何一個(gè)矩陣都是普通人類(lèi)從直覺(jué)上無(wú)法理解的。就算利用復雜的工具,專(zhuān)業(yè)人士也很難搞明白神經(jīng)網(wǎng)絡(luò )決策背后的原因。神經(jīng)網(wǎng)絡(luò )究竟為何能做到這許多事情,至今仍然是一個(gè)未解之謎。人們也不知道神經(jīng)網(wǎng)絡(luò )在達不到既定目標時(shí),問(wèn)題究竟出在哪里。
事實(shí)上,神經(jīng)網(wǎng)絡(luò )如同“黑箱”一般,不管做什么,你只能看到結果,很難搞懂里面究竟發(fā)生了怎樣的過(guò)程。當我們對神經(jīng)網(wǎng)絡(luò )驅動(dòng)的無(wú)人駕駛汽車(chē)或家政機器人寄予厚望時(shí),這就是個(gè)非常嚴重的問(wèn)題。
深度學(xué)習的不透明,還有另一個(gè)問(wèn)題,就是深度學(xué)習與周遭世界的常識并不相符。若想要深度網(wǎng)絡(luò )搞明白“蘋(píng)果長(cháng)在樹(shù)上”,或是“蘋(píng)果從樹(shù)上掉下來(lái)的時(shí)候,會(huì )從上往下掉,而不是從下往上飛”,并不是件容易的事。搞明白小球是怎樣沿坡道下滑,順著(zhù)斜槽滾落到升降機上,更是不可能完成的任務(wù)。
第三,深度學(xué)習是脆弱的??捎糜谟夼疃染W(wǎng)絡(luò )的方法達數十種之多,這是長(cháng)期存在的問(wèn)題。麻省理工學(xué)院的研究團隊就設計出了一只三維海龜,被深度學(xué)習系統錯認成來(lái)復槍。
將海龜放到水下環(huán)境也沒(méi)能改變錯誤結果,即便來(lái)復槍一般不會(huì )出現在水下。該團隊又在棒球上涂了點(diǎn)肥皂泡,放在棕色的棒球手套中,不論什么角度都會(huì )被識別錯成一杯濃縮咖啡。
另一個(gè)團隊在圖片的小角落里不顯眼地加了些隨機小補丁,小豬存錢(qián)罐就被錯認成了“虎斑貓”。
還有一個(gè)團隊將帶有迷幻風(fēng)格圖案的杯墊放到香蕉旁邊,就能愚弄系統,令其認為畫(huà)面中只有一個(gè)杯墊,而不是香蕉旁邊放著(zhù)一個(gè)小杯墊。如果這是個(gè)小孩子得出的結果,家長(cháng)一定會(huì )帶孩子去看醫生了。
還有這個(gè)被蓄意篡改的停車(chē)標志,被深度學(xué)習系統錯認為限速標志。
到了語(yǔ)言領(lǐng)域,深度學(xué)習犯下的錯誤就更加稀奇古怪了。斯坦福大學(xué)計算機科學(xué)家羅賓· 賈(Robin Jia)和珀西· 梁針對斯坦福問(wèn)答數據庫任務(wù)系統進(jìn)行了研究。深度學(xué)習會(huì )嘗試回答有關(guān)文本內容的問(wèn)題。給出以下文本:
佩頓·曼寧成為史上首位帶領(lǐng)兩只不同球隊參加多次超級碗比賽的四分衛。他在39 歲時(shí)參賽,成為超級碗歷史上最年長(cháng)的四分衛。之前的紀錄由約翰·埃爾韋保持,他在38 歲時(shí)帶領(lǐng)野馬隊在第33 屆超級碗比賽中獲勝。目前,他是丹佛市的橄欖球運營(yíng)執行副總裁兼總經(jīng)理。
問(wèn)題:第33 屆超級碗中38 歲的四分衛叫什么名字?
一個(gè)深度學(xué)習正確地給出了“約翰· 埃爾韋”的答案。到目前為止一切正常。但是,賈和梁在這一段話(huà)后加了一句無(wú)關(guān)信息:“四分衛杰夫· 迪恩在第34 屆冠軍碗中的球衣號碼是17 號?!敝笤偬岢鐾粏?wèn)題,系統卻給出了杰夫· 迪恩作為答案,而非約翰· 埃爾韋。系統的表現,完全沒(méi)有顯現出對任何一句的真正理解。
還有一項研究發(fā)現,用說(shuō)了一半的問(wèn)題去愚弄回答問(wèn)題的系統,簡(jiǎn)直輕而易舉。深度學(xué)習依賴(lài)于相關(guān)性,而非真正的理解。舉例來(lái)說(shuō),如果你問(wèn)系統“有多少”,就能得到答案“2”;如果你問(wèn)“什么運動(dòng)”,就能得到答案“網(wǎng)球”。就這樣和系統互動(dòng)一段時(shí)間,你就能感覺(jué)到自己面對的是一堆精心制作的小伎倆,而非真實(shí)的智能。
機器翻譯的表現更加離譜。如果在谷歌翻譯中輸入“dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog”,要求從約魯巴語(yǔ)(或其他一些語(yǔ)言)翻譯成英文,便會(huì )得到以下翻譯:
世界末日時(shí)鐘是差三分十二點(diǎn)。我們正在經(jīng)歷世界上角色的戲劇性發(fā)展,這表明我們越來(lái)越接近末日和耶穌的回歸。
歸根結底,深度學(xué)習不夠深刻。 “深度”二字,指的是神經(jīng)網(wǎng)絡(luò )中分層的數量,除此之外別無(wú)其他,這個(gè)詞并不意味著(zhù)系統能領(lǐng)會(huì )其所見(jiàn)數據中的豐富概念。
深度學(xué)習是一個(gè)“美好”的悲劇
那么,既然存在這么多問(wèn)題,為什么還有那么多人對深度學(xué)習狂熱追捧呢?因為它在處理大規模數據集的統計近似問(wèn)題時(shí)非常有效,而且還能一鍵解決非常多的問(wèn)題。同時(shí),深度學(xué)習有著(zhù)很高的商業(yè)價(jià)值。
有所成就并不意味著(zhù)深度學(xué)習的行為背后存在一個(gè)真正的智能。
深度學(xué)習是與人類(lèi)思想有著(zhù)天壤之別的怪獸。它可以成為擁有神奇感知能力的白癡天才,但幾乎不具備綜合理解能力。能語(yǔ)音識別和物體識別的系統充其量不過(guò)是智能的片段而已。若想獲得真正的智能,還需要推理能力、語(yǔ)言能力和類(lèi)比能力,沒(méi)有一個(gè)是當前技術(shù)所能掌握的,因為系統本身的模式分類(lèi)能力并不足以完成這項任務(wù)。
大眾媒體對深度學(xué)習的描述和吹捧會(huì )令人產(chǎn)生誤解。這也讓深度學(xué)習成了一個(gè)“美好”的悲劇。之所以悲劇,是因為無(wú)法保證現實(shí)世界中的系統正確應對迫切需求,更不能保證在系統犯錯時(shí)能找出癥結,排除故障。從某種角度來(lái)看,深度學(xué)習更像是一門(mén)藝術(shù),而非科學(xué)。
如今的現實(shí)情況,就好像有人發(fā)明了電動(dòng)螺絲刀,整個(gè)社會(huì )便立刻覺(jué)得星際旅行指日可待。
人工智能> 機器學(xué)習> 深度學(xué)習
讓機器通過(guò)統計學(xué)方法利用數據進(jìn)行學(xué)習,有許多不同的思路。深度學(xué)習本身只不過(guò)是其中一種。
深度學(xué)習、機器學(xué)習和人工智能之間的關(guān)系,可以通過(guò)下面這張維恩圖來(lái)形象描述:
深度學(xué)習是目前AI 領(lǐng)域中最受學(xué)術(shù)界和產(chǎn)業(yè)界關(guān)注、獲得投資最多的一類(lèi)。但是,深度學(xué)習既非機器學(xué)習唯一的方法,更非AI 唯一的方法。舉例來(lái)說(shuō),機器學(xué)習的一種方法是建立決策樹(shù),基本就是像下面這種簡(jiǎn)單的數據分類(lèi)規則組成的系統:
機器學(xué)習還有一門(mén)技術(shù)是支持向量機,將數據組織為復雜而抽象的超級立方體。21 世紀第一個(gè)10 年間,支持向量機曾在機器學(xué)習界占據主宰地位,被人們用來(lái)計算從新聞標題到蛋白質(zhì)結構等五花八門(mén)的各種東西。概率模型是對各種答案存在的可能性進(jìn)行計算,并給出其認為可能性最大的一個(gè)。這種方法是IBM 沃森取得成功的關(guān)鍵所在,很有可能會(huì )繼續發(fā)揮影響力。
還有一種方法稱(chēng)為遺傳算法,是一種基于進(jìn)化過(guò)程的模型。研究人員對不同的算法進(jìn)行嘗試,并制造某種形式的“突變”。適者生存,生息繁衍。從設計無(wú)線(xiàn)電天線(xiàn)到玩視頻游戲等各個(gè)應用領(lǐng)域,遺傳算法都有用武之地,在某些領(lǐng)域還取得了與深度學(xué)習并駕齊驅的傲人成績(jì)。諸如此類(lèi)的算法還有很多,我們不在此一一列舉。
機器也會(huì )犯錯
數字化助理的確有用,但如果不小心記錯關(guān)鍵會(huì )議時(shí)間,就捅了大婁子。隨著(zhù)行業(yè)的發(fā)展,機器人管家是必然趨勢,但要確保此機器人每一次執行任務(wù)都保證能成功,而不是前9 次成功,第10 次在廚房里釀成火災。我們越是依賴(lài)于機器,它們犯下的錯誤就越是事關(guān)重大。
還有一個(gè)亟待解決的問(wèn)題,就是機器在面對人類(lèi)的弦外之音甚至含混不清的表達時(shí),必須能對人類(lèi)意圖進(jìn)行準確推測。一方面,存在只會(huì )聽(tīng)從主人指示字面的“糊涂女傭”問(wèn)題。如果你早上出門(mén)前跟清潔機器人說(shuō)“將客廳的東西收到衣柜里”,回家一看,客廳里的每一樣東西都被裝進(jìn)了衣柜里,而且為了能裝進(jìn)去,電視、家具和地毯還被分拆成了小塊。
在護理有認知障礙的老年人時(shí),問(wèn)題就更大了。如果爺爺一時(shí)口誤,讓機器人將晚餐倒進(jìn)垃圾堆里,系統應該有能力判斷這是否是句糊涂話(huà)??傊?,我們希望機器人和AI 能認真對待我們的指令,但不要一味聽(tīng)從字面指令。
機器人有暴力傾向嗎
史蒂芬·平克曾說(shuō)過(guò):“擁有超級智慧的機器人令人類(lèi)淪為奴隸”的想法,就如同“因為飛機比老鷹飛得更高更遠,所以有朝一日飛機會(huì )從天而降抓走牛羊”的想法一樣荒誕不經(jīng)。此謬誤將智慧與動(dòng)機混為一談。因為智慧,是利用新穎的方法達到目標的能力。但聰明并不等同于有欲望。
若要征服世界,機器人首先要有力爭上游、野心勃勃、永不知足的性格,還要有暴力傾向。至今為止的機器人都沾不上邊。目前也沒(méi)有理由去打造一款帶有情緒狀態(tài)的機器人,就算想為機器人賦予情緒,也無(wú)從下手。人類(lèi)可能會(huì )利用諸如欲求不滿(mǎn)等情緒作為奮發(fā)努力的工具,但機器人不需要任何此類(lèi)工具,也能準時(shí)準點(diǎn)地開(kāi)工干活。機器人只會(huì )去做人們讓它們做的事情。
我們毫不懷疑,有朝一日機器人一定會(huì )擁有足夠強大的體力和智力,強大到完全能與人類(lèi)抗衡。但至少在可以預見(jiàn)的未來(lái),還找不到任何機器人想要造反的理由。
評論