<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 我們真的永遠也理解不了人工智能嗎?

我們真的永遠也理解不了人工智能嗎?

作者: 時(shí)間:2018-07-30 來(lái)源:網(wǎng)絡(luò ) 收藏

  美國科學(xué)雜志nautil.us《鸚鵡螺》作家Aaron M. Bornstein發(fā)表了針對時(shí)代下神經(jīng)網(wǎng)絡(luò )模型的深度報道。從語(yǔ)音識別到語(yǔ)言翻譯,從下圍棋的機器人到自動(dòng)駕駛汽車(chē),各行各業(yè)都在該的驅動(dòng)下出現了新的突破。雖然現代神經(jīng)網(wǎng)絡(luò )的表現令人激動(dòng),但也面臨一個(gè)棘手的問(wèn)題:沒(méi)人理解它們的運行機制,這也就意味著(zhù),沒(méi)人能預測它們何時(shí)可能失靈。正因為如此,許多人遲疑不前、不敢對神秘莫測的神經(jīng)網(wǎng)絡(luò )下注。

本文引用地址:http://dyxdggzs.com/article/201807/389720.htm


我們真的永遠也理解不了人工智能嗎?


  在神經(jīng)網(wǎng)絡(luò )中,數據從一層傳遞到另一層,每一步都經(jīng)歷一些簡(jiǎn)單的轉變。在輸入層和輸出層之間還隱藏著(zhù)若干層,以及眾多節點(diǎn)組和連接。其中往往找不出可被人類(lèi)解讀的規律,與輸入或輸出也沒(méi)有明顯的聯(lián)系?!吧疃取本W(wǎng)絡(luò )便是隱藏層數量較多的神經(jīng)網(wǎng)絡(luò )

  以下為文章全文:

  作為IBM的一名研究科學(xué)家,迪米特里·馬里奧托夫其實(shí)不太說(shuō)得上來(lái)自己究竟打造了什么。他的部分工作內容是打造機器學(xué)習系統、解決IBM公司客戶(hù)面臨的棘手問(wèn)題。例如,他曾為一家大型保險公司編寫(xiě)了一套程序。這項任務(wù)極具挑戰性,要用到一套十分復雜的算法。在向客戶(hù)解釋項目結果時(shí),馬里奧托夫更是大傷腦筋?!拔覀儧](méi)辦法向他們解釋這套模型,因為他們沒(méi)受過(guò)機器學(xué)習方面的培訓?!?/p>

  其實(shí),就算這些客戶(hù)都是機器學(xué)習專(zhuān)家,可能也于事無(wú)補。因為馬里奧托夫打造的模型為人工神經(jīng)網(wǎng)絡(luò ),要從特定類(lèi)型的數據中尋找規律。在上文提到的例子中,這些數據就是保險公司的客戶(hù)記錄。此類(lèi)網(wǎng)絡(luò )投入實(shí)際應用已有半個(gè)世紀之久,但近年來(lái)又有愈演愈烈之勢。從語(yǔ)音識別到語(yǔ)言翻譯,從下圍棋的機器人到自動(dòng)駕駛汽車(chē),各行各業(yè)都在該技術(shù)的驅動(dòng)下出現了新的突破。

  雖然現代神經(jīng)網(wǎng)絡(luò )的表現令人激動(dòng),但也面臨一個(gè)棘手的問(wèn)題:沒(méi)人理解它們的運行機制,這也就意味著(zhù),沒(méi)人能預測它們何時(shí)可能失靈。

  以機器學(xué)習專(zhuān)家里奇·卡魯阿納和同事們前幾年報告的一起事件為例:匹茲堡大學(xué)醫學(xué)中心的一支研究團隊曾利用機器學(xué)習技術(shù)預測肺炎患者是否會(huì )出現嚴重并發(fā)癥。他們希望將并發(fā)癥風(fēng)險較低的患者轉移到門(mén)診進(jìn)行治療,好騰出更多床位和人手。該團隊試了幾種不同的方法,包括各種各樣的神經(jīng)網(wǎng)絡(luò ),以及由軟件生成的決策樹(shù),后者可總結出清晰易懂、能被人類(lèi)理解的規則。


我們真的永遠也理解不了人工智能嗎?


  在現代機器學(xué)習算法中,可解釋性與精確度難以?xún)扇涿?。深度學(xué)習精確度最高,同時(shí)可解釋性最低

  神經(jīng)網(wǎng)絡(luò )的正確率比其它方法都要高。但當研究人員和醫生們分析決策樹(shù)提出的規則時(shí),卻發(fā)現了一些令人不安的結果:按照其中一條規則,醫生應當讓已患有哮喘的肺炎病人出院,而醫生們都知道,哮喘患者極易出現并發(fā)癥。

  這套模型完全遵從了指令:

  從數據中找出規律。它之所以給出了如此差勁的建議,其實(shí)是由數據中的一個(gè)巧合導致的。按照醫院政策,身患哮喘的肺炎患者需接受強化護理。而這項政策效果極佳,哮喘患者幾乎從不會(huì )產(chǎn)生嚴重并發(fā)癥。由于這些額外護理改變了該醫院的患者記錄,算法預測的結果也就截然不同了。

  這項研究充分體現了算法“可解釋性”的價(jià)值所在??敯⒓{解釋道:“如果這套以規則為基礎的系統學(xué)到了‘哮喘會(huì )降低并發(fā)癥風(fēng)險’這一規則,神經(jīng)網(wǎng)絡(luò )自然也會(huì )學(xué)到這一點(diǎn)?!钡祟?lèi)讀不懂神經(jīng)網(wǎng)絡(luò ),因此很難預知其結果。馬里奧托夫指出,若不是有一套可解釋的模型,“這套系統可能真的會(huì )害死人?!?/p>

  正因為如此,許多人遲疑不前、不敢對神秘莫測的神經(jīng)網(wǎng)絡(luò )下注。馬里奧托夫為客戶(hù)提供了兩套模型:一套是神經(jīng)網(wǎng)絡(luò )模型,雖然精確,但難以理解;另一套則是以規則為基礎的模型,能夠用大白話(huà)向客戶(hù)解釋運作原理。盡管保險公司對精確度要求極高,每個(gè)百分點(diǎn)都十分重要,但客戶(hù)仍選擇了精確度稍遜的第二套模型?!八麄冇X(jué)得第二套模型更容易理解,”馬里奧托夫表示,“他們非??粗刂庇^(guān)性?!?/p>

  隨著(zhù)神秘難解的神經(jīng)網(wǎng)絡(luò )影響力與日俱增,就連政府都開(kāi)始對其表示關(guān)注。歐盟兩年前提出,應給予公民“要求解釋”的權利,算法決策需公開(kāi)透明。但這項立法或許難以實(shí)施,因為立法者并未闡明“透明”的含義。也不清楚這一省略是由于立法者忽略了這一問(wèn)題、還是覺(jué)得其太過(guò)復雜導致。

  事實(shí)上,有些人認為這個(gè)詞根本無(wú)法定義。目前我們雖然知道神經(jīng)網(wǎng)絡(luò )在做什么(畢竟它們歸根到底只是電腦程序),但我們對“怎么做、為何做”幾乎一無(wú)所知。神經(jīng)網(wǎng)絡(luò )由成百上千萬(wàn)的獨立單位、即神經(jīng)元構成。每個(gè)神經(jīng)元都可將大量數字輸入轉化為單個(gè)數字輸出,再傳遞給另一個(gè)、或多個(gè)神經(jīng)元。就像在人腦中一樣,這些神經(jīng)元也分成若干“層”。一組細胞接收下一層細胞的輸入,再將輸出結果傳遞給上一層。


我們真的永遠也理解不了人工智能嗎?


  神經(jīng)網(wǎng)絡(luò )可通過(guò)輸入大量數據進(jìn)行訓練,同時(shí)不斷調整各層之間的聯(lián)系,直到該網(wǎng)絡(luò )計算后輸出的結果盡可能接近已知結果(通常分為若干類(lèi)別)。近年來(lái)該領(lǐng)域之所以發(fā)展迅猛,還要歸功于幾項可快速訓練深度網(wǎng)絡(luò )的新技術(shù)。在深度網(wǎng)絡(luò )中,初始輸入和最終輸出之間相隔多層。有一套叫AlexNet的著(zhù)名深度網(wǎng)絡(luò ),可對照片進(jìn)行歸類(lèi),根據照片的細微差別將其劃入不同類(lèi)別。該網(wǎng)絡(luò )含有超過(guò)6000萬(wàn)個(gè)“權重”,根據不同權重,神經(jīng)元會(huì )對每項輸入給予不同程度的關(guān)注。隸屬于康奈爾大學(xué)和AI初創(chuàng )公司Geometric Intelligence的計算機科學(xué)家杰森·尤辛斯基指出:“要想理解這個(gè)神經(jīng)網(wǎng)絡(luò ),你就要對這6000萬(wàn)個(gè)權重都有一定的了解?!?/p>

  而就算能夠實(shí)現這種可解讀性,也未必是件好事。對可解讀性的要求相當于制約了系統的能力,使模型無(wú)法僅關(guān)注輸入輸出數據、提供“純粹”的解決方案,從而有降低精確度之嫌。美國國防部高級研究計劃局項目主管戴維·甘寧曾在一次會(huì )議上對此進(jìn)行了總結。在他展示的圖表中,深度神經(jīng)網(wǎng)絡(luò )是現代機器學(xué)習方法中最難以理解的一種,而以規則為基礎、重視可解釋性勝過(guò)效率的決策樹(shù)則是最容易理解的一種。

  現代機器學(xué)習技術(shù)為開(kāi)發(fā)者提供了不同的選擇:究竟是要精確獲知結果,還是要以犧牲精確度為代價(jià)、了解出現該結果的原因?“了解原因”可幫助我們制定策略、做出適應、并預測模型何時(shí)可能失靈。而“獲知結果”則能幫助我們即刻采取恰當行動(dòng)。


我們真的永遠也理解不了人工智能嗎?


  這實(shí)在令人左右為難。但一些研究人員提出,如果既能保留深度網(wǎng)絡(luò )的多層構造、又能理解其運作原理,豈不是最好?令人驚奇的是,一些最受看好的研究所其實(shí)是將神經(jīng)網(wǎng)絡(luò )作為實(shí)驗對象看待的,即沿襲生物科學(xué)的思路,而不是將其視作純數學(xué)的研究對象。尤辛斯基也表示,他試圖“通過(guò)我們了解動(dòng)物、甚至人類(lèi)的方式來(lái)了解深度網(wǎng)絡(luò )?!彼推渌嬎銠C科學(xué)家借鑒了生物研究技術(shù),借神經(jīng)科學(xué)家研究人腦的方式研究神經(jīng)網(wǎng)絡(luò ):對各個(gè)部件展開(kāi)詳細分析,記錄各部件內部對微小輸入變化的反應,甚至還會(huì )移除某些部分、觀(guān)察其余部分如何進(jìn)行彌補。

  在從無(wú)到有地打造了一種新型智能之后,科學(xué)家如今又將其拆開(kāi),用數字形式的“顯微鏡”和“手術(shù)刀”對這些“虛擬器官”展開(kāi)分析。

  尤辛斯基坐在一臺電腦前、對著(zhù)網(wǎng)絡(luò )攝像頭說(shuō)話(huà)。攝像頭接收的數據被輸入深度神經(jīng)網(wǎng)絡(luò ),而與此同時(shí),該網(wǎng)絡(luò )也在由尤辛斯基和同事們開(kāi)發(fā)的Deep Visualization(深度可視化)軟件工具包進(jìn)行分析。尤辛斯基在幾個(gè)屏幕間來(lái)回切換,然后將網(wǎng)絡(luò )中的一個(gè)神經(jīng)元放大?!斑@個(gè)神經(jīng)元似乎能夠對面部圖像做出反應?!比四X中也有這種神經(jīng)元,其中多數都集中在一處名為“梭狀臉區”的腦區中。該腦區最早由1992年開(kāi)始的一系列研究發(fā)現,被視作人類(lèi)神經(jīng)科學(xué)最可靠的觀(guān)察結果之一。對腦區的研究還需借助正電子發(fā)射計算機斷層掃描等先進(jìn)技術(shù),但尤辛斯基只需憑借代碼、便可對人造神經(jīng)元展開(kāi)詳細分析。

  借助該方法,尤辛斯基可將特定的人造神經(jīng)元與人類(lèi)能理解的概念或物體(如人臉)建立起映射關(guān)系,從而將神經(jīng)網(wǎng)絡(luò )變?yōu)橛辛ぞ?。該研究還挑明了圖片中最容易激發(fā)面部神經(jīng)元反映的特征?!把劬︻伾缴?、嘴唇越紅,神經(jīng)元的反應就更為強烈?!?/p>

  杜克大學(xué)計算機科學(xué)、電子與計算機工程教授辛西婭·魯丁認為,這些“事后解讀”本身是有問(wèn)題的。她的研究重點(diǎn)為以規則為基礎的機器學(xué)習系統,可應用于罪犯量刑、醫療診斷等領(lǐng)域。在這些領(lǐng)域中,人類(lèi)能夠進(jìn)行解讀,且人類(lèi)的解讀十分關(guān)鍵。但在視覺(jué)成像等領(lǐng)域,“個(gè)人的解讀結果純屬主觀(guān)?!闭\然,我們可以通過(guò)識別面部神經(jīng)元、對神經(jīng)網(wǎng)絡(luò )的響應進(jìn)行簡(jiǎn)化,但如何才能確定這就是該網(wǎng)絡(luò )尋找的結果呢?無(wú)獨有偶,有一套著(zhù)名理論認為,不存在比人類(lèi)視覺(jué)系統更簡(jiǎn)單的視覺(jué)系統模型?!皩τ谝粋€(gè)復雜系統在做什么事情,可以有很多種解釋?zhuān)濒敹≈赋?,“難道從中選出一個(gè)你‘希望’正確的解釋就行了嗎?”

  尤辛斯基的工具包可以通過(guò)逆向工程的方式、找出神經(jīng)網(wǎng)絡(luò )自身“希望”正確的結果,從而在部分程度上解決上述問(wèn)題。該項目先從毫無(wú)意義的“雪花”圖像開(kāi)始,然后對像素進(jìn)行逐個(gè)調整,通過(guò)神經(jīng)網(wǎng)絡(luò )訓練的反向過(guò)程逐步修改圖片,最終找出能夠最大限度激發(fā)某個(gè)神經(jīng)元響應的圖片。將該方法運用到AlexNet神經(jīng)元上后,該系統生成了一些奇奇怪怪的照片,雖然看上去頗為詭異,但的確能看出屬于它們被標記的類(lèi)別。


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>