<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 深度學(xué)習“瓶頸”已至 計算機視覺(jué)如何突破困局?

深度學(xué)習“瓶頸”已至 計算機視覺(jué)如何突破困局?

作者: 時(shí)間:2019-02-14 來(lái)源:網(wǎng)絡(luò ) 收藏
編者按:近期,計算機視覺(jué)奠基者之一,霍金的弟子,約翰霍普金斯大學(xué)教授A(yíng)lan Yuille提出“深度學(xué)習在計算機視覺(jué)領(lǐng)域的瓶頸已至?!盇lan Yuille認為,現在做AI不提神經(jīng)網(wǎng)絡(luò ),成果都很難發(fā)表了,這不是一個(gè)好勢頭。如果人們只追求神經(jīng)網(wǎng)絡(luò )的潮流,拋棄所有老方法,也不去想如何應對深度網(wǎng)絡(luò )的局限性,那么這個(gè)領(lǐng)域可能很難有更好的發(fā)展。

  近期,奠基者之一,霍金的弟子,約翰霍普金斯大學(xué)教授A(yíng)lan Yuille提出“領(lǐng)域的瓶頸已至?!?/p>本文引用地址:http://dyxdggzs.com/article/201902/397542.htm

  從人工智能的發(fā)展過(guò)程看,是繼專(zhuān)家系統之后人工智能應用的又一重要研究領(lǐng)域,也是人工智能和神經(jīng)計算的核心研究課題之一。Alan Yuille認為,現在做AI不提神經(jīng)網(wǎng)絡(luò ),成果都很難發(fā)表了,這不是一個(gè)好勢頭。如果人們只追求神經(jīng)網(wǎng)絡(luò )的潮流,拋棄所有老方法,也不去想如何應對深度網(wǎng)絡(luò )的局限性,那么這個(gè)領(lǐng)域可能很難有更好的發(fā)展。

  確實(shí)是一個(gè)讓人向往的技術(shù),這無(wú)可辯駁。其實(shí),神經(jīng)網(wǎng)絡(luò )這個(gè)概念自上個(gè)世紀60年代就已經(jīng)出現了,只是因為最近在大數據、計算機性能上面出現的飛躍,使得它真正變得有用起來(lái),由此也衍生出來(lái)一門(mén)叫做“深度學(xué)習”的專(zhuān)業(yè),當前國內涉及領(lǐng)域中,越來(lái)越多的人工智能公司或者研究機構投身到“深度學(xué)習”的浪潮中了,國內誕生了如曠視科技、商湯科技、極鏈科技Video++、依圖科技等優(yōu)秀的初創(chuàng )AI企業(yè)。旨在將復雜的神經(jīng)網(wǎng)絡(luò )架構應用在數據建模上,最終帶來(lái)前所未有的準確性。

  現在的技術(shù)開(kāi)發(fā)成果也確實(shí)讓人印象深刻。計算機現在可以辨識圖片和視頻里的東西都是什么,可以將語(yǔ)音轉化成為文字,其效率已經(jīng)超過(guò)了人力范疇。Google也將GoogleTranslate服務(wù)中添加了神經(jīng)網(wǎng)絡(luò ),現在的機器學(xué)習在翻譯水平上已經(jīng)逐步逼近人工翻譯?,F實(shí)中的一些應用也讓人大開(kāi)眼界,就比如說(shuō)計算機可以預測農田作物產(chǎn)量,其準確性比美國農業(yè)部還高。機器還能更加精準的診斷癌癥,其準確度也比從醫多年的老醫師還要高。

  美國國防部高級研究計劃局的一名負責人John Lauchbury形容如今人工智能領(lǐng)域內存在著(zhù)三股浪潮:

  第一股浪潮:知識庫,或是類(lèi)似于IBM所開(kāi)發(fā)的“深藍”和Waston專(zhuān)家系統。

  第二股浪潮:數據學(xué)習,包括了機器學(xué)習和深度學(xué)習。

  第三股浪潮:情境適應,其中涉及通過(guò)利用少量數據,在現實(shí)生活中構建出一個(gè)可靠的,解釋型的模型。

  從這三股浪潮中,可以發(fā)現目前深度學(xué)習算法的研究工作進(jìn)展不錯。

  但深度學(xué)習的成果是建立在極其苛刻的前提條件之上。

  不管是“監督學(xué)習”,亦或者是“強化學(xué)習”,它們都需要大量的數據進(jìn)行支撐,而且在提前計劃上面表現的非常差,只能做某些最簡(jiǎn)單直接的模式辨認工作。

  相比之下,人就能夠從極少數的例子上學(xué)到有價(jià)值的信息,并且善于在時(shí)間跨度很長(cháng)的計劃,在針對某個(gè)情境上有能力自己建造一個(gè)抽象模型,并利用這樣的模型來(lái)做站在最高處的歸納總結。

  以自動(dòng)駕駛汽車(chē)為例,如果你是采用的“監督學(xué)習路徑”,那么你需要從汽車(chē)駕駛的情境中提取海量的數據,而且還要以明確標示出來(lái)的“動(dòng)作標簽”進(jìn)行分類(lèi)挑揀,比如“停止”“行駛”等。再接下來(lái),你還需要訓練一個(gè)神經(jīng)網(wǎng)絡(luò ),使得它能夠從眼下的情景和所與之相對應的行動(dòng)之間構建因果聯(lián)系。

  如果你是采用的“強化學(xué)習路徑”,那么你應該給算法一個(gè)目標,讓它能夠獨立地判斷當下最優(yōu)解是什么,電腦在不同的情境之下,為了實(shí)現避免撞車(chē)的這個(gè)動(dòng)作,它估計要宕機上幾千次。雖然現在已經(jīng)有了比較大的進(jìn)展,一些神經(jīng)網(wǎng)絡(luò )可以從數據層面,在相當大的樣本數量上給出一個(gè)驚人的成果,但是它們如果單獨拿出一個(gè)出來(lái),還是不可靠的,所犯的錯誤也是人一輩子都不可能犯的。

  數據質(zhì)量的不穩定性帶來(lái)的是不可靠、不準確,以及不公平。同樣,輸出的結果,還得取決于輸入的數據質(zhì)量如何。神經(jīng)網(wǎng)絡(luò )中如果輸入的數據是不準確的,不完整的,那么結果也會(huì )錯的離譜,有些時(shí)候會(huì )造成巨大的損失。不要小看這樣的風(fēng)險,錯誤的輸出可能會(huì )造成極大的危害,以GAN為例,有一些不軌之徒可以以一種人類(lèi)肉眼無(wú)法識別的方式篡改圖片,讓機器錯誤的辨識圖片。篡改的圖片和最初的圖片在我們看來(lái)可能是一致的,但是無(wú)人駕駛汽車(chē)中,汽車(chē)就會(huì )受到威脅。

  深度學(xué)習依然存在瓶頸,但目前它要發(fā)揮的作用所需要的前置條件太過(guò)苛刻,輸入數據對其最終的結果有著(zhù)決定性的影響。如果要真正達到理想中的人工智能,這些瓶頸還有待于人們的進(jìn)一步突破。



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>