<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 人工智能入門(mén)基礎

人工智能入門(mén)基礎

作者: 時(shí)間:2017-10-24 來(lái)源:網(wǎng)絡(luò ) 收藏

  對領(lǐng)域來(lái)說(shuō),2016年是值得紀念的一年。不僅計算機「學(xué)」得更多更快了,我們也 懂得了如何改進(jìn)計算機系統。一切都在步入正軌,因此,我們正目睹著(zhù)前所未有的重大進(jìn)步:我們有了能用圖片來(lái)講故事的程序,有了無(wú)人駕駛汽車(chē),甚至有了能夠 創(chuàng )作藝術(shù)的程序。如果你想要了解2016年的更多進(jìn)展,請一定要讀一讀這篇文章。AI技術(shù)已逐步成為許多技術(shù)的核心,所以,理解一些常用術(shù)語(yǔ)和工作原理成為了一件很重要的事。

本文引用地址:http://dyxdggzs.com/article/201710/367893.htm

  是什么?

  的很多進(jìn)步都是新的統計模型,其中絕大多數來(lái)自于一項稱(chēng)作「人工神經(jīng)網(wǎng)絡(luò )」(artificial neural networks)的技術(shù),簡(jiǎn)稱(chēng)ANN。這種技術(shù)十分粗略地模擬了人腦的結構。值得注意的是,人工神經(jīng)網(wǎng)絡(luò )和神經(jīng)網(wǎng)絡(luò )是不同的。很多人為了方便起見(jiàn)而把 「人工神經(jīng)網(wǎng)絡(luò )」中的人工二字省略掉,這是不準確的,因為使用「人工」這個(gè)詞正是為了與計算神經(jīng)生物學(xué)中的神經(jīng)網(wǎng)絡(luò )相區別。以下便是真實(shí)的神經(jīng)元和神經(jīng)突 觸。

  

  我 們的ANN中有稱(chēng)作「神經(jīng)元」的計算單元。這些人工神經(jīng)元通過(guò)「突觸」連接,這里的「突觸」指的是權重值。這意味著(zhù),給定一個(gè)數字,一個(gè)神經(jīng)元將執行某種 計算(例如一個(gè)sigmoid函數),然后計算結果會(huì )被乘上一個(gè)權重。如果你的神經(jīng)網(wǎng)絡(luò )只有一層,那么加權后的結果就是該神經(jīng)網(wǎng)絡(luò )的輸出值?;蛘?,你也可 以配置多層神經(jīng)元,這就是深度學(xué)習的基礎概念。

  它們起源何處?

  人工神經(jīng)網(wǎng)絡(luò )不是一個(gè)新概念。事實(shí)上,它們過(guò)去的名字不叫神經(jīng)網(wǎng)絡(luò ),它們最早的狀態(tài)和我們今天所看到的也完全不一樣。20世紀60年代,我們把它稱(chēng)之為感知 機(perceptron),是由McCulloch-Pitts神經(jīng)元組成。我們甚至還有了偏差感知機。最后,人們開(kāi)始創(chuàng )造多層感知機,也就是我們今天 通常聽(tīng)到的人工神經(jīng)網(wǎng)絡(luò )。

  

  如果神經(jīng)網(wǎng)絡(luò )開(kāi)始于20世紀60年代,那為什么它們直到今天才流行起來(lái)?這是個(gè)很長(cháng)的故事,簡(jiǎn)單來(lái)說(shuō),有一些原因阻礙了ANN的發(fā)展。比如,我們過(guò)去的計算 能力不夠,沒(méi)有足夠多的數據去訓練這些模型。使用神經(jīng)網(wǎng)絡(luò )會(huì )很不舒服,因為它們的表現似乎很隨意。但上面所說(shuō)的每一個(gè)因素都在變化。如今,我們的計算機變 得更快更強大,并且由于互聯(lián)網(wǎng)的發(fā)展,我們可使用的數據多種多樣。

  它們是如何工作的?

  上面我提到了運行計算的神經(jīng)元和神經(jīng)突觸。你可能會(huì )問(wèn):「它們如何學(xué)習要執行何種計算?」從本質(zhì)上說(shuō),答案就是我們需要問(wèn)它們大量的問(wèn)題,并提供給它們答 案。這叫做有監督學(xué)習。借助于足夠多的「問(wèn)題-答案」案例,儲存在每個(gè)神經(jīng)元和神經(jīng)突觸中的計算和權值就能慢慢進(jìn)行調整。通常,這是通過(guò)一個(gè)叫做反向傳播 (backpropagation)的過(guò)程實(shí)現的。

  

  想象一下,你在沿著(zhù)人行道行走時(shí)看到了一個(gè)燈柱,但你以前從未見(jiàn)過(guò)它,因此你可能會(huì )不慎撞到它并「哎呦」慘叫一聲。下一次,你會(huì )在這個(gè)燈柱旁邊幾英寸的距離 匆匆而過(guò),你的肩膀可能會(huì )碰到它,你再次「哎呦」一聲。直到第三次看到這個(gè)燈柱,你會(huì )遠遠地躲開(kāi)它,以確保完全不會(huì )碰到它。但此時(shí)意外發(fā)生了,你在躲開(kāi)燈 柱的同時(shí)卻撞到了一個(gè)郵箱,但你以前從未見(jiàn)過(guò)這個(gè)郵箱,你徑直撞向它——「燈柱悲劇」的全過(guò)程又重現了。這個(gè)例子有些過(guò)度簡(jiǎn)化,但這實(shí)際上就是反向傳播的 工作原理。一個(gè)人工神經(jīng)網(wǎng)絡(luò )被賦予多個(gè)類(lèi)似案例,然后它試著(zhù)得出與案例答案相同的答案。當它的輸出結果錯誤時(shí),這個(gè)錯誤會(huì )被重新計算,每個(gè)神經(jīng)元和神經(jīng)突 觸的值會(huì )通過(guò)人工神經(jīng)網(wǎng)絡(luò )反向傳播,以備下次計算。此過(guò)程需要大量案例。為了實(shí)際應用,所需案例的數目可能達到數百萬(wàn)。

  既然我們理解了人工神經(jīng)網(wǎng)絡(luò )以及它們的部分工作原理,我們可能會(huì )想到另外一個(gè)問(wèn)題:我們怎么知道我們需要多少神經(jīng)元?為什么前文要用粗體標出「多層」一詞? 其實(shí),每層人工神經(jīng)網(wǎng)絡(luò )就是一個(gè)神經(jīng)元的集合。在為ANN輸入數據時(shí)我們有輸入層,同時(shí)還有許多隱藏層,這正是魔法誕生之地。最后,我們還有輸出 層,ANN最終的計算結果放置于此供我們使用。

  

  一 個(gè)層級本身是神經(jīng)元的集合。在多層感知機的年代,我們起初認為一個(gè)輸入層、一個(gè)隱藏層和一個(gè)輸出層就夠用了。那時(shí)是行得通的。輸入幾個(gè)數字,你僅需要一組 計算,就能得到結果。如果ANN的計算結果不正確,你再往隱藏層上加上更多的神經(jīng)元就可以了。最后我們終于明白,這么做其實(shí)只是在為每個(gè)輸入和輸出創(chuàng )造一 個(gè)線(xiàn)性映射。換句話(huà)說(shuō),我們了解了,一個(gè)特定的輸入一定對應著(zhù)一個(gè)特定的輸出。我們只能處理那些此前見(jiàn)過(guò)的輸入值,沒(méi)有任何靈活性。這絕對不是我們想要 的。

  如今,深度學(xué)習為我們帶來(lái)了更多的隱藏層,這是我們如今獲得了更好的ANN的原因之一,因為我們需要數百個(gè)節點(diǎn)和至少幾十個(gè)層級,這帶來(lái)了亟需實(shí)時(shí)追蹤的大 量變量。并行程序的進(jìn)步也使我們能夠運行更大的ANN批量計算。我們的人工神經(jīng)網(wǎng)絡(luò )正變得如此之大,使我們不能再在整個(gè)網(wǎng)絡(luò )中同時(shí)運行一次迭代。我們需要 對整個(gè)網(wǎng)絡(luò )中的子集合進(jìn)行批量計算,只有完成了一次迭代,才可以應用反向傳播。

  有幾種類(lèi)型?

  在今天所使用的深度學(xué)習中,人工神經(jīng)網(wǎng)絡(luò )有很多種不同的結構。典型的ANN中,每個(gè)神經(jīng)元都與下一層的每個(gè)神經(jīng)元相連接。這叫做前饋人工神經(jīng)網(wǎng)絡(luò )(盡管如 此,ANN通常來(lái)說(shuō)都是前饋的)。我們已經(jīng)知道,通過(guò)將神經(jīng)元與其他神經(jīng)元按特定模式相連接,在處理一些特定情景的問(wèn)題時(shí),我們就會(huì )得出更好的結論。

  1、遞歸神經(jīng)網(wǎng)絡(luò )

  遞歸神經(jīng)網(wǎng)絡(luò )(RNN)的設計初衷是為了解決神經(jīng)網(wǎng)絡(luò )不能基于過(guò)去知識做出決策的缺陷。典型的ANN已經(jīng)在訓練中學(xué)會(huì )了基于文本做出決策,但是一旦它開(kāi)始為實(shí)用做決策,這些決定之間就是彼此獨立的。

  

  一個(gè)遞歸神經(jīng)網(wǎng)絡(luò )

  為什么我們會(huì )想要這樣的東西?好吧,想一想玩21點(diǎn)游戲。如果一開(kāi)始你得到4和5,你就會(huì )知道2以下的牌都不在牌堆中。這種信息會(huì )幫助你決定是否要拿牌。 RNN在自然語(yǔ)言處理中十分有用,因為前文的字詞有助于理解文中其他詞語(yǔ)的含義。雖然有不同類(lèi)型的實(shí)現方式,但是目的都是一樣的。我們想要保留信息。為了 達到這一目的,我們可以通過(guò)雙向遞歸神經(jīng)網(wǎng)絡(luò )( bi-directional RNN)或執行一個(gè)能根據每次前饋來(lái)進(jìn)行調整的遞歸隱藏層。如果你想學(xué)習更多有關(guān)RNN的知識,可以查閱這篇博 客:http://karpathy.github.io/2015/05/21/rnn-effectiveness/。

  說(shuō)到這里,就不得不提到記憶網(wǎng)絡(luò )( Memory Networks),這一概念是說(shuō),如果我們想要理解諸如電影或者書(shū)中那些構筑于彼此之上的事件時(shí),就必須記住比一個(gè)RNN或LSTM(長(cháng)短期記憶人工神經(jīng)網(wǎng)絡(luò ),一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò ))更多的信息。

  Sam走進(jìn)廚房。

  Sam拿起蘋(píng)果。

  Sam走進(jìn)臥室。

  蘋(píng)果掉到了地上。

  問(wèn):蘋(píng)果在哪兒?

  答:臥室里。

  這是這篇論文(http://arxiv.org/pdf/1503.08895v5.pdf)中的例子。

  2、卷積神經(jīng)網(wǎng)絡(luò )

  卷積神經(jīng)網(wǎng)絡(luò )(CNN)有時(shí)被稱(chēng)為L(cháng)eNets(以Yann LeCun命名),是層間隨機相連的人工神經(jīng)網(wǎng)絡(luò )。然而,以這樣的方式設置突觸是為了有助于減少需要優(yōu)化的參數量。通過(guò)標記神經(jīng)元連接的某種對稱(chēng)性,你能 「重新使用」神經(jīng)元以得到完全相同的副本,而不需要同等數量的突觸。由于CNN能識別出周?chē)袼氐哪J?,因此它通常用于圖像處理。當你將某一像素與其周?chē)?的像素進(jìn)行比較時(shí),會(huì )包含冗余信息。由于存在對稱(chēng)性,你可以壓縮類(lèi)似信息。這聽(tīng)起來(lái)像是CNN的完美情況,Christopher Olah也有一篇關(guān)于理解 CNNs和其他類(lèi)型的ANNs的優(yōu)質(zhì)博客(http://colah.github.io/posts/2014-07-Conv-Nets- Modular/ )。還有一篇關(guān)于CNN的博客:http://www.wildml.com/2015/11/understanding- convolutional-neural-networks-for-nlp/ 。

  3、強化學(xué)習

  我想要探討的最后一種 ANN的類(lèi)型是強化學(xué)習(Reinforcement Learning)。強化學(xué)習是一個(gè)專(zhuān)業(yè)術(shù)語(yǔ),用來(lái)描述計算機在嘗試將某種回報最大化時(shí)所表現出來(lái)的行為,這意味著(zhù)它本身不是一個(gè)人工神經(jīng)網(wǎng)絡(luò )的結構。然 而,你能用強化學(xué)習或遺傳算法來(lái)構建你以前從沒(méi)想過(guò)要用的人工神經(jīng)網(wǎng)絡(luò )結構。 YouTube用戶(hù)SethBling上傳的用強化學(xué)習系統來(lái)構建可以自己玩Mario游戲的人工神經(jīng)網(wǎng)絡(luò )的視頻就是個(gè)很好的例子。

  另一個(gè)強化學(xué)習的例子是DeepMind公司的視頻中展示的能教程序玩各種Atari游戲。

  

  結論

  現在,你應該對目前最先進(jìn)的人工智能有了一定的了解。神經(jīng)網(wǎng)絡(luò )正在驅動(dòng)你能想到的幾乎所有事情,包括語(yǔ)言翻譯、動(dòng)物識別、圖片捕捉、文本摘要等等。在未來(lái),你將越來(lái)越多地聽(tīng)到它的名字。



關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>