<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 人工智能誕生60周年 展望機器學(xué)習的未來(lái)發(fā)展

人工智能誕生60周年 展望機器學(xué)習的未來(lái)發(fā)展

作者: 時(shí)間:2017-04-11 來(lái)源:物聯(lián)網(wǎng)在線(xiàn) 收藏
編者按:在最近十年,隨著(zhù)大數據和云計算(大規模計算)的發(fā)展,機器學(xué)習進(jìn)入了發(fā)展的黃金期。2016年12月17日,在2016機器智能前沿論壇上,中外專(zhuān)家探討了機器學(xué)習的未來(lái)發(fā)展與展望。

  1952年,Arthur Samuel在IBM公司研發(fā)了一款西游跳棋程序,這個(gè)程序具有自學(xué)習能力,可以通過(guò)對大量棋局的分析逐漸辨識出每一棋局中的“好棋”與“壞棋”,從而不斷提高機器的跳棋水平并很快下贏(yíng)了Samuel自己。1956,也就是在60年前的達特茅斯會(huì )議上,Samuel介紹了自己的這項工作,并發(fā)明了“”一詞。

本文引用地址:http://dyxdggzs.com/article/201704/346438.htm

  在計算科學(xué)歷史上,“”有著(zhù)多種定義,普遍的觀(guān)點(diǎn)認為“”就是計算機利用數據和“經(jīng)驗”來(lái)改善算法系統自身的性能。斯坦福大學(xué)對機器學(xué)習的定義是在沒(méi)有明確編程指令的情況下,讓計算機自行采取行動(dòng)的科學(xué)。通過(guò)已有數據產(chǎn)生“學(xué)習算法”模型后,再應用到新的數據集上,從而對新的情況做出策略性判斷,這就是所謂“預測”??梢哉f(shuō),機器學(xué)習是關(guān)于“學(xué)習算法”的科學(xué),而則是研究開(kāi)發(fā)具有智能的機器。

  2016年是誕生60周年。在最近十年,隨著(zhù)大數據和云計算(大規模計算)的發(fā)展,機器學(xué)習進(jìn)入了發(fā)展的黃金期。2016年12月17日,在2016機器智能前沿論壇上,中外專(zhuān)家探討了機器學(xué)習的未來(lái)發(fā)展與展望。

  機器學(xué)習進(jìn)入發(fā)展黃金期

  傳統意義來(lái)說(shuō)來(lái),人工智能分兩步:一是對數據的表示和表達,二是通過(guò)算法達到預測和決策的過(guò)程。傳統人工智能是基于語(yǔ)義的方式實(shí)現數據的表示或表達,而從數據表示到預測往往是通過(guò)基于規則的邏輯推理,一個(gè)典型代表就是專(zhuān)家系統,這也是第一代機器學(xué)習。

  對于第一代機器學(xué)習來(lái)說(shuō),規則的定義十分重要,一旦規則定義不準確或有問(wèn)題,將導致不正確的邏輯推理。此外,基于規則的模型對于淺層推理有效,但沒(méi)法用來(lái)進(jìn)行深層次的推理。因此,也就發(fā)展出了第二代機器學(xué)習,即基于統計模型的機器學(xué)習。

  在南京大學(xué)周志華教授的《機器學(xué)習》一書(shū)中,對于機器學(xué)習的發(fā)展階段和歷史有更為細分的劃分與相應的算法介紹。實(shí)際上,在二十世紀90年代中期,“統計學(xué)習”開(kāi)始登上歷史的舞臺并迅速成為主流,代表技術(shù)即為Support Vector Machine(SVM,支持向量機)以及Kernel Methods等。而統計學(xué)習成為主流,則是因為前期的神經(jīng)元網(wǎng)絡(luò )研究出現瓶頸后(主要是因為當時(shí)的參數設置以手工為主),學(xué)者們才把注意力轉向了統計學(xué)習。

  隨著(zhù)統計學(xué)習的興起,出現了機器學(xué)習的黃金十年。統計學(xué)習不僅被用于算法建模,還被用于數據的表示與表達,這樣就弱化了對于相關(guān)背景知識的要求。比如計算機視覺(jué)和圖像研究屬于計算機科學(xué)領(lǐng)域,其背景知識比較容易獲取,而自然語(yǔ)言處理則需要英文或中文的語(yǔ)言學(xué)知識,這對于計算機專(zhuān)家來(lái)說(shuō)就有難度了。

  在更為廣泛的應用領(lǐng)域,統計模式識別正在取代用于數據表達的專(zhuān)家規則,從而降低了人工智能和機器學(xué)習的入門(mén)門(mén)檻。這樣,從數據表示到學(xué)習算法再到推理預測,就都可以全部用機器學(xué)習算法實(shí)現,這就進(jìn)入了第三代機器學(xué)習階段,即從數據直接到智能的端到端的機器學(xué)習。當然,隨著(zhù)大數據和云計算的出現,以復雜神經(jīng)元網(wǎng)絡(luò )為代表的深度學(xué)習也可以用于數據表示與表達。

  可以看到,面向數值計算的統計學(xué)習和以神經(jīng)元網(wǎng)絡(luò )為代表的深度學(xué)習是現代人工智能的兩個(gè)主要分支。而在大數據+云計算的時(shí)代,這兩大分支都進(jìn)入了新的發(fā)展黃金期。

  對抗網(wǎng)絡(luò )和對偶學(xué)習

  由前述可知,機器學(xué)習分為三個(gè)階段,即第一階段的數據獲取與生成、第二階段的學(xué)習算法和第三階段的推理預測。在大數據與云計算的前提下,這三個(gè)階段有著(zhù)新的發(fā)展。

  在數據獲取與生成階段,最新的研究發(fā)向就是用對抗網(wǎng)絡(luò )來(lái)產(chǎn)生更多的數據。也就是說(shuō),如果在現實(shí)世界無(wú)法獲得更多數據的前提下,就用機器學(xué)習算法來(lái)模擬更多的現實(shí)世界的數據,以供后續“訓練”學(xué)習算法之用。

  所謂生成模型(Generative Model)是對數據的建模,即用大量數據來(lái)訓練這個(gè)模型,以期望這個(gè)模型能產(chǎn)生更多類(lèi)似的數據。常見(jiàn)的生成方法有混合高斯模型、樸素貝葉斯法和隱形馬爾科夫模型等等。以混合高斯模型為例,該方法雖然有強大的逼近數據分布的能力,是非常適合概率密度估計的建模方法,但該方法不足以刻畫(huà)復雜的數據,因此要用到神經(jīng)元網(wǎng)絡(luò )。

  對于可以產(chǎn)生數據的神經(jīng)元網(wǎng)絡(luò )來(lái)說(shuō),如何訓練它而使得產(chǎn)生的數據更接近真實(shí)數據?這就出現了生成對抗網(wǎng)絡(luò )(Generative Adversarial Network,GAN)。比如用一個(gè)神經(jīng)元網(wǎng)絡(luò )來(lái)產(chǎn)生數據,再用另一個(gè)神經(jīng)元網(wǎng)絡(luò )來(lái)判別數據是否為真實(shí),再通過(guò)兩個(gè)網(wǎng)絡(luò )的結果差異來(lái)優(yōu)化數據生成模型。在著(zhù)名的AlphaGO的訓練算法中,也采用了類(lèi)似的概念來(lái)生成用于訓練計算機的新棋局,從而實(shí)現自對弈。

  對于基于深度神經(jīng)元網(wǎng)絡(luò )的生成網(wǎng)絡(luò )來(lái)說(shuō),一個(gè)可以改進(jìn)之處就是如何利用大量未標注的真實(shí)數據。因為在訓練神經(jīng)元網(wǎng)絡(luò )的時(shí)候,需要大量人工標注的數據,用以訓練算法,比如標注一幅圖為“花卉”。清華大學(xué)副教授、卡耐基梅隆大學(xué)兼職教授朱軍介紹了多種利用未標注數據的方法。

  朱軍還特別介紹一種引入了“Attention聚焦”和“Memory記憶”機制的生成網(wǎng)絡(luò ),用于根據有限的高度抽象的參數來(lái)生成接近真實(shí)的數據。比如在生成新圖像的過(guò)程中,原有的神經(jīng)元網(wǎng)絡(luò )模型對真實(shí)的圖像參數進(jìn)行了高度抽象,在這個(gè)過(guò)程中損失了很多細節數據,在使用另一個(gè)神經(jīng)元網(wǎng)絡(luò )生成新圖像的過(guò)程中,如果只采用高度抽象后的圖像參數,就無(wú)法表達更多的圖像細節。因此,在前期學(xué)習真實(shí)圖像數據的過(guò)程中,可以引入了“Memory記憶”機制,把一些圖像細節數據存儲起來(lái),用于后續生成更接近真實(shí)的圖像。

  除了在數據生成環(huán)節需要克服未標注數據的局限外,在整個(gè)端到端的機器學(xué)習算法過(guò)程中,也需要利用未標注數據。這也就是說(shuō)在機器學(xué)習的訓練學(xué)習算法和預測推理階段,如何利用大量利用未標注數據。微軟亞洲研究院首席研究員劉鐵巖介紹了對偶學(xué)習,它一方面可讓有監督學(xué)習和無(wú)監督學(xué)習算法大量利用未標注數據,另一方面也可以提高增強學(xué)習算法的學(xué)習速度。

  所謂對偶學(xué)習(Dual Learning),就是利用兩個(gè)對偶的任務(wù)形成一個(gè)閉環(huán)反饋系統,從而得以從未標注的數據上獲得反饋信息,進(jìn)而利用該反饋信息提高對偶任務(wù)中的兩個(gè)機器學(xué)習模型。舉例來(lái)說(shuō),兩個(gè)對偶任務(wù)可以是中翻英和英翻中,這涉及到了兩個(gè)機器學(xué)習模型,對偶學(xué)習的過(guò)程就是先把一句話(huà)從中文翻譯成英文、再從英文翻譯成中文,之后再比較生成的中文與原始中文之間的差異,從而提高兩個(gè)機器學(xué)習模型的性能。在這種場(chǎng)景下,其實(shí)不需要標注數據,即不需要知道生成中文句子的“對”與“錯”,只需要知道生成后的中文句子與原始中文句子的差異,即可優(yōu)化算法模型。

  深度問(wèn)答的挑戰

  自從2011年IBM Watson在智力競賽電視節目《危險邊緣》(Jeopardy!)中獲勝后,深度問(wèn)答作為人工智能和機器學(xué)習的一個(gè)重要應用場(chǎng)景,就引起了全世界廣泛的關(guān)注。深度問(wèn)答不僅涉及到自然語(yǔ)言理解(NLP),還涉及到對于問(wèn)題的分析與理解、候選答案的評估以及選擇策略、快速檢索與搜索等技術(shù)。

  人機問(wèn)答最早可以追溯到圖靈測試,圖靈測試就是以問(wèn)答的形式進(jìn)行的。到了1960年前后出現了基于模板的QA(Template-based QA)、1990年前后出現的基于信息檢索的QA(IR-based QA)、2000年前后出現的基于社區的QA(Community-based QA)和基于大規模知識庫的QA(Large Scale KB-based QA),以及今天的閱讀理解式QA。

  中科院自動(dòng)化所副研究員劉康著(zhù)重介紹了基于知識庫的深度語(yǔ)義解析和閱讀理解式深度語(yǔ)義理解與知識推理。在基于知識庫的QA中,核心問(wèn)題在于如何解決問(wèn)題文本到知識庫之間的映射關(guān)系,特別是要消除歧義?,F代機器學(xué)習方法要解決的問(wèn)題,就是對問(wèn)題文本和知識庫的知識分別進(jìn)行分布式表達或建模,然而再在二者之間再建立起基于深度神經(jīng)元網(wǎng)絡(luò )的對應關(guān)系模型,從而實(shí)現精準的映射。而為什么要對問(wèn)題和知識都進(jìn)行分布式建模,原因主要是現代互聯(lián)網(wǎng)上的信息是海量的,因此理解問(wèn)題文本和理解知識都需要大規模分布式建模。

  閱讀理解式QA是另一種形式的問(wèn)答。所謂閱讀理解式QA就是給定一段話(huà),然后根據這段話(huà)的信息來(lái)回答問(wèn)題。這其實(shí)需要綜合一段話(huà)中的幾句,然后進(jìn)行深度推理和聯(lián)合推理。目前的深度學(xué)習方式還不能解決知識推理的挑戰,也不能代替傳統人工智能中基于符號的邏輯推理。另外,在解決閱讀理解的難題中,其實(shí)還需要常識知識,然而常識知識的邊界在哪里?常識知識是否會(huì )隨著(zhù)時(shí)間而發(fā)生變化?這些都是閱讀理解式QA的挑戰。

  劉康認為,現在的深度問(wèn)答正從傳統的符號信息檢索匹配到深度語(yǔ)義理解的變化中,需要對文本內容精準的理解,推理也變得越來(lái)越重要,同時(shí)問(wèn)答的過(guò)程還需要知識庫、特別是常識知識庫的支持。此外,在開(kāi)放環(huán)境中,用戶(hù)的問(wèn)題復雜多樣,單一知識庫往往不足以滿(mǎn)足用戶(hù)的問(wèn)題,還需要多個(gè)知識源的聯(lián)合與綜合利用。

  科學(xué)家、頭條實(shí)驗室技術(shù)總監李磊介紹了一種QA模型,即基于條件的聚焦的神經(jīng)元網(wǎng)絡(luò )問(wèn)答(Conditional Focused Neural Question Answering)。在國際計算機語(yǔ)言學(xué)協(xié)會(huì )(ACL)的2016年會(huì )上,李磊等人發(fā)表了基于大規模知識庫的CFO一文(CFO: Conditional Focused Neural Question Answering with Large-scale Knowledge Bases),詳細介紹了CFO的算法。CFO主要解決開(kāi)放知識庫中單一答案的QA問(wèn)題,在CFO之前的最好成績(jì)是由Facebook發(fā)明的自動(dòng)問(wèn)答算法,準確率在62.9%(基于Facebook創(chuàng )建的Simple Question Dataset公開(kāi)數據集,內含108K個(gè)英文問(wèn)題,也是公開(kāi)的最大單一答案問(wèn)題集)。而CFO則能在這個(gè)數據集上達到75%的準確率,與Facebook拉開(kāi)了12%的差距。

  今日頭條還在2016年嘗試了新聞寫(xiě)稿機器人Xiaomingbot,這是基于大數據、自然語(yǔ)言理解和機器學(xué)習的人工智能機器人。Xiaomingbot在2016年8月的里約奧運會(huì )期間自動(dòng)寫(xiě)了450多篇文章,產(chǎn)生了100多萬(wàn)的閱讀,接近同期該平臺上體育新聞?dòng)浾叩母寮喿x量。此外,Xiaomingbot寫(xiě)出的稿件既有短消息也有按比賽時(shí)間線(xiàn)進(jìn)程形成的長(cháng)報道,還可以自動(dòng)加入圖片。

  當然,提到深度問(wèn)答就必然要提到IBM Watson。IBM中國研究院大數據機認知計算研究總監蘇中介紹了在《危險邊緣》(Jeopardy!)中獲勝的基于大規模并行計算概率算法的Watson模型,如今IBM已經(jīng)把Watson的算法能力通過(guò)基于Bluemix的IBM Watson開(kāi)發(fā)者云服務(wù)對外輸出。

  建立智能社會(huì )組織的模型

  2016機器智能前沿論壇上,最有意思也是最具有社會(huì )和商業(yè)價(jià)值的機器學(xué)習前沿方向,是來(lái)自美國Santa Fe Institute研究所的David Wolpert教授的智能社會(huì )組織建模研究。他也是IEEE院士、三本書(shū)和200多篇論文的作者,論文領(lǐng)域覆蓋了物理學(xué)基礎、機器學(xué)習、博弈論、信息理論、熱力學(xué)和分布優(yōu)化等。David Wolpert于1996年提出了“沒(méi)有免費的午餐”定理,現在已廣泛應用于機器學(xué)習領(lǐng)域。

  David Wolpert表示,除了人類(lèi)自身之外,人類(lèi)社會(huì )也是一個(gè)智能體。在人類(lèi)社會(huì )當中有很多的互動(dòng)交流以及各種活動(dòng),人類(lèi)社會(huì )能夠處理信息、相互溝通,也能迅速了解在哪里可以獲取信息、信息如何被使用等?,F在,人類(lèi)社會(huì )作為整體的智能性已經(jīng)比個(gè)人大腦更為強大,所以對于智能社會(huì )組織的研究更加有意義,但這還是一個(gè)全新的領(lǐng)域,也只有初步的研究。

  從人類(lèi)社會(huì )發(fā)展來(lái)看,人類(lèi)的組織達到一定規模后,就難以再擴大。就像企業(yè)擴張到一定規模后,隨著(zhù)層級越來(lái)越多,越難將信息準確地從頂層傳遞到底層,而隨著(zhù)信息在中間層傳遞的失衡,將會(huì )導致信息誤傳,從而阻礙企業(yè)進(jìn)一步擴大。當然,人類(lèi)也在不斷嘗試對組織結構進(jìn)行創(chuàng )新。以近代互聯(lián)網(wǎng)公司谷歌為代表,在公司初創(chuàng )期提出了扁平化的組織結構,然而隨著(zhù)谷歌公司規模的不斷擴張,最終還是走向了多層級化的公司結構。

  那么,如何以一種扁平化的方式擴展公司規模,使得員工的溝通效率不受到層級增多的影響?這就需要找到一種方式,以更好的在企業(yè)組織間傳遞信息。在David Wolpert模擬企業(yè)結構的過(guò)程中,把員工的社會(huì )關(guān)系看成一種信息通信息網(wǎng)絡(luò )結構,員工則類(lèi)似于信息通信網(wǎng)絡(luò )中的節點(diǎn)。網(wǎng)絡(luò )工程師的任務(wù)是要通過(guò)算法來(lái)優(yōu)化和設計信息通訊網(wǎng)絡(luò )的通信路徑,類(lèi)似的方式引進(jìn)到智能社會(huì )組織的研究中,就是如何實(shí)現一個(gè)更為智能的信息交換方式。

  在研究和設計智能社會(huì )組織的時(shí)候,需要考慮不少已經(jīng)存在的理論。其中一個(gè)著(zhù)名的理論是Dunbar數字,由英國人類(lèi)學(xué)家Robin Dunbar提出,即人類(lèi)個(gè)體能夠和周?chē)娜司S持穩定社會(huì )關(guān)系的理論上限值,通常被認為是150人。這是因為在給定時(shí)間范圍內,一個(gè)人能夠同時(shí)傾聽(tīng)其他人以及對其他人說(shuō)不同事情的能力,受大腦皮層容量的限制。一旦超越這個(gè)范圍,就需要外在機制來(lái)維持群體的穩定性和凝聚力。

  因此,把網(wǎng)絡(luò )通信的編碼和設計原理應用到類(lèi)似企業(yè)這樣的社會(huì )組織中,就需要回答三個(gè)問(wèn)題:受限于企業(yè)組織規模和溝通能力(類(lèi)比網(wǎng)絡(luò )規模和邊緣通信能力),能夠從管理者傳達到工人(類(lèi)比網(wǎng)絡(luò )發(fā)送端和接收端)的最大信息量;中層管理者(類(lèi)比網(wǎng)絡(luò )里的中間節點(diǎn))如何傳遞信息,以確保工人能最大化的接收信息(類(lèi)比網(wǎng)絡(luò )的最大吞吐量);在企業(yè)里增加中層管理者(類(lèi)比網(wǎng)絡(luò )里的中間節點(diǎn))的收益。

  David Wolpert為此研究了多種機制,特別是借鑒了網(wǎng)絡(luò )中郵件傳輸的機制。因為在復雜網(wǎng)絡(luò )環(huán)境下,一個(gè)郵件能夠得以快速的從一個(gè)發(fā)送端傳遞到另一個(gè)接收端,中間其實(shí)把郵件劃分為了不同的小數據包,再把這些小數據包通過(guò)不同網(wǎng)絡(luò )、不同主機快速接力式傳遞給終端,終端結點(diǎn)再把小數據包重新恢復成一個(gè)郵件。

  從David Wolpert的研究中,可以得到一些很有意思的發(fā)現。比如把社交媒體作為第三方公開(kāi)公共節點(diǎn)來(lái)存儲部分信息,確保了企業(yè)組織的部分信息可以準確、高效傳遞到各個(gè)層級,各個(gè)層級再根據內部傳遞下來(lái)的其它信息自行組合,從而準確且個(gè)性化地“還原”出原始信息。這其實(shí)就是社會(huì )化組織的模式,相當于企業(yè)把部分節點(diǎn)從企業(yè)內部轉移到了社會(huì )上,相應地也把企業(yè)組織部分的社會(huì )化了。當然,這個(gè)理論也從另一角度驗證了社交媒體或社會(huì )化媒體崛起的必然邏輯。



關(guān)鍵詞: 人工智能 機器學(xué)習

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>