<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 構建智能機器有助于我們了解大腦的工作原理

構建智能機器有助于我們了解大腦的工作原理

—— 設計像人類(lèi)一樣思考的機器可以深入了解智能本身
作者: 時(shí)間:2025-05-19 來(lái)源: 收藏

他對人工智能的夢(mèng)想從來(lái)都不僅僅是制作一個(gè)擊敗特級大師的國際象棋引擎或一個(gè)試圖破壞婚姻的聊天機器人。它一直是我們自己的智慧的一面鏡子,這樣我們就可以更好地了解自己。研究人員不僅尋求人工智能,還尋求通用人工智能 (AGI),即具有類(lèi)似人類(lèi)適應性和創(chuàng )造力的系統。

本文引用地址:http://dyxdggzs.com/article/202505/470589.htm

大型語(yǔ)言模型獲得的問(wèn)題解決能力比大多數研究人員預期的要強。但他們仍然會(huì )犯愚蠢的錯誤,缺乏開(kāi)放式學(xué)習的能力:一旦他們接受了書(shū)籍、博客和其他材料的培訓,他們的知識儲備就會(huì )被凍結。他們沒(méi)有通過(guò)人工智能公司 SingularityNET 的 Ben Goertzel 所說(shuō)的“機器人大學(xué)生測試”:你不能讓他們讀完大學(xué)(甚至不能讀托兒所)。

這些系統明確解決了 AGI 的一個(gè)部分是語(yǔ)言。他們擁有專(zhuān)家所說(shuō)的正式能力:他們可以解析你給他們的任何句子,即使是零散的或俚語(yǔ)的,并用可能被稱(chēng)為維基百科標準英語(yǔ)的東西回答。但他們在思維的其他維度上失敗了——一切有助于我們處理日常生活的東西?!拔覀儾粦撝竿麄兡軌蛩伎?,”麻省理工學(xué)院的神經(jīng)科學(xué)家南?!た簿S舍 (Nancy Kanwisher) 說(shuō)?!八麄兪钦Z(yǔ)言處理器?!彼麄兦擅畹乜v文字,但除了通過(guò)他們吸收的文本之外,無(wú)法進(jìn)入現實(shí)。

在某種程度上,大型語(yǔ)言模型只模仿大腦的語(yǔ)言能力,而沒(méi)有感知、記憶、導航、社會(huì )判斷等能力。如果像 Kanwisher 所說(shuō)的那樣,我們的大腦是具有多種功能的瑞士軍刀,那么大型語(yǔ)言模型就是一個(gè)非常棒的開(kāi)瓶器。她和其他神經(jīng)科學(xué)家爭論這些功能是局限于特定位置還是分布在我們的灰質(zhì)中,但大多數人都同意至少有一些專(zhuān)業(yè)化。AI 開(kāi)發(fā)人員正在將這種模塊化整合到他們的系統中,希望使它們更智能。

沒(méi)有人確定大腦區域如何協(xié)同工作以創(chuàng )造一個(gè)連貫的自我,更不用說(shuō)機器如何模仿它了。一種假設是意識是共同點(diǎn)。

OpenAI 是生成式預訓練轉換器 (GPT) 的創(chuàng )建者,它允許付費用戶(hù)選擇附加工具(最初稱(chēng)為“插件”)來(lái)處理數學(xué)、Internet 搜索和其他類(lèi)型的查詢(xún)。每個(gè)工具都調用了一些與其專(zhuān)業(yè)相關(guān)的外部知識庫。此外,對于用戶(hù)來(lái)說(shuō),核心語(yǔ)言系統本身在某種意義上可能是模塊化的。OpenAI 對規范保密,但許多 AI 研究人員推測,GPT 由多達 16 個(gè)獨立的神經(jīng)網(wǎng)絡(luò )或“專(zhuān)家”組成,這些網(wǎng)絡(luò )將他們對查詢(xún)的答案匯集在一起——盡管他們如何分工尚不清楚。2023 年 12 月,法國人工智能公司 Mistral 和不久之后的中國公司 DeepSeek 發(fā)布了這種“專(zhuān)家混合”架構的開(kāi)源版本,引起了轟動(dòng)。這種簡(jiǎn)單的模塊化形式的主要優(yōu)點(diǎn)是其計算效率:訓練和運行 16 個(gè)較小的網(wǎng)絡(luò )比單個(gè)大型網(wǎng)絡(luò )更容易?!白屛覀儍扇涿?,”愛(ài)丁堡大學(xué) AI 研究員 Edoardo Ponti 說(shuō)?!白屛覀兊玫揭粋€(gè)具有大量參數的系統,同時(shí)保持更小模型的效率?!?/p>

但模塊化需要權衡取舍。沒(méi)有人確定大腦區域如何協(xié)同工作以創(chuàng )造一個(gè)連貫的自我,更不用說(shuō)機器如何模仿它了。佐治亞理工學(xué)院(Georgia Institute of Technology)的神經(jīng)科學(xué)家安娜·伊萬(wàn)諾娃(Anna Ivanova)想知道:“信息是如何從語(yǔ)言系統進(jìn)入邏輯推理系統或社會(huì )推理系統的?“這仍然是一個(gè)懸而未決的問(wèn)題?!?/p>

一個(gè)具有挑釁性的假設是意識是共同點(diǎn)。根據這個(gè)被稱(chēng)為全局工作空間理論 (GWT) 的思想,意識之于大腦就像員工會(huì )議之于公司:一個(gè)模塊可以共享信息和尋求幫助的地方。GWT 遠非唯一的意識理論,但它引起了 AI 研究人員的特別興趣,因為它猜想意識是高級智能不可或缺的一部分。要完成簡(jiǎn)單或經(jīng)過(guò)演練的任務(wù),大腦可以在自動(dòng)駕駛儀上運行,但新穎或復雜的任務(wù)(超出單個(gè)模塊范圍的任務(wù))需要我們了解自己在做什么。

Goertzel 和其他人已將工作區整合到他們的 AI 系統中?!拔艺J為全球工作空間模型的核心思想將以許多不同的形式出現,”他說(shuō)。在設計這個(gè)模型的電子表示時(shí),研究人員并不尋求制造有意識的機器;相反,他們只是在復制特定意識理論的硬件,以試圖實(shí)現類(lèi)似人類(lèi)的智能。

他們會(huì )不會(huì )無(wú)意中創(chuàng )造了一個(gè)有感情和動(dòng)機的有知覺(jué)的生物?這是可以想象的,盡管即使是 GWT 的發(fā)明者、加利福尼亞州拉霍亞神經(jīng)科學(xué)研究所的伯納德·巴爾斯 (Bernard Baars) 也認為這是不可能的?!坝幸庾R計算是一個(gè)沒(méi)有絲毫證據的假設,”他說(shuō)。但是,如果開(kāi)發(fā)人員真的成功構建了 AGI,他們就可以提供對智能本身的結構和過(guò)程的重要見(jiàn)解。


長(cháng)期以來(lái),GWT 一直是神經(jīng)科學(xué)和 AI 研究如何相互影響的案例研究。這個(gè)想法可以追溯到“Pandemonium”,這是計算機科學(xué)家?jiàn)W利弗·塞爾弗里奇 (Oliver Selfridge) 在 1950 年代提出的一種圖像識別系統。他將系統的模塊描繪成在彌爾頓式的地獄愿景中尖叫著(zhù)尋求關(guān)注的惡魔。與他同時(shí)代的艾倫·紐維爾(Allen Newell)更喜歡數學(xué)家圍坐在黑板旁一起解決問(wèn)題的更穩重的比喻。這些想法被認知心理學(xué)家采納了。在 1980 年代,Baars 提出了 GWT 作為人類(lèi)意識的理論?!霸谡麄€(gè)職業(yè)生涯中,我從 AI 中學(xué)到了很多東西,主要是因為它是我們唯一可行的理論平臺,”他說(shuō)。

Baars 啟發(fā)了孟菲斯大學(xué)的計算機科學(xué)家 Stanley Franklin 嘗試構建一臺有意識的計算機。無(wú)論富蘭克林的機器是否真的有意識——巴爾斯和富蘭克林自己都持懷疑態(tài)度——它至少再現了人類(lèi)心理學(xué)的各種怪癖。例如,當它的注意力從一件事轉移到另一件事時(shí),它會(huì )錯過(guò)信息,因此它和人一樣不擅長(cháng)多任務(wù)處理。從 1990 年代開(kāi)始,巴黎法蘭西學(xué)院的神經(jīng)科學(xué)家 Stanislas Dehaene 和 Jean-Pierre Changeux 研究了哪種類(lèi)型的神經(jīng)元布線(xiàn)可以實(shí)現該工作空間。

在這個(gè)方案中,大腦模塊大多獨立運行,但每隔十分之一秒左右,它們就會(huì )召開(kāi)一次員工會(huì )議。這是一場(chǎng)結構化的吶喊比賽。每個(gè)模塊都有一些信息可以提供,它對這些信息越有信心——例如,刺激措施越符合預期——它喊得就越響亮。一旦一個(gè)模塊獲勝,其他模塊就會(huì )安靜片刻,獲勝者將其信息放入一組公共變量中:工作區。其他模塊可能會(huì )也可能不會(huì )發(fā)現這些信息有用;每個(gè)人都必須自己判斷?!澳銜?huì )得到這個(gè)有趣的子代理之間的合作和競爭過(guò)程,每個(gè)子代理都有一小部分解決方案,”Baars 說(shuō)。

工作區不僅允許模塊相互通信,而且還提供了一個(gè)論壇,即使信息不再呈現在感官上,它們也可以在這里集體思考信息?!澳憧梢杂幸恍┈F實(shí)的元素——也許是轉瞬即逝的感覺(jué),它已經(jīng)消失了,但在你的工作空間中,它會(huì )繼續回蕩,”Dehaene 說(shuō)。這種深思熟慮的能力對于解決涉及多個(gè)步驟或隨著(zhù)時(shí)間的推移而延伸的問(wèn)題至關(guān)重要。Dehaene 進(jìn)行了心理學(xué)實(shí)驗,在他的實(shí)驗室里向人們提出了這些問(wèn)題,他發(fā)現他們必須有意識地思考這些問(wèn)題。

對人工智能的追求告訴我們,我們認為簡(jiǎn)單的任務(wù)對計算要求很高,而我們認為困難的事情,例如國際象棋,實(shí)際上是簡(jiǎn)單的。

如果這個(gè)系統聽(tīng)起來(lái)是無(wú)政府主義的,那就是重點(diǎn)。它消除了在模塊之間委派任務(wù)的 Boss,因為委派很難正確。在數學(xué)中,授權(或在不同的參與者之間分配責任以實(shí)現最佳性能)屬于所謂的 NP 困難問(wèn)題,解決這些問(wèn)題可能非常耗時(shí)。在許多方法中,例如被認為由 OpenAI 使用的專(zhuān)家混合架構,“門(mén)控”網(wǎng)絡(luò )會(huì )分發(fā)任務(wù),但它必須與各個(gè)模塊一起進(jìn)行訓練,并且訓練過(guò)程可能會(huì )崩潰。首先,它遭受了 Ponti 所說(shuō)的“先有雞還是先有蛋的問(wèn)題”:因為模塊依賴(lài)于路由,而路由又依賴(lài)于模塊,所以訓練可能會(huì )兜圈子。即使訓練成功,路由機制也是一個(gè)黑匣子,其工作原理是不透明的。

2021 年,卡內基梅隆大學(xué) (Carnegie Mellon University) 的數學(xué)家兼名譽(yù)教授 Manuel Blum 和 Lenore Blum 制定了全球工作空間中爭奪注意力之戰的細節。它們包括一個(gè)機制,用于確保模塊不會(huì )夸大他們對所帶來(lái)信息的信心,從而防止一些吹牛接管。已婚的 Blum 夫婦還建議模塊可以開(kāi)發(fā)直接互連,以完全繞過(guò)工作區。例如,這些側面鏈接可以解釋當我們學(xué)習騎自行車(chē)或演奏樂(lè )器時(shí)會(huì )發(fā)生什么。一旦模塊共同確定哪些模塊需要做什么,它們就會(huì )將任務(wù)脫機?!八鼘⑼ㄟ^(guò)短期記憶的處理轉變?yōu)闊o(wú)意識的處理,”Lenore Blum 說(shuō)。

有意識的關(guān)注是一種稀缺資源。工作區中沒(méi)有太多的信息空間,因此獲勝的模塊在傳達給其他模塊的內容時(shí)必須非常有選擇性。這聽(tīng)起來(lái)像是一個(gè)設計缺陷?!盀槭裁创竽X對你可以同時(shí)思考的事情數量有如此限制?”但他認為這種約束是一件好事:它強制執行認知紀律。由于無(wú)法追蹤世界的所有復雜性,我們的大腦必須識別其背后的簡(jiǎn)單規則?!斑@個(gè)瓶頸迫使我們想出一個(gè)關(guān)于世界是如何運作的,”他說(shuō)。

對 Bengio 來(lái)說(shuō),這是 GWT 為 AI 上的重要一課:今天的人工神經(jīng)網(wǎng)絡(luò )對自身來(lái)說(shuō)太強大了。他們有數十億或數萬(wàn)億個(gè)參數,足以吸收互聯(lián)網(wǎng)的大量?jì)热?,但往往?huì )陷入雜草叢中,無(wú)法從他們所接觸到的東西中提取更大的教訓。如果他們大量的知識儲備必須通過(guò)一個(gè)狹窄的漏斗,就像我們的意識思維是如何運作的,他們可能會(huì )做得更好。


Bengio 在 AI 系統開(kāi)始考慮 GWT 之前就開(kāi)始努力將意識瓶頸納入 AI 系統。在 2010 年代初期,Bengio 和他的同事對我們的大腦如何選擇性地專(zhuān)注于一條信息并暫時(shí)屏蔽其他所有信息印象深刻,他們在神經(jīng)網(wǎng)絡(luò )中構建了一個(gè)類(lèi)似的過(guò)濾器。例如,當 GPT 等語(yǔ)言模型遇到代詞時(shí),它需要找到先行詞。它通過(guò)突出顯示附近的名詞并使其他詞性變灰來(lái)實(shí)現此目的。實(shí)際上,它 “關(guān)注” 理解文本所需的關(guān)鍵詞。代詞也可能與形容詞、動(dòng)詞等相關(guān)聯(lián)。網(wǎng)絡(luò )的不同部分可以同時(shí)關(guān)注不同的單詞關(guān)系。

但 Bengio 發(fā)現這種注意力機制帶來(lái)了一個(gè)微妙的問(wèn)題。假設網(wǎng)絡(luò )完全忽略了一些單詞,它將通過(guò)為對應于這些單詞的計算變量分配零值來(lái)實(shí)現。如此突然的變化將對訓練網(wǎng)絡(luò )的標準程序造成影響。該過(guò)程稱(chēng)為反向傳播,涉及將網(wǎng)絡(luò )的輸出追溯到產(chǎn)生它的計算,這樣如果輸出錯誤,您可以找出原因。但是你不能通過(guò)突然的變化來(lái)追溯。

因此,Bengio 和其他人設計了一種“軟關(guān)注機制”,使網(wǎng)絡(luò )具有選擇性,但并不過(guò)分。它為各種選項分配數字權重,例如代詞可能與哪些單詞相關(guān)。盡管有些單詞的權重比其他單詞高,但所有單詞都仍在發(fā)揮作用;網(wǎng)絡(luò )從不做出艱難的選擇?!澳愕玫狡渲械?80%,其中 20%,而且因為這些注意力權重是連續的,所以你實(shí)際上可以做 [微積分] 并應用反向傳播,”Bengio 說(shuō)。這種軟注意力機制是 “transformer” 架構的關(guān)鍵創(chuàng )新,即 GPT 中的 “T”。

近年來(lái),Bengio 重新審視了這種方法,以創(chuàng )造更嚴格的瓶頸,他認為如果網(wǎng)絡(luò )要實(shí)現接近真正理解的東西,這一點(diǎn)很重要。真正的全局工作空間必須做出艱難的選擇 — 它沒(méi)有空間來(lái)跟蹤所有選項。2021 年,Bengio 和他的同事設計了一個(gè) “生成流 ”網(wǎng)絡(luò ),該網(wǎng)絡(luò )會(huì )定期選擇一個(gè)可用選項,其概率由注意力權重決定。他不僅僅依賴(lài)反向傳播,而是訓練網(wǎng)絡(luò )在正向或反向工作。這樣,即使發(fā)生突然的變化,它也可以返回以修復任何錯誤。在各種實(shí)驗中,Bengio 已經(jīng)表明,該系統開(kāi)發(fā)了更高級別的輸入數據表示,與我們自己的大腦獲取的數據平行。


實(shí)施全局工作空間的另一個(gè)挑戰是高度專(zhuān)業(yè)化。就像不同大學(xué)系的教授一樣,大腦的各種模塊創(chuàng )造了相互無(wú)法理解的行話(huà)。視覺(jué)區域提出了抽象,讓它能夠處理來(lái)自眼睛的輸入。聽(tīng)覺(jué)模塊開(kāi)發(fā)適合內耳振動(dòng)的表現。那么他們是如何溝通的呢?他們必須找到某種通用語(yǔ)或亞里士多德所說(shuō)的常識——該術(shù)語(yǔ)的原意。這種需求在科技公司一直在引入的“多模式”網(wǎng)絡(luò )中尤為緊迫,這些網(wǎng)絡(luò )將文本與圖像和其他形式的數據相結合。

在 Dehaene 和 Changeux 的 GWT 版本中,這些模塊由神經(jīng)元連接,這些神經(jīng)元調整它們的突觸,將傳入的數據翻譯成本地白話(huà)?!八麄儗?[輸入] 轉換為自己的代碼,”Dehaene 說(shuō)。但細節并不模糊。事實(shí)上,他希望試圖解決人工神經(jīng)網(wǎng)絡(luò )類(lèi)似問(wèn)題的 AI 研究人員能夠提供一些線(xiàn)索?!肮ぷ骺臻g更像是一個(gè)想法;這幾乎不是一個(gè)理論。我們正在努力使其成為一個(gè)理論,但它仍然很模糊——工程師們有這種非凡的才能,可以把它變成一個(gè)工作系統,“他說(shuō)。

2021 年,總部位于東京的人工智能公司 Araya 的神經(jīng)科學(xué)家兼創(chuàng )始人金井涼太和另一位跨界進(jìn)入人工智能的神經(jīng)科學(xué)家、法國圖盧茲大學(xué)的 Rufin VanRullen 提出了一種人工神經(jīng)網(wǎng)絡(luò )執行翻譯的方法。他們從 Google 翻譯等語(yǔ)言翻譯系統中獲得靈感。這些系統是迄今為止人工智能最令人印象深刻的成就之一。他們可以在不被告知的情況下完成自己的工作,例如,英語(yǔ)中的“l(fā)ove”與法語(yǔ)中的“amour”的含義相同。相反,他們孤立地學(xué)習每種語(yǔ)言,然后通過(guò)他們的掌握推斷出哪個(gè)詞在法語(yǔ)中扮演著(zhù)與英語(yǔ)中“愛(ài)”相同的角色。

假設您用英語(yǔ)和法語(yǔ)訓練兩個(gè)神經(jīng)網(wǎng)絡(luò )。每個(gè)語(yǔ)言都收集了各自語(yǔ)言的結構,發(fā)展出一種稱(chēng)為潛在空間的內部表示。從本質(zhì)上講,它是一個(gè)詞云:一張地圖,展示了該語(yǔ)言中單詞的所有關(guān)聯(lián),通過(guò)將相似的單詞彼此靠近,將不相關(guān)的單詞相距較遠的位置來(lái)構建。云的形狀很獨特。事實(shí)上,這兩種語(yǔ)言的形狀是相同的,因為盡管它們的所有差異,但它們最終指的是同一個(gè)世界。您需要做的就是旋轉英語(yǔ)和法語(yǔ)詞云,直到它們對齊。你會(huì )發(fā)現 “愛(ài)” 與 “amour” 是一致的?!皼](méi)有字典,通過(guò)查看每種語(yǔ)言的潛在空間中嵌入的所有單詞的星座,你只需要找到正確的旋轉來(lái)對齊所有點(diǎn),”Kanai 說(shuō)。

因為該程序可以應用于整個(gè)段落以及單個(gè)單詞,所以它可以處理微妙的含義陰影和在其他語(yǔ)言中沒(méi)有直接對應物的單詞。此方法的一個(gè)版本可以在不相關(guān)的語(yǔ)言(如英語(yǔ)和中文)之間進(jìn)行翻譯。它甚至可能對動(dòng)物交流有效。

VanRullen 和 Kanai 認為,該程序不僅可以在語(yǔ)言之間翻譯,還可以在不同的含義和描述模式之間翻譯?!澳憧梢酝ㄟ^(guò)獨立訓練圖像處理系統和語(yǔ)言處理系統來(lái)創(chuàng )建這樣一個(gè)系統,然后實(shí)際上你可以通過(guò)對齊它們的潛在空間將它們組合在一起,”Kanai 說(shuō)。與語(yǔ)言一樣,翻譯是可能的,因為系統基本上指的是同一個(gè)世界。這種洞察力正是 Dehaene 所希望的:AI 研究如何提供對大腦運作的洞察力的一個(gè)例子?!吧窠?jīng)科學(xué)家從未考慮過(guò)這種對齊潛在空間的可能性,”Kanai 說(shuō)。

為了了解這些原則是如何付諸實(shí)踐的,Kanai 與現在在高級意識研究所工作的 Arthur Juliani 和 Araya 的 Shuntaro Sasai 合作,研究了 Google DeepMind 在 2021 年發(fā)布的 Perceiver 模型。它旨在將文本、圖像、音頻和其他數據融合到一個(gè)公共的潛在空間中;2022 年,谷歌將其整合到一個(gè)自動(dòng)為 YouTube Shorts 編寫(xiě)描述的系統中。Araya 團隊運行了一系列實(shí)驗來(lái)探索 Perceiver 的工作原理,發(fā)現雖然它不是故意設計為全局工作區,但它具有一個(gè)特征:獨立模塊、在模塊中進(jìn)行選擇的過(guò)程和工作內存 - 工作區本身。

類(lèi)似工作空間的想法的一個(gè)特別有趣的實(shí)現是 AI People,這是一款由布拉格的 AI 公司 GoodAI 創(chuàng )建的類(lèi)似模擬人生的游戲。我在 2023 年夏天看到的版本設置在一個(gè)監獄院子里,里面擠滿(mǎn)了罪犯、腐敗的警衛和認真的精神科醫生,但去年發(fā)布的 alpha 版本包括更多和平的場(chǎng)景。游戲使用 GPT 作為角色的大腦。它不僅控制他們的對話(huà),還控制他們的行為和情緒,使他們有一定的心理深度;系統會(huì )跟蹤角色是生氣、悲傷還是焦慮,并相應地選擇其行為。開(kāi)發(fā)人員添加了其他模塊(包括短期記憶形式的全局工作區),為角色提供一致的心理,并讓他們在游戲環(huán)境中采取行動(dòng)?!拔覀兊哪繕耸鞘褂么笮驼Z(yǔ)言模型作為引擎,因為它非常好,然后圍繞它構建長(cháng)期記憶和某種認知架構,”GoodAI 創(chuàng )始人 Marek Rosa 說(shuō)。


AI 的一項潛在突破性進(jìn)展來(lái)自 Meta 的研究員 Yann LeCun。雖然他沒(méi)有直接引用全球工作空間作為靈感,但他在挑戰當前生成模型的霸權——GPT 中的“G”時(shí),走了自己的路,實(shí)現了許多相同的想法?!拔艺诔珜Х磳σ恍┎恍业氖悄壳霸?AI/機器學(xué)習社區中非常流行的東西,”LeCun 說(shuō)?!拔腋嬖V人們:放棄生成模型?!?/p>

生成神經(jīng)網(wǎng)絡(luò )之所以如此命名,是因為它們根據所接觸的內容生成新的文本和圖像。要做到這一點(diǎn),他們必須對細節一絲不茍:他們必須知道如何拼寫(xiě)句子中的每個(gè)單詞,以及如何將每個(gè)像素放在圖像中。但是,如果說(shuō)情報有什么不同的話(huà),那就是對細節的選擇性忽視。因此,LeCun 主張研究人員回到現在不合時(shí)宜的“判別性”神經(jīng)網(wǎng)絡(luò )技術(shù),例如用于圖像識別的神經(jīng)網(wǎng)絡(luò ),之所以這樣稱(chēng)呼,是因為它們可以感知輸入之間的差異——例如,狗與貓的圖片。這樣的網(wǎng)絡(luò )不會(huì )構建自己的圖像,而只是處理現有圖像以分配標簽。

LeCun 開(kāi)發(fā)了一種特殊的訓練方案,使判別網(wǎng)絡(luò )提取文本、圖像和其他數據的基本特征。它可能無(wú)法自動(dòng)完成一個(gè)句子,但它創(chuàng )造了抽象的表示,LeCun 希望這些表示類(lèi)似于我們自己腦海中的那些。例如,如果你提供一輛汽車(chē)在路上行駛的視頻,表示應該捕捉它的品牌、型號、顏色、位置和速度,同時(shí)省略瀝青路面的顛簸、水坑上的波紋、路邊草葉上的閃光——除非我們特別注意它,否則我們的大腦會(huì )忽略它?!八羞@些不相關(guān)的細節都被消除了,”他說(shuō)。

這些簡(jiǎn)化的表示本身沒(méi)有用,但它們實(shí)現了一系列對 AGI 至關(guān)重要的認知功能。LeCun 將判別網(wǎng)絡(luò )嵌入到一個(gè)更大的系統中,使其成為一個(gè)類(lèi)腦架構的一個(gè)模塊,該架構包括 GWT 的關(guān)鍵功能,例如短期記憶和用于協(xié)調模塊和確定工作流程的“配置器”。例如,系統可以進(jìn)行規劃?!拔疑钍苄睦韺W(xué)基礎知識的啟發(fā),”LeCun 說(shuō)。就像人腦可以運行思想實(shí)驗,想象某人在不同情況下的感受一樣,配置器將多次運行判別網(wǎng)絡(luò ),列出一系列假設作以找到能夠實(shí)現預期結果的作。

LeCun 說(shuō),他通常更喜歡避免對意識得出結論,但他提出了一種他所謂的“民間理論”,即意識是配置器的工作,這在他的模型中扮演的角色大致類(lèi)似于 Baars 理論中工作區的作用。

如果研究人員成功地在 AI 系統中構建了一個(gè)真正的全球工作空間,這會(huì )讓他們有意識嗎?Dehaene 認為它會(huì ),至少如果與自我監控的能力相結合。但巴爾斯對此持懷疑態(tài)度,部分原因是他仍然不完全相信自己的理論?!拔乙恢痹趹岩?GWT 是否真的那么好,”他說(shuō)。在他看來(lái),意識是一種生物功能,是我們作為生物所特有的。幾年前我采訪(fǎng)富蘭克林時(shí)也表達了類(lèi)似的懷疑。(他于 2023 年去世。他認為,全球工作空間是進(jìn)化對身體需求的回應。通過(guò)意識,大腦從經(jīng)驗中學(xué)習并快速解決復雜的生存問(wèn)題。他認為,這些能力與 AI 通常應用于的問(wèn)題類(lèi)型無(wú)關(guān)?!澳惚仨氂幸粋€(gè)具有真實(shí)思想的自主代理,并有一個(gè)控制結構,”他告訴我?!澳莻€(gè)代理必須有某種生活——這并不意味著(zhù)它不能是一個(gè)機器人,但它必須有某種發(fā)展。它不會(huì )全面地進(jìn)入世界。

英國薩塞克斯大學(xué)的神經(jīng)科學(xué)家阿尼爾·塞斯 (Anil Seth) 同意這些觀(guān)點(diǎn)?!耙庾R不是聰明的問(wèn)題,”他說(shuō)?!斑@同樣是活著(zhù)的問(wèn)題。無(wú)論它們多么聰明,通用的 AI 如果不是活著(zhù)的,就不太可能有意識。

賽斯并不贊同 GWT,而是贊同一種被稱(chēng)為預測過(guò)程的意識理論,通過(guò)這種理論,有意識的存在試圖預測會(huì )發(fā)生什么,以便做好準備?!袄斫庥幸庾R的自我始于理解身體控制的預測模型,”他說(shuō)。Seth 還研究了集成信息理論,該理論將意識與其復雜的網(wǎng)絡(luò )結構無(wú)關(guān),而不是與大腦的功能相關(guān)聯(lián)。根據這一理論,意識不是智力的組成部分,但可能是由于生物效率的原因而出現的。

目前,AI 是一個(gè)思想豐富的領(lǐng)域,工程師已經(jīng)有大量潛在客戶(hù)需要跟進(jìn),而無(wú)需從神經(jīng)科學(xué)中導入更多潛在客戶(hù)?!八麄冋跉⑺浪?,”哥倫比亞大學(xué)的神經(jīng)科學(xué)家 Nikolaus Kriegeskorte 指出。但大腦仍然是廣義智能的存在證明,并且目前是 AI 研究人員擁有的最佳模型?!叭四X有一些工程學(xué)尚未征服的技巧,”Kriegeskorte 說(shuō)。

過(guò)去幾十年來(lái)對 AGI 的追求讓我們對自己的智能有了很大的了解。我們現在意識到,我們認為簡(jiǎn)單的任務(wù)(例如視覺(jué)識別)對計算要求很高,而我們認為困難的任務(wù)(例如數學(xué)和國際象棋)實(shí)際上是簡(jiǎn)單的。我們還意識到,大腦幾乎不需要先天知識;他們通過(guò)經(jīng)驗學(xué)習幾乎所有他們需要知道的東西?,F在,通過(guò)模塊化的重要性,我們證實(shí)了古老的智慧,即沒(méi)有一種叫做智能的東西。它是一個(gè)能力工具箱——從處理抽象到駕馭社會(huì )復雜性,再到適應視覺(jué)和聲音。正如 Goertzel 所指出的,通過(guò)混合和匹配這些不同的技能,我們的大腦可以在我們以前從未遇到過(guò)的領(lǐng)域中取得勝利。我們創(chuàng )造新穎的音樂(lè )流派,解決前幾代人甚至無(wú)法制定的科學(xué)難題。我們踏入未知領(lǐng)域——有一天,我們的人造表親可能會(huì )與我們一起邁出那一步。




關(guān)鍵詞: 智能機器

評論


技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>