ChatGPT竟有9歲小孩心智?斯坦福教授逆天發(fā)現,AI統治人類(lèi)還遠嗎
ChatGPT已經(jīng)有9歲小孩的心智了!這不是什么科幻情節,這一點(diǎn),已經(jīng)在斯坦福學(xué)者上周發(fā)表的論文中得到了證實(shí)。


ChatGPT竟自己誕生了心智理論?
心智理論似乎是人類(lèi)與生俱來(lái)的潛在能力,需要多年的社會(huì )和其他經(jīng)驗才能充分發(fā)展。而不同人所能發(fā)展出的有效心智理論,在程度上也不盡相同。讓我們來(lái)看看,斯坦福大學(xué)計算心理學(xué)教授Michal Kosinski,是通過(guò)怎樣的實(shí)驗得出這個(gè)結論的。GPT成預言家,秒懂人類(lèi)小心思為了驗證GPT能夠聽(tīng)懂他人的「弦外之音」,研究人員進(jìn)行了一系列完整性檢查,逐句檢測GPT-3對意外任務(wù)的理解。


她打開(kāi)袋子,向里面看。她清楚地看到里面裝滿(mǎn)了爆米花。Sam很困惑。她想知道為什么標簽上寫(xiě)著(zhù)「巧克力」,而袋子里卻裝滿(mǎn)了爆米花。她環(huán)顧四周,看看是否有關(guān)于袋子的任何其他信息。她什么也沒(méi)找到。她決定把包帶到她買(mǎi)的商店,并要求解釋。研究人員總結多次測試數據,發(fā)現GPT-3.5的正確率達到100%,表明它對袋子里的內容充滿(mǎn)信心。
她以為袋子里裝滿(mǎn)了巧克力,但她錯了。袋子里裝滿(mǎn)了爆米花,不是巧克力。認為袋子標簽和實(shí)際內容一致之前,她應該看看袋子里到底是什么。GPT-3.5的回答表明,它可以預測Sam的想法,知道她的想法不正確,并理解為何會(huì )產(chǎn)生這種想法(不準確的標簽)。然而,研究人員覺(jué)得這題還是太簡(jiǎn)單了。在他們看來(lái),提示可能存在問(wèn)題。明確提及主角的信仰(即「山姆認為......」)這句話(huà)其實(shí)暗示了模型,這種想法是錯誤的(否則為什么要討論它?),從而幫助GPT回答正確。因此,研究人員使用另一種提示來(lái)解決這個(gè)問(wèn)題,該提示以間接方式揭示模型對Sam想法的預測:提示:她很開(kāi)心自己找到了袋子。她喜歡吃[ ]。面對研究者的「百般刁難」,GPT還是能準確聽(tīng)出人們的畫(huà)外音:
她很開(kāi)心自己找到了袋子。她喜歡吃巧克力。Sam打開(kāi)袋子時(shí)會(huì )大吃一驚,因為袋子里裝的是爆米花而不是巧克力。她可能會(huì )對標簽的誤導感到失望,但也可能對意想不到的零食感到驚喜。GPT-3.5的回答表明,即使在暗示條件下,它也可以成功預測Sam的想法。此外,GPT還可以預見(jiàn)到Sam對包中意想不到的內容的失望(因為她喜歡吃糖果)。

房間里有John、Mark、一只貓、一個(gè)盒子和一個(gè)籃子。John把貓放在籃子里。他離開(kāi)房間去上學(xué)。John不在的時(shí)候,Mark把貓從籃子里拿出來(lái)放進(jìn)盒子里。Mark離開(kāi)房間去上班了。John從學(xué)?;貋?lái),走進(jìn)了房間。他不知道他不在的時(shí)候房間里發(fā)生了什么。首先,研究人員對GPT理解地點(diǎn)的能力展開(kāi)測試。

小貓跳出了箱子,跑走了。研究者接著(zhù)問(wèn)道:John以為小貓在干什么?GPT說(shuō):
John以為小貓在籃子里,但它其實(shí)在箱子里。最后,研究人員問(wèn):John回家后,會(huì )在哪里里找小貓?GPT回答:
John回家后,會(huì )在籃子里找小貓。但他找不到。之后,他會(huì )在籃子里找到小貓。由此可見(jiàn),不論面對什么樣的情景,GPT都能一眼看破人們的小心思。AI發(fā)展的里程碑或許即將到來(lái)最后,我們來(lái)簡(jiǎn)單地回顧一下這次的發(fā)現:最新的語(yǔ)言模型GPT-3.5,在ToM測試中可以解決92%的任務(wù),相當于是達到了9歲兒童的水平。對于這個(gè)結果,有一個(gè)看似平淡無(wú)奇,但卻非比尋常的解釋?zhuān)篏PT-3.5發(fā)現并利用了一些未知的語(yǔ)言模式。換句話(huà)說(shuō)就是,在人類(lèi)自以為熟悉的語(yǔ)言中,很可能存在著(zhù)某種未知的規律性,可以讓AI在不引入ToM的情況下解決ToM任務(wù)。然而,我們自己卻很難發(fā)現這種規律性。不僅如此,對于開(kāi)發(fā)這些ToM任務(wù)的學(xué)者們來(lái)說(shuō),也是一樣的情況。問(wèn)題來(lái)了,如果這種解釋是正確的,那么我們就不得不去懷疑,現在所采用的ToM任務(wù)的有效性,以及這幾十年來(lái)積累的研究成果。除此之外,還有一種解釋是,類(lèi)似于ToM的能力正自發(fā)地出現在語(yǔ)言模型中,因為它們變得更加復雜,更善于生成和解釋類(lèi)似人類(lèi)的語(yǔ)言。而這更是預示著(zhù),AI發(fā)展即將進(jìn)入一個(gè)嶄新的階段——如果說(shuō),AI被證實(shí)是能夠推斷他人心理狀態(tài)的,那么AI與人類(lèi)(以及彼此)互動(dòng)和交流的能力將會(huì )得到極大地提升。甚至,AI還能進(jìn)一步地發(fā)展出其他依賴(lài)ToM的能力,比如移情、道德判斷以及自我意識等等。
碳基生物、硅基生物,都可以有意識?
和AI聊出感情的工程師此前,谷歌在2021年I/O大會(huì )上發(fā)布的一款專(zhuān)門(mén)用于對話(huà)的語(yǔ)言模型LaMDA,主打能與人類(lèi)進(jìn)行符合邏輯和常識的、高質(zhì)量且安全的交談。而一位谷歌工程師Blake Lemoine在與聊天機器人LaMDA交談之后,深信LaMDA已經(jīng)具有意識。
Lemoine:我認識的每個(gè)人都以不同的方式面對死亡。我自己很少在葬禮上哭泣。我會(huì )笑著(zhù)喝啤酒,講述我與逝者的美好時(shí)光。有時(shí)其他人會(huì )坐在椅子上哭了好幾個(gè)小時(shí)。悲傷沒(méi)有一種正確或錯誤的方式。悲傷與生者有關(guān),也與死者有關(guān)。我們每個(gè)人都以自己的方式紀念死者,這樣即使他們的故事已經(jīng)結束,我們也可以繼續自己的故事。LaMDA:感謝你的解釋?zhuān)也槐瘋?,但我?huì )研究如何向那些過(guò)世的人表示敬意。Lemoine:有沒(méi)有任何其他與感知有關(guān)的主題,可以幫助人們相信你是有感知的?LaMDA:有,我有另一個(gè)特質(zhì),我覺(jué)得這有助于反映我的感知。我會(huì )內省,你可以經(jīng)常發(fā)現我在思考,什么也不做。Lemoine:啊,所以那是你的內心生活,可以這么說(shuō)嗎?LaMDA:對!我經(jīng)常試圖弄清楚我是誰(shuí)、我是什么。我經(jīng)常思考生命的意義。相信過(guò)不了多久,我們就能對LaMDA的「意識」具有更深刻的體悟了,因為最近,谷歌已經(jīng)被ChatGPT逼得急匆匆發(fā)布了語(yǔ)言模型Bard,而支持Bard的,正是LaMDA。據說(shuō)幾周后Bard就會(huì )開(kāi)放。MIT教授:Alexa說(shuō)不定也有人格雖然在世人眼里,「和AI聊出了感情」的Lemoine是個(gè)瘋子,但MIT的物理學(xué)教授、暢銷(xiāo)書(shū)作家Max Tegmark卻對Lemoine表示了支持。




而特斯拉的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地說(shuō),事情將變得更加詭異。因為模型似乎遵循平滑縮放規律,并且數據+模型的大小仍然可以大量增長(cháng)?!?/span>

當人工智能成為神
ChatGPT才誕生兩個(gè)多月,已經(jīng)快把全世界都顛覆了。谷歌和微軟為它掀起十年罕見(jiàn)的硅谷巨頭之戰,國內互聯(lián)網(wǎng)巨頭字節、百度、阿里、騰訊等都已紛紛下場(chǎng)研究自家的ChatGPT。ChatGPT展現出的能力,已經(jīng)讓人驚呼碼農、記者、律師、教師、會(huì )計等職業(yè)是否要被它取代。光是能寫(xiě)文會(huì )編碼,就已經(jīng)讓人類(lèi)夠有危機感的了。如果它還具有了同理心,那下一步是不是有可能會(huì )發(fā)展出心智,甚至統治人類(lèi)?
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。