<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > Meta研究員破解大模型逆轉詛咒,推出《語(yǔ)言模型物理學(xué)》

Meta研究員破解大模型逆轉詛咒,推出《語(yǔ)言模型物理學(xué)》

發(fā)布人:深科技 時(shí)間:2024-04-14 來(lái)源:工程師 發(fā)布文章
大語(yǔ)言模型的誕生,切實(shí)地推進(jìn)了人工智能的發(fā)展。但隨著(zhù)模型越來(lái)越大、訓練數據越來(lái)越多,人們對于模型的了解反而越來(lái)越少。


就拿大語(yǔ)言模型的典型代表 GPT-4 來(lái)說(shuō),即便時(shí)至今日,它依然會(huì )對一些在人類(lèi)看來(lái)很簡(jiǎn)單的問(wèn)題,給出錯誤的回答(如下圖所示的兩個(gè)案例)。
圖片圖丨案例截圖(來(lái)源:朱澤園)
那么,這到底是 GPT-4 本身的問(wèn)題,還是它的訓練數據不足,亦或是它的數學(xué)能力太弱?其他模型會(huì )有這個(gè)問(wèn)題嗎?
對于追求嚴謹的科學(xué)家來(lái)說(shuō),有必要思考這一系列問(wèn)題的原因,并嘗試發(fā)現其背后存在的普適性定律。
6 個(gè)月前,來(lái)自 Meta 旗下的人工智能基礎研究實(shí)驗室(FAIR Labs)的朱澤園和合作者 MBZUAI 的李遠志教授,在研究大語(yǔ)言模型是“如何學(xué)習知識”的過(guò)程中,發(fā)現了一些意想不到的復雜情況。
譬如:有些知識,模型可以記住,但說(shuō)不出來(lái);有些知識,模型可以說(shuō)出來(lái),但是無(wú)法推演。
有些具備順序性的知識,比如成語(yǔ)“繼往開(kāi)來(lái)”這四個(gè)字,始終是按順序出現的,所以不管大語(yǔ)言模型有多大以及訓練了多久,它都只能記住正序,而無(wú)法記住逆序知識。這種涉及到“知識的順序性”的現象,被學(xué)術(shù)界稱(chēng)為“逆轉詛咒”。
圖片圖丨逆轉詛咒的案例:如果一個(gè)事實(shí)大多只在一個(gè)方向上出現,例如詩(shī)歌的上下句,那么即使是最有能力的大語(yǔ)言模型也無(wú)法反向回憶起這個(gè)事實(shí)。在該案例中,兩個(gè)模型顯然都知道這些歌詞的順序(左),但卻無(wú)法反向生成(右)(來(lái)源:arXiv [3])
為了克服這一難題,近日,FAIR Labs 實(shí)驗室提出了一種替代訓練方案名為“逆轉訓練”,大致思路是對所有的數據,都正向和“逆向”同時(shí)訓練兩次,然后通過(guò)尋找最可靠的“逆向”訓練方法,來(lái)效地解決逆轉詛咒問(wèn)題。
近日,相關(guān)論文以《逆轉訓練攻克逆轉詛咒》(Reverse Training to Nurse the Reversal Curse)為題在預印本平臺 arXiv 上發(fā)表[1]。
作者包括 FAIR Labs 研究工程師奧爾加·戈洛夫涅娃(Olga Golovneva)、研究科學(xué)家朱澤園(Zeyuan Allen-Zhu)、研究科學(xué)家杰森·韋斯頓(Jason Weston)和研究科學(xué)家桑巴亞爾·蘇赫巴托爾(Sainbayar Sukhbaatar)。
圖片圖丨相關(guān)論文(來(lái)源:arXiv
圖片提出逆轉訓練方案,攻克大語(yǔ)言模型的逆轉詛咒難題


其實(shí),在探究大模型針對簡(jiǎn)單的問(wèn)題卻給出錯誤回答背后的原因時(shí),朱澤園認為,過(guò)度追求大語(yǔ)言模型在基準數據集上的表現,也可能讓人類(lèi)和通用人工智能漸行漸遠。
例如,最近發(fā)表在 Nature 上的 AlphaGeometry[2],是 DeepMind 開(kāi)發(fā)的一個(gè) AI 系統,能夠解決國際數學(xué)奧林匹克競賽 30 道平面幾何題中的 25 道。
但它的主算法卻是一個(gè)沒(méi)有 AI 參與的暴力搜索,搜索的步驟從數百條由人工挑選的引理中選擇。
有沒(méi)有一種可能是,DeepMind 人工挑選了上百條為 30 道國際數學(xué)奧林匹克競賽題量身定做的引理呢?
“我們對此表示質(zhì)疑(僅代表本團隊,并非 Meta 官方立場(chǎng))。但從科學(xué)的角度來(lái)看,我們應該盡量避免人工干預,以防‘有多少人工,就有多少智能’?!?nbsp;朱澤園表示。
圖片圖丨朱澤園(來(lái)源:朱澤園)
基于類(lèi)似以上的擔憂(yōu),朱澤園提出了“語(yǔ)言模型物理學(xué)”這一新概念。
此概念主張,在物理學(xué)的啟發(fā)下化繁為簡(jiǎn),將“智能”分拆成多個(gè)維度,包括語(yǔ)法、知識、推理、解題等,并給每個(gè)維度創(chuàng )建全新的合成數據,搭建理想化的大語(yǔ)言模型訓練和測試環(huán)境,以探索模型所具備的普適性定律。類(lèi)似在真空中研究牛頓定律,或是理想環(huán)境下研究氣體方程。
需要說(shuō)明的是,研究人員并不應該局限于類(lèi)似 GPT-4 這樣的個(gè)別模型,而是應該總結出在理想的數據集下,任何模型所展現出的普適性質(zhì)。
“對于人工智能領(lǐng)域來(lái)說(shuō),通過(guò)在理想環(huán)境中去偽存真,我們可以排除數據作弊、人工挑選等因素,真正找出大語(yǔ)言模型的普適定律,并提出增強性能的方案?!敝鞚蓤@表示。
據了解,《語(yǔ)言模型物理學(xué)》項目的第一部分專(zhuān)注于語(yǔ)法研究,第二部分側重于推理研究,第三部分則聚焦于知識研究,其他更多部分的研究也在積極推進(jìn)中,并在 Meta 內部立項,得到 FAIR 研究院的海量算力支持。
“不過(guò)因為發(fā)現過(guò)多,僅是其中第三部分‘知識研究’就拆成了至少三篇論文 Part 3.1、3.2、3.3,每篇都有幾個(gè)甚至十幾個(gè)結論,均已在 arXiv 上發(fā)表?!敝鞚蓤@說(shuō)。

圖片

圖 | 《語(yǔ)言模型物理學(xué)》第三部示意圖(來(lái)源:作者 twitter)
對于發(fā)表在 Part 3.2 論文中的“知識的順序性”這一現象來(lái)說(shuō),朱澤園和李遠志最早是在理想環(huán)境中觀(guān)察到它,而后又在市面上可見(jiàn)的預訓練模型,如 GPT-4 和 LLaMA-2 中,驗證了它的存在。
那么用“理想環(huán)境”而不是現實(shí)模型來(lái)做研究,有什么好處呢?
譬如這個(gè)課題里,在理想環(huán)境中我們可以固定知識的順序,也不用擔心測試數據的污染。
假如我們永遠都說(shuō)“某某人,在 XXXX 年 X 月 XX 日出生”,以保證數據集中的知識都是人名在生日之前;然后,再提取出該數據集中一半的人員信息,訓練模型的逆向知識提取能力,比如“在 XXXX 年 X 月 XX 日出生的人,叫什么名字”。
我們就會(huì )發(fā)現,不管模型多大、訓練多久,它都只能對這一半的人完成逆向知識提?。ㄕ_率 100%,因為這一半人在訓練集里),而無(wú)法推演(generalize到剩下一半的人(正確率 0%)。
圖片圖 | 在理想環(huán)境下,所有逆向知識提取的正確率都幾乎是 0(來(lái)源:arxiv[3])
換言之,理想環(huán)境下,不僅可以將測試集和訓練集完全分開(kāi),也能讓數據量無(wú)限增大,甚至還可以把模型打開(kāi),觀(guān)察出“為什么”知識無(wú)法逆向提取,并得到提取知識的充分必要條件。
更重要的是,理想環(huán)境下的研究,可以推廣到包括 GPT-4 在內的現實(shí)模型上,也能觀(guān)察到“逆轉詛咒”。
比如,除了如上所說(shuō)的成語(yǔ)逆轉,還可以向大語(yǔ)言模型詢(xún)問(wèn)“西出陽(yáng)關(guān)無(wú)故人”的上一句話(huà),或是給出百科上名人的出生年月日/工作單位/城市,來(lái)反問(wèn)大語(yǔ)言模型這個(gè)人名是誰(shuí)。
“大量的測試告訴我們,現實(shí)模型也無(wú)法很好地回答這樣的逆序知識類(lèi)問(wèn)題?!敝鞚蓤@說(shuō)。
不過(guò),需要指出的是,在現實(shí)模型上很難確定造成這些錯誤回答的原因,究竟是模型訓練得不夠久,還是數據不夠多。
即便現實(shí)模型答對了,會(huì )不會(huì )它的訓練數據中看到了原題(也就是數據污染)。綜上,在現實(shí)模型上直接研究,很難得到令人信服的、科學(xué)的結論。
“這就是為什么我們要做《語(yǔ)言模型物理學(xué)》的原因,即希望探索出一種全新的研究 AI 模型的思路?!敝鞚蓤@表示。
發(fā)現問(wèn)題是一方面,要想解決“逆轉詛咒”,就是一個(gè)新的延伸課題了。為此,朱澤園和 FAIR Labs 實(shí)驗室的“推理記憶”課題組聯(lián)手,基于理想環(huán)境中的發(fā)現,給出現實(shí)生活中的一個(gè)解決方案——隨機拆詞反轉訓練。
主要是把每 1-25 個(gè)連續 token(對應約 1-15 個(gè)英語(yǔ)單詞)隨機拆成一組,在保持每組順序不變的前提下,將整個(gè)文章進(jìn)行反轉。
同時(shí)使用正向的原文,和反轉后的文字對語(yǔ)言模型進(jìn)行訓練。如果同一數據會(huì )多次進(jìn)行反轉訓練,則可以每次用不同的隨機方法拆詞,這在無(wú)形之中增加了數據的多樣性,從而增強大模型對知識的存取效率。
從另一方面來(lái)看,隨機拆詞并翻轉也模擬了人類(lèi)速讀。也就是說(shuō),當我們快速閱讀一段文字的時(shí)候,眼睛也在進(jìn)行隨機拆解,甚至也會(huì )無(wú)序地閱讀。包括在學(xué)習重要知識時(shí),還會(huì )前后翻書(shū)和反復閱讀。
研究人員將上述方法稱(chēng)為“逆轉訓練”,并且在 LLaMA-2 模型上做了真實(shí)數據的測試。

圖片

圖 | 在真實(shí) LLaMA-2 模型上測試,逆轉訓練可以攻克逆轉詛咒(來(lái)源:arxiv[1])

同時(shí),他們還得到了一個(gè)重要的發(fā)現:如果正反向都進(jìn)行訓練,既不會(huì )影響正向的訓練結果,又不會(huì )讓傳統的基準數據集得分降低。


對于《語(yǔ)言模型物理學(xué)》系列作品給應用領(lǐng)域帶來(lái)的影響,朱澤園認為會(huì )是非常全面的。作為該系列作品的一個(gè)衍生成果,《逆轉訓練攻克逆轉詛咒》很可能在幫助解決大語(yǔ)言模型的諸多問(wèn)題之一的同時(shí),在所有公司的所有應用場(chǎng)景中得到應用。
“當然,一切的理論研究走到實(shí)際落地都有一個(gè)過(guò)程。我歡迎所有的研究人員參考我們論文給出的理論指導建議,在實(shí)際應用中找到增益?!敝鞚蓤@說(shuō)。
另外,值得一提的是,2024 年 7 月,朱澤園將在 ICML 2024 上,受邀開(kāi)展《語(yǔ)言模型物理學(xué)》系列講壇(tutorial課程。
圖片

致力于挑戰人工智能的每個(gè)維度,希望探索出大語(yǔ)言模型的普適性物理定律


據了解,朱澤園本科就讀于清華大學(xué)物理系,博士畢業(yè)于美國麻省理工計算機系,是圖靈獎得主希爾維奧·米卡利(Silvio Micali)教授的弟子,后在美國普林斯頓大學(xué)和從事博士后研究,師從剛剛獲得圖靈獎的艾維·維格森(Avi Wigderson)教授。


他曾是國際信息學(xué)奧林匹克競賽兩屆金牌、國際大學(xué)生程序設計競賽全球總決賽金牌的獲得者,也在谷歌全球編程挑戰賽(Google Code Jam)中獲得世界第二的成績(jì)。
在 2022 年加入 FAIR Labs 之前,朱澤園曾在微軟研究院總部任職。
“加入 FAIR Labs 以后,我被給予了 100% 的科研自由,可以獨立發(fā)起項目,選擇我認為最重要的人工智能課題進(jìn)行長(cháng)期研究?!墩Z(yǔ)言模型物理學(xué)》項目,就是我所負責的長(cháng)期項目?!敝鞚蓤@介紹說(shuō)。
如上所說(shuō),《逆轉訓練攻克逆轉詛咒》,是該項目的一個(gè)衍生課題。
不過(guò),在最早參與該課題時(shí),朱澤園并不十分“積極”。這主要是因為他考慮到精力有限,所以對參與科研課題一貫持謹慎態(tài)度。
“當這一課題負責人蘇赫巴托爾聯(lián)系我時(shí),我從理論的角度出發(fā),告訴他已經(jīng)在理想環(huán)境下證明了數據反向訓練有效。所以,我認為逆轉訓練這個(gè)方法太過(guò)簡(jiǎn)單,只需要多做點(diǎn)大規模的實(shí)驗而已?!彼f(shuō)。
但蘇赫巴托爾反問(wèn)道:“那你當初為什么要發(fā)表 LoRA 呢?”
這個(gè)問(wèn)題促使朱澤園進(jìn)行了長(cháng)時(shí)間的思考和反省,并最終做出了改變想法的決定。
其中,LoRA 是朱澤園在微軟研究院供職時(shí)參與開(kāi)發(fā)的一個(gè)簡(jiǎn)單有效的微調工具。當時(shí)他也曾認為該工具過(guò)于簡(jiǎn)單,但如今后者已經(jīng)成為行業(yè)內最常用的微調算法,業(yè)內幾乎無(wú)人不曉。
逆轉訓練攻克逆轉詛咒課題開(kāi)始進(jìn)行之后,朱澤園和合作者發(fā)現不同的逆轉訓練策略在效果上存在差異,與他們最初的預期不同。對此,他們也在論文中進(jìn)行了詳細的比較。
“總的來(lái)說(shuō),如果一個(gè)算法簡(jiǎn)易且有用,還不需要復雜的數學(xué)公式,這不正是我們人類(lèi)最希望獲得的嗎?”朱澤園表示。
另外,在目前研究的基礎上,他告訴我們,《語(yǔ)言模型物理學(xué)》項目也制定了后續計劃,包括 2 個(gè)月內可以發(fā)布的項目第二部分“語(yǔ)言模型推理研究”的兩篇論文,會(huì )在理想環(huán)境下研究并提高 AI 模型在小學(xué)數學(xué)題上的推理能力等。
朱澤園說(shuō):“我們有一個(gè)很遠大的目標,那就是在理想的環(huán)境里去偽存真,挑戰人工智能的每一個(gè)維度,總結出大語(yǔ)言模型的普適物理定律?!?/span>
與此同時(shí),他也認為,致力于研究理想環(huán)境下的大語(yǔ)言模型的《語(yǔ)言模型物理學(xué)》項目,與大部分科研都不相同。
“在我眼中,這仿佛是一個(gè)新的學(xué)科和一個(gè)新的研究問(wèn)題的方式,非常刺激。因此,我幾乎停下了手上一切科研方向,全身心地撲向其中?!彼硎?。
即便在研究過(guò)程中受到諸多批評和質(zhì)疑,包括測得的數據是否過(guò)于理想化、可能太過(guò)局限,以及和實(shí)際有差異等,但他對此卻依然毫不擔心。
他始終奉行堅持日心說(shuō)的意大利科學(xué)家喬爾丹諾·布魯諾(Giordano Bruno)曾經(jīng)說(shuō)過(guò)的這句話(huà),“真理不會(huì )因為大多數人相信或不相信而改變”。


參考資料:1. O.,Golovneva, Z., Allen-Zhu, J., Weston. et al. Reverse Training to Nurse the Reversal Curse. arXiv:2403.13799v1(2024).https://doi.org/10.48550/arXiv.2403.137992. Trinh, T.H., Wu, Y., Le, Q.V. et al. Solving olympiad geometry without human demonstrations. Nature 625, 476–482 (2024). https://doi.org/10.1038/s41586-023-06747-53. Z. Allen-Zhu, Y. Li. Physics of Language Models: Part 3.2, Knowledge Manipulation.arXiv:2309.14402(2023). https://arxiv.org/abs/2309.144027
排版:劉雅坤



*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: Meta

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>