用Transformer定義所有ML模型,特斯拉AI總監Karpathy發(fā)推感嘆AI融合趨勢
特斯拉 AI 總監 Andrej Karpathy 連發(fā)多條推文表示,AI 不同領(lǐng)域(視覺(jué)、語(yǔ)音、自然語(yǔ)言等)正在打通,融合速度令人驚嘆。
轉自《機器之心》
今日,特斯拉 AI 總監、Autopilot Vision 團隊領(lǐng)導人 Andrej Karpathy 在推特上發(fā)文,對 AI 領(lǐng)域正在進(jìn)行中的融合(consolidation)表示驚嘆。
他表示,「10 年前,視覺(jué)、語(yǔ)音、自然語(yǔ)言、強化學(xué)習等都是完全分離的,甚至沒(méi)有跨領(lǐng)域的論文。方法也完全不同,通常不是基于機器學(xué)習?!?/p>
從 2010 年開(kāi)始,視覺(jué)、語(yǔ)言、自然語(yǔ)言、強化學(xué)習等領(lǐng)域的壁壘逐漸打破,它們開(kāi)始轉向同一個(gè)技術(shù)方向,即機器學(xué)習,特別是神經(jīng)網(wǎng)絡(luò )。它們使用的網(wǎng)絡(luò )架構具有多樣性,但至少論文開(kāi)始讀起來(lái)更加相似,基本上都用到了大型數據集和網(wǎng)絡(luò )優(yōu)化。
隨著(zhù) AI 技術(shù)的發(fā)展,近兩年,不同領(lǐng)域模型架構似乎也變得相同起來(lái)。很多研究者開(kāi)始專(zhuān)注于 Transformer 架構,在此基礎上做較小的改動(dòng)以進(jìn)行研究。
例如 2018 誕生的 GPT,1.17 億參數;2019 年 GPT-2,15 億參數;2020 年更是將其擴展到 1750 億參數 GPT-3。Karpathy 基于 PyTorch,僅用 300 行左右的代碼就寫(xiě)出了一個(gè)小型 GPT 訓練庫,并將其命名為 minGPT,這個(gè) minGPT 能夠進(jìn)行加法運算和字符級的語(yǔ)言建模,而且準確率還不錯。核心的 minGPT 庫包含兩個(gè)文檔:mingpt/model.py 和 mingpt/trainer.py。前者包含實(shí)際的 Transformer 模型定義,大約 200 行代碼,后者是一個(gè)與 GPT 無(wú)關(guān)的 PyTorch 樣板文件,可用于訓練該模型。
部分代碼截圖。
197 行完整代碼:https://github.com/karpathy/minGPT/blob/master/mingpt/model.py
隨著(zhù)模型架構的融合,現在,我們可以向模型輸入詞序列、圖像 patch 序列、語(yǔ)音序列、強化學(xué)習序列(狀態(tài)、行為、獎勵)。我們可以在條件設置中添加任意 token,這種模式是極其簡(jiǎn)單、靈活的建??蚣?。
即使是在某個(gè)領(lǐng)域(如視覺(jué))內部,過(guò)去在分類(lèi)、分割、檢測和生成任務(wù)上存在一些差異。但是,所有這些也正在轉換為相同的框架,例如 patch 的檢測 take 序列和邊界框的輸出序列。
現在,區別性特征主要包括以下幾個(gè)方面:
1)數據
2)將自身問(wèn)題映射到向量序列以及從向量序列映射出自身問(wèn)題的輸入 / 輸出規范
3)位置編碼器的類(lèi)型以及注意力 mask 中針對特定問(wèn)題的結構化稀疏模式
所以,從技術(shù)上來(lái)說(shuō),AI 領(lǐng)域的方方面面,包括前景、論文、人才和想法突然之間變得極其相關(guān)。每個(gè)人基本上都在使用相同的模型,大多數改進(jìn)和想法可以快速地在所有 AI 領(lǐng)域「復制粘貼」(copy paste)。
正如其他很多人注意到并指出的那樣,新大腦皮質(zhì)(neocortex)在其所有的輸入模態(tài)中也有一個(gè)高度統一的架構。也許自然界偶然發(fā)現了一個(gè)非常相似的強大架構,并以類(lèi)似的方式復制了它,并只在一些細節上做了改變。
這種架構上的融合將使我們專(zhuān)注于軟硬件和基礎設施建設,進(jìn)一步加速 AI 領(lǐng)域的進(jìn)展?!笩o(wú)論如何,這是激動(dòng)人心的時(shí)刻?!?/p>
對于 Andrej Karpathy 描述的 AI 融合趨勢,網(wǎng)友也紛紛發(fā)表意見(jiàn)。
推特網(wǎng)友 @Neural Net Nail 表示,「這是一個(gè)有價(jià)值的見(jiàn)解。融合將加速 AI 領(lǐng)域的創(chuàng )新步伐,在邊緣端使用 AI 的尖端產(chǎn)品變得更加可行。我想,變化(variation)才是質(zhì)量的最大敵人?!?/p>
網(wǎng)友 @sisil mehta 也認為,「ML 基礎設施迎來(lái)了激動(dòng)人心的時(shí)刻。隨著(zhù)模型架構的融合,建??蚣芎突A設施也將融合。我當然希望 PyTorch Lightning 也會(huì )這樣?!?/p>
網(wǎng)友 @Marcos Pereira 表示,「一方面,處處都在用 transformers,我們已經(jīng)遇到了障礙,需要創(chuàng )新;另一方面,處處都在用 transformers,所以跟上來(lái)吧?!?/p>
原文出自 @Andrej Karpathy 的推特:https://twitter.com/karpathy/status/1468370605229547522
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。