<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > GPT-4比ChatGPT有何進(jìn)步?黃仁勛與OpenAI聯(lián)合創(chuàng )始人進(jìn)行了一次“爐邊談話(huà)”

GPT-4比ChatGPT有何進(jìn)步?黃仁勛與OpenAI聯(lián)合創(chuàng )始人進(jìn)行了一次“爐邊談話(huà)”

發(fā)布人:傳感器技術(shù) 時(shí)間:2023-03-24 來(lái)源:工程師 發(fā)布文章
大數據文摘出品

作者:Caleb
英偉達碰上OpenAI會(huì )擦出怎樣的火花?
就在剛剛,英偉達創(chuàng )始人兼首席執行官黃仁勛在GTC的爐邊談話(huà)中與OpenAI共同創(chuàng )辦人Ilya Sutskever進(jìn)行了一次深入交流。

圖片

視頻鏈接:

https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessionstab=16566177511100015Kus#/session/1669748941314001t6Nv


前兩天,OpenAI推出了迄今為止最強大的人工智能模型GPT-4。OpenAI在官網(wǎng)上稱(chēng)GPT-4是“OpenAI最先進(jìn)的系統”,“能夠產(chǎn)生更安全、更有用的響應”。
Sutskever在談話(huà)中也表示,與ChatGPT相比,GPT-4在許多方面標志著(zhù)“相當大的改進(jìn)”,并指出新模型可以讀取圖像和文本。他說(shuō),“在未來(lái)的某個(gè)版本中,[用戶(hù)]可能會(huì )得到一張圖表”以回應提問(wèn)和查詢(xún)。
圖片
毫無(wú)疑問(wèn),隨著(zhù)ChatGPT與GPT-4在全球范圍內的爆火,這也成為了這次談話(huà)的關(guān)注焦點(diǎn),而除了GPT-4及其前身包括ChatGPT相關(guān)話(huà)題外,黃仁勛與Sutskever也聊到了深度神經(jīng)網(wǎng)絡(luò )的能力、局限性和內部運作方式,以及對未來(lái)AI發(fā)展的預測。
接下來(lái)就和文摘菌一起深入這場(chǎng)對話(huà)看看吧~
網(wǎng)絡(luò )規模和計算規模還無(wú)人在意時(shí)做起
可能不少人一聽(tīng)到Sutskever的名字最先想到的就是OpenAI及其相關(guān)的AI產(chǎn)品,但要知道,Sutskever的履歷可以追溯到吳恩達的博士后、Google Brain的研究科學(xué)家,以及Seq2Seq模型的合作開(kāi)發(fā)者。
可以說(shuō),從一開(kāi)始,深度學(xué)習就與Sutskever綁定在了一起。
在談及對深度學(xué)習的認識時(shí),Sutskever表示,從現在來(lái)看,深度學(xué)習確實(shí)改變了世界。不過(guò)他個(gè)人的出發(fā)點(diǎn)更多是在于對AI存在的巨大影響潛力的直覺(jué),對意識與人類(lèi)體驗的濃厚興趣,以及認為AI的發(fā)展會(huì )幫助解答這些問(wèn)題。
2002-03年期間,人們普遍認為學(xué)習是一件只有人類(lèi)才能做到的事,計算機是無(wú)法學(xué)習的。而如果能讓計算機具有學(xué)習的能力,那將是AI領(lǐng)域一次重大的突破。
這也成了Sutskever正式進(jìn)軍AI領(lǐng)域的契機。
圖片
于是Sutskever找到了同一所大學(xué)的Jeff Hinton。在他看來(lái),Hinton所從事的神經(jīng)網(wǎng)絡(luò )正是突破口,因為神經(jīng)網(wǎng)絡(luò )的特性就在于能夠學(xué)習,可以自動(dòng)編程的并行計算機。
而彼時(shí)并沒(méi)有人在意網(wǎng)絡(luò )規模和計算規模的重要性,人們訓練的神經(jīng)網(wǎng)絡(luò )只有50個(gè)或100個(gè),數百個(gè)的規模已經(jīng)算大的了,一百萬(wàn)的參數也被視為很龐大。
除此之外,他們還只能在沒(méi)有優(yōu)化過(guò)的CPU代碼上跑程序,因為沒(méi)人懂BLAS,多用優(yōu)化后的Matlab做一些實(shí)驗,比如用什么樣的問(wèn)題來(lái)提問(wèn)比較好。

但問(wèn)題是,這些都是很零散的實(shí)驗,無(wú)法真正推動(dòng)技術(shù)進(jìn)步。
構建面向計算機視覺(jué)的神經(jīng)網(wǎng)絡(luò )
當時(shí),Sutskever就察覺(jué)到,有監督學(xué)習才是未來(lái)前進(jìn)的方向。
這不僅是一種直覺(jué),也是無(wú)需爭辯的事實(shí)。在神經(jīng)網(wǎng)絡(luò )足夠深足夠大的基礎上,那么它就有能力去解決一些有難度的任務(wù)。但人們還沒(méi)有專(zhuān)注在深且大的神經(jīng)網(wǎng)絡(luò )上,甚至人們根本沒(méi)有把目光放在神經(jīng)網(wǎng)絡(luò )上。
為了找到一個(gè)好的解決方案,就需要一個(gè)合適的大數據集以及大量的計算。
ImageNet就是那個(gè)數據。當時(shí)ImageNet是一個(gè)難度很高的數據集,但要訓練一個(gè)大的卷積神經(jīng)網(wǎng)絡(luò ),就必須要有匹配的算力。

圖片


接下來(lái)GPU就該出場(chǎng)了。在Jeff Hinton的建議下,他們發(fā)現隨著(zhù)ImageNet數據集的出現,卷積神經(jīng)網(wǎng)絡(luò )是非常適合GPU的模型,所以能夠讓它變得很快,規模也就這么越來(lái)越大了。
隨后更是直接大幅打破了計算機視覺(jué)的紀錄,而這不是基于以往方法的延續,關(guān)鍵是在于這個(gè)數據集本身的難度與范圍。
OpenAI:從100人到ChatGPT
在OpenAI初期,Sutskever坦言道,他們也不是完全清楚如何推動(dòng)這個(gè)項目。

在2016年初,神經(jīng)網(wǎng)絡(luò )沒(méi)有那么發(fā)達,研究人員也比現在少很多。Sutskever回憶稱(chēng),當時(shí)公司只有100個(gè)人,大部分還都在谷歌或deepmind工作。

圖片


不過(guò)當時(shí)他們有兩個(gè)大的思路。
其中一個(gè)是通過(guò)壓縮進(jìn)行無(wú)監督學(xué)習。2016年,無(wú)監督學(xué)習是機器學(xué)習中一個(gè)尚未解決的問(wèn)題,沒(méi)有人知道怎么實(shí)現。最近,壓縮也并不是人們通常會(huì )談到的話(huà)題,只是突然間大家突然意識到GPT實(shí)際上壓縮了訓練數據。
從數學(xué)意義上講,訓練這些自回歸生成模型可以壓縮數據,并且直觀(guān)上也可以看到為什么會(huì )起作用。如果數據被壓縮得足夠好,你就能提取其中存在的所有隱藏信息。這也直接導致了OpenAI對情緒神經(jīng)元的相關(guān)研究。
同時(shí),他們對相同的LSTM進(jìn)行調整來(lái)預測亞馬遜評論的下一個(gè)字符時(shí)發(fā)現,如果你預測下一個(gè)字符足夠好,就會(huì )有一個(gè)神經(jīng)元在LSTM內對應于它的情緒。這就很好地展示了無(wú)監督學(xué)習的效果,也驗證了下一個(gè)字符預測的想法。

但是要從哪里得到無(wú)監督學(xué)習的數據呢?Sutskever表示,無(wú)監督學(xué)習的苦難之處不在于數據,更多關(guān)于為什么要這么做,以及意識到訓練神經(jīng)網(wǎng)絡(luò )來(lái)預測下一個(gè)字符是值得追求和探索的。于此它會(huì )學(xué)習到一個(gè)可以理解的表征。
另一個(gè)大的思路就是強化學(xué)習。Sutskever一直相信,更大的就是更好的(bigger is better)。在OpenAI,他們的一個(gè)目標就是找出規模擴展的正確途徑。
OpenAI完成的第一個(gè)真正的大型項目是實(shí)施戰略游戲Dota 2。當時(shí)OpenAI訓練了一個(gè)強化學(xué)習的agent來(lái)與自己對抗,目標是達到一定水平能夠和人類(lèi)玩家游戲。

圖片


從Dota的強化學(xué)習轉變?yōu)槿祟?lèi)反饋的強化學(xué)習GPT產(chǎn)出技術(shù)基座結合,就成了如今的ChatGPT。
OpenAI是如何訓練一個(gè)大型神經(jīng)網(wǎng)絡(luò )的
當訓練一個(gè)大型神經(jīng)網(wǎng)絡(luò )來(lái)準確預測互聯(lián)網(wǎng)上不同文本中的下一個(gè)詞的時(shí)候,OpenAI所做的是學(xué)習一個(gè)世界模型。

這看上去像是只在學(xué)習文本中的統計相關(guān)性,但實(shí)際上,學(xué)習這些統計相關(guān)性就可以把這些知識壓縮得非常好。神經(jīng)網(wǎng)絡(luò )所學(xué)習的是生成文本的過(guò)程中的一些表述,這個(gè)文本實(shí)際上是世界的一個(gè)映射,因此神經(jīng)網(wǎng)絡(luò )便能夠學(xué)習越來(lái)越多的角度來(lái)看待人類(lèi)和社會(huì )。這些才是神經(jīng)網(wǎng)絡(luò )真正在準確預測下一個(gè)詞的任務(wù)中學(xué)習到的東西。
同時(shí),對下一個(gè)詞的預測越準確,還原度就越高,在這個(gè)過(guò)程中得到的對世界的分辨率就越高。這是預訓練階段的作用,但這并不能讓神經(jīng)網(wǎng)絡(luò )表現出我們希望它表現出的行為。

圖片


一個(gè)語(yǔ)言模型真正要做到的是,如果我在互聯(lián)網(wǎng)上有一些隨機文本,以一些前綴或提示開(kāi)始,它會(huì )補全什么內容。
當然它也可以在互聯(lián)網(wǎng)上找到文本進(jìn)行填充,但這就不是最初構想的那樣的,因此還需要額外的訓練,這就是微調、來(lái)自人類(lèi)老師的強化學(xué)習,以及其他形式的AI協(xié)助可以發(fā)揮作用的地方。
但這不是教授新的知識,而是與它交流,向它傳達我們希望它變成什么樣,其中也包括了邊界。這個(gè)過(guò)程做得越好,神經(jīng)網(wǎng)絡(luò )就越有用越可靠,邊界的保真度也就越高。
再談GPT-4
ChatGPT成為用戶(hù)增長(cháng)最快的應用沒(méi)多久,GPT-4就正式釋出。
在談到兩者的區別時(shí),Sutskever表示,GPT-4相較于ChatGPT在許多維度上都做到了相當大的改進(jìn)。
ChatGPT與GPT-4之間最重要的區別在于在GPT-4的基礎上構建預測下一個(gè)字符具有更高的準確度。神經(jīng)網(wǎng)絡(luò )越能預測文本中的下一個(gè)詞,它就越能理解文本。

圖片


比如,你讀了一本偵探小說(shuō),情節非常復雜,穿插了非常多的故事情節和人物,埋了很多神秘的線(xiàn)索。在書(shū)的最后一章,偵探收集了所有的線(xiàn)索,召集了所有人,說(shuō)現在他將揭示誰(shuí)是犯人,那個(gè)人就是……
這就是GPT-4能夠預測的東西。
人們都說(shuō),深度學(xué)習不會(huì )邏輯推理。但不管是這個(gè)例子還是GPT能做到的一些事,都展現出了一定程度的推理能力。
Sutskever對此回應稱(chēng),當我們在定義邏輯推理時(shí),在進(jìn)行下一步?jīng)Q策時(shí)如果你能夠以某種方式思考一下或許能得到一個(gè)更好的答案。而神經(jīng)網(wǎng)絡(luò )能走多遠也尚待考察,OpenAI目前還沒(méi)有充分挖掘出它的潛力。
一些神經(jīng)網(wǎng)絡(luò )其實(shí)已經(jīng)具備了這類(lèi)能力,但是大多都還不夠可靠。而可靠性是讓這些模型有用的最大阻礙,這也是當前模型的一大瓶頸。這不關(guān)乎模型是否具備特定的能力,而是具備多少能力。
Sutskever也表示,GPT-4發(fā)布時(shí)并沒(méi)有內置的檢索功能,它只是一個(gè)能夠預測下一個(gè)詞的很好的工具,但可以說(shuō)它完全具備這個(gè)能力,將檢索變得更好。

GPT-4還有一個(gè)顯著(zhù)的改進(jìn)就是對圖像的響應和處理。多模態(tài)學(xué)習在其中發(fā)揮了重要的作用,Sutskever說(shuō)到,多模態(tài)有兩個(gè)維度,第一個(gè)在于多模態(tài)對神經(jīng)網(wǎng)絡(luò )是有用處的,尤其是視覺(jué);第二個(gè)在于除了文本學(xué)習外,從圖像中也可以學(xué)習到世界的知識。
人工智能的未來(lái)
再說(shuō)到利用AI訓練AI時(shí),Sutskever表示這一部分的數據不應該被忽視。

預測未來(lái)語(yǔ)言模型的發(fā)展是一件困難的事,但是在Sutskever看來(lái),有充分理由相信這個(gè)領(lǐng)域會(huì )持續進(jìn)步,AI也將在自己的能力邊界繼續用實(shí)力震驚人類(lèi)。AI的可靠性是由是否可以被信任決定的,未來(lái)肯定會(huì )達到可被完全信賴(lài)的地步。
如果它不能完全理解,它也會(huì )通過(guò)提問(wèn)來(lái)弄清楚,或者告訴你它不知道,這些正是AI可用性影響最大的領(lǐng)域,未來(lái)會(huì )有最大的進(jìn)步。
現在就面臨這樣一個(gè)挑戰,你想讓一個(gè)神經(jīng)網(wǎng)絡(luò )總結長(cháng)文檔或獲取摘要,如何確定重要的細節沒(méi)有被忽視?如果一個(gè)要點(diǎn)顯然重要到每個(gè)讀者都會(huì )對此達成一致,那么就可以承認神經(jīng)網(wǎng)絡(luò )總結的內容是可靠的。
在神經(jīng)網(wǎng)絡(luò )是否清楚地遵循用戶(hù)意圖這一點(diǎn)上也同樣適用。
未來(lái)兩年會(huì )看到越來(lái)越多這樣的技術(shù),讓這項技術(shù)變得越來(lái)越可靠。


來(lái)源:大數據文摘


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: ChatGPT

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>