OpenAI新模型GPT-5或將無(wú)緣明年發(fā)布
AI的下一個(gè)飛躍似乎沒(méi)法準時(shí)報道了。據外媒報道,OpenAI在推進(jìn)其下一代核心模型GPT-5(代號Orion)的開(kāi)發(fā)正面臨重重困難,該項目已開(kāi)發(fā)超過(guò)18個(gè)月,成本花費巨大卻仍未取得預期成果。
本文引用地址:http://dyxdggzs.com/article/202412/465753.htm內部消息透露OpenAI已經(jīng)完成了至少兩次大型訓練運行,希望通過(guò)對大量數據的訓練來(lái)改進(jìn)模型。然而,訓練進(jìn)程較預期滯后,預示著(zhù)更大規模的訓練任務(wù)不僅耗時(shí)冗長(cháng),而且經(jīng)濟成本高昂。
估算顯示,GPT-5一次為期6個(gè)月的訓練僅計算成本就高達約5億美元。OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)則表示,未來(lái)的AI模型成本預計將超過(guò)10億美元。
模型的測試是一個(gè)持續的過(guò)程,大規模的訓練運行可能需要幾個(gè)月的時(shí)間,數萬(wàn)億個(gè)token會(huì )被“投喂”給模型。想要讓GPT-5變得更智能,就需要更多高質(zhì)量、多樣化的數據,為解決這一問(wèn)題,OpenAI選擇從頭開(kāi)始創(chuàng )建數據 —— 他們雇傭軟件工程師和數學(xué)家等專(zhuān)業(yè)人士編寫(xiě)新代碼或解決數學(xué)問(wèn)題,以此作為訓練數據。另外,OpenAI也開(kāi)始開(kāi)發(fā)“合成數據”,利用AI生成的數據來(lái)訓練Orion,并認為可以通過(guò)使用其另一個(gè)AI模型o1生成的數據來(lái)避免故障。
值得注意的是,薩姆·阿爾特曼此前已公開(kāi)承認,隨著(zhù)AI模型復雜度急劇上升,公司在多線(xiàn)程項目管理,尤其是計算資源的高效配置上,正面臨前所未有的挑戰。鑒于此,OpenAI已預計GPT-5將無(wú)緣下一年發(fā)布。
OpenAI首席產(chǎn)品官Kevin Weil進(jìn)一步闡釋了公司的當前戰略重心,強調在推動(dòng)視頻模型Sora進(jìn)入下一階段重大升級之前,將致力于提升模型的安全性、模擬精準度以及計算規模的可擴展性,確保各項標準均達到行業(yè)頂尖水平。
OpenAI的下一個(gè)旗艦模型可能并不像其前輩那樣代表著(zhù)巨大的飛躍,盡管新模型的性能超過(guò)了OpenAI的現有模型,但與從GPT-3到GPT-4的躍升過(guò)程中所看到的相比,新模型的性能提升幅度較小。
評論