三年后AI大模型訓練成本或達1000億美元?
據Tom’s Hardware報道,AI新創(chuàng )公司Anthropic CEO Dario Amodei近日在Podcast節目《In Good Company》中表示,雖然AI大模型的參數持續增長(cháng),三年后的AI模型的訓練成本可能將高達1000億美元。
Amodei表示,OpenAI的ChatGPT-4等AI模型,大約只需要花費1億美元即可訓練完成。而當前正在開(kāi)發(fā)中的更大參數的大模型,可能最多需要花費10億美元來(lái)進(jìn)行訓練,預計未來(lái)三年,更大的模型的訓練成本會(huì )快速膨脹至100億美元,甚至是1,000億美元。
對于A(yíng)I大模型的訓練來(lái)說(shuō),AI芯片是最大的成本。早在2023年,市場(chǎng)就傳聞ChatGPT需要超過(guò)30,000顆英偉達的AI GPU來(lái)支撐,而OpenAI CEO阿爾特曼(Sam Altman)也確認,ChatGPT-4的訓練成本為1億美元。
除了OpenAI之外,谷歌、Meta、IBM、特斯拉、阿里巴巴、百度、騰訊、字節跳動(dòng)等眾多的科技大廠(chǎng)都有在開(kāi)發(fā)自己的AI大模型。由此也帶來(lái)了對于高性能AI芯片的龐大需求。根據TechInsights的數據,2023年全球數據中心GPU總出貨量達到了385萬(wàn)顆,其中英偉達一家就出貨了376萬(wàn)顆。而英偉達出貨的H100加速卡的售價(jià)超過(guò)2.5萬(wàn)美元。而英偉達的新一代AI GPU B200每顆售價(jià)至少30,000~40,000美元左右。
如果按照每年新的大模型的能力都能夠提升10倍,那么所需的硬件基礎設施的性能可能也需要增強10倍,雖然所需的AI芯片數量可能不會(huì )增加10倍(每年新一代的AI芯片的性能都會(huì )提升),但是考慮到尖端制程芯片的成本越來(lái)越高,所需要花費的硬件基礎設施的成本可能會(huì )增加10倍。如此看來(lái),三年后,更強大的AI大模型的訓練成本確實(shí)有可能會(huì )達到1000億美元。
Amodei相信,隨著(zhù)算法、芯片的持續進(jìn)步,2027年之時(shí),AI模型執行任務(wù)的表現,有相當高的機率會(huì )比多數人類(lèi)還要好,即實(shí)現通用人工智能(AGI)。
當然,這可能需要1000億美元的訓練成本,而這么大規模的資金投入只有極少數的廠(chǎng)商能夠負擔的起。但即便是投入如此大規模的資金,短期所能夠帶來(lái)的營(yíng)收可能也非常有限。
Sequoia Capital分析師David Cahn表示,目前AI大模型的龍頭廠(chǎng)商O(píng)penAI的營(yíng)收正在快速增長(cháng),其2024年的營(yíng)收有望從2023年底的16億美元上升至34億美元,遠遠超越其他營(yíng)收還無(wú)法達到1億美元的廠(chǎng)商。這與未來(lái)需要100億美元甚至1000億美元的硬件基礎設施的AI大模型訓練成本相比,這點(diǎn)來(lái)自AI的收入可謂是杯水車(chē)薪。
David Cahn相信,業(yè)界不能期待AI投資能快速帶來(lái)回報,同時(shí)還需意識到當前投資計劃的投機本質(zhì),并持續創(chuàng )新、創(chuàng )造價(jià)值。若不這么做,則這個(gè)價(jià)值數千億美元的泡沫勢將破裂,甚至可能引發(fā)全球經(jīng)濟危機。
編輯:芯智訊-浪客劍
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。