蘋(píng)果在論文中表示,支持其Apple Intelligence AI系統的人工智能模型是在谷歌設計的處理器上預訓練的,這表明大科技公司在訓練前沿AI時(shí)正在尋找替代Nvidia的方法。
本文引用地址:
http://dyxdggzs.com/article/202407/461513.htm蘋(píng)果選擇谷歌自家設計的Tensor Processing Unit(TPU)進(jìn)行訓練,這在公司剛剛發(fā)布的技術(shù)論文中有詳細說(shuō)明。蘋(píng)果周一還發(fā)布了Apple Intelligence的預覽版。
Nvidia昂貴的圖形處理單元(GPU)在高端AI訓練芯片市場(chǎng)占據主導地位,過(guò)去幾年需求旺盛,以至于很難以所需數量采購到。OpenAI、微軟和Anthropic都在使用Nvidia的GPU進(jìn)行模型訓練,而其他科技公司,包括谷歌、Meta、甲骨文和特斯拉,也在大量采購這些芯片來(lái)構建他們的AI系統和產(chǎn)品。
Meta首席執行官馬克·扎克伯格和Alphabet首席執行官桑達爾·皮查伊上周都表示,他們的公司和行業(yè)中的其他公司可能在A(yíng)I基礎設施上過(guò)度投資,但承認不這樣做的商業(yè)風(fēng)險太高。
“落后的壞處在于,你在未來(lái)10到15年最重要的技術(shù)上處于不利位置,”扎克伯格在與彭博社的Emily Chang的播客中說(shuō)。
蘋(píng)果在其47頁(yè)的論文中沒(méi)有提到谷歌或Nvidia,但確實(shí)提到其Apple Foundation Model(AFM)和AFM服務(wù)器是在“云TPU集群”上訓練的。這意味著(zhù)蘋(píng)果租用了云提供商的服務(wù)器來(lái)進(jìn)行計算。
“該系統使我們能夠高效、可擴展地訓練AFM模型,包括AFM-on-device、AFM-server和更大模型,”蘋(píng)果在論文中說(shuō)。
蘋(píng)果和谷歌的代表沒(méi)有回應置評請求。
健康的AI懷疑態(tài)度對技術(shù)行業(yè)有益,Light Street的Glen Kacher說(shuō)健康的AI懷疑態(tài)度對技術(shù)行業(yè)有益,Light Street的Glen Kacher說(shuō)
蘋(píng)果比許多同行更晚披露其AI計劃,這些同行在OpenAI于2022年底推出ChatGPT后很快就大聲宣布了生成性AI的擁抱。周一,蘋(píng)果推出了Apple Intelligence。該系統包括幾個(gè)新功能,例如Siri的新外觀(guān)、更好的自然語(yǔ)言處理以及文本字段中的AI生成摘要。
在接下來(lái)的一年中,蘋(píng)果計劃推出基于生成性AI的功能,包括圖像生成、表情符號生成以及可以訪(fǎng)問(wèn)用戶(hù)個(gè)人信息并在應用程序內執行操作的增強版Siri。
在周一的論文中,蘋(píng)果表示,AFM-on-device是在一個(gè)由2048個(gè)TPU v5p芯片協(xié)同工作的一片“切片”上訓練的。這是最先進(jìn)的TPU,首次發(fā)布于去年12月。AFM-server是在8192個(gè)TPU v4芯片上訓練的,這些芯片通過(guò)數據中心網(wǎng)絡(luò )配置為八片切片協(xié)同工作。
根據谷歌的網(wǎng)站,谷歌最新的TPU在提前預訂三年的情況下,每小時(shí)使用成本低于2美元。谷歌首次在2015年推出其TPU用于內部工作負載,并于2017年向公眾開(kāi)放。它們現在是專(zhuān)為人工智能設計的最成熟的定制芯片之一。
盡管如此,谷歌仍是Nvidia的頂級客戶(hù)之一。它在自己的TPU上使用Nvidia的GPU進(jìn)行AI系統訓練,還在其云端出售Nvidia技術(shù)的訪(fǎng)問(wèn)權限。
蘋(píng)果此前曾表示,推理,即使用預訓練的AI模型生成內容或做出預測,將部分在其數據中心的蘋(píng)果自家芯片上進(jìn)行。
這是蘋(píng)果發(fā)布的關(guān)于其AI系統的第二篇技術(shù)論文,此前在6月發(fā)布了一版更為通用的版本。蘋(píng)果當時(shí)表示,在開(kāi)發(fā)其AI模型時(shí)使用了TPU。
蘋(píng)果計劃在周四交易結束后公布季度業(yè)績(jì)。
評論