Arm攜手行業(yè)領(lǐng)先企業(yè),共同打造面向未來(lái)的 AI 基礎
Arm?近日宣布多項全新的戰略合作,繼續致力于推動(dòng)人工智能 (AI) 的創(chuàng )新,并將 AI 的體驗變?yōu)楝F實(shí)。除了自身已能實(shí)現 AI 開(kāi)發(fā)的技術(shù)平臺之外,Arm 還與 AMD、英特爾、Meta、微軟、NVIDIA 和高通技術(shù)公司等領(lǐng)先的科技企業(yè)攜手合作,通過(guò)多項計劃,聚焦于先進(jìn) AI 能力的實(shí)現,由此帶來(lái)更快響應、更加安全的用戶(hù)體驗。這些合作計劃將在所有計算進(jìn)行之處,助力 1500 多萬(wàn)名 Arm 開(kāi)發(fā)者,構建其所需的基礎框架、技術(shù)和規范,帶來(lái)新一代的 AI 體驗。
本文引用地址:http://dyxdggzs.com/article/202311/452522.htmArm 執行副總裁兼首席架構師與院士 Richard Grisenthwaite 表示:“AI 的廣泛應用依賴(lài)于軟、硬件創(chuàng )新的持續協(xié)同。小到邊緣側運行工作負載的小型傳感器,大到處理復雜工作負載以訓練大語(yǔ)言模型 (LLM) 的大型服務(wù)器,軟硬件的協(xié)同發(fā)展將在每個(gè)技術(shù)節點(diǎn)中,助力 AI 能力的提升。隨著(zhù)整個(gè)生態(tài)系統不斷發(fā)掘 AI 的真正潛力,我們也將面臨安全性、可持續性和數據瓶頸等諸多挑戰。因此,繼續探索行業(yè)內的協(xié)作至關(guān)重要,為此,我們才能實(shí)現 AI 的規?;?,包括加大邊緣側的推理能力?!?/p>
助力邊緣 AI 發(fā)展
當下生成式 AI 和 LLM 正成為人們關(guān)注的焦點(diǎn),而鑒于在智能手機領(lǐng)域,70% 的第三方 AI 應用都運行在 Arm CPU 上,Arm 已引領(lǐng)邊緣 AI 長(cháng)達多年。在探索如何以可持續的方式實(shí)現 AI 并高效傳輸數據的同時(shí),行業(yè)也需要繼續發(fā)展以實(shí)現在邊緣側運行 AI 和機器學(xué)習 (ML) 模型,然而,開(kāi)發(fā)者在此卻面臨著(zhù)計算資源日益受限的難題,使這個(gè)任務(wù)的實(shí)現充滿(mǎn)了挑戰。
Arm 正與 NVIDIA 展開(kāi)合作,針對 NVIDIA TAO 進(jìn)行適配。這是一套針對 Arm Ethos?-U NPU 使用的低代碼開(kāi)源 AI 工具包,有助于構建性能優(yōu)化的視覺(jué) AI 模型,并將其部署于搭載 Ethos-U 的處理器上。NVIDIA TAO 提供了一個(gè)易使用的界面,可在免費且開(kāi)源的領(lǐng)先 AI 和 ML 框架——TensorFlow 和 PyTorch 上進(jìn)行構建工作,為開(kāi)發(fā)者帶來(lái)輕松無(wú)縫的模型開(kāi)發(fā)和部署環(huán)境,同時(shí)賦能邊緣設備實(shí)現更復雜的 AI 工作負載,提升 AI 體驗。
在所有設備與市場(chǎng)中推動(dòng)神經(jīng)網(wǎng)絡(luò )的應用
在邊緣側推進(jìn)神經(jīng)網(wǎng)絡(luò )的部署是實(shí)現 AI 可持續增長(cháng)的重要一環(huán)。Arm 攜手 Meta,通過(guò) ExecuTorch,將 PyTorch 引入基于 Arm 架構的邊緣側移動(dòng)和嵌入式平臺。ExecuTorch 可助力開(kāi)發(fā)者更輕松地在移動(dòng)和邊緣設備上,部署先進(jìn)的 AI 和 ML 工作負載所需的先進(jìn)神經(jīng)網(wǎng)絡(luò )。Arm 與 Meta 的合作將確保通過(guò) PyTorch 和 ExecuTorch,開(kāi)發(fā)者能在未來(lái)更輕松地開(kāi)發(fā)和部署 AI 與 ML 模型。
與 Meta 的合作依托于 Arm 在 Tensor 運算符集架構 (TOSA) 方面的巨大投入,TOSA 為 AI 和 ML 加速器提供了通用框架,并支持廣泛的深度神經(jīng)網(wǎng)絡(luò )工作負載。在基于 Arm 架構的各種處理器和數十億的設備上,TOSA 也將成為 AI 和 ML 的堅實(shí)基石。
推動(dòng)產(chǎn)業(yè)規?;腁I
若要以相對低的成本實(shí)現 AI 規?;涞?,支持廣泛的數據格式至關(guān)重要。Arm 一直在為諸多專(zhuān)注于 AI 工作負載的新型小數據類(lèi)型提供支持。
去年,Arm、英特爾和 NVIDIA 聯(lián)合發(fā)布了新型 8 位浮點(diǎn)規范,即“FP8”。自此 FP8 格式發(fā)展迅猛,參與合作的企業(yè)已擴大至 AMD、Arm、谷歌、英特爾、Meta 和 NVIDIA,并共同制定了正式的 OCP 8 位浮點(diǎn)規范 (OFP8)。在最新的 A-profile 架構更新中,Arm 添加了與該標準一致的 OFP8,以助力其在行業(yè)內神經(jīng)網(wǎng)絡(luò )中的快速普及。OFP8 是交換 8 位數據格式,使軟件生態(tài)系統能夠輕松共享神經(jīng)網(wǎng)絡(luò )模型,從而不斷提高數十億設備上的 AI 計算能力。
開(kāi)放的標準對于推動(dòng) AI 生態(tài)系統的創(chuàng )新、一致性與互操作性至關(guān)重要。為繼續支持相關(guān)標準的行業(yè)協(xié)作,Arm 于近日正式加入了 MX 聯(lián)盟,該聯(lián)盟旗下成員包括了 AMD、Arm、英特爾、Meta、微軟、 NVIDIA 和高通技術(shù)公司。近期,MX 聯(lián)盟針對名為微擴展的新技術(shù),進(jìn)行技術(shù)規范的合作。這項技術(shù)基于芯片設計領(lǐng)域多年的探索與研究,是一種用于 AI 應用的窄位(8 位和 8 位以下)訓練與推理的精細擴展方法。該規范對窄位數據格式進(jìn)行了標準化,以消除行業(yè)的碎片化,實(shí)現 AI 的規?;?。
秉承合作精神,MX 聯(lián)盟通過(guò)開(kāi)放計算項目 OCP,以開(kāi)放、免許可的形式發(fā)布了 MX 規范。OCP 項目由超大規模數據中心運營(yíng)商和計算基礎設施領(lǐng)域的其他行業(yè)參與者組成,旨在促進(jìn)相關(guān)技術(shù)在業(yè)內的廣泛采用。這也體現了各方認識到在生態(tài)系統中對可擴展 AI 解決方案提供公平訪(fǎng)問(wèn)的必要需求。
前所未有的AI創(chuàng )新
Arm 已成為全球 AI 部署的基礎。Arm 致力于為開(kāi)發(fā)者提供構建先進(jìn)、復雜的 AI 工作負載所需的技術(shù),而上述的種種合作只是Arm 眾多舉措中的一部分。從傳感器、智能手機和軟件定義汽車(chē),到服務(wù)器和超級計算機,Arm 將成為未來(lái) AI 發(fā)展的基石。
評論