微軟重磅官宣推出 AI 自研芯片,與H100、特斯拉D1等AI芯片性能對比
北京時(shí)間周四凌晨 1 點(diǎn),微軟(Microsoft)Ignite 技術(shù)大會(huì )在西雅圖揭幕,該公司 CEO 薩蒂亞·納德拉進(jìn)行了接近 1 個(gè)小時(shí)的開(kāi)幕演講,介紹了 AI 龍頭取得的最新進(jìn)步。
本文引用地址:http://dyxdggzs.com/article/202311/453077.htm此次,微軟發(fā)布了首款自家研發(fā)的人工智能(AI)芯片 Maia 100,以及應用于云端軟件服務(wù)的芯片 Cobalt。兩款芯片將由臺積電代工,采用 5nm 制程技術(shù)。
目前,AI 芯片市場(chǎng)由英偉達(Nvidia)獨霸,有大量 AI 芯片需求的科技大廠(chǎng)極力尋求可替代的供應來(lái)源; 微軟自行研發(fā),希望增強 ChatGPT 等生成式 AI 產(chǎn)品的性能,同時(shí)降低成本。
Cobalt 是基于 Arm 架構的通用型芯片,具有 128 個(gè)核心,Maia 100 為特定 AI 加速器,用于云端訓練和推理的,晶體管數量達到 1050 億個(gè)。這兩款芯片明年將導入微軟 Azure 數據中心,支持 OpenAI、Copilot 等服務(wù)。
目前,英偉達在 AI 芯片市場(chǎng)的市占高達 80% 左右,需求強勁,高端產(chǎn)品一顆有時(shí)可賣(mài)到 3 萬(wàn)到 4 萬(wàn)美元。日經(jīng)亞洲指出,用于 ChatGPT 的芯片被認為大概就需要有 1 萬(wàn)顆,這對 AI 公司是個(gè)龐大成本。
負責 Azure 芯片部門(mén)的副總裁 Rani Borkar 表示,微軟已開(kāi)始用 Bing 和 Office AI 產(chǎn)品測試 Maia 100 芯片,微軟主要 AI 合作伙伴、ChatGPT 開(kāi)發(fā)商 OpenAI,也在進(jìn)行測試中。
彭博資訊指出,微軟的多年投資顯示,芯片對于在 AI 和云計算領(lǐng)域取得優(yōu)勢至關(guān)重要。自研芯片可以讓微軟從硬件中獲得性能和價(jià)格優(yōu)勢,還可以避免微軟過(guò)度依賴(lài)任何一家供應商。目前業(yè)界對英偉達 AI 芯片的爭奪戰,更加凸顯了這個(gè)問(wèn)題。
在微軟進(jìn)軍自研處理器之前,在云計算市場(chǎng)上的競爭對手也采取類(lèi)似策略。亞馬遜在 2015 年收購了一家芯片制造商,并提供多種云端運算與 AI 芯片服務(wù)。Google 從 2018 年開(kāi)始,也已讓客戶(hù)使用其 AI 加速處理器。
除了發(fā)布的這兩款芯片,業(yè)界一直在傳,微軟有一個(gè)代號為「Athena」的 AI 芯片項目,2019 年就開(kāi)始了內部研發(fā)。據悉,微軟希望 Athena 芯片的性能優(yōu)于目前從其它供應商處購買(mǎi)的芯片,從而節省其在昂貴的 AI 業(yè)務(wù)上的時(shí)間和成本。
有市場(chǎng)評論認為,微軟 AI 芯片立項的時(shí)機很巧,正好在微軟、OpenAI 等公司培養的大型語(yǔ)言模型已經(jīng)開(kāi)始騰飛之際。兩位知情人士表示,OpenAI 的 ChatGPT 聊天機器人的發(fā)布讓人們興奮──根據分析師預估,截至今年 1 月,也就是 ChatGPT 發(fā)布兩個(gè)月后,該機器人已經(jīng)擁有超過(guò) 1 億用戶(hù)──這促使微軟加快 Athena 的研發(fā)和推出。
知情人士說(shuō),微軟最快可以在明年讓 Athena 在公司和 OpenAI 內部廣泛使用。不過(guò)其中一名知情人士表示,微軟內部仍在爭論是否會(huì )向其 Azure 云計算服務(wù)的客戶(hù)提供這些芯片。
如果微軟確實(shí)走向其云計算客戶(hù)提供芯片,它還必須為其打造比英偉達當前產(chǎn)品更具吸引力的軟件,英偉達在該領(lǐng)域已深耕 15 年,其軟件產(chǎn)品已在全球廣泛使用。
調研公司 SemiAnalysis 的首席分析師 Dylan Patel 估算,ChatGPT 的運營(yíng)成本為每天約 70 萬(wàn)美元或每次查詢(xún) 0.36 美元。Patel 說(shuō):「大部分成本來(lái)自其所需的昂貴服務(wù)器。和英偉達產(chǎn)品相比,若 Athena 具競爭力,可以將每個(gè)芯片的成本降低三分之一?!?/span>
Patel 還表示,微軟希望他們在所有的應用程序中都使用這個(gè)大型語(yǔ)言模型,包括 Bing、Microsoft 365 和 GitHub。如果采用英偉達現成的軟件進(jìn)行大規模部屬,光芯片這一項成本每年就要燒掉數百億美元。
微軟并不認為自己的 AI 芯片可以廣泛替代英偉達的產(chǎn)品。有分析認為,微軟的這一努力如果成功的話(huà),也有可能幫助它在未來(lái)與英偉達的談判中更具優(yōu)勢。
此次,微軟還推出了名為 Sidekicks 的定制液冷硬件,該硬件安裝在包含 Maia 服務(wù)器的機架旁邊的機架中。一位發(fā)言人表示,該公司無(wú)需改造即可安裝服務(wù)器機架和 Sidekick 機架。
在網(wǎng)絡(luò )連接方面,為了滿(mǎn)足 AI 和未來(lái)工作負載的要求,微軟推出了新一代空芯光纖(Hollow Core Fiber),利用空氣作為光纖的導光介質(zhì),能夠將傳輸速度提高 47%。當然這也與微軟的「鈔能力」有關(guān),公司在去年 12 月底收購了這條賽道的領(lǐng)跑者英國 Lumenisity。
會(huì )上,納德拉宣布 Azure Boost 數據中心硬件也將正式投入商用。該系統能夠將存儲和網(wǎng)絡(luò )進(jìn)程將主機轉移到專(zhuān)用硬件和軟件上,從而提高速度。
據千芯科技董事長(cháng)陳巍博士分析,就 Maia 100 性能來(lái)看,MXFP4 算力達到了 3200TFLOPS,MXInt8 算力達到 1600TFLOPS(這里有可能是新聞筆誤,因為 INT8 算力一般按照 TOPS 單位)。SIMD 算力為 48TFLOPS,具備 140MB L1 緩存和 448MB L2 緩存,HBM3 容量為 64GB,TDP 功耗 860W,采用 TSMC N5 工藝,面積 820mm^2,105BIllion 晶體管。
對比一下 Maia 100 和其他幾個(gè)家世顯赫的芯片性能,可以看到 Maia 具有大量的片上 SRAM(單芯片合計 588MB),甚至超過(guò)了特斯拉 D1,有可能是存算一體(近存計算)架構的 AI DSA。初步猜測其架構和液冷方式與特斯拉 Dojo 接近。
緊密聯(lián)系合作伙伴
基于微軟與 AI 軟件龍頭 OpenAI 的緊密關(guān)系,所以微軟 Azure 云服務(wù)也將在第一時(shí)間向用戶(hù)提供 OpenAI 的最新產(chǎn)品,例如 GPT-4 Trubo 和多模態(tài)能力,以及基于 GPT-4 的微調。
微軟也在今天宣布推出「MAAS」產(chǎn)業(yè)模式(Models as a Service/模型即服務(wù)),用戶(hù)可以直接通過(guò)微軟的服務(wù)來(lái)調用 API、微調和部署各類(lèi)開(kāi)源大模型。微軟也已經(jīng)與 Meta 等一眾大模型開(kāi)發(fā)商達成合作,將 Llama 2 等知名 LLM 作為一項服務(wù)推出。
納德拉宣布,Azure 云將發(fā)布英偉達的 AI 工坊服務(wù)(AI foundry service),為此他還請來(lái)了黃仁勛,講述兩家 AI 巨頭從硬件到軟件的全面合作。
據悉,英偉達 AI 工坊涵蓋英偉達的 AI 基礎模型、NeMo 框架和工具,以及英偉達 DGX Cloud AI 超級計算和服務(wù)三大要素。微軟用戶(hù)將可以在 Azure 云上利用英偉達的 AI 軟件生成并部署模型。
黃仁勛表示,AI 的第一波浪潮源自 OpenAI 等一批創(chuàng )業(yè)公司,而現在整個(gè)產(chǎn)業(yè)已經(jīng)進(jìn)入了第二波浪潮,由微軟 Copilot 推動(dòng)的企業(yè)級 AI。在他看來(lái),第三波也是最大的那一波將會(huì )是整個(gè)世界的重工業(yè)數字化,并從生成式 AI 中獲益。
評論