一場(chǎng)腦機接口的大賽,看到時(shí)代需要的「AI超級底座」
「AI 超級底座」有什么價(jià)值?小到一場(chǎng)競賽,大到整個(gè)產(chǎn)業(yè)。從 2022 年開(kāi)始,大模型就成為了最熱門(mén)的技術(shù)關(guān)鍵詞,這種熱度顯然輻射到了多個(gè)相關(guān)領(lǐng)域。比如,在近日召開(kāi)的 2023 世界機器人大會(huì )上,「大模型 + 機器人」就成為現場(chǎng)討論最多的話(huà)題。這幾天,不管是后空翻的四足機器狗,還是吟詩(shī)互動(dòng)的人形機器人,都給到場(chǎng)的觀(guān)眾留下了深刻的印象。如果你也在現場(chǎng),一定還會(huì )關(guān)注到這場(chǎng)「熱火朝天」的技術(shù)大賽:戴上腦電帽,雙手平放只靠「意念」打字、控制機械臂,甚至指揮無(wú)人機,即使是在這場(chǎng)「黑科技」眾多的機器人盛會(huì )中也格外吸睛。
這是「世界機器人大賽 —BCI 腦控機器人大賽」連續舉辦的第七年。很多人可能不知道,在 2022 年之前,由于賽事系統只能同時(shí)支撐十幾支隊伍本地參賽,所以比賽的舉辦規模一直受到限制。
而從去年開(kāi)始,比賽報名、賽題發(fā)布、數據建模、算法訓練、算法驗證等流程成功上云,使得報名規模一下子提升了超過(guò) 50%。今年,大家的參賽熱情不減:共有 67 所高校的 200 + 支隊伍參與,其中,來(lái)自機械科學(xué)、人工智能、計算機科學(xué)專(zhuān)業(yè)的參賽者數量最多。
在賽事上云之前,選手們無(wú)法在賽場(chǎng)上使用需要 GPU 算力進(jìn)行深度學(xué)習訓練與推理的創(chuàng )新算法。但現在,每一位參賽選手都擁有充足的計算資源在比賽中去驗證自己的技術(shù)設想。
這幾百支隊伍的每一次算法更改、調試,背后都是騰訊云在提供算力支持。
支撐一場(chǎng) 200 支隊伍的賽事需要怎樣的云端算力?
腦機接口是通過(guò)生物電信號實(shí)現直接人機交互的方法,是一門(mén)涉及計算機科學(xué)、神經(jīng)科學(xué)的前沿技術(shù),在醫療、養老、助殘、康復等領(lǐng)域具備巨大前景和廣闊市場(chǎng)應用基礎。比如,醫院可通過(guò)腦機接口識別情緒后即時(shí)提供心理健康建議、殘疾人士可利用腦機接口控制輪椅完成意念打字進(jìn)行日常交流等。
在這些方向上,也已經(jīng)出現了一些產(chǎn)業(yè)化落地的探索。比如馬斯克成立的 Neuralink 就希望借助這項技術(shù)幫助視障和行動(dòng)不便人士,恢復視力和行動(dòng)能力。今年 5 月,Neuralink 獲準進(jìn)行腦機接口人體試驗,意味著(zhù)腦機接口技術(shù)進(jìn)入了一個(gè)新的階段。
不過(guò),目前的腦機接口技術(shù)進(jìn)展距離大規模產(chǎn)業(yè)化仍有一定距離。很多實(shí)驗室都在投入腦機接口項目的研究,但暫時(shí)僅用于基礎科研。中國十分注重腦機接口的產(chǎn)業(yè)化發(fā)展,2023 年 5 月底,工信部宣布,將把腦機接口作為培育未來(lái)產(chǎn)業(yè)發(fā)展的重要方向,加強腦機接口應用場(chǎng)景探索,加速推動(dòng)腦機接口產(chǎn)業(yè)發(fā)展。
想要推動(dòng)這項技術(shù)的產(chǎn)業(yè)化落地,除了政策上的重視之外,培養腦機接口人才也是重要的途徑之一。這也是「BCI 腦控機器人大賽技術(shù)賽」舉辦的初衷。
今年,大賽以腦機接口實(shí)用系統為背景,圍繞 SSVEP、P300、運動(dòng)想象三個(gè)主要范式及腦機接口技術(shù)應用方向設置了技術(shù)賽及技能賽,希望從準確度、速度、實(shí)用性、技術(shù)性等多維度提高腦機接口技術(shù)在信號識別、醫療康復、心理健康等各領(lǐng)域的技術(shù)與產(chǎn)業(yè)發(fā)展。
經(jīng)過(guò)激烈比拼,來(lái)自香港大學(xué)和澳門(mén)大學(xué)的港澳聯(lián)隊獲得了本次 BCI 腦控機器人大賽「騰訊云杯」技術(shù)賽枕葉腦機賽題、腦機對抗安全賽題等的多項冠軍。
「比賽中對于算力的需求是動(dòng)態(tài)的,線(xiàn)上賽階段對算法的時(shí)間要求比較寬泛,而線(xiàn)下賽階段需要對數據做實(shí)時(shí)處理,所以我們對高性能算力有很強的需求,有很多深度學(xué)習的模型都非常消耗算力?!箶孬@多項賽題冠軍的港澳聯(lián)隊表示。
在賽事中,騰訊云異構計算所提供的公有云服務(wù) ,讓參賽者們感覺(jué)「如虎添翼」。騰訊云為比賽提供了強大穩定的算力支持,選手能夠使用基于 GPU 算力的深度學(xué)習算法對比賽中的大量數據進(jìn)行訓練。
想要探索場(chǎng)景應用,還需要真實(shí)的場(chǎng)景數據。有賴(lài)于騰訊云的加持,2023BCI 腦控機器人大賽中首次引入了真實(shí)病人腦電科研數據,讓參賽者們能夠真正接觸到大量科研級別的數據資源。
正在這樣的支持下,很多參賽隊員能夠將更具創(chuàng )意的想法在比賽中嘗試去實(shí)現,「BCI 腦控機器人大賽技術(shù)賽」也從一場(chǎng)十幾支隊伍的小規模比賽走向了大平臺模式,實(shí)現了對接科研與產(chǎn)業(yè)的價(jià)值。腦機接口技術(shù)的上云,進(jìn)一步降低了科研與產(chǎn)業(yè)融合的門(mén)檻,未來(lái)將極大推動(dòng)在醫療、養老、助殘、康復等領(lǐng)域的產(chǎn)業(yè)應用。
另外,這一次的官方競賽數據將作為我國腦機接口領(lǐng)域重要研究成果全程保留記錄,技術(shù)賽的決賽數據和有關(guān)算法分析文章也將收錄在清華大學(xué)的 Brain Science Advances 專(zhuān)刊中,推動(dòng)腦機接口技術(shù)未來(lái)通過(guò)高性能云服務(wù)在醫療場(chǎng)景甚至日常生活中更快地實(shí)現應用轉化。
競賽同期還舉辦了 2023 世界機器人大會(huì )腦控機器人挑戰活動(dòng),并創(chuàng )造了本年度的腦控打字、腦控無(wú)人機賽會(huì )紀錄。來(lái)自天津大學(xué)的選手實(shí)現了 10.049bits/min 的鍵盤(pán)手控無(wú)人機效率,與手控無(wú)人機效率相當;來(lái)自清華大學(xué)的選手在觸屏 - 腦機輸入速度桃戰中獲得了平均 1.43 字符 / 秒的成績(jì),接近現場(chǎng)觀(guān)眾手機觸屏打字速度。
大算力時(shí)代,需要怎樣的 AI 超級底座?
像這樣為一場(chǎng)兩百支隊伍規模的機器人比賽提供服務(wù),僅是騰訊云的眾多「微型實(shí)踐」之一。
在 IDC 近日發(fā)布的《中國人工智能公有云服務(wù)市場(chǎng)份額 2022》報告中,騰訊云憑借其 2022 年在計算機視覺(jué)、對話(huà)式 AI 等領(lǐng)域的領(lǐng)先優(yōu)勢,營(yíng)收增速達到 124.6%,成為國內收入增速最快的公有云廠(chǎng)商。
同時(shí),作為擁有產(chǎn)品品類(lèi)最多的云服務(wù)商之一,騰訊云所提供計算服務(wù)的客戶(hù)目前已遍布全球。與一線(xiàn)客戶(hù)群體需求的密切接觸,讓騰訊云更早洞察到云計算服務(wù)領(lǐng)域的每一個(gè)變化趨勢。
顯然,變化的速度近年來(lái)不斷加快:通用大模型時(shí)代到來(lái)了,AI 正在從 1.0 時(shí)代過(guò)渡到 2.0 時(shí)代。大模型的共同特點(diǎn)是:數據量巨大,模型參數量巨大,所需算力也是巨大的。當 AI 產(chǎn)業(yè)落地大規模鋪開(kāi),這對傳統的云計算基礎設施是不可回避的考驗。
眾所周知的 AI 三要素中,算力平臺是核心基礎。幾年前,單卡或者單機就能完成模型的訓練,但在今天,大模型的參數動(dòng)輒幾十上百億,訓練大模型的算力標配是千卡甚至萬(wàn)卡,很多人只能感嘆一句「玩不起」。同時(shí),單體服務(wù)器提供的算力也很有限,大規模、分布式的高性能計算集群成為「剛需」。
另一方面,在大模型技術(shù)的推動(dòng)下,數據量呈爆炸式增長(cháng),然而很多數據都是非結構化的,想要高效率、低成本地處理數據,面臨著(zhù)很多困難。
曾經(jīng)的云計算,重視的是單機單卡的性能、標量數據的結構化精準檢索以及云原生帶來(lái)的自動(dòng)調度。今后,關(guān)注點(diǎn)已經(jīng)轉移到了集群性能的提升、向量數據的存儲與檢索以及自動(dòng)容錯能力。
在這樣的需求下,云基礎設施底座的設計范式必須隨之進(jìn)化。
全球的科技公司都在加碼布局新一代的算力基礎設施,騰訊云的技術(shù)底座也在不斷升級和變革。大模型時(shí)代,數據、網(wǎng)絡(luò )、算力構成了底層基礎設施的三要素,而 HCC 高性能計算集群、星脈高性能計算網(wǎng)絡(luò )以及向量數據庫,就組成了騰訊云的「AI 超級底座」。
首先就是打造云上算力集群的問(wèn)題。今年 4 月,騰訊云正式推出了高性能計算集群產(chǎn)品 HCC。該集群采用騰訊云星星海自研服務(wù)器,搭載最新代次 GPU,服務(wù)器之間采用 3.2T 互聯(lián)帶寬,通過(guò)對單機算力、網(wǎng)絡(luò )架構和存儲性能進(jìn)行協(xié)同優(yōu)化,提供高性能、高帶寬和低延遲的集群算力。
在非稀疏規格條件下,新一代集群?jiǎn)?GPU 卡支持輸出最高 495 TFlops(TF32)、989 TFlops (FP16/BF16)、1979 TFlops(FP8)的算力。
實(shí)測顯示,騰訊云新一代集群的算力性能較前代提升高達 3 倍。去年 10 月,騰訊完成了萬(wàn)億參數混元 NLP 大模型的訓練,在同等數據集下,上一代騰訊云 HCC 集群將訓練時(shí)間由 50 天縮短到了 11 天。如果是在基于新一代集群的情況下,訓練時(shí)間將進(jìn)一步縮短至 4 天。
隨著(zhù)集群規模擴大,通信性能會(huì )直接影響訓練效率。特別是參數達到千億、萬(wàn)億級別的 AI 大模型,需要大帶寬、高利用率、無(wú)損的網(wǎng)絡(luò )來(lái)幫助其高效地完成訓練任務(wù)。
騰訊自研的星脈高性能計算網(wǎng)絡(luò )利用自研交換機構建了超大規模網(wǎng)絡(luò )架構,具備業(yè)界最高的 3.2T 通信帶寬,能提升 40% 的 GPU 利用率,節省 30%~60% 的模型訓練成本,為 AI 大模型帶來(lái) 10 倍通信性能提升?;隍v訊云新一代算力集群 HCC,可支持 10 萬(wàn)卡的超大計算規模。
實(shí)測結果顯示,搭載同樣的 GPU,最新的 3.2T 星脈網(wǎng)絡(luò )相較 1.6T 網(wǎng)絡(luò ),能讓集群整體算力提升 20%。
此外,今年 7 月,騰訊云推出了向量數據庫 ( Tencent Cloud VectorDB),這是國內首個(gè)從接入層、計算層、到存儲層提供全生命周期 AI 化的向量數據庫。
隨著(zhù)人工智能技術(shù)的快速發(fā)展,傳統的關(guān)系型數據庫在處理向量數據時(shí)存在一些瓶頸,而向量數據庫則能夠更好地滿(mǎn)足這些應用的需求。騰訊云向量數據庫具備強大的性能和規模優(yōu)勢:不僅支持高達 10 億級的向量檢索規模,并將延遲控制在毫秒級,相比傳統的單機插件式數據庫檢索規模提升了 10 倍。同時(shí),騰訊云向量數據庫還具備百萬(wàn)級每秒查詢(xún)(QPS)的峰值能力。經(jīng)過(guò)騰訊內部海量場(chǎng)景的實(shí)踐,數據接入 AI 的效率也比傳統方案提升 10 倍,運行穩定性高達 99.99%。
從前沿科技到真正的生產(chǎn)力
很多科技廠(chǎng)商都選擇從 MaaS(Model-as-a-Service)模式切入大模型之戰,這也是騰訊云選擇的道路。在「AI 超級底座」之上,騰訊云搭建了行業(yè)大模型 MaaS 服務(wù),包括金融、政府、文旅、傳媒、教育等?;谶@些基礎模型,騰訊云的客戶(hù)只要加入自己的場(chǎng)景數據,就可以生成契合自身業(yè)務(wù)需要的專(zhuān)屬模型。
與其造出自己的大模型,對于很多廠(chǎng)商來(lái)說(shuō),不如構建一套自上而下的大模型生態(tài)工具,助力行業(yè)用戶(hù)釋放大模型的生產(chǎn)力,加速產(chǎn)業(yè)落地。MaaS 可以幫助更多中小客戶(hù)更輕松地接入大模型,并在此基礎上發(fā)揮自身長(cháng)處,從實(shí)際需求出發(fā)高效利用大模型能力。
正如這場(chǎng)比賽,腦機接口是一門(mén)關(guān)于計算機科學(xué)、神經(jīng)科學(xué)的前沿技術(shù),研究成果很容易被限于實(shí)驗室之內,但在上云之后,一些創(chuàng )意和靈感就能真正轉化為大規模的醫療、養老、助殘、康復等領(lǐng)域的產(chǎn)業(yè)應用。
騰訊云的「AI 超級底座」所提供的大模型高性能計算集群、計算網(wǎng)絡(luò )以及向量數據庫,都是技術(shù)轉化為生產(chǎn)力的基礎。
或許在不久的將來(lái),我們就能在騰訊云的服務(wù)中看到來(lái)自這場(chǎng)比賽的算法成果。腦機接口走進(jìn)普通人生活,還會(huì )遠嗎?
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。