<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 人工智能更接近邊緣:針對物聯(lián)網(wǎng)的數據洪流強化生態(tài)系統

人工智能更接近邊緣:針對物聯(lián)網(wǎng)的數據洪流強化生態(tài)系統

作者: 時(shí)間:2019-10-14 來(lái)源:Arm 收藏

第五波計算技術(shù)的融合——(AI)、5G與(IoT)——正持續加速令人驚訝的變化,并驅動(dòng)全新的數據消費模型。在僅考慮IoT的情況:盡管還在發(fā)展初期,我們看到它已經(jīng)褪去全球微型傳感器網(wǎng)絡(luò )的原始面貌,進(jìn)一步擴展至包含更多高性能設備,包括從智能影像傳感器到自駕汽車(chē)。

本文引用地址:http://dyxdggzs.com/article/201910/405734.htm

隨著(zhù)IoT持續成長(cháng)并帶動(dòng)全球數字化轉型,通往上游云端的數據海嘯,讓長(cháng)期以來(lái)針對下游分配優(yōu)化的網(wǎng)絡(luò )基礎設施遭受打擊。它也促生了一個(gè)迫切的需求,即在全球互聯(lián)網(wǎng)架構內實(shí)現更分散的算力分布,而這也導致對Arm Neoverse計算解決方案的需求與日俱增。整個(gè)已經(jīng)對這個(gè)挑戰作出響應,而縱觀(guān)Arm過(guò)去一年內的進(jìn)展, Neoverse正在將其初始愿景轉換成今日之現實(shí)。

AI從云端擴散,“宙斯”枕戈待旦

展望未來(lái),Arm將專(zhuān)注于為下一代基礎設施技術(shù)奠定基礎,其中的重中之重是AI的去中心化。

由于大型數據集與專(zhuān)屬的算力相當集中的緣故,今日大負荷的AI計算多數在云端完成,特別是機器學(xué)習(ML)模型的訓練。但若把這些模型應用到真實(shí)世界中靠近決策點(diǎn)的推論時(shí),以云端為中心的AI模型就會(huì )捉襟見(jiàn)肘。數據傳輸數千英里來(lái)到數據中心進(jìn)行模型比較時(shí),可能會(huì )碰到不少延時(shí)的問(wèn)題,因此,沒(méi)有人能保證當結果返回時(shí)仍然對決策有用。時(shí)間至關(guān)重要,因此把“智能”從云端分配到邊緣,就顯得合情合理。

得益于已經(jīng)面世的各種解決方案——從云端與基礎設施都在使用都Arm Neoverse平臺和AI加速技術(shù),到專(zhuān)門(mén)迎合各種端點(diǎn)需求的、具備AI能力的Arm CPU、NPU和GPU——Arm與其合作伙伴在讓AI賦能互聯(lián)網(wǎng)各個(gè)層級應用方面具有先天優(yōu)勢。但Arm認為這還不夠。Arm最近宣布將把bfloat16數據格式加入下一個(gè)版本的Armv8-A架構中,這將大幅提升基于A(yíng)rm架構的CPU的訓練與推理性能。Arm已經(jīng)確認將對bfloat16的支持加入計劃將于明年推出的Neoverse "Zeus"(宙斯)平臺。

在邊緣擴展計算

隨著(zhù)對決策的要求朝邊緣移動(dòng),AI將扮演雙重角色。除了依據數據本身包含的信息作出及時(shí)決定之外,當大量的數據需要被導引至正確的位置時(shí),AI需要在從流量管理到封包檢驗等方面都發(fā)揮作用。這是一個(gè)訓練與推論兼顧的問(wèn)題,而傳統的計算系統無(wú)法與之相適應。過(guò)去,互聯(lián)網(wǎng)邊緣傳統上只是一個(gè)網(wǎng)橋,現在正快速變成智能計算平臺,并最終將促成我們稱(chēng)之為AI Edge的浮現,并在2025年形成一個(gè)高達300億美元的計算芯片潛在市場(chǎng)規模(TAM)。

在邊緣執行AI有幾個(gè)好處:它可顯著(zhù)減少到云端的回程,降低延遲,并提升可靠性、效率與安全性。有鑒于當今來(lái)自全球設備部署的洞見(jiàn)來(lái)得極快,模型必須需要實(shí)時(shí)進(jìn)化,這點(diǎn)已經(jīng)顯現出至關(guān)重要性。

賦能AI邊緣:推出Project Cassini

利用AI邊緣的應用程序的成功部署,關(guān)鍵在于提供能夠覆蓋各種功耗與性能需求的多元解決方案。單一廠(chǎng)商的解決方案,并無(wú)法滿(mǎn)足所有需求。除了變成以AI為中心,AI邊緣必須是云端原生的、虛擬化(VM或containers)的,同時(shí)支持多用戶(hù)。最重要的是,它必須是安全無(wú)虞。

目前構成基礎架構邊緣的解決方案來(lái)自一個(gè)極度多元化的,而這個(gè)也在迅速變革,以滿(mǎn)足這些新產(chǎn)生的需求。為了協(xié)助大家面對這一AI邊緣的變革,Arm宣布推出Project Cassini:這是一個(gè)專(zhuān)注于在多元與安全的邊緣生態(tài)系統內,確保云端原生體驗的業(yè)界提案。

通過(guò)與Arm生態(tài)合作伙伴的協(xié)同努力,Project Cassini將專(zhuān)注于基礎設施邊緣,開(kāi)發(fā)平臺標準與參考系統,并以它們?yōu)榛A,在目前已延展到基礎設施邊緣的標準化平臺安全架構(PSA)框架內,無(wú)縫部署云端原生的軟件堆棧。值得一提的是, Arm與其生態(tài)系統合作伙伴針對安全性做出了大量努力。兩年前Arm推出PSA,讓企業(yè)得以依據一套通用的需求設計安全功能,以降低打造產(chǎn)品級IoT安全性相關(guān)的成本、時(shí)間與風(fēng)險。今天,Project Cassini將PSA延展至基礎設施邊緣,可謂更上層樓,目標是讓所有最基本的安全需求標準化。 持續演進(jìn)的挑戰

Arm預計,到2035年全球將有一萬(wàn)億個(gè)IoT設備,這將帶來(lái)全新規模的基礎設施與架構上的挑戰,技術(shù)也需要與時(shí)俱進(jìn)才足以應對。在邊緣計算方面,這意味著(zhù)Arm將持續大量投資硬件、軟件與工具的開(kāi)發(fā),以便為基礎設施堆棧的每一個(gè)點(diǎn)都賦予智能決策能力。另一方面,這也意味著(zhù)在處理器層級,以及從云端到邊緣到終端設備的整個(gè)網(wǎng)絡(luò )內,都將廣泛使用異構計算。



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>