Cadence推出面向硅設計的全新Neo NPU IP和NeuroWeave SDK,加速設備端和邊緣AI性能及效率
● Neo NPU可有效地處理來(lái)自任何主處理器的負載,單核可從 8 GOPS 擴展到 80 TOPS,多核可擴展到數百 TOPS
● AI IP可提供業(yè)界領(lǐng)先的 AI 性能和能效比,實(shí)現最佳 PPA 結果和性?xún)r(jià)比
● 面向廣泛的設備端和邊緣應用,包括智能傳感器、物聯(lián)網(wǎng)、音頻/視覺(jué)、耳戴/可穿戴設備、移動(dòng)視覺(jué)/語(yǔ)音 AI、AR/VR 和 ADAS
● 全面、通用的 NeuroWeave SDK 可通過(guò)廣泛的 Cadence AI 和 Tensilica IP 解決方案滿(mǎn)足所有目標市場(chǎng)的需求
楷登電子(美國 Cadence 公司)近日宣布,推出新一代AI IP和軟件工具,以滿(mǎn)足市場(chǎng)對設備端和邊緣 AI 處理不斷增長(cháng)的需求。新推出的 Cadence? Neo? Neural Processing Units(NPU)擴展能力很強,可為低功耗應用提供廣泛的 AI 功能,將 AI SoC 的效率和性能提升到新的水平。Neo NPU 單核配置的性能高達 80 TOPS,支持經(jīng)典 AI 模型和最新的生成式 AI 模型,配有簡(jiǎn)單易用的可擴展 AMBA? AXI 互聯(lián),可處理來(lái)自任何處理器的 AI/ML 負載,包括應用處理器、通用型微處理器和 DSP。NeuroWeave? Software Development Kit(SDK)是對 AI 硬件的補充,為開(kāi)發(fā)人員提供了一站式 AI 軟件解決方案,涵蓋 Cadence AI 和 Tensilica? IP 產(chǎn)品,用于實(shí)現“零代碼”AI 開(kāi)發(fā)。
“近期 AI 的關(guān)注點(diǎn)都在云上,但傳統 AI 和生成式 AI 在邊緣和設備端的應用也很有前景,”TECHnalysis Research 總裁兼首席分析師 Bob O’Donnell 說(shuō),“從消費電子到手機和汽車(chē),再到企業(yè),我們迎來(lái)了便捷智能設備的時(shí)代。為了實(shí)現這些目標,芯片設計師和設備制造商需要借助靈活、可擴展的軟硬件聯(lián)合解決方案,為功耗和計算性能需求各異的應用提供 AI 功能——與此同時(shí)還要能夠使用熟悉的工具來(lái)完成。經(jīng)過(guò)優(yōu)化的新芯片架構要能夠加速機器學(xué)習模型和軟件工具,并與熱門(mén)的 AI 開(kāi)發(fā)框架無(wú)縫集成,這一點(diǎn)非常關(guān)鍵?!?/p>
靈活的 Neo NPU 非常適合對功耗非常敏感的設備以及具有可配置架構的高性能系統,使 SoC 架構師能夠在智能傳感器、物聯(lián)網(wǎng)和移動(dòng)設備、攝像頭、耳戴/可穿戴設備、個(gè)人電腦、AR/VR 頭顯和高級駕駛輔助系統(ADAS)等各種產(chǎn)品中集成最佳的人工智能推理解決方案。新增的硬件和性能增強功能以及關(guān)鍵特性/功能包括:
● 可擴展性:單核解決方案可從 8 GOPS 擴展到 80 TOPS,多核可進(jìn)一步擴展到數百 TOPS。
● 廣泛的配置范圍:每個(gè)周期支持 256 到 32K 個(gè) MAC,允許 SoC 架構師優(yōu)化其嵌入式 AI 解決方案,以滿(mǎn)足功耗、性能和面積(PPA)權衡的要求。
● 集成支持各種網(wǎng)絡(luò )拓撲結構和運營(yíng)商:可高效運行來(lái)自任何主處理器(包括 DSP、通用型微控制器或應用處理器)的推理任務(wù),從而顯著(zhù)提高系統性能,降低功耗。
● 易于部署:加快產(chǎn)品上市,滿(mǎn)足日新月異的新一代視覺(jué)、音頻、雷達、自然語(yǔ)言處理(NLP)和生成式 AI 流水線(xiàn)的需求。
● 靈活性:支持 Int4、Int8、Int16 和 FP16 數據類(lèi)型,涵蓋構成 CNN、RNN 和基于 Transformer 的網(wǎng)絡(luò )基礎的各種操作,可靈活權衡神經(jīng)網(wǎng)絡(luò )的性能和準確性。
● 高性能和高效率:與第一代 Cadence AI IP 相比,性能最多可提高 20 倍,每面積每秒推理次數(IPS/mm2)提高 2-5 倍,每瓦每秒推理次數(IPS/W)提高 5-10 倍。
軟件是任何 AI 解決方案的關(guān)鍵組成部分,為此 Cadence 還升級了通用軟件工具鏈,推出了 NeuroWeave SDK。NeuroWeave SDK 為客戶(hù)提供跨 Tensilica DSP、控制器和 Neo NPU 的統一、可擴展、可配置的軟件堆棧,以滿(mǎn)足所有目標應用的需要,簡(jiǎn)化產(chǎn)品開(kāi)發(fā),并能隨著(zhù)設計要求的變化而輕松遷移。NeuroWeave SDK 支持許多行業(yè)標準的特定領(lǐng)域機器學(xué)習框架,包括用于自動(dòng)端到端代碼生成的 TensorFlow、ONNX、PyTorch、Caffe2、TensorFlow Lite、MXNet、JAX 等;Android 神經(jīng)網(wǎng)絡(luò )編譯器;用于實(shí)時(shí)執行的 TF Lite Delegates;以及用于微控制器級設備的 TensorFlow Lite Micro。
“二十年來(lái),處理器出貨量超過(guò) 600 億個(gè),與此同時(shí),行業(yè)領(lǐng)先的 SoC 客戶(hù)一直依靠 Cadence 處理器 IP 來(lái)設計尖端的設備端 SoC。我們的 Neo NPU 依托了這種專(zhuān)長(cháng),讓 AI 處理能力和性能實(shí)現飛躍,”Cadence Tensilica IP 研發(fā)副總裁 David Glasco 說(shuō)道,“如今的市場(chǎng)格局瞬息萬(wàn)變,我們必須確??蛻?hù)能夠根據獨特的要求和 KPI 設計出卓越的 AI 解決方案,同時(shí)無(wú)需擔心后續的神經(jīng)網(wǎng)絡(luò )支持問(wèn)題。為了實(shí)現這一點(diǎn),我們投入了大量的人力物力來(lái)開(kāi)發(fā)新的 AI 硬件平臺和軟件工具鏈,在性能、功耗和成本方面不斷優(yōu)化,推動(dòng) AI 系統的快速部署?!?/p>
“Labforge 在開(kāi)發(fā) Bottlenose 智能相機產(chǎn)品線(xiàn)時(shí)使用了一組 Cadence Tensilica DSP,為功耗敏感的邊緣應用提供一流的 AI 處理性能,”Labforge, Inc. 首席執行官 Yassir Rizwan 表示,“Cadence 的 AI 軟件是我們嵌入式低功耗人工智能解決方案不可或缺的一部分,我們期待 Cadence 新推出的 NeuroWeave SDK 能夠提供新的功能和更高的性能。有了端到端編譯器工具鏈流程,我們就能更好地解決自動(dòng)化和機器人領(lǐng)域的 AI 挑戰性——加快產(chǎn)品上市,充分利用基于生成式 AI 的應用需求,開(kāi)辟通過(guò)其他途徑無(wú)法實(shí)現的新市場(chǎng)?!?/p>
Neo NPU 和 NeuroWeave SDK 支持 Cadence 的智能系統設計(Intelligent System Design?)戰略,旨在通過(guò)卓越的 SoC 設計實(shí)現普適智能。
可用性
Neo NPU 和 NeuroWeave SDK 預計將于 2023 年 12 月全面上市。針對主要客戶(hù)的早期參與計劃已經(jīng)開(kāi)始。
評論