微控制器的AI進(jìn)化:從邊緣運算到智能化的實(shí)現
AI應用正從云端逐漸向邊緣和終端設備擴展。 微控制器(MCU)作為嵌入式系統的核心,正在經(jīng)歷一場(chǎng)由AI驅動(dòng)的技術(shù)變革。 傳統的MCU主要用于控制和管理硬件設備,但在AI時(shí)代,MCU不僅需要滿(mǎn)足傳統應用的需求,還需具備處理AI任務(wù)的能力。
本文引用地址:http://dyxdggzs.com/article/202503/468470.htm滿(mǎn)足邊緣與終端設備的需求
邊緣計算(Edge Computing)是指將數據處理和計算任務(wù)從云端轉移到靠近數據源的設備上進(jìn)行。 這種方式能夠減少數據傳輸的延遲,提升系統的實(shí)時(shí)性和隱私保護。 邊緣設備通常資源有限,因此需要高效且低功耗的AI處理器來(lái)支持復雜的AI任務(wù)。
為了滿(mǎn)足邊緣與終端設備的需求,AI處理器需要具備以下特點(diǎn):
● 低功耗:邊緣設備通常依賴(lài)電池供電,因此AI處理器必須在低功耗下運行。
● 高效能:AI任務(wù)如圖像識別、語(yǔ)音處理等需要高效的計算能力。
● 小型化:邊緣設備的空間有限,AI處理器需要高度集成且體積小巧。
● 實(shí)時(shí)性:許多邊緣應用(如自動(dòng)駕駛、工業(yè)控制)要求實(shí)時(shí)響應,AI處理器必須能夠快速處理數據。
傳統MCU主要用于控制任務(wù),而AI處理器則專(zhuān)注于數據處理和模型推理。 為了滿(mǎn)足邊緣設備的需求,現代MCU開(kāi)始集成專(zhuān)用的AI加速器(如NPU,神經(jīng)網(wǎng)絡(luò )處理單元),以實(shí)現高效的AI運算。
Arm 物聯(lián)網(wǎng)事業(yè)部亞太區資深經(jīng)理黃晏祥指出,邊緣運算跟云端運算主要的差異應該是應用的最佳化vs.產(chǎn)品的泛用性,邊緣運算為了更接近使用場(chǎng)景,通常會(huì )有功耗與布建成本的局限性,因此效能與功耗的產(chǎn)品平衡與多重的選擇是最重要的。
例舉Arm的 AI 處理器專(zhuān)注于實(shí)現高效能與低功耗的平衡,尤其是對邊緣與終端設備的特殊需求進(jìn)行優(yōu)化。 透過(guò)Arm Cortex系列處理器和Arm Ethos系列類(lèi)神經(jīng)處理器,提供多樣化的解決方案,滿(mǎn)足不同應用場(chǎng)景所需效能。 同時(shí),也專(zhuān)注于提供靈活的軟硬件架構,以支持 AI 模型得以高效率的執行,并加速產(chǎn)品上市進(jìn)程。
針對快速崛起的 AI 市場(chǎng),Arm 積極布局 AI 處理器技術(shù),以滿(mǎn)足邊緣和終端設備的需求。 Arm 提供 Cortex-A、Cortex-M、Cortex-R 與Ethos NPU系列等處理器,這些處理器都可具備 AI 處理能力,可根據不同的應用場(chǎng)景和需求選擇。 例如,Cortex-A系列適用于高性能計算,Cortex-M系列則針對低功耗和嵌入式應用進(jìn)行了優(yōu)化。 在選擇處理器時(shí),需要考量效能、功耗和成本等因素,才能做出最佳決策。
專(zhuān)為人工智能物聯(lián)網(wǎng)(AIoT)應用設計的Arm Cortex-M52,是因應更高的數碼信號處理和機器學(xué)習性能需求設計,無(wú)需負擔專(zhuān)門(mén)配置數字信號處理與機器學(xué)習加速器的成本。 Cortex-M52 能在低于目前市場(chǎng)的價(jià)位優(yōu)勢之上,充分發(fā)揮機器學(xué)習在嵌入式運算解決方案的潛能。
Arm Cortex-M85則為最高效能的Cortex-M處理器,采用Arm Helium技術(shù),提供Cortex-M系列處理器最高的純量、數字信號處理及機器學(xué)習效能。 并為需要特高效能和更高安全性的 Cortex-M 架構的應用提供自然升級路徑。
Cortex-M55 和 Cortex-M85 處理器支持 Helium 的處理器。 該項技術(shù)是 Arm Cortex-M 處理器系列的 M 系列向量擴充方案 (MVE)。
Arm 也積極與開(kāi)發(fā)人員社區合作,提供開(kāi)發(fā)工具、軟件庫和開(kāi)放源代碼資源,幫助開(kāi)發(fā)人員快速開(kāi)發(fā)和部署 AI 應用。 Arm Kleidi 庫,提供具有彈性的各種核心組合,協(xié)助在框架上強化人工智能。 Kleidi 技術(shù)已整合到主要的AI框架如 PyTorch 和 ExecuTorch,促使新一代的應用在 Arm CPU 上運行大型語(yǔ)言模型(LLM)。 Kleidi 將繼續與 PyTorch 和 ExecuTorch 的各版本以及其他主要 AI 框架進(jìn)行整合。 從云端數據中心到邊緣端裝置,開(kāi)發(fā)人員現在可以即刻在各類(lèi)設備上基于 Arm 平臺高效率的運行高效能 AI 工作負載。
在傳統應用與AI之間取得平衡
MCU在傳統應用中主要負責控制和管理硬件設備,例如家電、工業(yè)自動(dòng)化、汽車(chē)電子等。 這些應用對MCU的要求包括:
● 穩定性:系統必須穩定可靠,能夠長(cháng)時(shí)間運行。
● 實(shí)時(shí)性:需要快速響應外部事件。
● 低功耗:許多應用場(chǎng)景依賴(lài)電池供電,功耗必須盡可能低。
隨著(zhù)AI技術(shù)的普及,MCU需要支持更多的AI功能,例如語(yǔ)音識別、圖像處理、預測性維護等。 這些功能對MCU的計算能力和存儲空間提出了更高的要求。 然而,MCU的資源有限,如何在傳統應用與AI功能之間取得平衡成為一個(gè)關(guān)鍵問(wèn)題。
為了在傳統應用與AI功能之間取得平衡,MCU的設計可以采取以下策略:
● 模塊化設計:將AI功能作為可選模塊,用戶(hù)可以根據需求選擇是否啟用。
● 資源分配優(yōu)化:通過(guò)動(dòng)態(tài)資源分配,確保傳統控制任務(wù)和AI任務(wù)都能獲得足夠的資源。
● 多核架構:采用多核設計,將傳統控制任務(wù)和AI任務(wù)分配到不同的核心上運行,避免資源競爭。
● 軟硬件協(xié)同設計:通過(guò)優(yōu)化硬件架構和軟件算法,提升MCU的整體性能。
為了提升AI模型的運行效率,許多MCU開(kāi)始整合專(zhuān)用的AI加速器。 這些加速器針對神經(jīng)網(wǎng)絡(luò )計算進(jìn)行了優(yōu)化,能夠大幅提升模型的推理速度。 例如,Arm的Cortex-M系列MCU已經(jīng)支持AI加速功能,能夠高效運行機器學(xué)習模型。
Arm主任應用工程師林宜均指出,Arm 的 MCU 產(chǎn)品策略中結合了對傳統應用的深厚技術(shù)基礎,與對新興AI 技術(shù)發(fā)展的積極投入。 產(chǎn)品不僅支持傳統的低功耗嵌入式應用,還加入了對 AI 推論的支持,尤其是在語(yǔ)音識別、影像處理和傳感器數據分析等場(chǎng)景。
新一代Armv8-M架構為Cortex-M處理器帶來(lái)更強大的安全性和效能,可更加滿(mǎn)足未來(lái)MCU應用的需求,包括AI功能的導入。 Arm Helium 技術(shù)是Arm Cortex-M處理器系列的M系列向量擴充方案(MVE)。 Helium 為 Armv8.1-M 架構的延伸,可協(xié)助機器學(xué)習 (ML) 與數字訊號處理 (DSP) 應用大幅提升效能
在MCU產(chǎn)品中導入AI功能的同時(shí),必須兼顧傳統應用的需求,例如低功耗和實(shí)時(shí)性。 例如Arm 的 Cortex-M 系列處理器,它在提供 AI 處理能力的同時(shí),也保持了低功耗的特性,適合應用于各種嵌入式裝置。
軟件可以釋放硬件的效能與潛力。 Arm 除了提供硬件平臺之外,也提供軟件庫和開(kāi)發(fā)工具,協(xié)助開(kāi)發(fā)人員進(jìn)行軟件優(yōu)化。
為了滿(mǎn)足客戶(hù)于互聯(lián)網(wǎng)市場(chǎng)復雜且多樣化的設計,和署具有智能又安全的物聯(lián)網(wǎng)裝置,Arm提供物聯(lián)網(wǎng)參考設計平臺Arm Corstone系列,借此協(xié)助降低設計復雜度,并加快上市時(shí)程。 Corstone 提供大量軟件、IP 區塊,以及可配置和可修改的異質(zhì)化子系統,以達到兼具效能與能源效率的目標。 SoC 設計人員可使用Arm Corstone 作為框架,以可修改及可配置的異質(zhì)化子系統構建SOC。 軟件開(kāi)發(fā)人員可使用 Corstone 軟件組件和工具,在硬件準備就緒之前就能開(kāi)始開(kāi)發(fā)軟件,大幅減少開(kāi)發(fā)時(shí)的等待時(shí)間。
未來(lái)發(fā)展趨勢
未來(lái),MCU將整合更高效的AI加速器,以支持更復雜的AI任務(wù)。 基于RISC-V架構的AI加速器正在成為一個(gè)熱門(mén)研究方向。 隨著(zhù)AI技術(shù)的普及,MCU將在更多領(lǐng)域得到應用,例如智能家居、智慧城市、醫療設備等。 而AI開(kāi)發(fā)生態(tài)也將更完善,開(kāi)發(fā)工具和框架將更加成熟,幫助開(kāi)發(fā)者更高效地實(shí)現AI功能。
MCU的計算能力和存儲空間有限,直接運行大型AI模型是不現實(shí)的。 因此,模型壓縮和量化成為優(yōu)化AI模型在MCU上運行效率的關(guān)鍵技術(shù)。
為了降低開(kāi)發(fā)難度,許多廠(chǎng)商提供了專(zhuān)門(mén)的開(kāi)發(fā)工具和生態(tài)系統。 例如TensorFlow Lite for MCUs是專(zhuān)為MCU設計的機器學(xué)習框架,能夠幫助開(kāi)發(fā)者快速部署AI模型。 許多廠(chǎng)商還提供了豐富的示例代碼和開(kāi)發(fā)文檔,進(jìn)一步降低了開(kāi)發(fā)門(mén)檻。
結論
微控制器在A(yíng)I時(shí)代面臨著(zhù)新的挑戰和機遇。 透過(guò)整合AI處理器、優(yōu)化資源分配、壓縮和量化AI模型,MCU能夠在傳統應用與AI功能之間取得平衡,并在邊緣與終端設備中發(fā)揮重要作用。 未來(lái),隨著(zhù)技術(shù)的不斷進(jìn)步,MCU將在更多領(lǐng)域實(shí)現智能化,為AI的普及和應用提供強大的支持。
評論