LeapMind發(fā)布超低功耗AI推理加速器IP“Efficiera v2版本”
邊緣AI領(lǐng)域的領(lǐng)先標桿企業(yè)LeapMind有限公司今日公布了其正在開(kāi)發(fā)和授權的超低功耗AI推理加速器IP “Efficiera” v2版本(以下簡(jiǎn)稱(chēng)“v2”)。LeapMind于2021年9月發(fā)布了Efficiera v2的測試版,并收到了許多公司的測試及反饋,包括SoC供應商和終端用戶(hù)產(chǎn)品設計師。Efficiera v2預計2021年12月開(kāi)始發(fā)售,如有意向獲取,請通過(guò)此郵箱垂詢(xún):business@leapmind.io。
本文引用地址:http://dyxdggzs.com/article/202111/429991.htmLeapMind首席執行官Soichi Matsuda表示:“去年,我們正式推出了v1的商用版本,許多公司對Efficiera進(jìn)行了評測。截至2021年9月底,我們共與8家日本國內公司簽署了授權協(xié)議?!蚴澜鐐鞑ゲ捎脵C器學(xué)習的新設備’是我們根據企業(yè)理念所設定的座右銘,而我們正通過(guò)提供v1來(lái)穩步推進(jìn)這一理念的落地。在未來(lái),我們將進(jìn)一步通過(guò)技術(shù)創(chuàng )新和產(chǎn)品陣容擴展,繼續努力實(shí)現人工智能的普及?!?/p>
Efficiera v2概念
Efficiera v2根據v1的使用記錄和市場(chǎng)評測,擴大了應用范圍,在保持最小配置的電路規?;A上,可覆蓋更廣泛的性能范圍,并應用于更多的實(shí)際產(chǎn)品。產(chǎn)品由此得到了進(jìn)一步的完善。
LeapMind董事兼首席技術(shù)官Hiroyuki Tokunaga博士表示:“自去年發(fā)布v1以來(lái),我們強化了設計/驗證方法和開(kāi)發(fā)流程,旨在‘開(kāi)發(fā)世界上最節能的DNN加速器’。我們一直在開(kāi)發(fā)v2,以使產(chǎn)品能夠適用于專(zhuān)用集成電路(ASIC)和專(zhuān)用標準產(chǎn)品(ASSP)。我們還在開(kāi)發(fā)一個(gè)深度學(xué)習方面的推理學(xué)習模型,以便將超小量化技術(shù)的優(yōu)勢最大化。LeapMind的最大優(yōu)勢就在于我們可以提供一種技術(shù)來(lái)實(shí)現雙管齊下?!?/p>
Efficiera v2的主要規格與特性
A.在保持最小電路規模的同時(shí),覆蓋更廣泛的性能范圍,從而擴大應用范圍。
硬件特性
● 通過(guò)多路復用MAC陣列+多核,性能可擴展至48倍
V2允許你將卷積管道中的MAC陣列數量增加到v1的3倍(可選擇x1、x4),并通過(guò)提供多達4個(gè)內核的選擇,進(jìn)一步擴大性能的可擴展性。
● 除卷積和量化外,還可實(shí)現硬件執行跳過(guò)連接和像素嵌入
1. 跳過(guò)連接是多層卷積神經(jīng)網(wǎng)絡(luò )(CNN)中常見(jiàn)的一種操作。(v1中由CPU執行)
2. 像素嵌入是一種對輸入數據進(jìn)行量化的方法
● 資源使用方面,配置與Efficiera 1相同
1. 有些應用只因AI功能可在規模有限的FPGA器件上實(shí)現就能創(chuàng )造價(jià)值。
2. LeapMind分析了一個(gè)實(shí)用型深度學(xué)習模型的執行時(shí)間,并仔細選擇了額外的硬件功能。
集成到SoC中
● AMBA AXI接口
● AMBA AXI interface
AMBA AXI繼續被用作與外部的接口,并且當接口被視為一個(gè)黑盒子時(shí)與以前一樣,易于從當前設計中遷移。
● 單時(shí)鐘域
FPGA中的目標頻率
● FPGA的運行頻率與先前相同,雖然取決于具體設備,但預計約為150到250MHz。
1. 256 GOP/s @ 125MHz (單核)
2. 高達12 TOP/s @ 250MHz (雙核)
● 以加密RTL的形式提供
B. 通過(guò)改進(jìn)設計/驗證方法并審查開(kāi)發(fā)流程,我們確保質(zhì)量不僅適用于FPGA,也適用于A(yíng)SIC/ASSP。
C. 開(kāi)始提供一個(gè)模型開(kāi)發(fā)環(huán)境(NDK),使用戶(hù)能夠為Efficiera開(kāi)發(fā)深度學(xué)習模型。目前為止只有LeapMind實(shí)現了這項工作。
● 為Efficiera創(chuàng )建超小型量化深度學(xué)習模型所需的代碼和信息包
● GPU深度學(xué)習模型的開(kāi)發(fā)者可立即上手使用
● 支持PyTorch和TensorFlow 2的深度學(xué)習框架
● 學(xué)習環(huán)境為一個(gè)配備GPU的Linux服務(wù)器
● 推理環(huán)境為一個(gè)配備Efficiera的設備
● 來(lái)自L(fǎng)eapMind的技術(shù)支持
評論