2021年11月30日–日本東京–邊緣AI領域的領先標桿企業LeapMind有限公司今日公布了其正在開發和授權的超低功耗AI推理加速器IP“Efficiera”v2版本(以下簡稱“v2”)。LeapMind于2021年9月發布了Efficiera v2的測試版,并收到了許多公司的測試及反饋,包括SoC供應商和終端用戶產品設計師。Efficiera v2預計2021年12月開始發售,如有意向獲取,請通過此郵箱垂詢:business leapmind.io。
LeapMind首席執行官Soichi Matsuda表示:“去年,我們正式推出了v1的商用版本,許多公司對Efficiera進行了評測。截至2021年9月底,我們共與8家日本國內公司簽署了授權協議。‘向世界傳播采用機器學習的新設備’是我們根據企業理念所設定的座右銘,而我們正通過提供v1來穩步推進這一理念的落地。在未來,我們將進一步通過技術創新和產品陣容擴展,繼續努力實現人工智能的普及!
Efficiera v2根據v1的使用記錄和市場評測,擴大了應用范圍,在保持最小配置的電路規;A上,可覆蓋更廣泛的性能范圍,并應用于更多的實際產品。產品由此得到了進一步的完善。
Efficiera v2概念
LeapMind董事兼首席技術官Hiroyuki Tokunaga博士表示:“自去年發布v1以來,我們強化了設計/驗證方法和開發流程,旨在‘開發世界上最節能的DNN加速器’。我們一直在開發v2,以使產品能夠適用于專用集成電路(ASIC)和專用標準產品(ASSP)。我們還在開發一個深度學習方面的推理學習模型,以便將超小量化技術的優勢最大化。LeapMind的最大優勢就在于我們可以提供一種技術來實現雙管齊下!
Efficiera v2的主要規格與特性
在保持最小電路規模的同時,覆蓋更廣泛的性能范圍,從而擴大應用范圍。
硬件特性
●通過多路復用MAC陣列+多核,性能可擴展至48倍
V2允許你將卷積管道中的MAC陣列數量增加到v1的3倍(可選擇x1、x4),并通過提供多達4個內核的選擇,進一步擴大性能的可擴展性。
●除卷積和量化外,還可實現硬件執行跳過連接和像素嵌入
1.跳過連接是多層卷積神經網絡(CNN)中常見的一種操作。(v1中由CPU執行)
2.像素嵌入是一種對輸入數據進行量化的方法
●資源使用方面,配置與Efficiera 1相同
1.有些應用只因AI功能可在規模有限的FPGA器件上實現就能創造價值。
2.LeapMind分析了一個實用型深度學習模型的執行時間,并仔細選擇了額外的硬件功能。
集成到SoC中
●AMBA AXI接口
●AMBA AXI interface
AMBA AXI繼續被用作與外部的接口,并且當接口被視為一個黑盒子時與以前一樣,易于從當前設計中遷移。
●單時鐘域
FPGA中的目標頻率
●FPGA的運行頻率與先前相同,雖然取決于具體設備,但預計約為150到250MHz。
1.256 GOP/s 125MHz(單核)
2.高達12 TOP/s 250MHz(雙核)
●以加密RTL的形式提供
B.通過改進設計/驗證方法并審查開發流程,我們確保質量不僅適用于FPGA,也適用于ASIC/ASSP。
C.開始提供一個模型開發環境(NDK),使用戶能夠為Efficiera開發深度學習模型。目前為止只有LeapMind實現了這項工作。
●為Efficiera創建超小型量化深度學習模型所需的代碼和信息包
●GPU深度學習模型的開發者可立即上手使用
●支持PyTorch和TensorFlow 2的深度學習框架
●學習環境為一個配備GPU的Linux服務器
●推理環境為一個配備Efficiera的設備
●來自LeapMind的技術支持
http:www.mangadaku.com/news/2021-12/2021122111012.html

