當前位置: 主頁 > 新聞 >
 

用AI Memory技術加速AI運算效率 降低功耗並提升單晶片AI處理能力

本文作者:物聯網產業技術協       點擊: 2019-11-21 08:22
前言:
2019年11月20日--5G、AI、IoT(物聯網)可說是近幾年半導體產業最熱門的議題,因應5G時代AI邊緣運算需求持續增加,如何提升IoT晶片AI運算效率卻不增加功耗,已成為IC設計產業難題。對此,TwIoTA(台灣地區物聯網產業技術協會)理事長,同時也是力積電董事長黃崇仁,受主辦單位JASA嵌入式系統技術協會之邀,在今(20)日於2019日本嵌入式&物聯網技術大展(ET & IoT Technology 2019)的專題演講當中,說明力積電開發中的AI晶片(AI Memory)技術,將MCU與DRAM整合到單一晶片上,並讓記憶體資料可依照需求進行非循序存取,進而提升影像神經網路運算10倍處理效率,讓IC設計業者開發出體積更小的單晶片電腦(Single Chip Computer),進而降低AIoT應用服務設備開發成本。
 
AIM技術將記憶體與處理器整合至單一晶片 提升記憶體資料處理效率
黃崇仁表示,人類大腦有大約10的11次方個神經元(neuron)與10的15次方個突觸(synaptic),形成一個連接線路高達數千英里的立體性神經網路架構,但是整個大腦的耗電量只有25瓦,可說是非常省電。力積電在研究分析大腦神經元運作架構之後,耗費許久開發出AI晶片(AI Memory,AIM)技術,協助IC設計業者可以開發出給AI運算用的AI晶片,不僅低耗電,AI運算效率也能符合應用需求。
 
黃崇仁指出,IC設計業者可以透過AIM Innovation Service Platform架構,與力積電、智成電子、愛普科技合作,將CPU與DRAM相關IP放在同一顆晶片中,如此一來,MCU到DRAM的資料傳輸寬度,可以從常用的32位元大幅提升至4096位元,不僅增加資料傳輸頻寬,並且達到低延遲與低耗電效果,甚至還可以把WiFi晶片功能包進去,讓單一晶片可以獲得相當於單晶片電腦所需功能,並能降低晶片耗電量。
 
此外,由於在范紐曼型架構(von Neumann architecture)下,傳統AI運算上會碰到的頻頸是資料需要循序處理,不符合AI運算情境上其實是要能非循序存取的需求。而力積電的AI Memory技術,就可開發出後范紐曼型架構的記憶體處理方式,除了將CPU到DRAM的頻寬大幅提升,甚至可以在記憶體存取上加入控制電路,以非循序存取的方式高速讀取DRAM資料,進而提升AI運算執行效率。
 
AIM技術可提升AI運算效率 並降低所需功耗
以行車安全最需要的ADAS(先進駕駛輔助系統,Advanced Driver Assistance Systems)應用來說,若是採用AIM技術所開發的單晶片,搭配影像神經網路加速運算程式(Video Neuron Network Accelerator,VNNA),在進行1080p RGB影像物件分離處理上,可以達到10倍的執行效率,但耗電量卻只要原來的十分之一,可說是非常省電又有AI運算效率。同樣的架構與技術可以讓自駕車、無人車、攝影機、影像監控等晶片供應業者採用,協助相關晶片業者開發出具有特定領域的AI加速晶片產品。
 
在專題演講當中,黃崇仁理事長也同步介紹由TwIoTA所倡議成立的台灣地區RISC-V聯盟(RISC-V Taiwan Alliance,RVTA)與日本業界合作,共同加速RISC-V產業發展。並介紹台灣地區RISC-V供應鏈與IC設計生產代工服務,也希望日本業者若有RISC-V開發需求,可以跟台灣的半導體產業上中下游合作,進而開發更多5G、AI與IoT應用。台灣地區RISC-V聯盟(RVTA)網址為http://www.twiota.org/RISC-V/
 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11