荷蘭研究人員開發(fā)出新技術,通過AI芯片的片上訓練來降低功耗
7月22日消息,荷蘭埃因霍溫理工大學的研究人員開發(fā)了一種能夠進行片上訓練的設備,無需將訓練好的模型傳輸到芯片上,從而在未來開辟了更節(jié)能的人工智能(AI)芯片。
據了解,該開發(fā)使用神經形態(tài)架構,但已適應主流人工智能框架,而不是脈沖網絡。訓練神經形態(tài)網絡可能很乏味、耗時且能源效率低下,因為模型通常首先在計算機上訓練,然后傳輸到芯片上。
“在神經形態(tài)芯片中,有憶阻器。這些電路設備可以'記住'過去有多少電荷流過它們?!盩U/e.機械工程系副教授Yoeri Van de Burgt說,他與Evaline van Doremaele合作參與了該項目。“而這正是以大腦神經元如何存儲信息和相互通信為模型的設備所需要的。”
在計算機上完成訓練后,來自網絡的權重被映射到芯片硬件。另一種方法是在原位或硬件中進行訓練,但當前設備需要逐個編程,然后進行錯誤檢查。這是必需的,因為大多數憶阻器都是隨機的,如果不檢查設備,就不可能更新設備。
“這些方法在時間、能源和計算資源方面成本高昂。為了真正利用神經形態(tài)芯片的能源效率,需要直接在神經形態(tài)芯片上進行訓練,“Van de Burgt說。
對于研究人員來說,主要的挑戰(zhàn)是將芯片上訓練所需的關鍵組件集成到單個神經形態(tài)芯片上。
“例如,要解決的一項主要任務是包含電化學隨機存取存儲器(EC-RAM)組件,”Van de Burgt說?!斑@些是模仿大腦中神經元的電荷儲存和發(fā)射的組件。
研究人員制造了一個基于由有機材料制成的EC-RAM組件的兩層神經網絡,并通過廣泛使用的訓練算法反向傳播和梯度下降的演變來測試硬件。
反向傳播算法的硬件實現(xiàn)使用原位隨機梯度下降逐步更新每一層,避免了存儲要求。該設計包括原位誤差計算和多層硬件實現(xiàn)的神經網絡中的漸進式反向傳播方法。與軟件中的傳統(tǒng)反向傳播相比,這具有相同的學習特性和分類性能,研究人員表明,它可以擴展到大型和深度神經網絡,從而實現(xiàn)人工智能系統(tǒng)的高效訓練。
“我們已經證明這適用于小型兩層網絡,”van de Burgt說。“接下來,我們希望讓工業(yè)界和其他大型研究實驗室參與進來,這樣我們就可以建立更大的硬件設備網絡,并用現(xiàn)實生活中的數據問題來測試它們。
下一步將使研究人員能夠證明這些系統(tǒng)在訓練以及運行有用的神經網絡和人工智能系統(tǒng)方面非常有效。“我們希望將這項技術應用于幾個實際案例,”Van de Burgt說?!拔业膲粝胧亲屵@些技術在未來成為人工智能應用的常態(tài)。
編輯:芯智訊-林子
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。