如何在邊緣人工智能計算中利用神經(jīng)形態(tài)設備?
模仿人腦結構和功能的神經(jīng)形態(tài)計算可用于邊緣計算,以提高能效、速度和適應性。通過在本地處理數(shù)據(jù)并使用事件驅動計算,神經(jīng)形態(tài)芯片可以優(yōu)化邊緣人工智能應用中的資源使用,減少對集中式云處理的依賴。
尖峰神經(jīng)網(wǎng)絡 (SNN) 是實現(xiàn)神經(jīng)形態(tài)計算系統(tǒng)的最常見方法。與卷積神經(jīng)網(wǎng)絡 (CNN) 一樣,SNN 是一種特定類型的人工神經(jīng)網(wǎng)絡 (ANN)。
數(shù)據(jù)表示和推理所需的前向計算次數(shù)是CNN和SNN之間的重要區(qū)別。在人工神經(jīng)網(wǎng)絡中,神經(jīng)元的輸入和輸出信號都是實數(shù),推理只需要一次前饋傳遞。
另一方面,SNN 會遇到推理延遲。SNN 輸入和輸出信號是給定周期內的稀疏尖峰,推理需要在此周期內進行多次前饋傳遞。人工神經(jīng)網(wǎng)絡處理實值,而 SNN 處理尖峰(圖 1)。
圖 1.2層神經(jīng)網(wǎng)絡(a)、2層神經(jīng)網(wǎng)絡架構(b)和2層神經(jīng)網(wǎng)絡架構(c)的一般架構比較。(圖片來源:MDPI 應用科學)
SNN 基礎知識
SNN 中每個神經(jīng)元的膜電位是一個關鍵要素。當神經(jīng)元接收到來自 SSN 中其他神經(jīng)元的輸入信號(尖峰)時,它會發(fā)生變化。興奮性輸入導致膜電位變得更加正。當接收到抑制性輸入時,電位變得更加負。
當膜電位達到臨界閾值時,神經(jīng)元將產(chǎn)生輸出尖峰(“火”)。這種機制使 SNN 能夠根據(jù)尖峰的時間和頻率處理信息。閾值是在 SNN 訓練期間確定的。
單個尖峰代表離散事件或信息片段,并且該信息根據(jù)尖峰的時間和頻率通過 SNN 傳輸。
尖峰通過突觸連接在神經(jīng)元之間傳播。突觸連接具有相關的權重,這些權重決定了尖峰對接收神經(jīng)元的影響程度。重量是在訓練期間確定的。
SNNs 的優(yōu)勢
SNN 可以增強物聯(lián)網(wǎng) (IoT) 設備、智能傳感器、機器人和自動駕駛汽車等邊緣應用的性能。由于它們使用基于尖峰的通信進行作,因此 SNN 僅在需要時激活,從而最大限度地降低功耗。
像 SNN 這樣的神經(jīng)形態(tài)芯片可以實現(xiàn)并行處理,加快響應時間和決策速度。它們非常適合處理非結構化和流數(shù)據(jù),一些神經(jīng)形態(tài)芯片架構同時集成了 SNN 和內存,支持內存計算并減少數(shù)據(jù)傳輸延遲并進一步降低功耗。
模擬與數(shù)字SNN
SNN 可以使用模擬或數(shù)字技術實現(xiàn)。兩者都使用尖峰進行神經(jīng)元之間的通信,并且是事件驅動的。模擬 SNN 使用連續(xù)信號,而數(shù)字 SNN 使用數(shù)字信號和處理。
模擬 SNN 在能效(它們的能耗比數(shù)字 SNN 低 20 倍)、小尺寸和模擬信號實時處理方面具有優(yōu)勢。模擬SNN可以直接處理來自傳感器的模擬信號,而無需模數(shù)轉換。這可以帶來更快的響應時間和更簡單的系統(tǒng)。
數(shù)字 SNN 使用 CPU 或 FPGA 來模擬尖峰神經(jīng)元活動。它們比模擬方法更具可擴展性,并且可以更輕松地支持更大的 SNN。數(shù)字 SNN 比它們的模擬表親更準確、更可靠。
集成 SNN
包含SNN的商用IC已經(jīng)開始出現(xiàn)。這些初始產(chǎn)品往往是高度集成的通用設備。在一種情況下,該 IC 集成了模擬和數(shù)字 SNN,并結合了用于傳統(tǒng) CNN 和快速傅里葉變換 (FFT) 的 RISC-V CPU 和加速器(圖 2)。集成內存,可支持內存內和近內存處理。

圖 2.該神經(jīng)形態(tài)信號處理器包括模擬和數(shù)字 SNN(右上)以及 RISC-V CPU 以及 CNN 和 FFT 加速器。(圖片來源:Innatera)
總結
SNN 等神經(jīng)形態(tài)設備可用于最大限度地降低功耗并支持從傳感器融合到自動駕駛汽車和機器人技術等邊緣 AI 應用中的實時處理。SNN 是人工神經(jīng)網(wǎng)絡的一種特殊形式,可以使用模擬或數(shù)字技術實現(xiàn)。集成了針對邊緣傳感應用優(yōu)化的SNN的商用IC已經(jīng)開始出現(xiàn)。




評論