文獻閱讀(59)

  • 題目:Laconic Deep Learning Inference Acceleration
  • 時間:2019
  • 會議:ISCA
  • 研究機構:多倫多大學

1 縮寫 & 引用

  • LPE: Laconic processing element

Bit-pragmatic Deep Neural Network Computing 2017 Intl’ Symp. on Microarchitecture
Bit-Tactical: A Software/Hardware Approach to Exploiting Value and Bit Sparsity in Neural Networks 2019 Proceedings of the 24 International Conference on Architectural Support for Programming Languages and Operating Systems

2 abstract & introduction

提高能耗比的幾種常用手段:

  1. 數據複用
  2. 數據類型和位寬
  3. 數據稀疏性
  4. 近似計算的魯棒性

這篇論文主要聚焦於比特級的稀疏性,即零比特的個數
本篇論文的主要貢獻:

  • 探究神經網絡的比特級稀疏性
  • 硬件加速器設計Laconic,利用了booth編碼

3 神經網絡的比特級稀疏性

過去的工作主要聚焦於權重或者feature map的稀疏性,是整個數是0的時候可以跳掉,但實際上還可以利用比特級的稀疏性,實現加速
在這裏插入圖片描述

4 Laconic

本質上就是用Booth編碼來表示數據,這樣就不用考慮零比特的數,比如說(0011 1100)=60=64-4
在這裏插入圖片描述
每個時鐘週期1個Laconic PE可以進行2個比特級的乘法,所以上圖需要兩個時鐘週期來完成計算,
一個2x2陣列的Laconic PE,一次可以進4個權重+4個feature map,就是8個權重feature map對,每次乘法需要2個時鐘週期
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章