- 題目:Laconic Deep Learning Inference Acceleration
- 時間:2019
- 會議:ISCA
- 研究機構:多倫多大學
1 縮寫 & 引用
- LPE: Laconic processing element
Bit-pragmatic Deep Neural Network Computing 2017 Intl’ Symp. on Microarchitecture
Bit-Tactical: A Software/Hardware Approach to Exploiting Value and Bit Sparsity in Neural Networks 2019 Proceedings of the 24 International Conference on Architectural Support for Programming Languages and Operating Systems
2 abstract & introduction
提高能耗比的幾種常用手段:
- 數據複用
- 數據類型和位寬
- 數據稀疏性
- 近似計算的魯棒性
這篇論文主要聚焦於比特級的稀疏性,即零比特的個數
本篇論文的主要貢獻:
- 探究神經網絡的比特級稀疏性
- 硬件加速器設計Laconic,利用了booth編碼
3 神經網絡的比特級稀疏性
過去的工作主要聚焦於權重或者feature map的稀疏性,是整個數是0的時候可以跳掉,但實際上還可以利用比特級的稀疏性,實現加速
4 Laconic
本質上就是用Booth編碼來表示數據,這樣就不用考慮零比特的數,比如說(0011 1100)=60=64-4
每個時鐘週期1個Laconic PE可以進行2個比特級的乘法,所以上圖需要兩個時鐘週期來完成計算,
一個2x2陣列的Laconic PE,一次可以進4個權重+4個feature map,就是8個權重feature map對,每次乘法需要2個時鐘週期