文献阅读(59)

  • 题目:Laconic Deep Learning Inference Acceleration
  • 时间:2019
  • 会议:ISCA
  • 研究机构:多伦多大学

1 缩写 & 引用

  • LPE: Laconic processing element

Bit-pragmatic Deep Neural Network Computing 2017 Intl’ Symp. on Microarchitecture
Bit-Tactical: A Software/Hardware Approach to Exploiting Value and Bit Sparsity in Neural Networks 2019 Proceedings of the 24 International Conference on Architectural Support for Programming Languages and Operating Systems

2 abstract & introduction

提高能耗比的几种常用手段:

  1. 数据复用
  2. 数据类型和位宽
  3. 数据稀疏性
  4. 近似计算的鲁棒性

这篇论文主要聚焦于比特级的稀疏性,即零比特的个数
本篇论文的主要贡献:

  • 探究神经网络的比特级稀疏性
  • 硬件加速器设计Laconic,利用了booth编码

3 神经网络的比特级稀疏性

过去的工作主要聚焦于权重或者feature map的稀疏性,是整个数是0的时候可以跳掉,但实际上还可以利用比特级的稀疏性,实现加速
在这里插入图片描述

4 Laconic

本质上就是用Booth编码来表示数据,这样就不用考虑零比特的数,比如说(0011 1100)=60=64-4
在这里插入图片描述
每个时钟周期1个Laconic PE可以进行2个比特级的乘法,所以上图需要两个时钟周期来完成计算,
一个2x2阵列的Laconic PE,一次可以进4个权重+4个feature map,就是8个权重feature map对,每次乘法需要2个时钟周期
在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章