CVPR之网络设计(Related to Networks)(RePr)

1、RePr: Improved Training of Convolutional Filters
作者:Aaditya Prakash, James Storer, Dinei Florencio, Cha Zhang
论文链接:https://arxiv.org/abs/1811.07275

文章解读:https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247487556&idx=2&sn=34b41d2500564348c3b63c6ee71d8c28&chksm=ec1ffdbddb6874abbf4c02658126d031457702fc43165bc3ff1c58a32000260ba6bbc7fe8afb&token=65056564&lang=zh_CN#rd

简要说明:针对卷积神经网络的训练方法,方法比较简单,文章通过大量的分析和实验,验证了提出的训练方法非常有效。

主要思路:新的训练方法RePr,训练过程先训练整个网络,根据metric drop掉30%的filter,再训练剩下的网络,再把drop的filter拿回来,用于现有filters正交的方式初始化。迭代这个过程N次。

算法中最重要的其实这个metric,即如何选出需要drop的filters。

文章写的很明白,一个layer的多个卷积核可以用一个matrix表示,也就是 W_{l},先对W_{l}归一化,再与自己的转置相乘得到 P_{l},这是一个 J_{l}*J_{l}大小的matrix,第i行表示其他filter对第i个filter的projection,可以看成是相关性,如果是正交性的越大,那么这个值就越小,一行的数值之和越小,说明其他filter与这个filter相关性越低。因此可以通过这个sum来对filter进行rank。

同时文章还说明了,计算这个metric是在一个layer内,但rank是在所有layer进行的,目的是为了不让layer这个因数影响filter的rank,避开layer的差异性,同时也不引入过多的超参。


待续...

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章