最近在查看論文《Towards Flops-constrained Face Recognition》時,發現作者使用了AdaBN的技巧,我很好奇AdaBN是什麼操作,爲甚麼沒有看見相應的博文介紹,下面是我自己整理的資料。
論文鏈接:https://arxiv.org/pdf/1603.04779.pdf
原文中的算法:
通俗理解:
把model設成訓練模式,然後是做前向計算,不做反向更新,相當於只更新global mean和global variance;
將所有測試樣本跑一遍,得到的最終的BN層的參數用於test測試樣本;
注意:有人建議做遷移時,要將global mean 和 global var 初始成 0 (因爲涉及到batchsize的大小);
使用場景:
訓練樣本分佈和測試樣本分佈不一致,模型遷移學習時使用;
參考:
1.https://www.zhihu.com/question/340407548/answer/795027833
2.http://www.doc88.com/p-9932882215443.html
附贈信息:
原作者:https://www.zhihu.com/people/naiyan-wang/answers,關於“論文投稿被拒2次,再找第三家的時候突然想放棄怎麼辦?”的回答;