AdaBN(Adaptive Batch Normalization)使用

最近在查看論文《Towards Flops-constrained Face Recognition》時,發現作者使用了AdaBN的技巧,我很好奇AdaBN是什麼操作,爲甚麼沒有看見相應的博文介紹,下面是我自己整理的資料。



論文鏈接:https://arxiv.org/pdf/1603.04779.pdf

原文中的算法:

 通俗理解:

把model設成訓練模式,然後是做前向計算,不做反向更新,相當於只更新global mean和global variance;

將所有測試樣本跑一遍,得到的最終的BN層的參數用於test測試樣本;

注意:有人建議做遷移時,要將global mean 和 global var 初始成 0 (因爲涉及到batchsize的大小);

使用場景:

訓練樣本分佈和測試樣本分佈不一致,模型遷移學習時使用;

參考:

1.https://www.zhihu.com/question/340407548/answer/795027833

2.http://www.doc88.com/p-9932882215443.html

附贈信息:

原作者:https://www.zhihu.com/people/naiyan-wang/answers,關於“論文投稿被拒2次,再找第三家的時候突然想放棄怎麼辦?”的回答;

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章