怎樣做纔是真正的finetune?

我們假設在Resnet101後面加上一個全連接層,然後我們鎖住前面Resnet的參數,不參加梯度更新,然後只更新最後一個全連接層的參數。當全連接層的loss足夠小的時候,再釋放所有的參數一起訓練。這樣Resnet的參數也會微微調整,這就是finetune;

 

遷移學習transfer learning與微調fineTune的區別?一看就懂 - 知乎

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章