我們假設在Resnet101後面加上一個全連接層,然後我們鎖住前面Resnet的參數,不參加梯度更新,然後只更新最後一個全連接層的參數。當全連接層的loss足夠小的時候,再釋放所有的參數一起訓練。這樣Resnet的參數也會微微調整,這就是finetune;
我們假設在Resnet101後面加上一個全連接層,然後我們鎖住前面Resnet的參數,不參加梯度更新,然後只更新最後一個全連接層的參數。當全連接層的loss足夠小的時候,再釋放所有的參數一起訓練。這樣Resnet的參數也會微微調整,這就是finetune;
google tensorflow 關於 數據可視化做得很好的一個網站。 http://projector.tensorflow.org