優化
都9102年了,別再用Adam + L2 regularization了
AdamW and Super-convergence is now the fastest way to train neural nets
卷積
im2col的原理和實現
各種卷積動圖
空洞卷積問題:gridding、long-range
都9102年了,別再用Adam + L2 regularization了
AdamW and Super-convergence is now the fastest way to train neural nets
im2col的原理和實現
各種卷積動圖
空洞卷積問題:gridding、long-range
目錄賈老師 賈老師 利他主義很重要 學習狀態,自律 清華兩篇博士論文,有思想,有深度 優博名額5%->10%,今年有2.5個名額