1、dropout中概率參數p,是指單個神經元被丟棄的概率。
2、訓練階段droup的開關放在激活值之後,
3、測試階段,每個激活值後乘以q(保留概率),以此來縮放激活函數。
4、某一層有n個神經元,則一次迭代丟棄的神經元個數是不確定的,它是個隨機變量,服從二項分佈。
5、經過多輪訓練,某層神經元平均丟棄的個數爲概率爲n*p。
6、在n*p處的概率最大,並以p=0.5爲左右對稱分佈。
dropout個人理解
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
深度學習基礎——張量的通俗理解
SupreEvi
2020-07-08 11:53:15
視頻目標分割之Video Object Segmentation using Space-Time Memory Networks
有为少年
2020-07-08 11:18:09
基於attention機制實現 CRNN OCR文字識別
koibiki
2020-07-08 12:23:28
opencv 加載tensorflow pb模型
koibiki
2020-07-08 12:23:28
聊天機器人/對話生成
路越
2020-07-08 12:17:40
推薦系統系列(二):從零開始搭建基於向量的推薦策略
路越
2020-07-08 12:17:27
論文解讀:Single path one-shot neural architecture search with uniform sampling
Lawrence-C
2020-07-08 12:06:15
深度學習論文中的一些術語(僅備份用,不定時更新)
forg_ood
2020-07-08 12:04:52
深度學習_目標檢測_FPN論文詳解
CV-GANRocky
2020-07-08 11:57:07
深度學習_目標檢測_“YOLOv5”詳解(持續更新)
CV-GANRocky
2020-07-08 11:57:07
[深度之眼]LeNet/AlexNet/VGGNet/InceptionNet/ResNet實現fashion_mnist分類
TF_Keras
2020-07-08 11:53:37
TensorFlow+CNN+OpenCV快速識別中文驗證碼
郑德帅
2020-07-08 11:43:39
apt-get update 卡在working 0 已解決
一蓑烟雨任平生yu
2020-07-08 11:20:23