原创 ACM 下會議的最新Latex模板的使用方法和投稿注意事項

ACM 下會議的最新Latex模板的使用方法和投稿注意事項 1. ACM 會議的最新Latex模板的使用方法 解壓從ACM會議指定官網下載的壓縮包,一般使用sample-sigconf模板。新建一個文件夾將acmart-master中ac

原创 深度學習模型中的學習率調整

非常關鍵------------------深度學習模型中的學習率調整 學習率對於深度學習是一個重要的超參數,它控制着基於損失梯度調整神經網絡權值的速度,大多數優化算法(SGD、RMSprop、Adam)對其都有所涉及。學習率越小,損失梯

原创 Tanh,Sigmoid 和Relu 激活函數使用介紹

首先解釋爲什麼要做: 再解釋怎麼做: 從數學上來看,Sigmoid函數對中央區的信號增益較大,對兩側區的信號增益小,在信號的特徵空間映射上,有很好的效果。 在具體應用中,tanh函數相比於Sigmoid函數往往更具有優越性,這

原创 init.xavier_uniform()的用法

本文轉載於以下博客地址:https://blog.csdn.net/dss_dssssd/article/details/83959474 如有冒犯,還望見諒! 本文內容: 1. Xavier 初始化 2. nn.init 中各種初始化函

原创 VAE:變分自編碼器的原理介紹(一)

本文轉載於以下博客地址: https://www.cnblogs.com/huangshiyu13/p/6209016.html 如有冒犯,還望見解。 VAE(Variational Autoencoder)的原理 Kingma, Die

原创 圖神經網絡(GCN) 詳解(一)

圖神經網絡(GCN) 原理實現解讀 本文轉載機器之心的的博文,如有冒犯,還望指正。 原文鏈接地址如下:https://towardsdatascience.com/how-to-do-deep-learning-on-graphs-wit

原创 怎麼將你的論文代碼上傳到Github

首先你需要一個github賬號,所有還沒有的話先去註冊吧! https://github.com/ 我們使用git需要先安裝git工具,這裏給出下載地址,下載後一路直接安裝即可: https://git-for-windows.githu

原创 卷積神經網絡中激活函數的意義

激活函數的意義: 在生物意義上的神經元中,只有前面的樹突傳遞的信號的加權和值大於某一個特定的閾值的時候,後面的神經元纔會被激活。 簡單的說激活函數的意義在於判定每個神經元的輸出 有沒有達到閾值。 放在人臉識別卷積神經網絡中來思考,卷積層的

原创 KL散度詳細分析

本文轉載於簡書,地址鏈接爲:https://www.jianshu.com/p/7b7c0777f74d 如有冒犯,還望諒解! 直觀解讀KL散度的數學概念 關鍵點摘要 KL 散度是一種衡量兩個概率分佈的匹配程度的指標,兩個分佈差異越大,K

原创 注意力機制深度解析

注意力機制深度解析 轉載於知乎,如有冒犯,還望諒解! 鏈接:https://www.zhihu.com/question/68482809/answer/264632289  另外文中轉載有幾處圖片顯示不出來,還望查看原文鏈接,謝謝!  

原创 SE-Net網絡深度解析

本文來自於轉載,如有冒犯,還望理解! 論文代碼鏈接:https://github.com/hujie-frank/SENet https://github.com/binLearning/caffe_toolkit 下面我將介紹我們提出的

原创 Word2vec原理淺析及gensim中word2vec使用

本文轉載於以下博客鏈接:Word2vec原理淺析:https://blog.csdn.net/u010700066/article/details/83070102; gensim中word2vec使用:https://www.jians

原创 softmax和softmax loss詳細解析

本文轉載於以下博文地址:https://blog.csdn.net/u014380165/article/details/77284921 如有冒犯,還望諒解! 我們知道卷積神經網絡(CNN)在圖像領域的應用已經非常廣泛了,一般一個CNN

原创 梯度下降算法詳細解析及代碼實現

本文轉載於以下博客地址: https://www.jianshu.com/p/c7e642877b0e 如有冒犯,還望諒解! 梯度下降的場景假設 梯度 梯度下降算法的數學解釋 梯度下降算法的實例 梯度下降算法的實現 Further re