原创 DeepLearning4j實戰(7):手寫體數字識別GPU實現與性能比較

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9fEclipse Deeplearning4j 系列博客:

原创 Deeplearning4j 實戰 (21):Bert簡介及NLP問題應用

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰(8) : Keras爲媒介導入Tensorflow/Theano等其他深度學習庫的模型

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9fEclipse Deeplearning4j 系列博客:

原创 Deeplearning4j 實戰 (19):基於膠囊網絡(Capsule Network)的手寫體數字識別

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰 (16):FastText在監督學習和無監督學習中的應用

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰 (14):基於SameDiff自動微分工具的線性迴歸建模

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9fEclipse Deeplearning4j 系列博客:

原创 Deeplearning4j 實戰 (20):Attention機制在文本分類中的應用

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰 (18):基於DQN的強化學習在自定義迷宮遊戲問題中的建模

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰 (17):基於SameDiff自動微分工具的CNN建模

Eclipse Deeplearning4j GitChat課程:https://gitbook.cn/gitchat/column/5bfb6741ae0e5f436e35cd9f Eclipse Deeplearning4j

原创 Deeplearning4j 實戰 (15):SameDiff自動微分工具可視化

在上一篇的博客中,我們介紹瞭如何利用Deeplearning4j/ND4j提供的自動微分工具SameDiff來實現線性迴歸模型。SameDiff的建模類似1.x版本的Tensorflow,是基於張量的OP操作來進行的。基於OP的建

原创 Deeplearning4j 實戰 (13):基於TextCNN的文本分類實現

在之前的文章中,我們基於Embedding+LSTM的結構實現了一個文本分類的應用。本質上,這是循環神經網絡Many-to-One架構下的一種應用。在那種結構中,我們將Embedding後的詞向量依次投入到LSTM Cell中,循環結構依

原创 Eclipse Deeplearning4j GitChat達人課介紹

原文鏈接:https://blog.csdn.net/valada/article/details/84991256 作者:萬宮璽 隨着機器學習、深度學習爲主要代表的人工智能技術的逐漸成熟,越來越多的 AI 產品得到了真正的落地。無論

原创 Deeplearning4j源碼研習(1): BP算法原理及源碼實現

對於神經網絡來講,訓練的過程是在更新網絡權重和偏重的值,採取的方法有梯度下降、牛頓法等。由於深度學習通常有較多的網絡層數,參數較多,而且二階的優化算法本身就非常消耗內存,因此,實際應用中,梯度下降運用較多。梯度下降更新模型參數的公式:

原创 Deeplearning4j 實戰 (12):Mnist替代數據集Fashion Mnist在CNN上的實驗及結果

Mnist數據集的分類問題一直被認爲是深度學習的Hello World。利用2層卷積網絡,經過若干輪的訓練後,在相應測試集上的準確率可以達到95%以上。經過調參後,甚至可以達到99%以上。其實,即使不用用卷積層提取特徵,而是用傳統的全連接

原创 C++ Boost在Windows和Linux下的編譯安裝

C++作爲歷史上最成功的語言之一,除了它具有面向對象的性質之外,還有一個非常重要的創新,那就是泛型編程。泛型的思想其實是爲所有問題提供一個解決方案的模版,程序員只需把每次的具體問題放到模版裏面,那麼就可以獲得該問題的解決方案,利用模版做到