原创 教你復現頂會論文網絡結構(三)--Wide&Deep模型網絡結構
參考文章: 1、https://github.com/brightnesss/deep-cross/blob/master/CDNet.py 2、https://zhuanlan.zhihu.com/p/92279796 概述 該
原创 教你復現頂會論文網絡結構(一)--DCN模型網絡結構(Keras)
參考文章: 1、https://blog.csdn.net/roguesir/article/details/79763204 2、論文:https://arxiv.org/abs/1708.05123 3、https://www
原创 教你復現頂會論文網絡結構(二)--DCN模型網絡結構(tensorflow2.0)
參考文章: 1、https://blog.csdn.net/roguesir/article/details/79763204 2、論文:https://arxiv.org/abs/1708.05123 3、https://www
原创 教你復現頂會論文網絡結構(五)--NFM模型網絡結構
參考文章: TensorFlow 2.0 implementation of NFM Reference: Neural Factorization Machines for Sparse Predictive Analytics
原创 國外程序員整理的機器學習算法庫和軟件包
[Machine Learning] 國外程序員整理的機器學習資源大全 閱讀目錄 本文彙編了一些機器學習領域的框架、庫以及軟件(按編程語言排序)。 1. C++ 1.1 計算機視覺 CCV —基於C語言/提供
原创 採用Keras 自編碼器(SAE)實現Mnist的多分類問題
堆棧式自編碼器的原理請看: https://blog.csdn.net/hjimce/article/details/49106869 這裏直接進行代碼的實現 代碼結構分爲:1.mnist的讀取,2.數據預處理,3.模型的訓練過程
原创 基於深度學習的處理文本數據的四步法(Embed,encode,attend,predict:)
轉載來自:https://explosion.ai/blog/deep-learning-formula-nlp 在過去六個月,一種強大的新型神經網絡工具出現應用於自然語言處理。新型的方法可以總結爲四步驟:嵌入(embed),編碼
原创 python計算完美數據的和
問題: A perfect number is a number for which the sum of its proper divisors is exactly equal to the number. For examp
原创 教你復現頂會論文網絡結構(四)--PNN模型網絡結構
參考文章: TensorFlow 2.0 implementation of Product-based Neural Network[1] Reference: [1] Product-based Neural Networks
原创 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史
轉載自:https://zhuanlan.zhihu.com/p/49271699 張俊林 Bert最近很火,應該是最近最火爆的AI進展,網上的評價很高,那麼Bert值得這麼高的評價嗎?我個人判斷是值得。那爲什麼會有這麼高的評價呢?
原创 採用Keras 堆棧式自編碼器(SAE)實現Mnist的多分類問題
堆棧式自編碼器的原理請看: https://blog.csdn.net/hjimce/article/details/49106869 這裏直接進行代碼的實現 代碼結構分爲:1.mnist的讀取,2.數據預處理,3.模型的訓練過程。
原创 國外程序員整理的機器學習資源大全
[Machine Learning] 國外程序員整理的機器學習資源大全 閱讀目錄 本文彙編了一些機器學習領域的框架、庫以及軟件(按編程語言排序)。 1. C++ 1.1 計算機視覺 CCV —基於C語言/提供緩存
原创 《A Neural Probabilistic Language Model》
其實我閱讀完原文後,本來想翻譯出來,但是網上有很多這樣的譯文,我就沒有翻譯,直接轉載了。 轉載地址:https://blog.csdn.net/u014568072/article/details/78557837?locationN
原创 [Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec詞向量模型
[Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec詞向量模型 閱讀目錄1. 詞向量2.Distributed representation詞向量表示3.詞向量模型4.word2vec算
原创 神經網絡訓練中,Epoch、Batch Size和iteration的名詞理解
在我們進行深度學習時,會設置epoch,Batch size、iteration等參數,這些參數的概念與理解至關重要。這裏詳細解釋下。 參考鏈接: http://www.dataguru.cn/article-12193-1.html