原创 教你復現頂會論文網絡結構(三)--Wide&Deep模型網絡結構

參考文章: 1、https://github.com/brightnesss/deep-cross/blob/master/CDNet.py 2、https://zhuanlan.zhihu.com/p/92279796 概述 該

原创 教你復現頂會論文網絡結構(一)--DCN模型網絡結構(Keras)

參考文章: 1、https://blog.csdn.net/roguesir/article/details/79763204 2、論文:https://arxiv.org/abs/1708.05123 3、https://www

原创 教你復現頂會論文網絡結構(二)--DCN模型網絡結構(tensorflow2.0)

參考文章: 1、https://blog.csdn.net/roguesir/article/details/79763204 2、論文:https://arxiv.org/abs/1708.05123 3、https://www

原创 教你復現頂會論文網絡結構(五)--NFM模型網絡結構

參考文章: TensorFlow 2.0 implementation of NFM Reference: Neural Factorization Machines for Sparse Predictive Analytics

原创 國外程序員整理的機器學習算法庫和軟件包

[Machine Learning] 國外程序員整理的機器學習資源大全 閱讀目錄  本文彙編了一些機器學習領域的框架、庫以及軟件(按編程語言排序)。 1. C++ 1.1 計算機視覺 CCV —基於C語言/提供

原创 採用Keras 自編碼器(SAE)實現Mnist的多分類問題

堆棧式自編碼器的原理請看: https://blog.csdn.net/hjimce/article/details/49106869 這裏直接進行代碼的實現 代碼結構分爲:1.mnist的讀取,2.數據預處理,3.模型的訓練過程

原创 基於深度學習的處理文本數據的四步法(Embed,encode,attend,predict:)

轉載來自:https://explosion.ai/blog/deep-learning-formula-nlp 在過去六個月,一種強大的新型神經網絡工具出現應用於自然語言處理。新型的方法可以總結爲四步驟:嵌入(embed),編碼

原创 python計算完美數據的和

問題: A perfect number is a number for which the sum of its proper divisors is exactly equal to the number. For examp

原创 教你復現頂會論文網絡結構(四)--PNN模型網絡結構

參考文章: TensorFlow 2.0 implementation of Product-based Neural Network[1] Reference: [1] Product-based Neural Networks

原创 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史

轉載自:https://zhuanlan.zhihu.com/p/49271699 張俊林 Bert最近很火,應該是最近最火爆的AI進展,網上的評價很高,那麼Bert值得這麼高的評價嗎?我個人判斷是值得。那爲什麼會有這麼高的評價呢?

原创 採用Keras 堆棧式自編碼器(SAE)實現Mnist的多分類問題

堆棧式自編碼器的原理請看: https://blog.csdn.net/hjimce/article/details/49106869 這裏直接進行代碼的實現 代碼結構分爲:1.mnist的讀取,2.數據預處理,3.模型的訓練過程。

原创 國外程序員整理的機器學習資源大全

[Machine Learning] 國外程序員整理的機器學習資源大全 閱讀目錄  本文彙編了一些機器學習領域的框架、庫以及軟件(按編程語言排序)。 1. C++ 1.1 計算機視覺 CCV —基於C語言/提供緩存

原创 《A Neural Probabilistic Language Model》

其實我閱讀完原文後,本來想翻譯出來,但是網上有很多這樣的譯文,我就沒有翻譯,直接轉載了。 轉載地址:https://blog.csdn.net/u014568072/article/details/78557837?locationN

原创 [Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec詞向量模型

[Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec詞向量模型 閱讀目錄1. 詞向量2.Distributed representation詞向量表示3.詞向量模型4.word2vec算

原创 神經網絡訓練中,Epoch、Batch Size和iteration的名詞理解

在我們進行深度學習時,會設置epoch,Batch size、iteration等參數,這些參數的概念與理解至關重要。這裏詳細解釋下。 參考鏈接: http://www.dataguru.cn/article-12193-1.html