原创 文本處理——基於 word2vec 和 CNN 的文本分類 :綜述 & 實踐(一)

原文地址:https://zhuanlan.zhihu.com/p/29076736導語傳統的向量空間模型(VSM)假設特徵項之間相互獨立,這與實際情況是不相符的,爲了解決這個問題,可以採用文本的分佈式表示方式(例如 word embed

原创 文本處理——fastText原理及實踐(四)

博文地址:https://zhuanlan.zhihu.com/p/32965521fastText是Facebook於2016年開源的一個詞向量計算和文本分類工具,在學術上並沒有太大創新。但是它的優點也非常明顯,在文本分類任務中,fas

原创 歐氏距離和餘弦相似度的區別是什麼?

原文:https://www.cnblogs.com/Jack-Lee/p/3654209.html   概述   兩者都是評定個體間差異的大小的。歐幾里得距離度量會受指標不同單位刻度的影響,所以一般需要先進行標準化,同時距離越大,個體間

原创 ubuntu16.04+anaconda+tensorflow-gpu1.8.0+keras+pytorch(caffe2)

原文:https://blog.csdn.net/zouxinyao/article/details/83026783 經過兩天時間,終於在新安裝的ubuntu16.04系統下配置好深度學習環境,今天和大家分享一下經驗: 醜話說在前面:

原创 Sklearn.metrics 模型效果驗證——accuracy, precision, recall, F1

accuracy, precision, recall, F1四個函數是分類問題中常見的四個模型評價函數。原來都是自己寫代碼來實現。現在沒辦法,懶了。所以打算直接調用 Sklearn.metrics 中的函數。第一次用,所有出現了幾個問題

原创 sklearn.feature_extraction.text 中的 TfidfVectorizer 實現過程

對於NLP,已經學習一年了,可是一直有一個問題困擾着我,終於忍無可忍,決定將問題解決掉。 首先,介紹一下我的問題: 對於TFIDF算法,當利用訓練集訓練完成分類器,利用分類器進行訓練時,如果測試集中只有一個文檔,TFIDF數據是如何生成的

原创 什麼是Word2Vec?如何有效的表徵文本的?

本文主要圍繞兩個問題進行介紹 “什麼是Word2Vec?如何有效的表徵文本的?”   2013年,Google開源了一個用於生成詞向量的工具,因其簡單實用高效而引起廣泛關注。 若有興趣的讀者,可閱讀作者的原論文[8]。   Word2Ve

原创 VNC實現Windows遠程訪問Ubuntu 16.04(無需安裝第三方桌面)

原文:https://www.cnblogs.com/xuliangxing/p/7642650.html 本文主要是講解如果理由VNC實現Windows遠程訪問Ubuntu 16.04,其實網上有很多類似教程,但是很多需要安裝第三方桌面

原创 opencv提取外部輪廓並在外部加矩形框

這篇文章主要爲大家詳細介紹了opencv提取外部輪廓並在外部加矩形框,具有一定的參考價值,感興趣的小夥伴們可以參考一下 這段時間一直在用opencv搞圖像處理的問題,發現雖然可調用的函數多,但是直接找相應代碼還是很

原创 Pycharm 中使用anaconda配置tensorflow 和 caffe

利用anaconda安裝tensorflow和caffe, 在pycharm中進行使用時,需要先進行配置,否則會提示沒有這一模塊。 1、配置tensorflow   2、配置caffe  

原创 基於CNN的Seq2Seq模型-Convolutional Sequence to Sequence

 Seq2seq是現在使用廣泛的一種序列到序列的深度學習算法,在圖像、語音和NLP,比如:機器翻譯、機器閱讀、語音識別、智能對話和文檔摘要生成等,都有廣泛的應用。Seq2Seq模由encoder和decoder兩個部分來構成,假設模型的訓

原创 多任務學習-Multitask Learning概述

1、單任務學習VS多任務學習     單任務學習:一次只學習一個任務(task),大部分的機器學習任務都屬於單任務學習。     多任務學習:把多個相關(related)的任務放在一起學習,同時學習多個任務。     多任務學習(mult

原创 深度學習中的表示學習_Representation Learning

一、深度學習網絡的表達方式彙總及模型分類方法 人的大腦會對眼睛捕捉到的外界事物進行逐級抽象,逐漸提取出抽象的語義信息,以便爲人腦所理解。深度學習從這一科學發現得到啓發,通過網絡的權值來捕捉外界輸入模式的特徵,並且通過網絡連接方式來組合這些

原创 深度學習中Attention Mechanism詳細介紹:原理、分類及應用

Attention是一種用於提升基於RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的機制(Mechanism),一般稱爲Attention Mechanism。Attention Mechanism目前非常流行

原创 卷積神經網絡中不同類型的卷積方式介紹

卷積基本概念     首先,我們首先回顧一下卷積相關的基本概念,定義一個卷積層需要的幾個參數。                                                       2維卷積使用卷積核大小爲3,步長