原创 深度學習------NLP之依存語法綜述

文章目錄@[toc]一、概述依存句法分析標註關係 (共14種) 及含義依存句法分析通常滿足3個約束依存句法準確率指標二、基於圖的依存句法分析代表Chu-Liu/Edmonds Algorithm算法流程三、基於轉移的依存句法分析Tra

原创 深度學習----目標檢測R-CNN發展(一張圖說清)

詳解鏈接:https://blog.csdn.net/Sakura55/article/details/81939034

原创 深度學習------Lingvo框架下的加速通道GPipe

開源地址:https://github.com/tensorflow/lingvo/blob/master/lingvo/core/gpipe.py BigGan、BERT和GPT-2的出現表明,越大的神經網絡模型可以帶來越好的

原创 人工智能 = 人工智障(史上最全的人工智能機器學習、深度學習教程合集目錄)

文章目錄機器學習激活函數和函數偏差(bias)感知器迴歸梯度下降生成學習反向傳播深度學習最優化和降維長短期記憶(LSTM)卷積神經網絡(CNN)遞歸神經網絡(RNN)強化學習生成對抗網絡(GAN)多任務學習NLP深度學習和NLP詞向量

原创 jieba分詞原理

文章目錄一、 jieba系統簡介二、 jieba系統框架三、jieba分詞原理四、jieba分詞過程 結巴分詞基礎:https://blog.csdn.net/Sakura55/article/details/84752000 一、

原创 深度學習----詞向量歷史和發展現狀解說

小編看了大量的文檔,覺得一下文章寫得最好 詞向量發展篇: https://blog.csdn.net/m0_37565948/article/details/84989565 內容:共現矩陣-SVD-NNLM-Word2Vec-Glo

原创 深度學習----42個機器學習與深度常用面試題簡結

歡飲訪問我的主頁: https://blog.csdn.net/Sakura55 或者我的目錄頁:https://blog.csdn.net/Sakura55/article/details/80678611#font_color00

原创 項目實戰----基於協同過濾的電影推薦系統

文章目錄一、數據整理二、觀察用戶-電影矩陣三、協同過濾推薦3.1、基於電影的協同過濾3.2、基於用戶的協同過濾推薦 網頁版—點擊這裏 一、數據整理 數據及介紹 MovieLens是推薦系統常用的數據集 MovieLens數據集中,

原创 機器學習----多項式核/RBF覈對異或(XOR)擬合SVM代碼

1、SVM 在 sklearn 中採用 sklearn.svm.SVC 設置參數: 1.1 sklearn.svm.SVC 方法 1.2 主要調節的參數 (加粗的文字) 2 使用多項式核模擬svm 3 基於RBF核方法對異或(X

原创 深度學習----HOI人物交互算法:ICAN

文章目錄一、引言二、Related Work三、Instance-Centric Attention Network3.1 Algorithm overview3.2 Instance-centric attention module

原创 深度學習----命名實體識別與關係抽取總結

參考:https://blog.csdn.net/qq_36426650/article/details/84668741#t6           ~~~~~~~~~~          https://blog.csdn.net/

原创 深度學習----Stanford nlp安裝以及環境變量配置問題

文章目錄PART1:安裝Stanford NLPPART2:安裝過程問題1)安裝包問題2)路徑設置3)環境變量PART3:詞性標註測試 官網下載:https://stanfordnlp.github.io/CoreNLP/index

原创 深度學習----命名實體識別(CRF及變種)

文章目錄1、NER 簡介2. 深度學習方法在NER中的應用2.1 BiLSTM-CRF2.2 IDCNN-CRF3. 實戰應用3.1 語料準備3.2 數據增強3.3 實例4. 總結         ~~~~~~~~        近

原创 深度學習----Transformer模型之圖示進階篇

        Google於2017年6月發佈在arxiv上的一篇文章《Attention is all you need》,提出解決sequence to sequence問題的transformer模型,用全attention

原创 深度學習----Transformer模型之精簡理解篇

文章目錄1、整體架構2、Attention機制3、Position-wise Feed-Forward network4、Positional encoding5、Residual connection6、Layer Normaliz