原创 【回顧】GBDT、XGBoost、LightGBM原理及對比

        本文主要簡要的比較了常用的boosting算法的一些區別,從AdaBoost到LightGBM,包括AdaBoost,GBDT,XGBoost,LightGBM四個模型的簡單介紹,一步一步從原理到優化對比。 AdaBoos

原创 keras模型訓練與保存的call_back的設置

1、模型訓練 fit(x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validati

原创 Jupyter Notebook 數學公式

原文鏈接:https://www.zybuluo.com/codeep/note/163962   1.如何插入公式 行中公式(放在文中與其它文字混編)可以用如下方法表示:$ 數學公式 $ 獨立

原创 通俗易懂Transformer

前言 翻譯一篇非常讚的解釋Transformer的文章,原文鏈接。 在之前的文章中,Attention成了深度學習模型中無處不在的方法,它是種幫助提升NMT(Neural Machine Translation)的翻譯效果的思想。在本篇博

原创 Lstm通俗詳解

Lstm通俗詳解 LSTM因其特殊的網絡結構,目前在序列建模中有非常大的優勢,也算是序列建模的標配了(不考慮Self-Attention的情況下)。 RNN的侷限性 對RNN有認識的人都知道RNN在訓練的過程中會有長期依賴的問

原创 Jieba常用功能 分詞/自定義詞典/標註/關鍵詞提前/返回詞位置

安裝 全自動:easy_install jieba 或者 pip install jieba 或者pip3 install jieba 手 動:jieba 目錄放置於當前目錄或者 site-packages 目錄 半自動:下載http:/

原创 BiLSTM-CRF模型做基於字的中文命名實體識別

三個月之前 NLP 課程結課,我們做的是命名實體識別的實驗。在MSRA的簡體中文NER語料(我是從這裏下載的,非官方出品,可能不是SIGHAN 2006 Bakeoff-3評測所使用的原版語料)上訓練NER模型,識別人名、地名和組織機構名

原创 BiLSTM-CRF中CRF層的作用

1、先驗知識: 命名實體識別或序列標註,基本掌握LSTM、CRF的基本概念。也可參考: LSTM CRF 2、基本概念與假設: 假設我們的數據集中有兩類實體——人名和地名,與之相對應在我們的訓練數據集中,有五類標籤

原创 CRF(條件隨機場)與Viterbi(維特比)算法原理詳解

摘自:https://mp.weixin.qq.com/s/GXbFxlExDtjtQe-OPwfokA            https://www.cnblogs.com/zhibei/p/9391014.html CRF(Condi

原创 Keras實現Seq2Seq預測模型

一個基於keras實現seq2seq(Encoder-Decoder)的序列預測例子 序列預測問題描述: 輸入序列爲隨機產生的整數序列,目標序列是對輸入序列前三個元素進行反轉後的序列,當然這只是我們自己定義的一種形式,可以自定

原创 Keras實現帶attention的seq2seq預測模型

參考:https://machinelearningmastery.com/encoder-decoder-attention-sequence-to-sequence-prediction-keras/ 轉自:http

原创 Attention Mechanism詳細介紹:原理、分類及應用

Attention是一種用於提升基於RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的機制(Mechanism),一般稱爲Attention Mechanism。Attention Mechanism目前非常流行