CS224N(2019)——Introduction and Word Vector(一)

NLP

自然語言處理的難點

  1. 一詞多義
  2. 上下文相關
  3. 不守語法
  4. 隨着時間變化
  5. 表達的意義信息量很大
  6. 隱含常識

實際任務

  1. 搜索引擎
  2. 文本分類
  3. 機器翻譯
  4. 指代消解
  5. 問答系統

深度神經網絡做自然語言處理的優勢

隨着網絡規模的增加與數據量的增加我們可以將效果做的比傳統方法更好的水平。

背景知識

梯度下降(Gradient Descent):通過對目標函數的參數求偏導,利用梯度更新參數值,從而迭代產生最優解。

語言模型(Language Model,LM):

  1. 是對語言現象的數學抽象:計算句子出現的概率p(w)p(w)
  2. 馬爾科夫鏈:第n個詞出現的概率與前n-1個詞概率相關
  3. k-gram model:當前詞出現的概率只與前k個詞相關,當k=1時,爲1-gram模型

詞向量

WordNet

通過如下代碼可以引入WordNet

from nltk.corpus import wordnet

WordNet是英文領域,專家純手工構造的詞典。(知識結構的詞庫)
可以給出一個詞的近義詞上位詞
在這裏插入圖片描述
WordNet存在的問題:

  1. 可以作爲一個很好的資源來使用,但是其精確程度不高。
  2. 不能實時更新,缺少了詞彙的新含義。
  3. 人工構造,主觀性太強
  4. 需要大量的人力資源
  5. 不能夠準確計算詞彙之間的相似性。

在中文領域中
與WordNet對應的產物是:

  1. 知網(HowNet)
  2. 哈工大詞林

離散詞表徵

在傳統NLP中,我們將詞彙認爲是一個一個離散的符號。
詞彙可以表示爲一個one-hot(獨熱編碼)向量
表示形式如下:在這裏插入圖片描述
one-hot向量的維度是詞彙表的大小。

存在的問題:

  1. 每個詞彙之間是正交的
  2. 向量之間的相似度沒有自然含義

解決方法

  1. 用WordNet的經一次表達獲取相似度(效果不好,且不完整)
  2. 相反:學習在向量本身中編碼相似性

分佈式詞表徵

一個詞的含義是由經常出現在其上下文的詞所決定的(詞義由上下文給出)
詞向量(word2vec也稱爲word embedding)

特點

  1. 無監督學習: 使用沒有經過人工標註的數據進行訓練
  2. 壓縮自編碼:通過向量空間的運算進行壓縮自編碼
  3. 結合上下文: 通過詞語詞之間的關係學習特徵

兩種算法:

  1. CBOW:連續詞袋模型
  2. Skip-Gram(SG):跳字模型

兩種訓練技巧:

  1. Negative Sampling(負採樣)
  2. Hierarchical Softmax(層序softmax)

詞向量的評估方法:

  1. 相似度——cos(word1,word2)
  2. 詞類比——cos(word1-word2+word3,word4)

目標函數(loss function)

目標函數如下
L(θ)=t=1Tmjm,j≢0P(wt+jwt;θ)L(\theta)=\prod_{t=1}^T\prod_{-m\leq j\leq m,j\not\equiv 0}P(w_{t+j}|w_t;\theta)
變形之後的目標函數如下:
J(θ)=1TlogL(θ)=1Tt=1Tmjm,j≢0logP(wt+jwt;θ)J(\theta)=-\frac{1}{T}logL(\theta)=-\frac{1}{T}\sum_{t=1}^T\sum_{-m\leq j\leq m,j\not\equiv 0}logP(w_{t+j}|w_t;\theta)
式子中的P代表概率
表達式如下:
P(oc)=exp(uoTvc)wVuwTvcP(o|c)=\frac{exp(u_o^Tv_c)}{\sum_{w\in V}u_w^Tv_c}
損失函數中的θ\theta是詞向量uuvv
vcv_c的優化過程:
在這裏插入圖片描述

發佈了49 篇原創文章 · 獲贊 45 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章