依存句法分析器的簡單實現

  生成式句法分析指的是,生成一系列依存句法樹,從它們中用特定算法挑出概率最大那一棵。句法分析中,生成模型的構建主要使用三類信息:詞性信息、詞彙信息和結構信息。前二類很好理解,而結構信息需要特殊語法標記,不做考慮。

本文主要利用了詞彙+詞性生成聯合概率模型,使用最大生成樹Prim算法搜索最終結果,得到了一個簡單的漢語依存句法分析器。

開源項目

本文代碼已集成到HanLP中開源:http://hanlp.dksou.com/

基本思路

統計詞語WordA與詞語WordB構成依存關係DrC的頻次,詞語WordA與詞性TagB構成依存關係DrD的頻次,詞性TagA與詞語WordB構成依存關係DrE的頻次,詞性TagA與詞詞性TagB構成依存關係DrF的頻次。爲句子中詞語i與詞語j生成多條依存句法邊,其權值爲上述四種頻次的綜合(主要利用詞-詞頻次,其餘的作平滑處理用)。取邊的權值最大的作爲唯一的邊,加入有向圖中。

在有向圖上使用Prim最大生成樹算法,計算出最大生成樹,格式化輸出。

模型訓練

簡單地統計一下清華大學語義依存網絡語料,得到如下結果:

 圖1.JPG

@符號連接起兩個詞彙或詞性,用<>括起來的表示詞性,否則是詞彙。如果@後面沒有內容,則表示頻次,否則表示一些依存關係與其出現的頻次。

 

依存句法分析

分詞標註

“我吃米飯”爲例,先進行分詞與詞性標註,結果:

圖2.JPG

生成有向圖

由於依存句法樹中有虛根的存在,所以爲其加入一個虛節點,這樣一共有四個節點:

圖10.jpg

每個節點都與另外三個構成一條有向邊,一共4 * 3 = 12 條:

1. ##核心##/root 到 我/rr : 未知 10000.0

2. ##核心##/root 到 吃/v : 未知 10000.0

3. ##核心##/root 到 米飯/n : 未知 10000.0

4. /rr ##核心##/root : 核心成分 6.410175

5. /rr 到 吃/v : 施事 21.061098 經驗者 28.54827 目標 33.656525 受事 37.021248 限定 43.307335 相伴體 48.00737 關係主體 53.115623 內容 53.115623 來源 64.101746

6. /rr 到 米飯/n : 限定 22.2052 施事 48.00737 受事 57.170277 目標 57.170277 經驗者 64.101746 連接依存 64.101746

7. /v ##核心##/root : 核心成分 1.7917595

8. /v 到 我/rr : 連接依存 96.688614 介詞依存 107.67474 施事 107.67474

9. /v 到 米飯/n : 限定 24.849068

10. 米飯/n ##核心##/root : 核心成分 37.077995

11. 米飯/n 到 我/rr : 連接依存 113.2556

12. 米飯/n 到 吃/v : 受事 0.6931472

 

其中“未知”表示邊不存在,“受事”“施事”表示依存關係,後面的小數表示權值。我對概率取了負對數,所以接下來用加法求最小生成樹即可。

 

最小生成樹

 

關於最小生成樹的Prim算法請參考《最小生成樹算法初步》,這裏必須有所改動,由於虛根有且只能有一個孩子,所以虛根必須單獨計算:

圖3.jpg

然後就是中規中矩的Prim算法:

圖4.jpg

得出最小生成樹:

圖5.jpg

格式化輸出

將其轉爲CoNLL格式輸出:

圖6.jpg

可視化

使用可視化工具展現出來:

圖7.jpg

 

結果評測

我沒有進行嚴格的測試,這只是一個玩具級別的漢語依存句法分析器。先來看幾個good casebad case——


圖8.jpg

圖9.jpg

效果比較馬虎,爲何這麼說,這是因爲分詞的訓練語料和句法分析語料不同,且我自知此方法嚴重依賴詞彙共現,主要是這種二元詞彙生成模型無法充分利用上下文。

短一點的搜索語句可能還是有微量的利用價值。

TODO

應當採用判別式模型,導入SVM或最大熵作爲權值的計算工具,然後使用最大生成樹算法獲取全局最優解。

 

文章轉載自hankcs 的博客


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章