【論文筆記】Context-Aware Representations for Knowledge Base Relation Extraction

**文中提出的非常重要的觀點就是 當前 sentence的context中存在的relation會有利於提取當前sentence的relation。
**

在進行預測的時候使用了context representation

主要的核心思想就是使用了LSTM encoder

  • main contribution就是一個全新的網絡框架。
  • 其實應該還有這個context representation的idea
    以及
  • 還有應該是open了自己做的distant supervision的數據?

用的是50維的embedding
其中網絡中有很特殊的 word token marker 分爲三類

    1. entity 1
    1. entity 2
    1. none of above.

Figure 1: Relation Encoder

當前句子的relation representation是oso_s
context的句子一共有m句,對每一句話都需要經過一次 relation encoder,得到m個oio_i,然後經過attn計算每個oio_i的權重,將這些權重 softmax一下之後計算出一個oco_c 這就是 context relation representation了

其中提到了ocRoo_c \in \mathcal{R}^o 是與oso_s同樣長度,說明操作完全相同,marker也是一致的。

Figure 2 Final Prediction

就是把兩個計算出來的oso_soco_c concate起來做一個classification

一句話中最多有7個relation
position marker在模型中經過簡單的測試發現並沒有用

問題

    1. 我尋思一句話全部輸入的話,咋抽取出 7個relation呢
      問題是,entity 是否被標定了的話,應該是隻需要做relation classification?
  • 應該是的,文中提到了 predict the final relation type.
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章