**文中提出的非常重要的觀點就是 當前 sentence的context中存在的relation會有利於提取當前sentence的relation。
**
在進行預測的時候使用了context representation
主要的核心思想就是使用了LSTM encoder
- main contribution就是一個全新的網絡框架。
- 其實應該還有這個context representation的idea
以及- 還有應該是open了自己做的distant supervision的數據?
用的是50維的embedding
其中網絡中有很特殊的 word token marker 分爲三類
- entity 1
- entity 2
- none of above.
當前句子的relation representation是
context的句子一共有m句,對每一句話都需要經過一次 relation encoder,得到m個,然後經過attn計算每個的權重,將這些權重 softmax一下之後計算出一個 這就是 context relation representation了
其中提到了 是與同樣長度,說明操作完全相同,marker也是一致的。
就是把兩個計算出來的和 concate起來做一個classification
一句話中最多有7個relation
position marker在模型中經過簡單的測試發現並沒有用
問題
- 我尋思一句話全部輸入的話,咋抽取出 7個relation呢
問題是,entity 是否被標定了的話,應該是隻需要做relation classification?- 應該是的,文中提到了 predict the final relation type.