Abatract
- Distant supervision 在包含很多關係的大語料中做 scale relation extraction 很有效。
- 目前的方法存在flaws:對於 selecting valid instances 和 lack of background knowledge about the entities.
- 我們的改進:
- 提出的模型:we propose a sentence-level attention model to select the valid instances, which makes full use of the supervision information from knowledge bases.
- 補充背景知識:And we extract entity descriptions from Freebase and Wikipedia pages to supplement background knowledge for our task.
並且這些背景知識不僅可以在預測關係的時候提供更多的信息,而且在Attention機制中帶來了更好的實體表示。
- 在一個廣泛使用的數據集上的實驗表明我們的 Model 效果確實好!
Introduction
基於遠程監督的關係抽取的目標是根據給定的知識庫,預測文本中實體之間的語義關係(predict semantic relations between pairs of entities in texts)。