[轉發]知識圖譜 (Knowledge Graph) 專知 薈萃

知識圖譜 (Knowledge Graph) 專知 薈萃

入門學習

  1. 大規模知識圖譜技術 王昊奮 華東理工大學
    [http://history.ccf.org.cn/sites/ccf/xhdtnry.jsp?contentId=2794147245202]
    [https://pan.baidu.com/s/1i5w2RcD]
  2. 知識圖譜技術原理介紹 王昊奮
    [http://www.36dsj.com/archives/39306]
  3. 大規模知識圖譜的表示學習及其應用   劉知遠
    [http://www.cipsc.org.cn/kg3/]
  4. 知識圖譜的知識表現方法回顧與展望   鮑捷
    [http://www.cipsc.org.cn/kg3/]
  5. 基於翻譯模型(Trans系列)的知識表示學習 paperweekly
    [http://www.sohu.com/a/116866488_465975\]
  6. 中文知識圖譜構建方法研究1,2,3
    [http://blog.csdn.net/zhangqiang1104/article/details/50212227]
    [http://blog.csdn.net/zhangqiang1104/article/details/50212261]
    [http://blog.csdn.net/zhangqiang1104/article/details/50212341]
  7. TransE算法(Translating Embedding)
    [http://blog.csdn.net/u011274209/article/details/50991385]
  8. OpenKE 劉知遠 清華大學 知識表示學習(Knowledge Embedding)旨在將知識圖譜中實體與關係嵌入到低維向量空間中,有效提升知識計算效率。
    http://openke.thunlp.org/]
  9. 面向大規模知識圖譜的表示學習技術 劉知遠
    [http://www.cbdio.com/BigData/2016-03/03/content_4675344.htm]
  10. 當知識圖譜“遇見”深度學習 肖仰華
    [http://caai.cn/index.php?s=/Home/Article/qikandetail/year/2017/month/04.html]
  11. NLP與知識圖譜的對接 白碩
    [http://caai.cn/index.php?s=/Home/Article/qikandetail/year/2017/month/04.html]

  12. 【乾貨】最全知識圖譜綜述#1: 概念以及構建技術 專知

  13. 知識圖譜綜述: 構建技術與典型應用 專知

  14. 知識圖譜相關會議之觀後感分享與學習總結

進階論文

1991

  1. sowa J F. Principles of semantic networks: Exploration in the representation of Knowledge[J]. Frame Problem in Artificial Intelligence, 1991(2-3):135–157.
    [https://www.researchgate.net/publication/230854809_Principles_of_Semantic_Networks_Exploration_in_the_Representation_of_Knowledge]

1998

  1. brin s. Extracting Patterns and relations from the World Wide Web[J]. lecture notes in computer Science, 1998, 1590:172-183 [Extracting Patterns and relations from the World Wide Web]

2001

  1. Berners-Lee T, Hendler J, Lassila O. The semantic Web: A new Form of Web content that is Meaningful to computers will Unleash a revolution of New Possibilities[J]. Scientific American, 2001, 284(5):34-43.
    [http://xitizap.com/semantic-web.pdf]

2005

  1. Guodong Z, Jian S, Jie Z, et al. Exploring Various Knowledge in relation Extraction.[c]// ACL 2005, Meeting of the Association for Computational Linguistics, Proceedings of the Conference, 2530 June, 2005, University of Michigan, USA. DBLP. 2005:419-444.
    [https://dl.acm.org/citation.cfm?id=1219893]

2008

  1. Suchanek F M, Kasneci G, Weikum G. YAGO: A large ontology from Wikipedia and Wordnet[J]. Web semantics science services and agents on the World Wide Web, 2008, 6(3):203-217.
    [http://www.sciencedirect.com/science/article/pii/S1570826808000437]

2009

  1. Brachman R J, Borgida A, Mcguinness D L, et al. " Reducing" CLASSIC to Practice: Knowledge representation theory Meets reality[c]// conceptual Modeling: Foundations and applications. springerVerlag. 2009:436-465.
    [http://www.sciencedirect.com/science/article/pii/S0004370299000788]
  2. Hellmann S, Lehmann J, Auer S. Learning of oWl class Descriptions on Very large Knowledge bases[J]. international Journal on semantic Web and Information Systems, 2009, 5(5):25-48.
    [http://wifo5-03.informatik.uni-mannheim.de/bizer/pub/iswc2008pd-bak/iswc2008pd_submission_83.pdf]
    8.lehmann J. Dl-learner: learning concepts in Description logics[J]. Journal of Machine learning Research, 2009, 10(6):2639-2642.
    [http://dl.acm.org/citation.cfm?id=1755874]

2010

  1. Kate R J, Mooney R J. Joint Entity and relation Extraction using card-pyramid Parsing[c]// C onference on C omputational N atural L anguage learning. 2010:203-212.
    [http://www.cse.fau.edu/~xqzhu/courses/cap6777/Joint.Named.Entity.kate.conll10.pdf]
    10.Carlson A, Betteridge J, Kisiel B, et al. Toward an architecture for N ever-Ending language learning. [ C ]// twenty-Fourth AAAI C onference on A rtificial Intelligence, AAAI 2010, Atlanta, Georgia, Usa, July. DBLP, 2010:529-573.
    [https://www.aaai.org/ocs/index.php/AAAI/AAAI10/paper/view/1879]
    11.Navigli R, Ponzetto S P. BabelNet: Building a very Large Multilingual S emantic Network[ C ]// annual Meeting of the association for computational linguistics. 2010:216-225.
    [https://dl.acm.org/citation.cfm?id=1858704]

2011

  1. Hu W, Chen J, Qu Y. A Self-training Approach for resolving object coreference on the semantic Web[ C ]// I nternational C onference on World Wide Web. ACM, 2011:87-96.
    [https://dl.acm.org/citation.cfm?id=1963421]
  2. Han X, Sun L. A Generative Entity-Mention Model for linking Entities with Knowledge base[c]// T he Meeting of the A ssociation for C omputational Linguistics: Human Language Technologies, Proceedings of the Conference, 19-24 June, 2011, Portland, Oregon, USA. DBLP, 2011:945-954.
    [https://dl.acm.org/citation.cfm?id=2002592]
  3. Zhang W, Sim Y C, Su J, et al. Entity Linking with Effective Acronym Expansion, Instance Selection and topic Modeling[c]// international Joint conference on Artificial Intelligence. 2011:1909-1914.
    [http://www.aaai.org/ocs/index.php/IJCAI/IJCAI11/paper/view/3392]
  4. Han X, Sun L, Zhao J. Collective Entity Linking in Web text: A Graph-based Method[c]// Proceeding of the international acM siGir conference on research and Development in Information Retrieval, SIGIR 2011, Beijing, China, July. DBLP, 2011:765-774.
    [https://dl.acm.org/citation.cfm?id=2010019]
  5. Nickel M, Tresp V, Kriegel H P. A Three-Way Model for collective learning on Multi-relational Data. [C]// International Conference on Machine Learning, ICML 2011, Bellevue, Washington, Usa, June 28 July. DBLP, 2011:809-816.
    [http://www.icml-2011.org/papers/438_icmlpaper.pdf]
  6. Bordes A, Weston J, Collobert R, et al. Learning structured Embeddings of Knowledge bases[c]// AAAI Conference on Artificial Intelligence, AAAI 2011, San Francisco, California, Usa, August. DBLP, 2011:301-306.
    [http://www.aaai.org/ocs/index.php/AAAI/AAAI11/paper/view/3659]
  7. Lao N, Mitchell T, Cohen W W. Random Walk inference and learning in a large scale Knowledge base[c]// conference on Empirical Methods in natural Language Processing, EMNLP 2011, 27-31 July 2011, John Mcintyre Conference Centre, Edinburgh, Uk, A Meeting of Sigdat, A Special Interest Group of the ACL. DBLP, 2011:529-539.
    [https://dl.acm.org/citation.cfm?id=2145494]

2013

  1. Li J, Wang Z, Zhang X, et al. Large Scale instance Matching via Multiple indexes and candidate Selection[J]. Knowledge-Based Systems, 2013, 50(3):112-120.
    [http://disi.unitn.it/~p2p/RelatedWork/Matching/KBS13-Li-et-al-large-instance.pdf]
  2. Shen W, Wang J, Luo P, et al. Linking Named Entities in tweets with Knowledge Base via User Interest Modeling[ C ]// AC M SI GKDD I nternational C onference on Knowledge Discovery and Data Mining. ACM, 2013:68-76.
    [https://dl.acm.org/citation.cfm?id=2487686]
  3. Alhelbawy A, Gaizauskas R. Graph Ranking for collective named Entity Disambiguation[c]// Meeting of the Association for Computational L inguistics. 2014:75-80.
    [http://www.anthology.aclweb.org/P/P14/P14-2013.pdf]
  4. He Z, Liu S, Li M, et al. Learning Entity representation for Entity Disambiguation[J]. annual Meeting of the A ssociation for C omputational Linguistics, 2013, (2):30-34.
    [http://www.doc88.com/p-9039715083540.html]

2014

  1. Miwa M, Sasaki Y. Modeling Joint Entity and Relation Extraction with table R epresentation[ C ]// C onference on Empirical Methods in N atural Language Processing. 2014:944-948.
    [http://www.anthology.aclweb.org/D/D14/D14-1200.pdf]
  2. Li Q, Ji H. Incremental Joint Extraction of Entity Mentions and relations[c]// annual Meeting of the Association for Computational Linguistics. 2014:402-412.
    [http://www.anthology.aclweb.org/P/P14/P14-1038.pdf]
  3. Mitchell T, Fredkin E. Never-ending Language L earning[M]// N ever-Ending L anguage L earning. Alphascript Publishing, 2014.
    [http://www.ischool.drexel.edu/bigdata/bigdata2014/NELL_Mitchell_IEEE_Oct2014_distr.pdf]
  4. Vrande, Denny, Tzsch M. Wikidata: A Free collaborative Knowledge base[J]. communications of the ACM, 2014, 57(10):78-85.
    [https://cacm.acm.org/magazines/2014/10/178785-wikidata/fulltext]

2015

  1. Hashimoto K, Stenetorp P, Miwa M, et al. Taskoriented learning of Word Embeddings for semantic Relation Classification[J], Computer Science, 2015:268-278.
    [http://arxiv.org/abs/1503.00095]
  2. Wang H, Fang Z, Zhang L, et al. Effective Online Knowledge Graph Fusion[M]// the semantic Web ISWC 2015. Springer International Publishing, 2015: 286-302.
    [http://iswc2015.semanticweb.org/sites/iswc2015.semanticweb.org/files/93660257.pdf]
  3. Otero-Cerdeira L, Rodríguez-Martínez F J, Gómez-Rodríguez A. Ontology Matching: A Literature Review[J]. Expert Systems with Applications, 2015, 42(2):949–971.
    [http://disi.unitn.it/~p2p/RelatedWork/Matching/Cerdeira-Ontology%20Matching-2015.pdf]
  4. Huang H, Heck L, Ji H. Leveraging Deep neural networks and Knowledge Graphs for Entity Disambiguation[J]. Computer Science, 2015:1275-1284. [http://arxiv.org/abs/1504.07678]
  5. Zhou Z, Qi G, Wu Z, et al. A Platform-Independent A pproach for Parallel Reasoning with OWLEL Ontologies Using Graph Representation[C]// IEEE, I nternational C onference on TOOLS with A rtificial Intelligence. IEEE, 2015:80-87.
    [http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=7372121]
  6. Galárraga L, Teflioudi C, Hose K, et al. Fast Rule Mining in ontological Knowledge bases with aMiE+[J]. The VLDB Journal, 2015, 24(6):707-730. [https://dl.acm.org/citation.cfm?id=2846643]

2016

  1. Miwa M, Bansal M. End-to-End Relation Extraction using LSTMs on S equences and tree structures[c]// annual Meeting of the association for computational linguistics. 2016:1105-1116.
    [https://arxiv.org/abs/1601.00770]
  2. Nickel M, Murphy K, Tresp V, et al. A Review of relational Machine learning for Knowledge Graphs[J]. Proceedings of the IEEE, 2016, 104(1):11-33. [http://arxiv.org/abs/1503.00759]
  3. Nickel M, Rosasco L, Poggio T. Holographic Embeddings of Knowledge Graphs[J]// AAAI Conference on Artificial Intelligence. 2016:1955-1961. [http://arxiv.org/abs/1510.04935]

Tutorial

  1. 知識圖譜導論 劉  康   韓先培 [http://cips-upload.bj.bcebos.com/ccks2017/upload/CCKS2017V5.pdf]
  2. 知識圖譜構建 鄒  磊   徐波 [http://cips-upload.bj.bcebos.com/ccks2017/upload/zl.pdf]
  3. 知識獲取方法 勞  逆   邱錫鵬 [http://cips-upload.bj.bcebos.com/ccks2017/upload/2017-ccks-Knowledge-Acquisition-.pdf]
  4. 知識圖譜實踐 王昊奮   胡芳槐 [http://www.ccks2017.com/?page_id=46\]
  5. 知識圖譜學習小組學習
    • 第一期w1:知識提取 • 第一期w2:知識表示 • 第一期w3:知識存儲 • 第一期w4:知識檢索 [https://github.com/memect/kg-beijing]
  6. 深度學習與知識圖譜 劉知遠 韓先培 CCL2016 [http://www.cips-cl.org/static/CCL2016/tutorialpdf/T2A_%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1_part3.pdf]
  7. 中文知識圖譜-復旦大學

綜述

  1. 知識表示學習研究進展 劉知遠 2016 [http://nlp.csai.tsinghua.edu.cn/~lyk/publications/knowledge_2016.pdf\]
  2. 知識圖譜研究進展 漆桂林 2017 [[http://tie.istic.ac.cn/ch/reader/view_abstract.aspx?doi=10.3772/j.issn.2095-915x.2017.01.002]\]
  3. 知識圖譜技術綜述 徐增林 [http://www.xml-data.org/dzkj-nature/html/201645589.htm]
  4. 基於表示學習的知識庫問答研究進展與展望 劉康 [http://www.aas.net.cn/CN/10.16383/j.aas.2016.c150674]
  5. Knowledge Graph Refinement: A Survey of Approaches and Evaluation Methods Heiko Paulheim [http://www.semantic-web-journal.net/system/files/swj1167.pdf]

視頻教程

  1. Google 知識圖譜系列教程(1-21)

代碼

  1. ComplEx @ https://github.com/ttrouill/complex
  2. EbemKG @ https://github.com/pminervini/ebemkg
  3. HolE @ https://github.com/mnick/holographic-embeddings
  4. Inferbeddings @ https://github.com/uclmr/inferbeddings
  5. KGE-LDA @ https://github.com/yao8839836/KGE-LDA
  6. KR-EAR @ https://github.com/thunlp/KR-EAR
  7. mFold @ https://github.com/v-shinc/mFoldEmbedding
  8. ProjE @ https://github.com/bxshi/ProjE
  9. RDF2Vec @ http://data.dws.informatik.uni-mannheim.de/rdf2vec/code/
  10. Resource2Vec @ https://github.com/AKSW/Resource2Vec/tree/master/resource2vec-core
  11. TranslatingModel @ https://github.com/ZichaoHuang/TranslatingModel
  12. wiki2vec (for DBpedia only) @ https://github.com/idio/wiki2vec

領域專家

  1. Antoine Bordes [https://research.fb.com/people/bordes-antoine/]
  2. Estevam Rafael Hruschka Junior(Federal University of Sao Carlos) [http://www.cs.cmu.edu/~estevam/\]
  3. 鮑捷(Memect) [[http://baojie.org/blog/]]
  4. 陳華鈞(浙江大學) [http://mypage.zju.edu.cn/huajun]
  5. 劉知遠(清華大學) [http://nlp.csai.tsinghua.edu.cn/~lzy/\]
  6. 秦兵(哈爾濱工業大學) [https://m.weibo.cn/u/1880324342?sudaref=login.sina.com.cn&retcode=6102]
  7. 趙軍(中科院自動化所) http://www.nlpr.ia.ac.cn/cip/jzhao.htm
  8. 王昊奮 狗尾草智能科技公司 [http://www.gowild.cn/home/ours/index.html]
  9. 漆桂林 東南大學 [http://cse.seu.edu.cn/people/qgl/index.htm]
  10. 劉  康   中科院自動化 [http://people.ucas.ac.cn/~liukang\]
  11.  韓先培 中國科學院軟件研究所 [http://www.icip.org.cn/Homepages/hanxianpei/index.htm] 12 肖仰華 復旦大學 [http://gdm.fudan.edu.cn/GDMWiki/Wiki.jsp?page=Yanghuaxiao]

Datasets

  1. DBpedia DBpedia 是一個大規模的多語言百科知識圖譜,可視爲是維基百科的結構化版本。DBpedia 使用固定的模式對維基百科中的實體信息進行抽取,包括 abstract、infobox、category 和 page link 等信息。圖 2 示例瞭如何將維基百科中的實體“Busan”的 infobox 信息轉換成 RDF 三元組。DBpedia 目前擁有 127 種語言的超過兩千八百萬個實體與數億個 RDF 三元組,並且作爲鏈接數據的核心,與許多其他數據集均存在實體映射關係。而根據抽樣評測,DBpedia 中 RDF 三元組的正確率達 88%。DBpedia 支持數據集的完全下載。 [http://wiki.dbpedia.org/]
  2. Yago 是一個整合了維基百科與 WordNet的大規模本體,它首先制定一些固定的規則對維基百科中每個實體的 infobox 進行抽取,然後利用維基百科的category進行實體類別推斷(Type Inference)獲得了大量的實體與概念之間的 IsA 關係(如:“Elvis Presley” IsA “American Rock Singers”),最後將維基百科的 category 與 WordNet 中的 Synset(一個 Synset 表示一個概念)進行映射,從而利用了 WordNet 嚴格定義的 Taxonomy 完成大規模本體的構建。隨着時間的推移,Yago 的開發人員爲該本體中的 RDF 三元組增加了時間與空間信息,從而完成了 Yago2的構建,又利用相同的方法對不同語言維基百科的進行抽取,完成了 Yago3的構建。目前,Yago 擁有 10 種語言約 459 萬個實體,2400 萬個 Facts,Yago 中 Facts的正確率約爲 95%。Yago 支持數據集的完全下載。 [https://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/downloads/]
  3. Wikidata WikiData的目標是構建一個免費開放、多語言、任何人或機器都可以編輯修改的大規模鏈接知識庫。WikiData由維基百科於2012年啓動,早期得到微軟聯合創始人Paul Allen、Gordon Betty Moore基金會以及Google的聯合資助。WikiData繼承了Wikipedia的衆包協作的機制,但與Wikipedia不同,WikiData支持的是以三元組爲基礎的知識條目(Items)的自由編輯。一個三元組代表一個關於該條目的陳述(Statements)。例如可以給“地球”的條目增加“<地球,地表面積是,五億平方公里>”的三元組陳述。截止2016年,WikiData已經包含超過2470多萬個知識條目。 [https://www.wikidata.org/wiki/Wikidata:Main_Page\]
  4. BabelNet 是目前世界範圍內最大的多語言百科同義詞典,它本身可被視爲一個由概念、實體、關係構成的語義網絡(Semantic Network)。BabelNet 目前有超過 1400 萬個詞目,每個詞目對應一個 synset。每個 synset 包含所有表達相同含義的不同語言的同義詞。比如:“中國”、“中華人民共和國”、“China”以及“people’srepublic of China”均存在於一個 synset 中。BabelNet 由 WordNet 中的英文 synsets 與維基百科頁面進行映射,再利用維基百科中的跨語言頁面鏈接以及翻譯系統,從而得到 BabelNet 的初始版本。目前 BabelNet 又整合了 Wikidata、GeoNames、OmegaWiki 等多種資源,共擁有 271 個語言版本。由於 BabelNet 中的錯誤來源主要在於維基百科與 WordNet 之間的映射,而映射目前的正確率大約在 91%。關於數據集的使用,BabelNet 目前支持 HTTP API 調用,而數據集的完全下載需要經過非商用的認證後才能完成。 [http://babelnet.org/]
  5. ConceptNet 是一個大規模的多語言常識知識庫,其本質爲一個以自然語言的方式描述人類常識的大型語義網絡。ConceptNet 起源於一個衆包項目 Open Mind Common Sense,自 1999 年開始通過文本抽取、衆包、融合現有知識庫中的常識知識以及設計一些遊戲從而不斷獲取常識知識。ConceptNet 中共擁有 36 種固定的關係,如 IsA、UsedFor、CapableOf 等,圖 4 給出了一個具體的例子,從中可以更加清晰地瞭解 ConceptNet 的結構。ConceptNet 目前擁有 304 個語言的版本,共有超過 390 萬個概念,2800 萬個聲明(statements,即語義網絡中邊的數量),正確率約爲 81%。另外,ConceptNet 目前支持數據集的完全下載。 [http://conceptnet.io/]
  6. Microsoft Concept Graph 是一個大規模的英文 Taxonomy,其中主要包含的是概念間以及實例(等同於上文中的實體)概念間的 IsA 關係,其中並不區分 instanceOf 與 subclassOf 關係。Microsoft Concept Graph 的前身是 Probase,它過自動化地抽取自數十億網頁與搜索引擎查詢記錄,其中每一個 IsA 關係均附帶一個概率值,即該知識庫中的每個 IsA 關係不是絕對的,而是存在一個成立的概率值以支持各種應用,如短文本理解、基於 taxonomy 的關鍵詞搜索和萬維網表格理解等。目前,Microsoft Concept Graph 擁有約 530 萬個概念,1250 萬個實例以及 8500 萬個 IsA 關係(正確率約爲 92.8%)。關於數據集的使用,MicrosoftConcept Graph 目前支持 HTTP API 調用,而數據集的完全下載需要經過非商用的認證後才能完成。 [https://concept.research.microsoft.com/Home/Introduction]
  7. Freebase: Freebase是一個開放共享的、協同構建的大規模鏈接數據庫。Freebase是由硅谷創業公司MetaWeb於2005年啓動的一個語義網項目。2010年,谷歌收購了Freebase作爲其知識圖譜數據來源之一。Freebase主要採用社區成員協作方式構建。其主要數據來源包括維基百科Wikipedia、世界名人數據庫NNDB、開放音樂數據庫MusicBrainz,以及社區用戶的貢獻等。Freebase基於RDF三元組模型,底層採用圖數據庫進行存儲。Freebase的一個特點是不對頂層本體做非常嚴格的控制,用戶可以創建和編輯類和關係的定義。2016年,谷歌宣佈將Freebase的數據和API服務都遷移至Wikidata,並正式關閉了Freebase。 [https://developers.google.com/freebase/]
  8. Schema.org:Schema.org是2011年起,由Bing、Google、Yahoo和Yandex等搜索引擎公司共同支持的語義網項目。Schema.org支持各個網站採用語義標籤(Semantic Markup)的方式將語義化的鏈接數據嵌入到網頁中。搜索引擎自動蒐集和歸集這些,快速的從網頁中抽取語義化的數據。Schema.org提供了一個詞彙本體用於描述這些語義標籤。截止目前,這個詞彙本體已經包含600多個類和900多個關係,覆蓋範圍包括:個人、組織機構、地點、時間、醫療、商品等。谷歌於2015年推出的定製化知識圖譜支持個人和企業在其網頁中增加包括企業聯繫方法、個人社交信息等在內的語義標籤,並通過這種方式快速的彙集高質量的知識圖譜數據。截止2016年,谷歌的一份統計數據顯示,超過31%的網頁和1200萬的網站已經使用了Schema.org發佈語義化的鏈接數據。其它採用了部分Schema.org功能的還包括微軟Cortana、Yandex、Pinterest、蘋果的Siri等。Schema.org的本質是採用互聯網衆包的方式生成和收集高質量的知識圖譜數據。 [http://schema.org/]
  9. LOD-Linked Open Data:LOD的初衷是爲了實現Tim Berners-Lee在2006年發表的有關鏈接數據(Linked Data)作爲語義網的一種實現的設想。LOD遵循了Tim提出的進行數據鏈接的四個規則,即:(1)使用URI標識萬物;(2)使用HTTP URI,以便用戶可以(像訪問網頁一樣)查看事物的描述;(3)使用RDF和SPARQL標準;(4)爲事物添加與其它事物的URI鏈接,建立數據關聯。截止目前,LOD已經有1143個鏈接數據集,其中社交媒體、政府、出版和生命科學四個領域的數據佔比超過90%。56% 的數據集對外至少與一個數據集建立了鏈接。被鏈接最多的是dbpedia的數據。比較常用的鏈接類型包括:foaf:knows、sioc:follows、owl:sameAs、rdfs:seeAlso、dct:spatial、skos:exactMatch等。LOD鼓勵各個數據集使用公共的開放詞彙和術語,但也允許使用各自的私有詞彙和術語。在使用的術語中,有41%是公共的開放術語 [http://lod-cloud.net/]
  10. WordNet:語言知識圖譜,包含155, 327個單詞,同義詞集117,597個,同義詞集之 間由22種關係連接 [https://wordnet.princeton.edu/]
  11. Zhishi.me :Zhishi.me是中文常識知識圖譜。主要通過從開放的百科數據中抽取結構化數據,已融合了百度百科,互動百科以及維基百科中的中文數據。 [http://zhishi.me/]
  12. CN-DBPeidia:CN-DBpedia是由復旦大學知識工場實驗室研發並維護的大規模通用領域結構化百科。CN-DBpedia主要從中文百科類網站(如百度百科、互動百科、中文維基百科等)的純文本頁面中提取信息,經過濾、融合、推斷等操作後,最終形成高質量的結構化數據,供機器和人使用。CN-DBpedia自2015年12月份發佈以來已經在問答機器人、智能玩具、智慧醫療、智慧軟件等領域產生數億次API調用量。CN-DBpedia提供全套API,並且免費開放使用。大規模商務調用,提供由IBM、華爲支持的專業、穩定服務接口。 [http://kw.fudan.edu.cn/cndbpedia/search/]
  13. Medical Relation Detection Dataset in DIEBOLDS 一個醫療健康領域的知識圖譜數據集,可以用來做醫療實體的抽取和檢測,比如藥物、成分、症狀和疾病。 Lidong Bing 邴立東 [http://www.cs.cmu.edu/~lbing/#Datasets\]
  14. Kinships:領域知識圖譜,描述人物之間的親屬關係,104個實體, 26種關係, 10,800個三元組。 [https://archive.ics.uci.edu/ml/datasets/kinship]
  15. UMLS:領域知識圖譜,醫學領域,描述醫學概念之間的聯繫,135 個實體,49種關係,6,800個三元組。 [https://www.nlm.nih.gov/research/umls/]
  16. XLORE雙語百科知識圖譜 XLore從異構的跨語言在線百科中抽取結構化信息,並將其分享在網絡上。據我們所知,XLore是第一個大規模的中英文知識平衡的知識圖譜。目前,XLore包含663,740個概念,56,449個屬性和10,856,042個實例。這給構建任何雙語言知識平衡的大規模知識圖譜提供了一種新的方式。 [http://xlore.org/]
  17. Knowledge Vault: 機器自動構建的知識圖譜,4500萬實體,4469種關係,2.7億 三元組 [https://research.google.com/pubs/pub45634.html]
  18. ConceptNet5 ConceptNet是常識知識庫。最早源於MIT媒體實驗室的Open Mind Common Sense (OMCS)項目。OMCS項目是由著名人工智能專家Marvin Minsky於1999年建議創立。ConceptNet主要依靠互聯網衆包、專家創建和遊戲三種方法來構建。ConceptNet知識庫以三元組形式的關係型知識構成。ConceptNet5版本已經包含有2800萬關係描述。與Cyc相比,ConceptNet採用了非形式化、更加接近自然語言的描述,而不是像Cyc那樣採用形式化的謂詞邏輯。與鏈接數據和谷歌知識圖譜相比,ConceptNet比較側重於詞與詞之間的關係。從這個角度看,ConceptNet更加接近於WordNet,但是又比WordNet包含的關係類型多。此外,ConceptNet完全免費開放,並支持多種語言。 [http://www.openkg.cn/dataset/conceptnet5-chinese]

初步版本,水平有限,有錯誤或者不完善的地方,歡迎大家提建議和補充,會一直保持更新,本文爲專知內容組原創內容,未經允許不得轉載,如需轉載請發送郵件至[email protected] 或 聯繫微信專知小助手(Rancho_Fang)

敬請關注http://www.zhuanzhi.ai 和關注專知公衆號,獲取第一手AI相關知識

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章