關於知識圖譜,我們接下來該研究什麼?斯坦福教授們給出了答案

關於知識圖譜,我們接下來該研究什麼?斯坦福教授們給出了答案

本文整理了斯坦福大學 CS 520 知識圖譜研討會課程的第 10 集的內容,主要是關於知識圖譜未來的研究方向,推薦給研究知識圖譜的同學們~

1 使用強化學習進行多跳知識圖譜推理
第一位演講者:Richard Sochar

Richard 認爲知識圖譜未來的一個重要研究方向是使用強化學習進行多跳知識圖譜推理。

關於知識圖譜,我們接下來該研究什麼?斯坦福教授們給出了答案

知識圖譜的缺陷之一是不完整性,即知識圖譜能存儲的事實是有限的。對於知識圖譜的重要應用——聊天機器人(Chatbot),也就是對話系統或者問答系統,其交互形式可以是文本或是圖像。在對話過程中需要根據知識圖譜進行推理,但知識圖譜關於目標問題的知識可能是殘缺或者有噪音的,所以算法應當具有一定的魯棒性。對於知識圖譜的不完整性,有以下解決方案:

知識圖譜嵌入
知識圖譜嵌入是一種發現缺失事實的有效方法。它將知識圖譜中的所有實體或關係嵌入到連續向量空間中。採用強化學習進行推理時,可以使用知識圖譜嵌入,便於神經網絡對實體進行處理。但是知識圖譜嵌入通常缺少可解釋性。

多跳推理模型
現有的多跳推理模型通常採用序列決策的思路。從問題中提取實體,然後在知識圖譜中學習如何在實體間進行推理。

強化學習框架
強化學習中需要關注五個要素:

  • 環境 environment:在該任務中,環境是一個知識圖譜
    狀態 state:例如,當前已經遍歷過的一個子圖
    動作 action:例如,選擇一個結點進行擴展
    轉換 transition:採取一個動作後,狀態發生改變,直到一個定義的推理終點
    獎勵 reward:在推理正確時獲得獎勵
    使用強化學習進行推理可解釋性較強,可以從算法給出的推理路徑中分析結果的產生原因。
    關於知識圖譜,我們接下來該研究什麼?斯坦福教授們給出了答案



多跳推理是可解釋的,但是準確較低。常常將知識圖譜嵌入與強化學習框架結合使用,從而兼顧可解釋性和準確性。

該方法還可以推廣到聯合知識圖譜和文本的多跳推理上。

2 知識圖譜到底知道什麼?
第二位演講者:Mark A. Musen 博士

Mark 想討論的是非常根本的一個問題——我們知道了什麼是圖,但什麼是知識?我們如何確保知識被存儲到了圖中?關於這個問題的答案,Mark從早年的研究歷史開始談起。

上世紀中葉,Stanford 想要開發一個專家系統,幫助醫生做臨牀決策。他們先是考慮用語義網絡來實現這一任務。還有一個早期用於幫助決策的專家系統,叫做MYCIN,出現於 70~80 年代。它是包含大量複雜的規則供專家進行決策。在這個年代,符號化的人工智能也被認爲是醫療健康行業的未來。但是,對這類方法的質疑逐漸顯現。包含大量規則的系統真的是可以維護的嗎?語義網絡(知識圖譜)能夠支持查找之外的任何形式的推理嗎?什麼樣的知識表示可能可以支持一個最智能的系統呢?

Allen Newell 在 1980 年提出:我們應該停止爭論如何表示知識,真正重要的是系統中有怎樣的知識,而不是如何用計算機進行表示。知識是觀察者賦予智能體的。知識是解決問題的能力

  • 我們無法“看見”知識,或將它寫下來。所謂“道可道,非常道。名可名,非常名。”
  • 我們永遠無法得知智能體到底懂得了什麼。所謂“子非魚,安知魚之樂。子非我,安知我不知魚之樂。”
  • 我們只能認爲智能體有知識的條件是:
  • 似乎有目標
  • 似乎能選擇行爲能實現目標![]似乎能選擇行爲能實現目標
  • 似乎能理智地選擇行爲
    語義網被認爲有希望在 Web 級別的數據上解決問題。但Mark 認爲相關研究者似乎忽視了本體論和 Web 服務的作用,只顧玩弄鏈接數據的概念。日益增長的鏈接數據被表示爲知識圖譜。正如上個世紀那樣,我們又開始過分關注知識表示的狀態,而越來越少地討論如何利用它解決問題。只有圖,我們仍然做不了任何事情。

我們又重新開始研究如何將知識表示爲圖。如今,龐大的知識圖譜相比當年的語義網絡,擁有更加豐富的信息。我們已經知道一些表示和生成智能行爲的方法了,但還有很多應用沒有開始研究,有很多行爲還沒有想到如何去建模——這是我們未來可以努力的方向。

3 Data Commons
第三位演講者:RV Guha

數據正在驅動很多應用,政策、新聞、健康、科學等。目前的問題不在於數據的缺乏,而是數據有太多的格式和規範。我們搜尋數據源、清洗數據、搞定數據存儲……在這個過程中存在啓動成本高昂,生態系統不完整,工具較少的問題。我們如何使數據的使用變得更加簡單?

Data Commons 是一個 Google 發起的項目,嘗試解決知識圖譜構建中的上述問題,從不同數據源合成一個開放知識圖譜。Guha 團隊想要做的是,從原本搜索數據集、下載、清洗、歸一化、融合的繁瑣流程,簡化到直接搜索谷歌即可獲得數據集。

該項目的優勢在於,通過清洗、歸一化和將多個數據集進行融合的方式,輕鬆構建一個知識圖譜,無需清理和加入數據。

目前通過 Data Commons 構建的知識圖譜包括按地理區域的美國人口普查公報、美國國家海洋和大氣管理局提供的天氣歷史與預報、美國勞工統計局的就業與失業統計等。

以上是對課程的簡單的筆記,並不足以涵蓋課程中的細節,感興趣的同學們可以刷起來啦~

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章