【Neural-Symbolic】方向的研究工作核心思想一覽
Neural-Symbolic可以認爲是將人工智能中原本對立的連接主義和符號主義結合的一個新興研究方向(實際上最早相關工作可追至1978年),先對其相關研究工作典型的十篇論文做出總結。
Neural-Symbolic的本質是什麼
Neural-Symbolic意指神經符號主義,但是更本質地講,實際上是將現代數學中的分析學和代數學結合,分析學擅長處理數值、函數、逼近等問題,代數學擅長處理推演、抽象、結構等問題;因此如果能適當結合,威力必然可觀.
Neural-Symbolic研究工作思路
根據選定的這十篇論文,可以總結其基本研究思路如下:
- 研究問題:即研究定位的推理問題是什麼,如視覺推理問題數據集CLEVER,知識圖譜數據集Freebase,或者分類問題數據集Fashion等等;介紹研究任務和意義,隨後簡介面向這個任務的已有方法,接着說明已有方法面臨的關鍵挑戰,針對這些挑戰,本文提出什麼創新思路和具體方法;
- 邏輯範式:即給出本文需要使用的符號邏輯的公理化描述,如謂詞邏輯,蘊含邏輯,規則邏輯等等.這些描述一般和研究問題緊密相關,也是下面的邏輯數值表示學習的基礎架構.
- 邏輯表示學習:如同NLP的第一步永遠是如何將自然語言映射到特徵向量空間一樣,邏輯表示學習是如何將符號邏輯的先驗知識映射到數值向量空間.可以說,邏輯表示學習是連接分析和代數的紐帶.具體的方法比如同NLP一樣用神經網絡做embedding[10]:
又比如利用Markov模型的邏輯知識信息導出[3]:
- 提出目標函數:通常需要考慮邏輯推理的結構(如謂詞結構)和神經網絡的效率結合功能模塊的設計(如視覺、語義信息的扒取)等,設計一個可供參數優化(最大似然或者最小誤差)的目標函數.具體的比如知識圖譜補全任務的目標函數[2]:
又比如語義損失函數[6]:
- 優化、實驗、評估:這和其他的計算機論文如出一轍不再贅述;
Neural-Symbolic研究工作亮點
在這裏總結一些可以說超越了上述一般套路思維的亮點思維.
- 融合不規則信息:文章[4]展示瞭如何將不規則信息先整合爲規則的信息,然後再進行學習.即使用:
- 使用Neural-Symbolic來實現zero-shot learning:加入了邏輯先驗知識,實現零樣本學習似乎變得理所應當.文章[3]中,藉由一個排序函數的幫助來實現.
- 借符號先驗知識實現teacher-student模式:teacher-student模式更符合人類學習方式,因而逐漸成爲一種流行範式,現在文章[7]將符號先驗知識作爲teacher的信息源,並且約束teacher和student的差異來實現學習:
總結
人類是以神經元爲基礎的生物,但卻最終用符號的語言來交流信息,因此從學習機制上,結合Neural-Symbolic來探究人工智能是合理的.從數學上來說,分析學分支和代數學分支的結合是Neural-Symbolic的理論本質.
到目前爲止,已有的關於Neural-Symbolic只能說算將神經網絡方法和邏輯符號的一些概念有所結合,還處於比較初級的應用層面,無論在neural還是symbolic方向,都亟待加深,否則難以做出有深度的研究.
- neural方向可深入:腦認知機制的數學模型、泛函分析關於映射的理論、融入了測度論的隨機過程等等;
- symbolic方向可深入:抽象代數的羣論、哲學和邏輯學、符號計算(數學機械化理論)等等;
Neural-Symbolic研究的十篇代表性論文
[1] Boella, Guido , et al. “Learning and reasoning about norms using neural-symbolic systems.” Proceedings of the 11th International Conference on Autonomous Agents and Multiagent Systems - Volume 2 2012.
[2] Zhang, Xiangling , et al. “Knowledge Graph Completion via Local Semantic Contexts.” International Conference on Database Systems for Advanced Applications Springer International Publishing, 2016.
[3] Zhu, Yuke , A. Fathi , and L. Fei-Fei . “Reasoning about Object Affordances in a Knowledge Base Representation.” European Conference on Computer Vision Springer International Publishing, 2014.
[4] Dong, Honghua , et al. “Neural Logic Machines.”,2019.
[5] Ramakrishna Vedantam , et al. “Probabilistic Neural-symbolic Models for Interpretable Visual Question Answering.” ,2018.
[6] Xu, Jingyi , et al. “A Semantic Loss Function for Deep Learning with Symbolic Knowledge.” (2017).
[7] Hu, Zhiting , et al. “Harnessing Deep Neural Networks with Logic Rules.” Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) 2016.
[8] Socher, Richard , et al. “Reasoning With Neural Tensor Networks for Knowledge Base Completion.” International Conference on Neural Information Processing Systems Curran Associates Inc. 2013.
[9] Liang, Chen , et al. “Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision.” (2016).
[10] Yi, Kexin,Wu, Jiajun , et al. “Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language Understanding.” ,2019.