人工智能的下个十年在推理?

  描述性统计和推论性统计那个更有说服力?

  清华大学计算机系唐杰教授最近有做一个主题报告《人工智能下一个十年》,先阐述了最近快速发展的算法,并思考人工智能的未来到底是什么?相信做AI的都会思考这样一个问题,这东西究竟靠谱吗?唐杰教授对未来的期望主要是说认知图谱:

认知图谱

  对于解决复杂的逻辑推理问题,计算机可能只会找到局部的片段,仍然缺乏一个在知识层面上的推理能力,这是计算机所欠缺的。人在这方面具有先天的优势,而计算机缺乏类似的能力。

  认知图谱的核心概念是知识图谱+认知推理+逻辑表达。希望用知识表示、推理和决策,包括人的认知来解决问题。

system1到system2

  图灵奖获得者 Yoshua BengioYann Lecun在最近的NeuripsAAAI会议上也提到过的一个方法System 1System 2。基本的思想是结合认知科学中的双通道理论。在人脑的认知系统中存在两个系统:System 1 和 System 2。System 1 :是一个直觉系统,它可以通过人对相关信息的一个直觉匹配寻找答案,它是非常快速、简单的;而 System 2: 是一个分析系统,它通过一定的推理、逻辑找到答案。二者相辅相成。

  在 System 1中我们主要做知识的扩展,在 System 2中我们做逻辑推理和决策。比如System 1提供解决问题的方法,而System 2则决策这个方法是否合理,并提供有效信息给System 1System 1基于此再做知识扩展。

  比如自然语言处理中,System 1是一个直觉系统,我们用 BERT来实现,实现了以后,我们就可以做相关的信息的匹配;System 2 就用一个图卷积网络来实现,在图卷积网络中可以做一定的推理和决策。

  可以看到基于推理的算法似乎比单纯的基于统计的算法更让人兴奋。事实确实如此,那更具体一点的描述会是什么样子的呢?

举例说明

  为什么说基于一定推理的统计会比单纯的统计会好一点呢?或者说更偏向通用人工智能呢?

举个例子:共有11 个罐子,标记为μ{0,1,2,,10}\mu \in \{0,1,2,\cdots,10\}, 每个罐子里装着10 个球。罐子uu 中装着uu 个黑球和10u10 - u 个白球。小明随机地选定罐子uu, 并从这个罐子中有放回地取球NN 次,结果nBn_{B} 次抽到黑球, NnBN-n_{B} 次抽到白球。小明的朋友小红在一旁观看。

  先求一个后验概率分布,看一下求解过程:

  如果N=10N=10 次后抽到nB=3n_{B} = 3 次黑球,那么从小红的角度来看,小明所选罐子是uu的概率是多少?(注意:小红并不知道uu 的数值。)

  解答:其实就是要求P(unB,N)P(u|n_{B},N),利用贝叶斯定理将其展开可得:

P(unB,N)=P(u,nBN)P(nBN)=P(nBu,N)P(u)P(nBN)\begin{aligned} P\left(u | n_{B}, N\right) &=\frac{P\left(u, n_{B} | N\right)}{P\left(n_{B} | N\right)} \\ &=\frac{P\left(n_{B} | u, N\right) P(u)}{P\left(n_{B} | N\right)} \end{aligned}

  对于所有的uu,其边缘概率P(u)=111P(u)=\frac{1}{11}(或者称作uu的先验概率)。

  如果选定罐子uu,那么抽中黑球的概率fu=u10f_{u}=\frac{u}{10},此时P(nBu,N)P\left(n_{B} | u, N\right)(称作uu的似然)可表示为:

P(nBu,N)=(NnB)funB(1fu)NnBP\left(n_{B} | u, N\right)=\left(\begin{array}{l} N \\ n_{B} \end{array}\right) f_{u}^{n_{B}}\left(1-f_{u}\right)^{N-n_{B}}

  而P(nBN)P\left(n_{B} | N\right)nBn_{B}的边缘概率,利用加法律得到如下等式:

P(nBN)=uP(u,nBN)=uP(u)P(nBu,N)P\left(n_{B} | N\right)=\sum_{u} P\left(u, n_{B} | N\right)=\sum_{u} P(u) P\left(n_{B} | u, N\right)

  其实就是来个某个罐子uu的情况除以所有的情况。在nB=3n_{B}=3 时, u=0u=0 的后验概率等于0, 因为如果小明是从罐子0 中取球,则不可能取到黑球。u=10u=10 时的后验概率也等于0, 因为这个罐子中没有白球。

  其计算结果如下图所示:

计算结果

  假定小红在N=10N= 10次抽取中观察到黑球出现了 nB=3n_{B}=3 次,让小明从同一罐子中再抽取一个球。下面抽得的球是黑球的概率是多少?

  解答根据加法律,有:

P( 球 N+1 是黑球 nB,N)=uP( 球 N+1 是黑球 u,nB,N)P(unB,N)P\left(\text { 球 } N+1 \text { 是黑球 } | n_{B}, N\right)=\sum_{u} P\left(\text { 球 } N+1 \text { 是黑球 } | u, n_{B}, N\right) P\left(u | n_{B}, N\right)

  因为球是从给定的罐子中取出并放回的,所以无论nBn_{B}NN 的值是什么,概率P(N+1uuB,N)P( 球N+1 是黑球|u,u_{B} ,N)等于fu=u/10f_{u}=u/10。于是有:

P( 球 N+1 是黑球 nB,N)=ufuP(unB,N)P\left(\text { 球 } N+1 \text { 是黑球 } | n_{B}, N\right)=\sum_{u} f_{u} P\left(u | n_{B}, N\right)

  利用图(2.6) 中给出的概率P(unB,N)P(u|n_{B},N)的值,可得:

P( 球 N+1 是黑球 nB=3,N=10)=0.333P\left(\text { 球 } N+1 \text { 是黑球 } | n_{B}=3, N=10\right)=0.333

  那上述过程如果用统计的思想来做,首先选取看上去最可能的假设(在这里,最可能的罐子是罐子u=3u =3), 然后假设该假设为真,并做出预测(这会得出这样一个结果:下一个抽得的球是黑球的概率为0. 3) 。

  而正确的预测会通过在假设uu 的所有可能值上进行边缘化(marginalize) , 把不确定性考虑进去。这里的边缘化会给出一个更合适的、不那么极端的预测。

  可以看到,基于贝叶斯的学习算法比单纯的统计学习更好一点。

参考资料

  • 清华大学唐杰教授-《人工智能下一个十年》
  • 《信息论、推理与学习算法》
  • From System 1 Deep Learning to System 2 Deep Learning:https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章