为什么分类对象越多训练时间越长?

这句话也可以表述成为什么在训练时间相同的情况下分类对象越多分类准确率越低,

或者表述成为什么在运算量相同的情况下分类对象越多分类准确率越低。

 

为解释这个现象引入三个假设

假设1.在收敛标准相同的情况下,实现收敛的迭代次数越多表明分类对象之间越相似。

假设2.被分类图片的重叠区域携带了决定分类的决定性信息

假设3.收敛标准与分类准确率成反比

 

完全相同的两个对象不能被分成两类,因此用神经网络分类同一个对象,对应任一个收敛标准迭代次数都应该是无限大。由此反推,在收敛标准相同的情况下迭代次数越大,表明分类对象应该越相似。由此从逻辑上得到假设1.

假设2在文<实验:是否图片的重叠区域携带了决定分类的所有信息?>中的实验数据强烈的支持这一假设。

对于假设3,前面的所有实验都表明同一个网络收敛标准越小分类准确率越大。

 

现在假设这三个假设都是成立的。

一个n+1分类网络的公共重叠区域一定小于一个n分类网络的重叠区域,比如三分类网络mnist012的重叠区域要小于二分类mnist01的重叠区域,同理mnist0123456789这个10分类的网络的重叠区域要小于mnist012的重叠区域。从直观上很容易理解分类对象越多,公共重叠区域应该越小。

假设有一个网络的重叠区域足够小,以至于整个重叠区域的能量等于1个普朗克常量,也就是相对这个网络来说,所有被分类对象都变成一个能量仅仅等于一个普朗克常量的粒子,这个公共重叠区域应该无法携带足够多的信息提供精确分类,分类对象之间变得更加相似,由此迭代次数应该变得非常巨大。由这个极限情况推知公共区域越小导致参与分类的对象越相似并导致迭代次数越大。

 

由假设1和假设2可以得到一个推论

推论1.分类对象越多公共重叠区域越小,重叠区域越小分类对象越相似。

由推论1和假设3.可得出分类对象越多,重叠区越小,在收敛标准相同的前提下需要的迭代次数也越多,也就是在收敛时间相同的前提下或者在运算量相同的前提下只能达到相对较大的收敛标准,由于收敛标准较大导致分类准确率较低。

由此标题得以解释。

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章