真别再纠结标准化还是归一化了

很多博客把他们搞混。毕竟字典也是把他们放一起了。
在这里插入图片描述

既然搞混,那混在一起看好了

在我看来他们其实都是对feature value做了变化就是了。纠结那么多概念的问题也没什么意义。

有些是不变化原数据分布的

其实均值方差变了那分布肯定就变了。我这里“不改变原数据分布”的意思是概率密度函数的形状不变。

  1. xi=xiμσx_i=\frac {x_i-\mu} {\sigma}
    这个改得挺好,把原分布映射到均值为0方差为1的分布上。额外提一句,即便是均值0标准差1也不非得是标准正态分布,有很多博客乱写

下面的方法应用后原数据分布的概率密度函数形状仍然不变,只不过不一定是标准的0均值1标准差的分布而已。

  1. xi=xixminxmaxxminx_i=\frac{x_i-x_{min}}{x_{max}-x_{min}}

  2. xi=xiμxmaxxminx_i=\frac{x_i-\mu}{x_{max}-x_{min}}

有些会改变分布:

  1. xi=log(xi)x_i=log(x_i)
  2. xi=atan(xi)2πx_i=\frac{atan(x_i)*2} \pi

还有很多变换方法,依据情况选择变换方法就是了。
另外并不是所有机器学习算法都需要归一或者标准化。看其原理就行了,不必多说。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章