真别再纠结标准化还是归一化了
很多博客把他们搞混。毕竟字典也是把他们放一起了。
既然搞混,那混在一起看好了
在我看来他们其实都是对feature value做了变化就是了。纠结那么多概念的问题也没什么意义。
有些是不变化原数据分布的
其实均值方差变了那分布肯定就变了。我这里“不改变原数据分布”的意思是概率密度函数的形状不变。
-
这个改得挺好,把原分布映射到均值为0方差为1的分布上。额外提一句,即便是均值0标准差1也不非得是标准正态分布,有很多博客乱写
下面的方法应用后原数据分布的概率密度函数形状仍然不变,只不过不一定是标准的0均值1标准差的分布而已。
有些会改变分布:
还有很多变换方法,依据情况选择变换方法就是了。
另外并不是所有机器学习算法都需要归一或者标准化。看其原理就行了,不必多说。