你一定发现过一些诡异的现象,
在机器学习里:
在 PCA 里,投影向量其实是样本的加权和
在 LDA 里,投影向量其实是样本的加权和
在逻辑回归里,分类器权值其实是样本的加权和
在 SVM 里,分类器权值其实是样本的加权和
在感知机里,分类器权重其实是样本的加权和
在 kmeans 里,聚类中心其实是样本的加权和
在线性回归里,拟合直线的法向量其实是样本的加权和
……
我们通过梯度下降、闭合解等方式辛辛苦苦求解的分类器参数
竟然都只不过都是样本的加权和
这些不同机器学习算法的区别
不过是学习到了样本
不一样的权重