降维

无监督学习方法,减少数据量

主成分分析/PCA:

根本目的:降维,减少无关信息,减少总的特征变量,增加已有特征变量包含的信息。

将n维数据降到n-1维,损失1维数据,损失数据用样本到拟合线垂直距离表示,最小化误差,即使得方差最大化

与线性回归的区分:主成分分析主要原理是最小化投影误差,属于非监督学习中的降维,本质上是对输入特征的减少;线性回归的主要原理是最小化预测误差,属于监督学习中的分类,本质上是对输入特征的拟合。二者在仅损失函数的度量上有一定相似。下左图为线性回归误差,下右图为主成分分析误差

机器学习7——降维,主成分分析

主成分分析的处理结果,可以对得出的特征向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。(在遥感影像中体现为提取某一影像提取不同波段的影像,保留前几幅包含信息较多的影像,可以达到减少数据量,一定程度上去噪的效果)

相关文章:

  • 2021-11-20
  • 2021-06-10
  • 2021-08-18
  • 2022-12-23
  • 2021-05-03
  • 2021-09-27
  • 2022-12-23
  • 2021-08-31
猜你喜欢
  • 2021-08-06
  • 2021-05-25
  • 2021-09-02
  • 2021-09-22
  • 2021-06-24
  • 2021-12-30
  • 2021-06-03
相关资源
相似解决方案