【问题标题】:What is the output of PCA and how it is useful?PCA 的输出是什么,它有什么用处?
【发布时间】:2018-04-13 09:20:43
【问题描述】:

PCA 是一种降维算法,有助于降低数据的维度。 我不明白的是,PCA 以降序输出特征向量,例如 PC1、PC2、PC3 等。所以这将成为我们数据的新轴。

  • 我们可以在哪里应用这个新轴来预测测试集数据?

  • 我们实现了从 n 到某个 n-k 的降维。

  • 如何从我们的数据中获取最有用的变量并从我们的数据中消除不重要的列?
  • PCA 是否有替代方法?

【问题讨论】:

    标签: machine-learning pca eigenvector dimensionality-reduction data-presentation


    【解决方案1】:

    PCA 的想法是将维度减少到由具有最大方差的 n-k 个特征向量创建的子空间,从而在映射到新子空间的数据中产生最大的方差。

    此外,可以在不知道训练数据类别的情况下使用 PCA 来降低维度,这意味着它是无监督的。

    如果您知道训练数据的类别,另一种选择是使用 LDA,它会尝试找到最大化类别间变化的特征空间。

    希望对你有帮助

    【讨论】:

    • 这不是@Mathias 的问题。我真正的疑问是假设获取 10 个特征的数据,然后我们将其缩减为 3 个维度。所以新的维度与我们的实际数据完全不同。我们能否知道 PCA 中哪个功能最重要?
    • PCA 不考虑哪些特征有利于分类,因为它是一种无监督方法,降维仅基于特征空间中的最大方差。因此,您将只知道哪些特征具有最大的方差。你不会知道哪些特征有利于分类,但你会知道哪些特征的方差最大。
    • 我们可以使用标准偏差从基本公式中找到差异最大的特征。我想知道PCA的确切目的是什么?是在二维平面中可视化 100 维图吗?
    • PCA 不会在原始数据空间中找到具有最大方差的特征,它会找到在数据中产生最大方差的所有特征的组合。是的,收集数据可能是一个目的,或者只是为了减少您必须处理的数据量。
    猜你喜欢
    • 2014-11-26
    • 2017-02-08
    • 1970-01-01
    • 1970-01-01
    • 2012-05-15
    • 2010-10-22
    • 1970-01-01
    • 2011-01-14
    • 1970-01-01
    相关资源
    最近更新 更多