【问题标题】:Covariance matrix in nonlinear pca (eqn)..Why is it different from linear pca...?非线性 pca (eqn) 中的协方差矩阵..为什么它与线性 pca 不同...?
【发布时间】:2015-02-24 13:53:25
【问题描述】:

我一直在阅读一些与内核 PCA(KPCA) 相关的论文...我还不清楚这些概念...

我发现“协方差矩阵”是通过在 KPCA 中进行转置找到的,而在线性 pca 中不是这种情况。当说 KPCA 类似于 PCA 时,为什么会出现这种差异(在等式中)协方差矩阵并处理特征值,特征向量需要进行映射(在 KPCA 中)..?我也知道在 KPCA 中,输入使用内核技巧映射到高维特征空间。我很困惑与协方差部分。

请帮忙..

【问题讨论】:

标签: data-mining pca


【解决方案1】:

KPCA 中协方差矩阵的确定很简单,因此它与 PCA 的关系毫无疑问。搜索 Gram 矩阵,你就会明白。顺便说一句,还可以搜索“非线性流形学习”或“距离度量学习”,您将获得有关 KPCA 的完整详细信息。听起来您对径向基函数 (RBF) 内核的研究还不够充分,无法完全理解正在发生的事情。所以搜索 RBF 内核,它也恰好被用于内核回归和支持向量机。

【讨论】:

  • 我是kpca的新手...感谢您的回复和参考..!
  • 我已经意识到转置的东西类似于 PCA 的正规方程(即通过找出平均值然后从数据点中减去)..在 kpca 中它只是使用转置方程表示..(两者的答案都是一样的).. :)
猜你喜欢
  • 1970-01-01
  • 2015-07-24
  • 2012-10-29
  • 2014-01-22
  • 2018-06-20
  • 1970-01-01
  • 1970-01-01
  • 2017-06-11
  • 1970-01-01
相关资源
最近更新 更多