【问题标题】:Reducing a matrix of feature vectors to a single, meaningful vector将特征向量矩阵简化为一个有意义的向量
【发布时间】:2015-11-03 21:09:03
【问题描述】:

我有特征向量矩阵 - 200 个特征长,其中矩阵中的特征向量在时间上相关,但我希望将每个矩阵简化为一个有意义的向量。我已将 PCA 应用于矩阵,以将其维度减少到具有高方差的维度,并正在考虑将其行连接到一个特征向量中以汇总数据。

这是一种明智的做法,还是有更好的方法来实现这一点?

【问题讨论】:

  • 只要尝试做任何你想做的事,如果你能达到很好的分类准确度——这是明智的。如果没有 - 尝试另一种特征提取/选择技术,或者保留更多特征而不是 1,等等。

标签: machine-learning pca feature-selection


【解决方案1】:

所以您有一个 n x 200 特征矩阵,其中 n 是您的样本数,每个样本有 200 个特征,并且每个特征在时间上与所有其他特征相关?或者您有单独的特征矩阵,每个时间点一个,并且您想对这些单独的特征矩阵中的每一个运行 PCA 以找到该时间点的单个特征向量,然后将它们连接在一起?

PCA 在第二种情况下似乎更有用。

虽然这是可行的,但这可能不是最好的方法,因为你会通过将不同时间的特征折叠在一起而失去时间敏感性。即使最终特征矩阵中的每个特征代表不同的时间,大多数分类器也无法了解特征 2 遵循特征 1 等这一事实。因此,这样做会失去自然的时间顺序。

如果您关心这些特征之间的时间关系,您可能想看看递归神经网络,它允许您将来自 t-1 的信息输入到节点中,同时输入当前的 t 个特征.因此,从某种意义上说,他们了解了 t-1 和 t 特征之间的关系,这将帮助您保持时间顺序。看这里的解释:http://karpathy.github.io/2015/05/21/rnn-effectiveness/

如果您不关心时间并且只想将所有内容组合在一起,那么 PCA 将有助于减少您的功能数量。最终,这取决于您认为哪种类型的信息与您的问题更相关。

【讨论】:

    猜你喜欢
    • 2018-10-12
    • 1970-01-01
    • 1970-01-01
    • 2019-04-27
    • 1970-01-01
    • 1970-01-01
    • 2012-08-08
    • 2019-04-10
    • 1970-01-01
    相关资源
    最近更新 更多