【发布时间】:2014-11-14 04:20:21
【问题描述】:
在模式识别中,为什么特征提取很重要?为什么我们必须减少特征空间?仅仅是计算问题还是这个过程提高了分类器的泛化能力?
【问题讨论】:
标签: machine-learning feature-extraction
在模式识别中,为什么特征提取很重要?为什么我们必须减少特征空间?仅仅是计算问题还是这个过程提高了分类器的泛化能力?
【问题讨论】:
标签: machine-learning feature-extraction
特征提取不仅仅是计算复杂性。对于固定数量的训练样本,如果特征数量变得足够多,分类器的性能会显着下降。见Curse of Dimensionality。
作为一个实际案例,考虑一个使用多元正态统计(均值和协方差)的分类器。对于N 训练样本和k 特征,对于N < k,协方差矩阵将变为奇异矩阵。因此,如果不能增加样本数,就需要减少特征数才能使用分类器。
【讨论】:
n_samples << n_features很规律。不过,如果您使用正则化,这并不是真正的问题。
两者:较小的特征空间(显然?)更易于处理,消除不重要的细节会删除需要“围绕”概括的东西。
【讨论】: