【问题标题】:How to get the final features?如何获得最终特征?
【发布时间】:2015-08-08 22:40:08
【问题描述】:

原始数据为YY的大小为L*nn为特征数;L为观测数。B为原始的协方差矩阵数据Y。假设A是协方差矩阵B的特征向量。我将A表示为A = (e1, e2,...,en),其中ei是特征向量。矩阵Aq是第一个q和eigen aiAq 的行向量:Aq = (e1,e2,...,eq) = (a1,a2,...,an)'。我想将 k-means 算法应用于 Aq 以将行向量 ai 聚类到 k 集群或更多(注意:我不想对特征向量eik聚类应用k-means算法。对于每个聚类,只保留最接近聚类中心的向量,最终选择该向量对应的特征作为信息特征.

我的问题是:

1) 将 k-means 算法应用于 Aq 以将行向量 ai 聚类到 k 簇和将 k-means 算法应用于 Aq 以聚类特征向量 ei 之间有什么区别到k 集群?

2)我得到的closest_vectors来自这个命令:closest_vectors = Aq(min_idxs, :)closest_vectors的大小是k*qdouble。如何获得最终的信息特征?由于最终的信息特征必须从原始数据Y中获得。

谢谢!

我发现了两个关于 pca 和 pfa 的函数:

function [e m lambda, sqsigma] = cvPca(X, M)

[D, N] = size(X);

if ~exist('M', 'var') || isempty(M) || M == 0
    M = D; 
end
M = min(M,min(D,N-1));

%% mean subtraction
m = mean(X, 2);  %%% calculate the mean of every row

X = X - repmat(m, 1, N);

%% singular value decomposition. X = U*S*V.' or X.' = V*S*U.'
[U S V] = svd(X,'econ');

e = U(:,1:M);

if nargout > 2
    s = diag(S);

    s = s(1:min(D,N-1));

    lambda = s.^2 / N; % biased (1/N) estimator of variance

end

% sqsigma. Used to model distribution of errors by univariate Gaussian
if nargout > 3
    d = cvPcaDist(X, e, m); % Use of validation set would be better

    N = size(d,2);

    sqsigma = sum(d) / N; % or (N-1) unbiased est

end
end

%////////////////////////////////////// ///////////////////////////

function [IDX, Me] = cvPfa(X, p, q)
[D, N] = size(X);
if ~exist('p', 'var') || isempty(p) || p == 0
    p = D;
end
p = min(p, min(D, N-1));
if ~exist('q', 'var') || isempty(q)
    q = p - 1;
end

%% PCA step
[U Me, Lambda] = cvPca(X, q);

%% cluter row vectors (q x D). not col
[Cl, Mu] = kmeans(U, p, 'emptyaction', 'singleton', 'distance', 'sqEuclidean');

%% find axis which are nearest to mean vector
IDX = logical(zeros(D,1));
for i = 1:p
    Cli = find(Cl == i);
    d = cvEucdist(Mu(i,:).', U(Cli,:).');
    [mini, argmin] = min(d);
    IDX(Cli(argmin)) = 1;
end

【问题讨论】:

  • 我已经回滚了您的更改,因为通过删除您的大部分问题,我们的回答不再有意义。
  • 顺便说一句,我怀疑是你对我昨天撰写的各种答案给了我一大堆赞成票。虽然你的意图是崇高的,我很受宠若惊,但从长远来看,这些实际上伤害了我。这就是众所周知的as serial upvoting,它可以被解释为投票欺诈。系统不知道是否是具有不同帐户的用户试图对他/她自己的帖子进行投票,或者它是否是合法的。如果您确实想为我的帖子投票,请随着时间的推移逐步进行:)
  • 一点也不。我是一个喜欢回答问题的人,而且我的声誉足够高,可以成为值得信赖的用户。但是,未经批准编辑您的帖子是在 2K 声望下给我的,这不是您作为受信任用户所获得的一部分,这需要 > 20K 声望。作为一个受信任的用户,这让我在这里操作时拥有一些特权:stackoverflow.com/help/privileges/trusted-user
  • 没问题 :) 实际上,如果您需要更快的帮助,请到 MATLAB 聊天室找我。那是我经常出去玩的地方! chat.stackoverflow.com/rooms/81987/matlab-and-octave
  • @rayryeng,你能回答这个问题吗:正如 Ollogin 所说,“但是对 PCA 结果的行进行聚类可以提供一些有用的东西。”我的问题是:如何将 k-means 算法应用于 Aq 以将行向量 ai 聚类到 k 个聚类?如何用Matlab表示?

标签: matlab machine-learning data-analysis


【解决方案1】:

总结 Ollogin 的 cmets,对协方差矩阵的特征向量或 SVD 的 U 矩阵的列进行聚类是没有意义的。在这种情况下,特征向量都是正交的,因此如果您尝试对它们进行聚类,每个聚类只会得到一个成员,并且该聚类的质心由特征向量本身定义。

现在,您真正需要的是选择数据矩阵中的特征,这些特征可以根据判别分析来描述您的数据。

您提供的函数既可以计算 SVD,又可以提取数据的 k 主成分,还可以确定从这些 k 中选择哪些特征最为突出。默认情况下,要选择的功能数量等于k,但您可以根据需要覆盖它。让我们坚持使用默认值。

cvPfa 函数会为您执行此特征选择,但会警告您该函数中的数据矩阵是组织的,其中每个 行是一个特征,每个 列是一个样本。输出是一个logical 向量,它告诉您在数据中选择哪些特征最强。

简单地说,你只需这样做:

k = 10; %// Example
IDX = cvPfa(Y.', k);
Ynew = Y(:,IDX);

此代码将选择数据矩阵中最突出的 10 个特征,并挑选出最能代表您的数据或最具辨别力的 10 个特征。然后,您可以将输出用于您所针对的任何应用程序。

【讨论】:

    【解决方案2】:

    1) 我认为对协方差矩阵的特征向量(PCA 结果的列)进行聚类没有任何意义。在欧几里得距离的意义上,所有特征向量成对正交并且彼此相距相等。您可以选择任何特征向量并计算它们之间的距离,任何对之间的距离将是 sqrt(2)。但是对 PCA 结果的行进行聚类可以提供一些有用的东西。

    【讨论】:

    • 这里我使用余弦距离,而不是欧几里得距离。
    • @Shawn,在这种情况下,您将始终得到 0,因为所有相互正交的特征向量(它们之间的角度为 90 度或 pi/2)并且它们的范数始终为 1。 cos(pi/ 2)=0
    • @Shawn,我的意思是只有协方差矩阵的特征向量的情况。在一般情况下,对于任何其他向量,这个距离应该有效。
    • @Shawn - 您不能在特征向量上使用余弦距离。你会得到 0。
    • @Olologin,您说“但是对 PCA 结果的行进行聚类可以提供一些有用的东西。”如何将 k-means 算法应用于 Aq 以将行向量 ai 聚类到 k 个聚类?如何用Matlab表示?
    猜你喜欢
    • 2020-06-12
    • 2014-02-11
    • 2013-11-27
    • 1970-01-01
    • 1970-01-01
    • 2013-05-06
    • 1970-01-01
    • 2020-11-29
    • 2017-09-13
    相关资源
    最近更新 更多