【问题标题】:Python (scikit learn) lda collapsing to single dimensionPython(scikit learn)lda折叠为一维
【发布时间】:2016-12-29 05:27:59
【问题描述】:

我对 scikit learn 和机器学习很陌生。

我目前正在设计一个支持向量机来预测特定氨基酸序列是否会被蛋白酶切割。到目前为止,SVM 方法似乎运行良好:

我想可视化两个类别(cut 和 uncut)之间的距离,所以我尝试使用类似于主成分分析的线性判别分析,使用以下代码:

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
lda = LinearDiscriminantAnalysis(n_components=2)
targs = np.array([1 if _ else 0 for _ in XOR_list])
DATA = np.array(data_list)
X_r2 = lda.fit(DATA, targs).transform(DATA)
plt.figure()
for c, i, target_name in zip("rg", [1, 0],["Cleaved","Not Cleaved"]):
    plt.scatter(X_r2[targs == i], X_r2[targs == i], c=c, label=target_name)
plt.legend()
plt.title('LDA of cleavage_site dataset')

然而,LDA 只给出一维结果

In: print X_r2[:5]
Out: [[ 6.74369996]
 [ 4.14254941]
 [ 5.19537896]
 [ 7.00884032]
 [ 3.54707676]]

但是,pca 分析将给出我输入的数据的 2 个维度:

pca = PCA(n_components=2)
X_r = pca.fit(DATA).transform(DATA)
print X_r[:5]
Out: [[ 0.05474151  0.38401203]
 [ 0.39244191  0.74113729]
 [-0.56785236 -0.30109694]
 [-0.55633116 -0.30267444]
 [ 0.41311866 -0.25501662]]

编辑:这里是两个带有输入数据的 google-docs 的链接。我没有使用序列信息,仅使用后面的数字信息。这些文件分为阳性和阴性对照数据。 输入数据: file1 file2

【问题讨论】:

  • 你能提供一些数据吗?(例如打印原始数据?)
  • 经过编辑以将训练数据包含为一对 google-docs

标签: machine-learning scikit-learn scientific-computing


【解决方案1】:

LDA 不是一种降维技术。 LDA 是一个分类器,人们将 决策函数 可视化这一事实只是一个副作用,而且 - 不幸的是,对于您的用例 - 二元问题(2 类)的决策函数是 一维的强>。您的代码没有任何问题,这就是线性二元分类器的每个决策函数的样子。

一般来说,对于 2 个班级,您最多可以获得 1-dim 投影,对于 K>2 个班级,您最多可以获得 K-dim 投影。使用其他分解技术(例如 1 对 1),您可以达到 K(K-1)/2,但同样只能用于 2 个以上的类。

【讨论】:

    猜你喜欢
    • 2021-05-18
    • 2016-01-03
    • 2016-02-27
    • 2013-10-30
    • 2020-11-11
    • 2021-04-24
    • 1970-01-01
    • 2016-12-18
    • 2020-06-21
    相关资源
    最近更新 更多