【发布时间】:2020-08-08 07:58:07
【问题描述】:
我正在一个热编码向量列表上训练一个 SVM,看起来像这样(它的实际形状 (179, 42621),但为了举例,让我们说如下):
vectors =
[
[0,0,0,1],
[1,0,0,1],
[0,0,0,1],
[0,0,0,1],
[0,0,0,1]
]
标签如下所示:
labels =
[
[0],
[1],
[1],
[2],
[0]
]
我已经使用以下代码训练了一个 SVM:
X = vectors
y = labels
# fixing class imbalance
sm = SMOTE(random_state=42)
X, y = sm.fit_resample(X, y)
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
svc = LinearSVC()
svc.fit(X_train, y_train)
y_pred = svc.predict(X_test)
我是否可以了解每个特征在特征输入向量中的预测能力有多重要?
换句话说,我如何判断特征向量中的第 0、第 1、第 2 和第 3 个特征在预测方面的重要性?
【问题讨论】:
标签: python machine-learning scikit-learn svm