【问题标题】:Sklearn ValueError: X has 2 features per sample; expecting 11Sklearn ValueError: X 每个样本有 2 个特征;期待 11
【发布时间】:2026-01-05 16:10:01
【问题描述】:

我尝试可视化多重逻辑回归,但出现上述错误。

我正在练习来自 kaggle 的 red wine quality 数据集。

这是一个完整的追溯:

---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-88-230199fd3a97> in <module>
      4 X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
      5                      np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
----> 6 plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
      7              alpha = 0.75, cmap = ListedColormap(('red', 'green')))
      8 plt.xlim(X1.min(), X1.max())

/usr/local/lib/python3.6/dist-packages/sklearn/linear_model/base.py in predict(self, X)
    287             Predicted class label per sample.
    288         """
--> 289         scores = self.decision_function(X)
    290         if len(scores.shape) == 1:
    291             indices = (scores > 0).astype(np.int)

/usr/local/lib/python3.6/dist-packages/sklearn/linear_model/base.py in decision_function(self, X)
    268         if X.shape[1] != n_features:
    269             raise ValueError("X has %d features per sample; expecting %d"
--> 270                              % (X.shape[1], n_features))
    271 
    272         scores = safe_sparse_dot(X, self.coef_.T,

ValueError: X has 2 features per sample; expecting 11

下面是可视化代码:

# Visualising the Training set results
from matplotlib.colors import ListedColormap
X_set, y_set = X_train, y_train
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
                     np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
             alpha = 0.75, cmap = ListedColormap(('red', 'green')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
    plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
                c = ListedColormap(('red', 'green'))(i), label = j)
plt.title('Logistic Regression (Training set)')
plt.xlabel('Age')
plt.ylabel('Estimated Salary')
plt.legend()
plt.show()

【问题讨论】:

  • 看起来您在 11 个特征上训练了分类器,然后您将数据的形状更改为网格网格,然后将两个网格网格展平并尝试将它们传递到分类器中。也许您应该在更改数据形状之前进行预测,然后重新调整预测值以匹配您的绘图?

标签: python scikit-learn


【解决方案1】:

您可以添加完整的代码来确定问题,但似乎模型是使用 11 个特征训练的,但现在您尝试使用 2 个特征进行预测。

classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape))

这里,np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape) 的形状在整个列维度(轴 = 1)上应该与用于训练 classifier 的原始数组 (.fit) 完全相同。

【讨论】:

  • 谢谢,现在我明白了错误是什么,但我不太明白代码中究竟需要更改什么