【问题标题】:Using own image in sklearn digits example在 sklearn 数字示例中使用自己的图像
【发布时间】:2025-12-25 09:45:15
【问题描述】:

所以我一直在玩弄 sklearn 和 python,并试图了解机器学习的工作原理。我得到了正确的基本示例,但我正在努力解决一件事。

例如,假设我正在使用数字数据集,一旦我准备好并测试了我的分类器。在该示例中,我将如何使用自己笔迹的图像?

我设法加载图像并使用 matplotlib 读取它的像素,但我得到了一个包含 (8,8,3) 的数组,并且来自数字数据集的样本具有 (8,8) 的形状。

这是我用来训练分类器的代码

digits = load_digits()
x_train, x_test, y_train, y_test = train_test_split(digits.data, digits.target, test_size=0.20)

clf = svm.SVC(gamma=0.001, C=100)

clf.fit(x_train, y_train)

img = mpimg.imread('handwritten.jpg')

这是我从print(img) 得到的打印结果

[[[245 251 255]
  [ 51  55  82]
  [ 41  56  87]
  [ 18  58 109]
  [ 11  65 125]
  [ 20  64 101]
  [242 255 255]
  [255 255 239]]

 [[249 253 255]
  [249 254 255]
  [239 255 255]
  [221 255 255]
  [209 255 255]
  [ 16  60 105]
  [242 255 255]
  [255 253 242]]

 [[250 254 255]
  [250 255 255]
  [241 255 255]
  [218 255 255]
  [ 10  69 137]
  [ 10  57 111]
  [241 255 255]
  [255 253 250]]

 [[252 255 253]
  [251 255 252]
  [ 44  61  77]
  [ 16  60 109]
  [  3  63 136]
  [ 13  61 123]
  [240 255 255]
  [255 253 255]]

 [[251 255 249]
  [252 255 250]
  [239 255 255]
  [ 19  63 112]
  [  3  63 136]
  [ 16  64 128]
  [240 255 255]
  [255 252 255]]

 [[249 255 253]
  [249 255 253]
  [240 255 255]
  [218 255 255]
  [  3  59 133]
  [ 17  62 121]
  [242 255 255]
  [255 252 255]]

 [[245 255 255]
  [245 255 255]
  [236 254 255]
  [220 255 255]
  [ 14  67 135]
  [ 19  59 111]
  [245 255 255]
  [255 253 250]]

 [[241 255 255]
  [ 46  58  74]
  [ 38  58  83]
  [ 21  61 110]
  [  9  60 123]
  [224 255 255]
  [246 255 255]
  [255 254 243]]]
(64,)
[[[245 251 255]
  [ 51  55  82]
  [ 41  56  87]
  [ 18  58 109]
  [ 11  65 125]
  [ 20  64 101]
  [242 255 255]
  [255 255 239]]

 [[249 253 255]
  [249 254 255]
  [239 255 255]
  [221 255 255]
  [209 255 255]
  [ 16  60 105]
  [242 255 255]
  [255 253 242]]

 [[250 254 255]
  [250 255 255]
  [241 255 255]
  [218 255 255]
  [ 10  69 137]
  [ 10  57 111]
  [241 255 255]
  [255 253 250]]

 [[252 255 253]
  [251 255 252]
  [ 44  61  77]
  [ 16  60 109]
  [  3  63 136]
  [ 13  61 123]
  [240 255 255]
  [255 253 255]]

 [[251 255 249]
  [252 255 250]
  [239 255 255]
  [ 19  63 112]
  [  3  63 136]
  [ 16  64 128]
  [240 255 255]
  [255 252 255]]

 [[249 255 253]
  [249 255 253]
  [240 255 255]
  [218 255 255]
  [  3  59 133]
  [ 17  62 121]
  [242 255 255]
  [255 252 255]]

 [[245 255 255]
  [245 255 255]
  [236 254 255]
  [220 255 255]
  [ 14  67 135]
  [ 19  59 111]
  [245 255 255]
  [255 253 250]]

 [[241 255 255]
  [ 46  58  74]
  [ 38  58  83]
  [ 21  61 110]
  [  9  60 123]
  [224 255 255]
  [246 255 255]
  [255 254 243]]]

这是一个示例数字

[  0.   0.   5.  13.   9.   1.   0.   0.   0.   0.  13.  15.  10.  15.   5.
   0.   0.   3.  15.   2.   0.  11.   8.   0.   0.   4.  12.   0.   0.   8.
   8.   0.   0.   5.   8.   0.   0.   9.   8.   0.   0.   4.  11.   0.   1.
  12.   7.   0.   0.   2.  14.   5.  10.  12.   0.   0.   0.   0.   6.  13.
  10.   0.   0.   0.]

正如您所看到的,不仅形状不同,特征值也不同,数据集中的样本仅包含 0 到 16 的整数,而我的具有 RGB 值。

那么我如何“规范化”我的数据以便能够在其上使用我的分类器?

【问题讨论】:

  • 进行灰度转换并离散化以获得所需的分辨率。原始 MNIST 虽然从二进制图像开始,但由于抗锯齿而获得了非二进制分辨率。前者是基本的图像处理。更重要的是:您是否裁剪和标准化尺寸(同时保持纵横比)?这非常重要,尤其是对于基于 SVM 的方法。有关 MNIST 数据的描述,请参阅 here。我使用了一个悲观的规则:人脸识别都是关于数据集的。这部分也适用于此。
  • 我实际上只是通过灰度 + 反转(都使用 PIL)获得了一些不错的输出。我开始使用自己绘制的 8x8 数字进行测试,现在我正在测试其他尺寸,因此我调整了原始图像的大小以使其适合 8x8 矩阵。由于调整大小,它混淆了一些数字。
  • 是的,听起来您正在更改比率。 8x8 也没有太多信息。反转与否不应该改变任何东西!并始终标准化您的输入!
  • 我是吗?我的“大”图像是 64x64.. 调整到 8x8 听起来不像是变化率
  • 但是你是怎么裁剪的?还是您在预先标记好的纸上写字?

标签: python machine-learning scikit-learn


【解决方案1】:

继续使用标准Recognizing hand-written digits 中的代码,我得到了如下所示的丑陋工作代码。 (希望得到别人的改进)

def rgb2gray(rgb): 返回 np.dot(rgb[...,:3], [0.299, 0.587, 0.114]) img = mpimg.imread('/code/4.png') 灰色 = rgb2gray(img) a=(16-gray*16).astype(int) # 这里真的很奇怪,但是尝试转换为 0..16 plt.imshow(a, cmap = plt.get_cmap('gray_r')) plt.show() print("源数据 8x8:\n",a) 预测 = 分类器.predict(a.flatten().reshape(1, -1)) 打印(预测)

查看结果

4.png

执行此操作的步骤

  • 为手写数字拍照(如示例中的4
  • 使用图片工具裁剪并调整为 8*8 为4.png
  • 在上面的代码中,转换为灰色并保存到数组中
  • 让原始代码预测这个新数字

【讨论】:

    【解决方案2】:

    拉里所做的另一种变体:

    img = imageio.imread(pic_path)
     # dirty hack to tranform into the format, sklearn needs it
    img = [16-int(round(jj/16)) for j in img for jj in j]
    
    predicted = classifier.predict(img)
    
    
    image = np.reshape(img, (8,8))
    plt.imshow(image, cmap=plt.cm.gray_r, interpolation='nearest')
    plt.axis('off')
    plt.show()
    
    print('Predicted: {0}'.format(predicted))
    

    【讨论】: