【问题标题】:Visualize CNN layer or pooling layer in tflearn在 tflearn 中可视化 CNN 层或池化层
【发布时间】:2018-03-27 15:13:37
【问题描述】:

有什么方法可以在 tflearn 中训练甚至测试时可视化 CNN 或池化层的输出?我已经看到了 tensorflow 的可视化代码,但是由于涉及到 session 和 feeddict,所以我不断收到诸如“unhashable numpy.ndarray”之类的错误,但是我的图像尺寸是相同的,所以我决定询问是否有一种方法可以可视化输出任何层的。下面是我的 tflearn 层代码:-

X_train, X_test, y_train, y_test=cross_validation.train_test_split(data,labels,test_size=0.1)

    tf.reset_default_graph()
    convnet=input_data(shape=[None,50,50,3],name='input')
    convnet=conv_2d(convnet,32,5,activation='relu')
    convnet=max_pool_2d(convnet,5)
    convnet=conv_2d(convnet,64,5,activation='relu')
    convnet=max_pool_2d(convnet,5)

    convnet=conv_2d(convnet,32,5,activation='relu')
    convnet=max_pool_2d(convnet,5)

    convnet=fully_connected(convnet,128,activation='relu')
    convnet=dropout(convnet,0.4)
    convnet=fully_connected(convnet,6,activation='softmax')
    convnet=regression(convnet,optimizer='adam',learning_rate=0.005,loss='categorical_crossentropy',name='MyClassifier')
    model=tflearn.DNN(convnet,tensorboard_dir='log',tensorboard_verbose=0)
    model.fit(X_train,y_train, n_epoch=20,validation_set=(X_test,y_test), snapshot_step=20,show_metric=True,run_id='MyClassifier')
    print("Saving the model")
    model.save('model.tflearn')

如何在训练或测试正常工作时可视化任何层的输出?输出是指检测边缘或其他低级特征的失真图像。谢谢。

【问题讨论】:

  • 为什么不能设置tensorboard_verbose=3并通过张量板查看层的激活直方图有什么原因吗?
  • 抱歉,我不太了解 tensorboard_verbose=3,但无论如何我可以将它们提供给 plt 或任何其他图形函数,并且可以获得 CNN 用来进行预测的失真图像吗?
  • 好吧,我检查了它,甚至用它来测试加载的模型,它只是显示了曲线和所有内容,我是否必须用它再次训练模型才能看到输出?跨度>

标签: python visualization tflearn


【解决方案1】:

here 所述,您可以通过简单地定义一个将观察层作为输出的新模型来查看中间层产生的输出。 首先,声明您的原始模型(但保留对您要观察的中间层的引用):

convnet = input_data(shape=[None, 50, 50, 3], name='input')
convnet = conv_2d(convnet, 32, 5, activation='relu')
max_0 = max_pool_2d(convnet, 5)
convnet = conv_2d(max_0, 64, 5, activation='relu')
max_1 = max_pool_2d(convnet, 5)
...
convnet = regression(...)
model = tflearn.DNN(...)
model.fit(...)

现在只需为每一层创建一个模型并预测输入数据:

observed = [max_0, max_1, max_2]
observers = [tflearn.DNN(v, session=model.session) for v in observed]
outputs = [m.predict(X_test) for m in observers]
print([d.shape for d in outputs])

它为您的模型输出以下评估张量的形状:

[(2, 10, 10, 32), (2, 2, 2, 64), (2, 1, 1, 32)]

这样,您将能够在测试期间查看输出。至于训练,也许你可以使用回调?

class PlottingCallback(tflearn.callbacks.Callback):
    def __init__(self, model, x,
                 layers_to_observe=(),
                 kernels=10,
                 inputs=1):
        self.model = model
        self.x = x
        self.kernels = kernels
        self.inputs = inputs
        self.observers = [tflearn.DNN(l) for l in layers_to_observe]

    def on_epoch_end(self, training_state):
        outputs = [o.predict(self.x) for o in self.observers]

        for i in range(self.inputs):
            plt.figure(frameon=False)
            plt.subplots_adjust(wspace=0.1, hspace=0.1)
            ix = 1
            for o in outputs:
                for kernel in range(self.kernels):
                    plt.subplot(len(outputs), self.kernels, ix)
                    plt.imshow(o[i, :, :, kernel])
                    plt.axis('off')
                    ix += 1
            plt.savefig('outputs-for-image:%i-at-epoch:%i.png'
                        % (i, training_state.epoch))

model.fit(X_train, y_train,
          ...
          callbacks=[PlottingCallback(model, X_test, (max_0, max_1, max_2))])

这将在您的磁盘上保存与此类似的图像,在每个时期:

【讨论】:

  • 很好的解释,只是一个愚蠢的问题,当我得到张量的输出形状后,我该如何绘制它并查看。我不能在一个简单的 matplot 的 plt 函数上做到这一点,你能帮我吗?
  • 我在为训练“raise TypeError("'Tensor' object is not iterable.")做回调的时候也得到这个错误。”self.observers = [tflearn.DNN( l) for l in layers_to_observe]" 我只传递了 max_0 作为参数。
  • 您只需要选择一个图像和一个内核,然后使用plt.imshow(output[image, :, :, kernel) 绘制它。按照我在PlottingCallback 中编写的代码进行操作。至于您的错误,这是因为回调期望观察一个图层列表,而您只传递一个。请注意,(max_0)不是一个元素的元组,但(max_0,) 是。
  • 当我给它另一个 max_1 层时,上面提到的错误已经解决,现在我在回调函数的某个地方收到这个错误“TypeError:'NoneType' object is not callable”。
  • 我需要更多信息。这究竟是在哪里提出的?
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2017-04-04
  • 1970-01-01
  • 2019-08-15
  • 2017-04-02
  • 1970-01-01
  • 2017-11-08
  • 1970-01-01
相关资源
最近更新 更多