【发布时间】:2019-02-27 09:45:24
【问题描述】:
我的 X_test 是 128x128x3 图像,我的 Y_test 是 512x512x3 图像。我想在每个 epoch 之后展示输入 (X_test) 的外观,预期输出 (Y_test) 的外观,以及实际输出的外观。到目前为止,我只知道如何在 Tensorboard 中添加前 2 个。这是调用回调的代码:
model.fit(X_train,
Y_train,
epochs=epochs,
verbose=2,
shuffle=False,
validation_data=(X_test, Y_test),
batch_size=batch_size,
callbacks=get_callbacks())
这是回调的代码:
import tensorflow as tf
from keras.callbacks import Callback
from keras.callbacks import TensorBoard
import io
from PIL import Image
from constants import batch_size
def get_callbacks():
tbCallBack = TensorBoard(log_dir='./logs',
histogram_freq=1,
write_graph=True,
write_images=True,
write_grads=True,
batch_size=batch_size)
tbi_callback = TensorBoardImage('Image test')
return [tbCallBack, tbi_callback]
def make_image(tensor):
"""
Convert an numpy representation image to Image protobuf.
Copied from https://github.com/lanpa/tensorboard-pytorch/
"""
height, width, channel = tensor.shape
print(tensor)
image = Image.fromarray(tensor.astype('uint8')) # TODO: maybe float ?
output = io.BytesIO()
image.save(output, format='JPEG')
image_string = output.getvalue()
output.close()
return tf.Summary.Image(height=height,
width=width,
colorspace=channel,
encoded_image_string=image_string)
class TensorBoardImage(Callback):
def __init__(self, tag):
super().__init__()
self.tag = tag
def on_epoch_end(self, epoch, logs={}):
# Load image
img_input = self.validation_data[0][0] # X_train
img_valid = self.validation_data[1][0] # Y_train
print(self.validation_data[0].shape) # (8, 128, 128, 3)
print(self.validation_data[1].shape) # (8, 512, 512, 3)
image = make_image(img_input)
summary = tf.Summary(value=[tf.Summary.Value(tag=self.tag, image=image)])
writer = tf.summary.FileWriter('./logs')
writer.add_summary(summary, epoch)
writer.close()
image = make_image(img_valid)
summary = tf.Summary(value=[tf.Summary.Value(tag=self.tag, image=image)])
writer = tf.summary.FileWriter('./logs')
writer.add_summary(summary, epoch)
writer.close()
return
我想知道在哪里/如何获得网络的实际输出。
我遇到的另一个问题是,这里是正在移植到 TensorBoard 中的其中一个图像的示例:
[[[0.10909907 0.09341043 0.08224604]
[0.11599099 0.09922747 0.09138277]
[0.15596421 0.13087936 0.11472746]
...
[0.87589591 0.72773653 0.69428956]
[0.87006552 0.7218123 0.68836991]
[0.87054225 0.72794635 0.6967475 ]]
...
[[0.26142332 0.16216267 0.10314116]
[0.31526875 0.18743924 0.12351286]
[0.5499796 0.35461449 0.24772873]
...
[0.80937942 0.62956016 0.53784871]
[0.80906054 0.62843601 0.5368183 ]
[0.81046278 0.62453899 0.53849678]]]
这就是我的image = Image.fromarray(tensor.astype('uint8')) 行生成的图像与实际输出完全不同的原因吗?以下是 TensorBoard 的示例:
我确实尝试了.astype('float64'),但它引发了错误,因为它显然不是受支持的类型。
无论如何,我不确定这是否真的是问题,因为我在 TensorBoard 中显示的其余图像都只是白色/灰色/黑色方块(就在那儿,conv2D_7,实际上是最后一层我的网络,因此应该显示输出的实际图像,不是吗?):
最终,我想要这样的东西,我已经在通过 matplot 训练后展示了它:
最后,我想说明这个回调需要很长时间才能处理的事实。有没有更有效的方法来做到这一点?它几乎使我的训练时间翻了一番(可能是因为它需要先将 numpy 转换为图像,然后再将它们保存到 TensorBoard 日志文件中)。
【问题讨论】:
-
我遇到了同样的问题,你能解决这个问题吗?
-
很遗憾,没有,我只是决定删除回调,因为无论如何处理时间太长了。我最新的猜测是 Tensorboard 期望的范围是 0 到 256,但我发送的是 0 到 1。
-
亲爱的,您显示的图像是显示为图像的权重(write_images=True 将权重保存为图像,谷歌旁观者并观看其视频)。不是卷积的输出。接下来,您的回调应该具有模型的句柄,并且您需要对验证图像的子集(1,2 个批次应该为您提供足够的图像)进行前向传递以获得结果。接下来,您需要对获得的图像进行非规范化(添加均值、乘以 stddev 等),然后缩放到 0、255
-
@payne 还没有,但我会为您的问题添加书签并在完成后发布。
-
@saurabheights MVP 就在那里。我今天刚完成学士学位,但我们还有两个任务要做。我猜我会在一周内调查您的解决方案。非常感谢!
标签: python tensorflow keras tensorboard