【问题标题】:Autoencoder , steps_per_epoch,What value should it contain?Autoencoder,steps_per_epoch,应该包含什么值?
【发布时间】:2019-02-02 15:39:18
【问题描述】:

我正在尝试使用我自己的数据集创建一个堆叠的自动编码器,一切都很好,当我尝试使用 tensorboard 绘制曲线时,我得到了这个标量:

如果不是 X_train.shape[0],我认为错误在 steps_per_epoch 中,那么它包含什么:

autoencoder.fit_generator(generated_data.flow(X_train, X_train, batch_size=batch_size), steps_per_epoch=X_train.shape[0], epochs=epochs, validation_data=(X_test, X_test), callbacks=[TensorBoard(log_dir='/tmp/autoencoder')])

另外,我该如何添加 Accuarcy ?

【问题讨论】:

  • 你能把代码贴在你写摘要的地方吗?
  • @gorjan 感谢您的回复,我编辑了我的代码

标签: python tensorflow keras tensorboard autoencoder


【解决方案1】:

来自fit_generator的文档

steps_per_epoch:整数。步骤总数(样本批次) 在宣布一个纪元完成之前从生成器中产生,并且 开始下一个纪元。它通常应该等于 数据集的样本除以批量大小。可选 序列:如果未指定,将使用 len(generator) 作为数字 步骤。

所以你应该设置它大致等于X_train.shape[0]/batch_size

要监控准确性,请使用

autoencoder.compile(optimizer='rmsprop', loss='mse', metrics=['mse', 'accuracy'])

【讨论】:

  • 非常感谢,这正是我想要的。
  • 图表问题出在回调=[TensorBoard(log_dir='/tmp/autoencoder')] 我有两个调用相同 log_dir 的代码
猜你喜欢
  • 2011-08-18
  • 2012-05-26
  • 2015-09-13
  • 1970-01-01
  • 1970-01-01
  • 2018-12-29
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多