【发布时间】:2017-09-13 10:45:04
【问题描述】:
我被这个问题迷惑了好几天...
我的问题是,为什么训练时间与我将生成器的 batch_size 设置为“1”和“20”之间存在如此大的差异。
如果我将 batch_size 设置为 1,1 epoch的训练时间 大约是 180 ~ 200 秒。 如果我将batch_size设置为20,1个epoch的训练时间约为3000~ 3200 秒。
但是,这些训练时间之间的这种可怕差异似乎是不正常的......,因为它应该是相反的结果: batch_size = 1,训练时间 -> 3000 ~ 3200 秒。 batch_size = 20, 训练时间 -> 180 ~ 200 sec.
我的生成器的输入不是文件路径,而是已经加载到 通过调用“np.load()”来存储内存。 所以我认为不存在 I/O 权衡问题。
我使用的是 Keras-2.0.3,我的后端是 tensorflow-gpu 1.0.1
我看到了这个合并PR的更新, 但似乎这种变化根本不会影响任何事情。 (用法和原来一样)
这里的link是我的自定义生成器的要点,也是我的fit_generator的一部分。
【问题讨论】:
标签: keras