【发布时间】:2017-05-04 10:21:15
【问题描述】:
您好,我不了解 keras fit_generator 文档。
我希望我的困惑是理性的。
有batch_size,还有分批训练的概念。使用model_fit(),我指定batch_size 为128。
对我来说,这意味着我的数据集将一次输入 128 个样本,从而大大减轻了内存。只要我有时间等待,它就应该允许训练 1 亿个样本数据集。毕竟,keras 一次只能“处理”128 个样本。对吧?
但我高度怀疑单独指定 batch_size 并不能满足我的任何要求。大量内存仍在使用中。为了我的目标,我需要分批训练 128 个示例。
所以我猜这就是fit_generator 所做的。我真的很想问为什么batch_size 不像它的名字所暗示的那样实际工作?
更重要的是,如果需要fit_generator,我在哪里指定batch_size?文档说无限循环。
生成器对每一行循环一次。如何一次循环超过 128 个样本并记住我上次停止的位置并在下次 keras 要求下一批的起始行号时回忆它(在第一批完成后将是第 129 行)。
【问题讨论】:
标签: tensorflow keras