【发布时间】:2017-11-10 19:21:00
【问题描述】:
我在 Keras 中有一个模型,由于数据集很大,我使用生成器批量加载它。所以训练例程被封装在一个for循环中:
from keras.callbacks import History
history = History()
for epoch in xrange(100):
x_train,y_train=load_data_generator()
model.fit(x_train, y_train, nb_epoch=1, batch_size=1000, verbose=2, validation_data=(x_test, y_test), callbacks=[history])
理想情况下,我希望了解整个训练循环的历史记录。但是,keras 似乎会用当前批次覆盖每个循环期间的历史记录。
问题 1)如何轻松连接所有时代的历史?换句话说,诱使它从先前历史中中断的地方恢复。
问题 2)每次 keras 完成一个 epoch 时,它都会打印 epoch 的编号。由于我是分批训练的,有没有一种简单的方法来更新时代?我已经看到了拟合例程的“initial_epoch”参数,但听起来这会恢复到之前的纪元。
【问题讨论】: