【发布时间】:2018-01-05 16:48:16
【问题描述】:
我有一个已经训练了 40 个 epoch 的模型。我为每个时期保留了检查点,并且我还使用model.save() 保存了模型。训练代码为:
n_units = 1000
model = Sequential()
model.add(LSTM(n_units, input_shape=(None, vec_size), return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(n_units, return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(n_units))
model.add(Dropout(0.2))
model.add(Dense(vec_size, activation='linear'))
model.compile(loss='mean_squared_error', optimizer='adam')
# define the checkpoint
filepath="word2vec-{epoch:02d}-{loss:.4f}.hdf5"
checkpoint = ModelCheckpoint(filepath, monitor='loss', verbose=1, save_best_only=True, mode='min')
callbacks_list = [checkpoint]
# fit the model
model.fit(x, y, epochs=40, batch_size=50, callbacks=callbacks_list)
但是,当我加载模型并尝试再次对其进行训练时,它会重新开始,就好像它之前没有进行过训练一样。损失不是从上次训练开始的。
让我困惑的是,当我加载模型并重新定义模型结构并使用load_weight,model.predict() 效果很好。因此,我相信模型权重已加载:
model = Sequential()
model.add(LSTM(n_units, input_shape=(None, vec_size), return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(n_units, return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(n_units))
model.add(Dropout(0.2))
model.add(Dense(vec_size, activation='linear'))
filename = "word2vec-39-0.0027.hdf5"
model.load_weights(filename)
model.compile(loss='mean_squared_error', optimizer='adam')
但是,当我继续训练时,损失与初始阶段一样高:
filepath="word2vec-{epoch:02d}-{loss:.4f}.hdf5"
checkpoint = ModelCheckpoint(filepath, monitor='loss', verbose=1, save_best_only=True, mode='min')
callbacks_list = [checkpoint]
# fit the model
model.fit(x, y, epochs=40, batch_size=50, callbacks=callbacks_list)
我搜索并找到了一些保存和加载模型的示例here 和here。但是,它们都不起作用。
更新 1
我查看了this question,试了一下,效果不错:
model.save('partly_trained.h5')
del model
load_model('partly_trained.h5')
但是当我关闭 Python 并重新打开它,然后再次运行 load_model 时,它失败了。损失与初始状态一样高。
更新 2
我试过Yu-Yang's example code 并且它有效。但是,当我再次使用我的代码时,它仍然失败。
这是原始训练的结果。第二个 epoch 应该从 loss = 3.1*** 开始:
13700/13846 [============================>.] - ETA: 0s - loss: 3.0519
13750/13846 [============================>.] - ETA: 0s - loss: 3.0511
13800/13846 [============================>.] - ETA: 0s - loss: 3.0512Epoch 00000: loss improved from inf to 3.05101, saving model to LPT-00-3.0510.h5
13846/13846 [==============================] - 81s - loss: 3.0510
Epoch 2/60
50/13846 [..............................] - ETA: 80s - loss: 3.1754
100/13846 [..............................] - ETA: 78s - loss: 3.1174
150/13846 [..............................] - ETA: 78s - loss: 3.0745
我关闭 Python,重新打开它,使用 model = load_model("LPT-00-3.0510.h5") 加载模型,然后使用:
filepath="LPT-{epoch:02d}-{loss:.4f}.h5"
checkpoint = ModelCheckpoint(filepath, monitor='loss', verbose=1, save_best_only=True, mode='min')
callbacks_list = [checkpoint]
# fit the model
model.fit(x, y, epochs=60, batch_size=50, callbacks=callbacks_list)
损失从4.54开始:
Epoch 1/60
50/13846 [..............................] - ETA: 162s - loss: 4.5451
100/13846 [..............................] - ETA: 113s - loss: 4.3835
【问题讨论】:
-
您在
load_model()之后拨打了model.compile(optimizer='adam')吗?如果是这样,请不要这样做。使用选项optimizer='adam'重新编译模型会重置优化器的内部状态(实际上是创建了一个新的Adam优化器实例) -
感谢您的回答。但是不,我没有再打电话给
model.compile。重新打开python后我所做的只是model = load_model('partly_trained.h5')和model.fit(x, y, epochs=20, batch_size=100) -
我也尝试重新定义模型结构和
model.load_weight('checkpoint.hff5')和model.compile(loss='categorical_crossentropy')。但它给出了一个错误,说必须给出优化器。