【问题标题】:Saving best model in keras在 keras 中保存最佳模型
【发布时间】:2018-06-25 09:22:46
【问题描述】:

我在 keras 中训练模型时使用以下代码

from keras.callbacks import EarlyStopping

model = Sequential()
model.add(Dense(100, activation='relu', input_shape = input_shape))
model.add(Dense(1))

model_2.compile(optimizer='adam', loss='mean_squared_error', metrics=['accuracy'])


model.fit(X, y, epochs=15, validation_split=0.4, callbacks=[early_stopping_monitor], verbose=False)

model.predict(X_test)

但最近我想获得最好的训练模型,因为我正在训练的数据在“高 val_loss vs epochs”图中给出了很多峰值,我想使用模型中最好的模型。

有什么方法或功能可以帮助解决这个问题吗?

【问题讨论】:

    标签: python keras deep-learning neural-network


    【解决方案1】:

    EarlyStoppingModelCheckpoint 是您需要的 Keras 文档。

    您应该在 ModelCheckpoint 中设置save_best_only=True。如果需要任何其他调整,都是微不足道的。

    只是为了帮助您更多,您可以查看here on Kaggle的用法。


    如果上面的 Kaggle 示例链接不可用,请在此处添加代码:

    model = getModel()
    model.summary()
    
    batch_size = 32
    
    earlyStopping = EarlyStopping(monitor='val_loss', patience=10, verbose=0, mode='min')
    mcp_save = ModelCheckpoint('.mdl_wts.hdf5', save_best_only=True, monitor='val_loss', mode='min')
    reduce_lr_loss = ReduceLROnPlateau(monitor='val_loss', factor=0.1, patience=7, verbose=1, epsilon=1e-4, mode='min')
    
    model.fit(Xtr_more, Ytr_more, batch_size=batch_size, epochs=50, verbose=0, callbacks=[earlyStopping, mcp_save, reduce_lr_loss], validation_split=0.25)
    

    【讨论】:

    【解决方案2】:

    EarlyStoppingrestore_best_weights 参数可以解决问题:

    restore_best_weights:是否从监测量的最佳值的epoch恢复模型权重。如果为False,则使用训练最后一步得到的模型权重。

    所以不确定您的early_stopping_monitor 是如何定义的,但是使用所有默认设置并看到您已经导入了EarlyStopping,您可以这样做:

    early_stopping_monitor = EarlyStopping(
        monitor='val_loss',
        min_delta=0,
        patience=0,
        verbose=0,
        mode='auto',
        baseline=None,
        restore_best_weights=True
    )
    

    然后就像你已经做的那样,用callbacks=[early_stopping_monitor] 打电话给model.fit()

    【讨论】:

    • 这是正确的答案。其他答案票数较多的原因,可能是因为restore_best_weights已经在2018年10月发布的Keras 2.2.3中引入,即在this answer之后。
    • Man...Keras 只是简单了!
    • 当它没有设法提前停止但完成所有时期时,它是否仍会恢复最佳权重
    【解决方案3】:

    我猜model_2.compile 是一个错字。 如果您想将最佳模型 w.r.t 保存到 val_losses,这应该会有所帮助 -

    checkpoint = ModelCheckpoint('model-{epoch:03d}-{acc:03f}-{val_acc:03f}.h5', verbose=1, monitor='val_loss',save_best_only=True, mode='auto')  
    
    model.compile(optimizer='adam', loss='mean_squared_error', metrics=['accuracy'])
    
    model.fit(X, y, epochs=15, validation_split=0.4, callbacks=[checkpoint], verbose=False)
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2019-08-04
      • 2018-08-19
      • 1970-01-01
      • 2018-08-02
      • 2019-06-13
      相关资源
      最近更新 更多