【问题标题】:saving the model standard out保存模型标准
【发布时间】:2019-07-21 22:13:53
【问题描述】:

我有一个模型需要几个小时来训练。这条线看起来像这样......

model.fit_generator(generator = generate_batch(X_train, y_train, batch_size = batch_size),
                    steps_per_epoch = train_samples//batch_size,
                    epochs=epochs,
                    validation_data = generate_batch(X_test, y_test, batch_size = batch_size),
                    validation_steps = val_samples//batch_size)

当我刷新笔记本时,它已停止显示进度。纪元 8/50 - 75/237 在过去几个小时内没有变化。内核已连接且忙。我怎么知道作业何时完成?

Epoch 1/50
237/237 [==============================] - 2730s 12s/step - loss: 6.6099 - acc: 0.1692 - val_loss: 5.9509 - val_acc: 0.1790
Epoch 2/50
237/237 [==============================] - 2953s 12s/step - loss: 5.7143 - acc: 0.1991 - val_loss: 5.5409 - val_acc: 0.2187
Epoch 3/50
237/237 [==============================] - 2895s 12s/step - loss: 5.3835 - acc: 0.2315 - val_loss: 5.3152 - val_acc: 0.2475
Epoch 4/50
237/237 [==============================] - 2858s 12s/step - loss: 4.6985 - acc: 0.2944 - val_loss: 4.7809 - val_acc: 0.3017
Epoch 8/50
 75/237 [========>.....................] - ETA: 32:28 - loss: 4.1200 - acc: 0.3638

1) 我不想使用 python 命令提示符。我想知道是否可以使用 Jupyter。

2) 如果我中断内核,我可以使用模型吗?我可以接受低准确度,因为我只是在测试脚本。

【问题讨论】:

  • 将进度保存到 CSV 文件是否足以完成您的任务?
  • 是的。那会做@SreeramTP
  • 你可以从 keras 看一下 CSVLogger

标签: tensorflow keras jupyter-notebook


【解决方案1】:

您可以使用 keras 的 CSVLogger 来实现此目的。

你可以找到更多关于它的信息here

一个演示使用示例如下所示

from keras.callbacks import CSVLogger

filename = 'training_log.csv'
logger = CSVLogger(filename, separator=',')

model.fit(X_train, Y_train, callbacks=[logger])

【讨论】:

    【解决方案2】:

    这可以通过将标准输出保存到文件来实现。

    import sys
    oldStdout = sys.stdout
    file = open('logFile', 'w')
    sys.stdout = file
    model.fit(Xtrain, Ytrain)
    sys.stdout = oldStdout
    

    来自: How to log Keras loss output to a file

    【讨论】:

    • 但这也将节省中间步骤,如果verbose1,会使文件变得一团糟
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2022-01-13
    • 1970-01-01
    相关资源
    最近更新 更多