【问题标题】:How to return history of validation loss in Keras如何在 Keras 中返回验证丢失的历史记录
【发布时间】:2016-08-25 11:11:39
【问题描述】:

使用 Anaconda Python 2.7 Windows 10。

我正在使用 Keras 示例训练语言模型:

print('Build model...')
model = Sequential()
model.add(GRU(512, return_sequences=True, input_shape=(maxlen, len(chars))))
model.add(Dropout(0.2))
model.add(GRU(512, return_sequences=False))
model.add(Dropout(0.2))
model.add(Dense(len(chars)))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy', optimizer='rmsprop')

def sample(a, temperature=1.0):
    # helper function to sample an index from a probability array
    a = np.log(a) / temperature
    a = np.exp(a) / np.sum(np.exp(a))
    return np.argmax(np.random.multinomial(1, a, 1))


# train the model, output generated text after each iteration
for iteration in range(1, 3):
    print()
    print('-' * 50)
    print('Iteration', iteration)
    model.fit(X, y, batch_size=128, nb_epoch=1)
    start_index = random.randint(0, len(text) - maxlen - 1)

    for diversity in [0.2, 0.5, 1.0, 1.2]:
        print()
        print('----- diversity:', diversity)

        generated = ''
        sentence = text[start_index: start_index + maxlen]
        generated += sentence
        print('----- Generating with seed: "' + sentence + '"')
        sys.stdout.write(generated)

        for i in range(400):
            x = np.zeros((1, maxlen, len(chars)))
            for t, char in enumerate(sentence):
                x[0, t, char_indices[char]] = 1.

            preds = model.predict(x, verbose=0)[0]
            next_index = sample(preds, diversity)
            next_char = indices_char[next_index]

            generated += next_char
            sentence = sentence[1:] + next_char

            sys.stdout.write(next_char)
            sys.stdout.flush()
        print()

根据 Keras 文档,model.fit 方法返回一个 History 回调,该回调具有一个包含连续损失列表和其他指标的 history 属性。

hist = model.fit(X, y, validation_split=0.2)
print(hist.history)

训练我的模型后,如果我运行 print(model.history) 我会收到错误:

 AttributeError: 'Sequential' object has no attribute 'history'

使用上述代码训练模型后,如何返回模型历史记录?

更新

问题是:

必须首先定义以下内容:

from keras.callbacks import History 
history = History()

必须调用回调选项

model.fit(X_train, Y_train, nb_epoch=5, batch_size=16, callbacks=[history])

但是现在如果我打印

print(history.History)

返回

{}

即使我运行了一个迭代。

【问题讨论】:

  • 您能否指定是从控制台运行此代码还是从命令行(或 IDE)运行脚本?训练后你可以访问 hist 变量吗?
  • 我在 Anaconda 上运行它。我找到了一个可以让我访问 hist 变量的解决方案。但它总是返回一个空的大括号。
  • 有没有办法在模型拟合后检索它。 IE。我训练了模型,但没有创建新变量model.fit()。我可以以某种方式获得损失历史还是必须重复整个训练过程

标签: python neural-network nlp deep-learning keras


【解决方案1】:

已经解决了。

损失只保存到历代的历史。我正在运行迭代,而不是使用 Keras 内置的 epochs 选项。

所以我现在没有进行 4 次迭代

model.fit(......, nb_epoch = 4)

现在它返回每个 epoch 运行的损失:

print(hist.history)
{'loss': [1.4358016599558268, 1.399221191623641, 1.381293383180471, 1.3758836857303727]}

【讨论】:

    【解决方案2】:

    只是一个开始的例子

    history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=0)
    

    你可以使用

    print(history.history.keys())
    

    列出历史中的所有数据。

    然后,你可以像这样打印验证损失的历史:

    print(history.history['val_loss'])
    

    【讨论】:

    • 当我这样做时,我只得到 'acc' 和 'loss',我没有看到 'val_loss'
    • @taga 如果你给模型一个训练集和一个验证集来学习,你会得到一个“train_loss”和一个“val_loss”:训练集将用于拟合模型,并且可以使用验证集,例如在每个 epoch 之后根据未见数据评估模型,如果验证损失停止减少,则停止拟合。
    【解决方案3】:

    下面的简单代码非常适合我:

        seqModel =model.fit(x_train, y_train,
              batch_size      = batch_size,
              epochs          = num_epochs,
              validation_data = (x_test, y_test),
              shuffle         = True,
              verbose=0, callbacks=[TQDMNotebookCallback()]) #for visualization
    

    确保将拟合函数分配给输出变量。然后你就可以很容易地访问那个变量了

    # visualizing losses and accuracy
    train_loss = seqModel.history['loss']
    val_loss   = seqModel.history['val_loss']
    train_acc  = seqModel.history['acc']
    val_acc    = seqModel.history['val_acc']
    xc         = range(num_epochs)
    
    plt.figure()
    plt.plot(xc, train_loss)
    plt.plot(xc, val_loss)
    

    希望这会有所帮助。 来源:https://keras.io/getting-started/faq/#how-can-i-record-the-training-validation-loss-accuracy-at-each-epoch

    【讨论】:

      【解决方案4】:

      具有“acc”、“loss”等历史记录的字典可用并保存在hist.history 变量中。

      【讨论】:

      • 如果我在控制台中输入“hist”,它只会给我运行此会话的代码。
      • 那么 hist.history 呢?
      • 嗨,Marcin,我解决了。问题是损失仅在我运行外部迭代时保存了多个时期。因此,每次迭代都会清除我的历史记录
      【解决方案5】:

      我还发现你可以使用verbose=2让keras打印出Losses:

      history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=2)
      

      这样会打印出漂亮的线条:

      Epoch 1/1
       - 5s - loss: 0.6046 - acc: 0.9999 - val_loss: 0.4403 - val_acc: 0.9999
      

      根据他们的documentation

      verbose: 0, 1, or 2. Verbosity mode. 0 = silent, 1 = progress bar, 2 = one line per epoch.
      

      【讨论】:

        【解决方案6】:

        为了直接绘制损失,以下工作:

        import matplotlib.pyplot as plt
        ...    
        model_ = model.fit(X, Y, epochs= ..., verbose=1 )
        plt.plot(list(model_.history.values())[0],'k-o')
        

        【讨论】:

          【解决方案7】:

          另一个选项是 CSVLogger:https://keras.io/callbacks/#csvlogger。 它创建一个 csv 文件,附加每个 epoch 的结果。即使你中断训练,你也能看到它是如何演变的。

          【讨论】:

            【解决方案8】:

            其实你也可以用迭代的方法来做。因为有时我们可能需要使用迭代方法而不是内置的 epochs 方法来可视化每次迭代后的训练结果。

            history = [] #Creating a empty list for holding the loss later
            for iteration in range(1, 3):
                print()
                print('-' * 50)
                print('Iteration', iteration)
                result = model.fit(X, y, batch_size=128, nb_epoch=1) #Obtaining the loss after each training
                history.append(result.history['loss']) #Now append the loss after the training to the list.
                start_index = random.randint(0, len(text) - maxlen - 1)
            print(history)
            

            这种方式可以让你在保持迭代方法的同时获得你想要的损失。

            【讨论】:

              【解决方案9】:

              感谢 Alloush,

              model.fit()中必须包含以下参数:

              validation_data = (x_test, y_test)
              

              如果未定义,val_accval_loss 将不会 存在于输出中。

              【讨论】:

              • 欢迎来到 SO!当你要回答一个已经有公认答案的老问题(这个问题超过 4 岁)时(这里就是这种情况),请问问自己:我真的有实质性的改进吗?如果没有,请考虑不要回答。
              • 尊敬的,@Timus,代码在 4 年内发生了显着变化,并且以前的解决方案可能在 2016 年运行良好,但不能保证在 2020 年在不同版本的 Tensorflow 上运行。因此,我认为,以适用于最新版本框架的方式回答一个老问题,实际上确实提供了实质性的改进。
              • @JohnnyUtah 我没有判断提供的解决方案,我从来没有想过投票(我不知道)!我只是想指出,答案实际上应该提供一些新的东西。
              【解决方案10】:

              像我这样仍然出错的人:

              model.fit_generator() 转换为model.fit()

              【讨论】:

                猜你喜欢
                • 2017-01-10
                • 1970-01-01
                • 1970-01-01
                • 2012-10-28
                • 1970-01-01
                • 1970-01-01
                • 1970-01-01
                • 2023-03-31
                • 2011-04-26
                相关资源
                最近更新 更多