【问题标题】:Keras - negative cosine proximity lossKeras - 负余弦邻近损失
【发布时间】:2017-11-11 23:27:41
【问题描述】:

我在 Keras 中有小型神经网络:

contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1)
model = Sequential()
model.add(LSTM(input_shape=contextTrain.shape[1:], return_sequences=True, units=300, activation="sigmoid", kernel_initializer="glorot_normal", recurrent_initializer="glorot_normal"))
model.add(LSTM(return_sequences=True, units=300, activation="sigmoid", kernel_initializer="glorot_normal", recurrent_initializer="glorot_normal"))
model.compile(loss="cosine_proximity", optimizer="adam", metrics=["accuracy"])
model.fit(contextTrain, utteranceTrain, epochs=5000, validation_data=(contextTest, utteranceTest), callbacks=[ModelCheckpoint("model{epoch:02d}.h5", monitor='val_acc', save_best_only=True, mode='max')])

上下文和话语是具有形状的 numpy 数组,例如(100、15、300)。第一个 LSTM 的 Input_shape 应该是 (15, 300)。

我不知道发生了什么,但它在训练期间突然打印出负损失和 val_loss。它过去通常为正值(大约 0.18 左右)。

Train on 90 samples, validate on 10 samples

Epoch 1/5000 90/90 [==============================] - 5s 52ms/step - loss: -0.4729 - acc: 0.0059 - val_loss: -0.4405 - val_acc: 0.0133

Epoch 2/5000 90/90 [==============================] - 2s 18ms/step - loss: -0.5091 - acc: 0.0089 - val_loss: -0.4658 - val_acc: 0.0133

Epoch 3/5000 90/90 [==============================] - 2s 18ms/step - loss: -0.5204 - acc: 0.0170 - val_loss: -0.4829 - val_acc: 0.0200

Epoch 4/5000 90/90 [==============================] - 2s 20ms/step - loss: -0.5296 - acc: 0.0244 - val_loss: -0.4949 - val_acc: 0.0333

Epoch 5/5000 90/90 [==============================] - 2s 20ms/step - loss: -0.5370 - acc: 0.0422 - val_loss: -0.5021 - val_acc: 0.0400

这是什么意思?可能的原因是什么?

【问题讨论】:

    标签: python machine-learning keras neural-network loss


    【解决方案1】:

    你的损失函数cosine_proximity确实可以取负值;根据 Keras 的创建者 Francois Chollet 的说法,它通常是负面的 (Github comment):

    损失只是一个你试图最小化的标量。它不是 应该是正面的!例如,余弦邻近损失将 通常是负面的(试图通过 最小化负标量)。

    这里是another example,使用余弦接近度,其中的值也是负数。

    【讨论】:

      猜你喜欢
      • 2019-02-26
      • 2017-06-25
      • 1970-01-01
      • 2020-11-08
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2017-06-06
      相关资源
      最近更新 更多