【问题标题】:why seq2seq model return negative loss if I used a pre-trained embedding model如果我使用预训练的嵌入模型,为什么 seq2seq 模型会返回负损失
【发布时间】:2020-10-15 20:08:52
【问题描述】:

我正在按照此示例代码使用 keras 构建 seq2seq 模型。 https://github.com/keras-team/keras/blob/master/examples/lstm_seq2seq.py

当我训练该代码时,它可以正常工作并且结果很好。但是当我尝试使用预训练的嵌入模型对其进行训练时,损失和交叉熵总是得到负值。

我尝试仅使用包含 5 个示例的数据集来使模型过拟合,以确保其正常工作,但损失和交叉熵仍然为负。

我使用 FastText 嵌入模型,这里是加载带有嵌入向量的数据集的代码:

    encoder_input_data = np.zeros(
        (input_texts_len, max_encoder_seq_length,vector_length),
        dtype='float32')
    decoder_input_data = np.zeros(
        (input_texts_len, max_decoder_seq_length,vector_length),
        dtype='float32')
    decoder_target_data = np.zeros(
        (input_texts_len, max_decoder_seq_length,vector_length),
        dtype='float32')
    padding = np.zeros((vector_length),dtype='float32')
    for i, (input_text, target_text) in enumerate(zip(input_texts, target_texts)):
        for t, word in enumerate(input_text):
                encoder_input_data[i, t] = w2v.get_vector(word)
        encoder_input_data[i, t + 1:] = padding
    
        for t, word in enumerate(target_text):
                decoder_input_data[i, t] = w2v.get_vector(word)
            if t > 0:
                decoder_target_data[i, t - 1] = w2v.get_vector(word)
                
        decoder_input_data[i, t + 1:] = padding
        decoder_target_data[i, t] = padding

这是模型代码本身:

    encoder_inputs = Input(shape=(max_encoder_seq_length,vec_leng,))
    x = Masking(mask_value=0.0)(encoder_inputs)
    encoder = LSTM(latent_dim,name='lstm_1')
    
    encoder_outputs, state_h, state_c = encoder(x)
    encoder_states = [state_h, state_c]
    decoder_inputs = Input(shape=(max_decoder_seq_length,vec_leng,))
    a = Masking(mask_value=0.0) (decoder_inputs)
    decoder_lstm = LSTM(latent_dim,name='decoder_lstm')
    decoder_outputs, _, _ = decoder_lstm(a, initial_state=encoder_states)
    # Attention layer
    attn_layer = AttentionLayer(name='attention_layer')
    attn_out, attn_states = attn_layer([encoder_outputs, decoder_outputs])

    decoder_concat_input = Concatenate(axis=-1)([decoder_outputs, attn_out])
    decoder_dense = Dense(vec_leng, activation='softmax')
    dense_time = TimeDistributed(decoder_dense, name='time_distributed_layer')
    decoder_pred = dense_time(decoder_concat_input)

    model = Model(inputs=[encoder_inputs, decoder_inputs], outputs=decoder_pred, name='main_model')
    encoder_model = Model(inputs=encoder_inputs, outputs=[encoder_outputs, state_h, encoder_states], name='encoder_model')

    decoder_state_input_h = Input(shape=(latent_dim,))
    decoder_state_input_c = Input(shape=(latent_dim,))
    encoder_states_ = Input(batch_shape=(1,max_encoder_seq_length, latent_dim))

    decoder_states_inputs = [decoder_state_input_h, decoder_state_input_c]
    a = Input(shape=(max_decoder_seq_length,vec_leng,))
    decoder_outputs, state_h, state_c = decoder_lstm(a, initial_state=decoder_states_inputs)
    decoder_states = [state_h, state_c]

    attn_inf_out, attn_inf_states = attn_layer([encoder_states_, decoder_outputs])
    decoder_inf_concat = Concatenate(axis=-1)([decoder_outputs, attn_inf_out])
    decoder_inf_pred = TimeDistributed(decoder_dense)(decoder_inf_concat)

    decoder_model = Model(
        [encoder_states_, decoder_states_inputs, a],
        [decoder_inf_pred, attn_inf_states, decoder_states], name='decoder_model')

这里是训练图:

我得到这些负值的原因是什么?以及如何解决?

【问题讨论】:

  • 你的目标数据是 one_hot 编码的吗?
  • 是的,可以看到,shape是(input_texts_len, max_decoder_seq_length,vector_length) input_texts_len:我在数据集中的例子个数 max_decoder_seq_length:每个句子序列的长度 vector_length:嵌入向量每个字
  • 还是应该是 4-d 形状?
  • 重点是,如果我没有为每个单词使用嵌入向量,而我使用的是普通嵌入层,我会使用最后一个向量作为一个热编码器,并将 1 设置为确切的单词,也就是零,对吧?
  • 是的,您应该列出 fasttext 中的所有词汇并从中创建 one_hot 向量。大量单词会影响您的训练。如果可能,您可以选择字符级而不是单词级。

标签: tensorflow keras embedding fasttext seq2seq


【解决方案1】:

您得到负损失值是因为您的目标向量元素不正确,您的 one_hot 目标向量元素必须是 1 或 0 整数。

【讨论】:

  • 但是损失应该忽略符号,它应该累积差异而不考虑符号
  • 损失函数期望标签值为0或1,我不检查它的内部实现。你可以自己做,但是负损失的原因是错误的值标签。
猜你喜欢
  • 2020-11-08
  • 1970-01-01
  • 2017-08-19
  • 1970-01-01
  • 2019-10-20
  • 2021-06-16
  • 2017-10-29
  • 1970-01-01
  • 2020-12-11
相关资源
最近更新 更多