【发布时间】:2018-04-20 21:57:17
【问题描述】:
根据this的文章,我写了这个模型:
enc_in=Input(shape=(None,in_alphabet_len))
lstm=LSTM(lstm_dim,return_sequences=True,return_state=True,use_bias=False)
enc_out,h,c=lstm(enc_in)
dec_in=Input(shape=(None,in_alphabet_len))
decoder,_,_=LSTM(decoder_dim,return_sequences=True,return_state=True)(dec_in,initial_state=[h,c])
decoder=Dense(units=in_alphabet_len,activation='softmax')(decoder)
model=Model([enc_in,dec_in],decoder)
如何在解码器之前为这个模型添加注意力层?
【问题讨论】:
-
这里有一个简单的方法来增加关注:stackoverflow.com/a/62949137/10375049
标签: nlp deep-learning keras lstm attention-model