【发布时间】:2020-02-21 02:51:15
【问题描述】:
我正在尝试为我的文本分类模型添加一个注意力层。输入是文本(例如电影评论),输出是二元结果(例如正面与负面)。
model = Sequential()
model.add(Embedding(max_features, 32, input_length=maxlen))
model.add(Bidirectional(CuDNNGRU(16,return_sequences=True)))
##### add attention layer here #####
model.add(Dense(1, activation='sigmoid'))
经过一番搜索,我发现了一些用于 keras 的即读即用的注意力层。 Keras 中内置了keras.layers.Attention 层。 keras-self-attention 包中还有SeqWeightedAttention 和SeqSelfAttention layer。作为一个对深度学习领域比较陌生的人,我很难理解这些层背后的机制。
这些布局中的每一个都有什么作用?哪一个最适合我的模型?
非常感谢!
【问题讨论】:
标签: tensorflow keras recurrent-neural-network attention-model