【发布时间】:2020-11-25 09:33:30
【问题描述】:
我在以下链接中关注 Keras 中的自我关注:How to add attention layer to a Bi-LSTM
我是python新手,self.add_weight中的shape=(input_shape[-1],1)和bias中的shape=(input_shape[1],1)是什么意思?
【问题讨论】:
我在以下链接中关注 Keras 中的自我关注:How to add attention layer to a Bi-LSTM
我是python新手,self.add_weight中的shape=(input_shape[-1],1)和bias中的shape=(input_shape[1],1)是什么意思?
【问题讨论】:
shape 参数设置模型将被馈送的预期输入尺寸。在您的情况下,它只是权重层的输入形状的最后一个维度和偏置层的输入形状的第二个维度。
神经网络接受固定大小的输入,因此在构建模型时,对每一层的输入维度进行硬编码非常重要。
【讨论】: