【问题标题】:Keras custom layer functionKeras 自定义图层功能
【发布时间】:2020-11-25 09:33:30
【问题描述】:

我在以下链接中关注 Keras 中的自我关注:How to add attention layer to a Bi-LSTM

我是python新手,self.add_weight中的shape=(input_shape[-1],1)和bias中的shape=(input_shape[1],1)是什么意思?

【问题讨论】:

    标签: keras nlp


    【解决方案1】:

    shape 参数设置模型将被馈送的预期输入尺寸。在您的情况下,它只是权重层的输入形状的最后一个维度和偏置层的输入形状的第二个维度。

    神经网络接受固定大小的输入,因此在构建模型时,对每一层的输入维度进行硬编码非常重要。

    【讨论】:

    • 谢谢,但是为什么偏置层的输入形状的第二维。?
    • 只是因为偏置层的维度与权重层的输出相同。想想 softmax(WX + b)
    猜你喜欢
    • 2021-03-12
    • 1970-01-01
    • 2023-03-10
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多