【问题标题】:what does the optional argument "constants" do in the keras recurrent layers?keras 循环层中的可选参数“常量”有什么作用?
【发布时间】:2018-05-08 07:32:28
【问题描述】:

我正在学习使用 keras 构建自定义的序列到序列模型,并且一直在阅读其他人编写的一些代码,例如 here。我对有关常量的调用方法感到困惑。有 keras "Note on passing external constants to RNNs",但是我无法理解常量对模型的作用。

我确实浏览了attention modelpointer network 的论文,但也许我错过了一些东西。

任何对建模细节的参考将不胜感激!提前致谢。

【问题讨论】:

    标签: python keras rnn


    【解决方案1】:

    好的,作为参考,以防其他人偶然发现这个问题:我浏览了recurrent.py 文件中的代码,我认为get_constants 正在获取dropout 掩码和recurrent dropout 掩码,然后将其与[ h,c] 状态(LSTM step 方法中需要这四个元素的顺序)。之后,原始 LSTM 单元不再重要,但您可以添加自己的“常量”(在某种意义上它不会被学习)以从一个时间步传递到下一个时间步。所有常量都将隐式添加到返回的 [h,c] 状态。在Keon's example中,返回状态的第五个位置是输入序列,在每个时间步都可以通过调用states[-1]来引用。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2020-11-17
      • 2019-08-09
      • 2018-04-28
      • 2015-11-02
      • 1970-01-01
      • 2022-10-24
      • 2019-12-03
      相关资源
      最近更新 更多