【发布时间】:2019-09-07 10:45:56
【问题描述】:
在https://keras.io/layers/recurrent/ 上,我看到LSTM 层有一个kernel 和一个recurrent_kernel。它们的意义是什么?据我了解,我们需要 LSTM 单元的 4 个门的权重。然而,在 keras 实现中,kernel 的形状为 (input_dim, 4*units),recurrent_kernel 的形状为 (units, 4*units)。那么,他们俩都以某种方式实现了门吗?
【问题讨论】:
标签: keras neural-network lstm