【发布时间】:2016-12-20 17:09:37
【问题描述】:
“动态展开 RNN”是什么意思。我已经在 Tensorflow 源代码中看到了这一点,但我正在寻找一种普遍适用于 RNN 的概念解释。
在tensorflowrnn方法中,有记载:
如果提供
sequence_length向量,动态计算是 执行。这种计算方法不计算 RNN 步骤 超过 minibatch 的最大序列长度(从而节省 计算时间),
但在dynamic_rnn 方法中提到:
参数
sequence_length是可选的,用于 通过批处理元素时的复制状态和零输出 序列长度。所以它更多的是为了正确性而不是性能, 不像rnn()。
那么这是否意味着rnn 对于可变长度序列的性能更高? dynamic_rnn 和 rnn 的概念区别是什么?
【问题讨论】:
-
+1 我还想知道
dynamic_rnn是否在非动态对应物上引入了任何近似值。换句话说,在学术环境中,我们可以依靠例如BasicLSTMCell+dynamic_rnn与参考 LSTM 执行相同,还是需要考虑任何权衡?