【问题标题】:Multi-layered bidirectional_dynamic_rnn: incompatible with MultiRNNCell?多层bidirectional_dynamic_rnn:与MultiRNNCell不兼容?
【发布时间】:2017-03-08 00:10:55
【问题描述】:

我想在 Tensorflow 中创建一个多层双向 LSTM。目前我的单层模型如下所示:

cell_fw = tf.contrib.rnn.LSTMCell(hidden_size)
cell_bw = tf.contrib.rnn.LSTMCell(hidden_size)

(self.out_fw, self.out_bw), _ = tf.nn.bidirectional_dynamic_rnn(cell_fw, cell_bw, input, ...)

为了把它变成一个多层,我怀疑我可以像这样简单地用MultiRNNCells 包装几个LSTMCells:

multi_cell_fw = tf.contrib.rnn.MultiRNNCell([cell_fw] * num_layers, ...)

并将它们输入bidirectional_dynamic_rnn,因为每一层的前向和后向 LSTM 都需要前一层的前向和后向输出。目前我的解决方案是在循环中创建我的bidirectional_dynamic_rnns,并输入前面层的 LSTM 的连接输出。

但是,它不是很干净,坦率地说,我不确定它是否正确,尽管它确实适用于玩具数据集。有没有比使用MultiRNNCell 更优雅的更好方法?

我正在使用 Tensorflow API r1.0。

【问题讨论】:

  • 我的处境和你一样。根据你之前的经验得出什么结论?
  • 我只是坚持我的解决方案,使用循环来创建图层。它有效,但并不像人们希望的那样优雅。

标签: python machine-learning tensorflow


【解决方案1】:

只要做:

multi_cell_fw = tf.contrib.rnn.MultiRNNCell([cell_fw for _ in range(num_layers)], ...)

应该可以的。

【讨论】:

    猜你喜欢
    • 2020-11-14
    • 2021-05-06
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2022-08-23
    • 2020-10-25
    相关资源
    最近更新 更多