【发布时间】:2017-03-08 00:10:55
【问题描述】:
我想在 Tensorflow 中创建一个多层双向 LSTM。目前我的单层模型如下所示:
cell_fw = tf.contrib.rnn.LSTMCell(hidden_size)
cell_bw = tf.contrib.rnn.LSTMCell(hidden_size)
(self.out_fw, self.out_bw), _ = tf.nn.bidirectional_dynamic_rnn(cell_fw, cell_bw, input, ...)
为了把它变成一个多层,我怀疑我可以不像这样简单地用MultiRNNCells 包装几个LSTMCells:
multi_cell_fw = tf.contrib.rnn.MultiRNNCell([cell_fw] * num_layers, ...)
并将它们输入bidirectional_dynamic_rnn,因为每一层的前向和后向 LSTM 都需要前一层的前向和后向输出。目前我的解决方案是在循环中创建我的bidirectional_dynamic_rnns,并输入前面层的 LSTM 的连接输出。
但是,它不是很干净,坦率地说,我不确定它是否正确,尽管它确实适用于玩具数据集。有没有比使用MultiRNNCell 更优雅的更好方法?
我正在使用 Tensorflow API r1.0。
【问题讨论】:
-
我的处境和你一样。根据你之前的经验得出什么结论?
-
我只是坚持我的解决方案,使用循环来创建图层。它有效,但并不像人们希望的那样优雅。
标签: python machine-learning tensorflow