【发布时间】:2017-01-12 14:27:34
【问题描述】:
我正在尝试输入每个世界都有 word2vec 表示的句子。 如何在 tensorflow seq2seq 模型中做到这一点?
假设变量
enc_inp = [tf.placeholder(tf.int32, shape=(None,10), name="inp%i" % t)
for t in range(seq_length)]
维度为 [num_of_observations 或 batch_size x word_vec_representation x sentense_lenght]。
当我将它传递给 embedding_rnn_seq2seq
decode_outputs, decode_state = seq2seq.embedding_rnn_seq2seq(
enc_inp, dec_inp, stacked_lstm,
seq_length, seq_length, embedding_dim)
发生错误
ValueError: Linear is expecting 2D arguments: [[None, 10, 50], [None, 50]]
还有一个更复杂的问题 如何将向量而不是标量作为 RNN 的第一个单元格的输入?
现在它看起来像(当我们处理任何序列时)
- 获取序列的第一个值(标量)
- 计算第一层 RNN 第一层嵌入单元输出
- 计算第一层 RNN 第二层嵌入单元输出
- 等
但这是必需的:
- 获取序列(向量)的第一个值
- compute First layer RNN First layer cell output(当Input为向量时作为普通计算简单感知器)
- 计算第一层 RNN 第二层嵌入单元输出(当 Input 为向量时,与普通计算简单感知器一样)
【问题讨论】:
标签: python tensorflow word2vec recurrent-neural-network