【问题标题】:Using pre-trained word embeddings in tensorflow's seq2seq function在 tensorflow 的 seq2seq 函数中使用预训练的词嵌入
【发布时间】:2016-08-29 17:22:59
【问题描述】:

我正在使用 tensorflow 的 seq2seq.py 中的函数构建一个 seq2seq 模型,其中它们具有这样的函数:

embedding_rnn_seq2seq(encoder_inputs, decoder_inputs, cell,
                          num_encoder_symbols, num_decoder_symbols,
                          embedding_size, output_projection=None,
                          feed_previous=False, dtype=dtypes.float32,
                          scope=None)

但是,这个函数似乎没有将预训练的嵌入作为输入,有什么方法可以在这个函数中将预训练的词嵌入作为输入?

【问题讨论】:

    标签: python machine-learning tensorflow recurrent-neural-network lstm


    【解决方案1】:

    没有你刚刚交出的参数。读入你的嵌入(确保词汇 ID 匹配)。然后,一旦你初始化了所有变量,找到嵌入张量(遍历 tf.all_variables 以找到名称)。然后使用 tf.assign 用您的嵌入覆盖随机初始化的嵌入。

    【讨论】:

      猜你喜欢
      • 2016-06-20
      • 2016-06-11
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2019-10-27
      • 1970-01-01
      • 2017-02-16
      相关资源
      最近更新 更多