【问题标题】:Saved tensorflow NLP model outputs nothing after restoring saved variables for training恢复保存的训练变量后,保存的 tensorflow NLP 模型不输出任何内容
【发布时间】:2018-07-30 18:46:58
【问题描述】:

在受到 github 存储库的启发后,我为聊天机器人构建了一个 seq2seq 模型。为了训练聊天机器人,我使用了我的 Facebook 聊天记录。因为我的大部分聊天都像是用英语写的印地语单词。我必须从头开始训练词嵌入。我知道该模型将需要大约 30-40 小时(500000 次批量大小为 24 的迭代)在 cpu 上进行训练。所以,我学会了使用

tf.train.saver()

保存变量并在将来恢复它们的方法。

为了查看我的模型的进度,我制作了模型,以在每 250 次迭代时输出五个输入文本序列的回复。 在培训开始时,我得到了空白输出(因为令牌是最常见的)。但经过几千次迭代后,它开始给出最常见的单词作为输出。经过 90,000 次迭代后,它给出了一些不合逻辑但不同类型的输出。所以,我停止了那里的训练。

现在当我从最新的检查点恢复变量时。我再次得到空行作为输出。这是正常行为还是我的代码中存在某种错误。

代码: Full code

代码sn-ps: (从最新检查点恢复的代码)

sess = tf.Session()
saver = tf.train.Saver()
saver.restore(sess, tf.train.latest_checkpoint('models/'))
sess.run(tf.global_variables_initializer())

(在迭代循环中保存变量的代码)

    if (i % 10000 == 0 and i != 0):
        savePath = saver.save(sess, "models/pretrained_seq2seq.ckpt", global_step=i)

【问题讨论】:

    标签: tensorflow machine-learning nlp deep-learning seq2seq


    【解决方案1】:

    兄弟,每次你使用全局值初始化器都会重置,:/.训练模型时仅第一次使用 sess.run(tf.global)。使用保护程序保存模型后,将其注释掉。所以下次你恢复模型时它不会重置,它应该可以正常工作。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2016-02-18
      • 2018-02-08
      • 2018-04-25
      • 1970-01-01
      • 2020-11-28
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多