【发布时间】:2018-06-18 03:24:10
【问题描述】:
使用代码和error logs链接到我的笔记本。
GraphDef 的大小似乎随着步数的增加而增加。如果做得好,我认为这不应该发生。但是,当我仅更改“display_step”变量时,它允许我运行更多步骤,直到发生错误。
关于如何解决此问题的任何想法?
【问题讨论】:
标签: python tensorflow neural-network valueerror
使用代码和error logs链接到我的笔记本。
GraphDef 的大小似乎随着步数的增加而增加。如果做得好,我认为这不应该发生。但是,当我仅更改“display_step”变量时,它允许我运行更多步骤,直到发生错误。
关于如何解决此问题的任何想法?
【问题讨论】:
标签: python tensorflow neural-network valueerror
我认为问题在于:您在训练循环中反复调用get_batch_train,而此函数通过tf.convert_to_tensor 动态创建张量。实际上,这会在每次迭代时在图表中创建新节点,从长远来看会导致 OOM。
由于train_x 和train_y 被馈送到session.run,因此无需手动将它们转换为张量。所以尽量摆脱tf.convert_to_tensor。
【讨论】:
get_batch_train 中使用 tf.convert_to_tensor,否则我会收到错误消息,指出类型 ndarray 不好,需要 Tensor 或 @ 987654332@
session.run 中运行get_batch_train。此函数提供您打算输入的数据,而session.run 用于运行张量和操作,如略低于train_op。