【问题标题】:Tensorflow ValueError: GraphDef cannot be larger than 2GBTensorflow ValueError:GraphDef 不能大于 2GB
【发布时间】:2018-06-18 03:24:10
【问题描述】:

使用代码和error logs链接到我的笔记本。

GraphDef 的大小似乎随着步数的增加而增加。如果做得好,我认为这不应该发生。但是,当我仅更改“display_step”变量时,它允许我运行更多步骤,直到发生错误。

关于如何解决此问题的任何想法?

【问题讨论】:

    标签: python tensorflow neural-network valueerror


    【解决方案1】:

    我认为问题在于:您在训练循环中反复调用get_batch_train,而此函数通过tf.convert_to_tensor 动态创建张量。实际上,这会在每次迭代时在图表中创建新节点,从长远来看会导致 OOM。

    由于train_xtrain_y 被馈送到session.run,因此无需手动将它们转换为张量。所以尽量摆脱tf.convert_to_tensor

    【讨论】:

    • 感谢您的帮助,但我确实需要在 get_batch_train 中使用 tf.convert_to_tensor,否则我会收到错误消息,指出类型 ndarray 不好,需要 Tensor 或 @ 987654332@
    • 发布您的错误。我不确定我是否理解这里的逻辑
    • 您不需要在session.run 中运行get_batch_train。此函数提供您打算输入的数据,而session.run 用于运行张量和操作,如略低于train_op
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2016-12-15
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-07-12
    相关资源
    最近更新 更多