【问题标题】:Image Resolution in Deep Learning深度学习中的图像分辨率
【发布时间】:2021-06-22 06:20:47
【问题描述】:

让我把我的问题总结如下,

每当我尝试使用自定义数据集训练模型时,都会遇到内存错误。后来,我注意到与同一数据集中的其他图像相比,其中一些图像的分辨率非常高。但是它们的大小并没有那么大。

我的预训练模型中有一个图像缩放器,所以我认为我上面提到的情况不会有问题,但我不能确定。会不会有问题?

【问题讨论】:

  • 您的pipeline.config 文件中的batch_size 是什么?
  • @NicolasGervais 它目前是 8,我之前将它减少到 4,但它继续给我同样的错误。
  • 只尝试1,看看是否有效

标签: tensorflow deep-learning gpu object-detection


【解决方案1】:

是的,它可能是内存错误的潜在来源。通常,内存错误的发生有两个原因,第一个是图像尺寸过大(甚至调整后的尺寸很大)和批量大小。

这些在某种意义上是相关的。如果使用较大的图像大小,则必须使用较小的批量大小来补偿内存。但是,不要将图像尺寸缩小太多。如果您认为尽管图像大小合理,但仍面临内存错误,则必须减少批量大小。通常,输入图像的大小因模型而异。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2015-07-08
    • 2021-05-05
    • 2020-07-21
    • 2021-12-06
    • 2017-09-12
    • 2019-12-30
    相关资源
    最近更新 更多