【发布时间】:2021-08-23 17:33:34
【问题描述】:
我正在尝试使用 Darknet 框架和 Yolov4 训练自定义数据集。我建立了自己的数据集,但在 google colab 中收到 Out of memory 消息。它还说“尝试将细分更改为64”或类似的东西。 我已经搜索了主要 .cfg 参数的含义,例如批处理,细分等,我可以理解增加细分数量意味着在处理之前拆分成更小的“图片”,从而避免致命的“CUDA out of memory” ”。确实切换到 64 效果很好。现在我在任何地方都找不到最终问题的答案:这样做是否会“削弱”最终的重量文件和准确性?更具体地说,对最终结果有何影响?如果我们抛开训练时间(因为有更多的细分要训练,肯定会增加),准确率会如何?
换句话说:如果我们使用完全相同的数据集并使用 8 个细分进行训练,然后使用 64 个细分做同样的事情,那么 best_weight 文件是否会相同?对象检测成功率会相同还是更差? 谢谢。
【问题讨论】:
-
我想你是说 - 将数据集图像细分为更小的图片。不 .................!它将划分您的批量大小并仅加载这些图像。