【问题标题】:What is the good batch size and optimizer for large datasets?大型数据集的最佳批量大小和优化器是什么?
【发布时间】:2019-07-16 06:27:41
【问题描述】:

我正在处理一个包含 45000 张图像的数据集。

1)对于像这样的大型数据集,我应该使用多少批量大小?

2)我应该使用什么优化器,比如 Adam 或 SGD,我总是有点困惑选择优化器。

环境:I7-8750h 和 GTX 1060(6GB)

【问题讨论】:

  • 您可以尝试使用各种参数进行比较,看看哪种配置最适合您

标签: python-3.x keras jupyter-notebook


【解决方案1】:

45K 不是一个大数据集,它小于 MNIST 数据集(60K 图像)。

但无论如何,没有人可以提出批量大小和优化器建议,您必须在自己的数据集和模型中进行调整。您可以从 Adam 开始,看看模型是否收敛,如果不收敛,则返回 SGD。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2010-09-06
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2016-09-19
    • 2019-11-21
    相关资源
    最近更新 更多