【发布时间】:2019-07-16 06:27:41
【问题描述】:
我正在处理一个包含 45000 张图像的数据集。
1)对于像这样的大型数据集,我应该使用多少批量大小?
2)我应该使用什么优化器,比如 Adam 或 SGD,我总是有点困惑选择优化器。
环境:I7-8750h 和 GTX 1060(6GB)
【问题讨论】:
-
您可以尝试使用各种参数进行比较,看看哪种配置最适合您
标签: python-3.x keras jupyter-notebook
我正在处理一个包含 45000 张图像的数据集。
1)对于像这样的大型数据集,我应该使用多少批量大小?
2)我应该使用什么优化器,比如 Adam 或 SGD,我总是有点困惑选择优化器。
环境:I7-8750h 和 GTX 1060(6GB)
【问题讨论】:
标签: python-3.x keras jupyter-notebook
45K 不是一个大数据集,它小于 MNIST 数据集(60K 图像)。
但无论如何,没有人可以提出批量大小和优化器建议,您必须在自己的数据集和模型中进行调整。您可以从 Adam 开始,看看模型是否收敛,如果不收敛,则返回 SGD。
【讨论】: