【发布时间】:2019-07-14 03:28:25
【问题描述】:
我正在处理一个包含 45000 张图像的数据集。
1)对于像这样的大型数据集,我应该使用多少批量大小?
2)我应该使用什么优化器,比如 Adam 或 SGD,我总是有点困惑选择优化器。
环境: I7-8750h 和 GTX 1060(6GB)。
【问题讨论】:
标签: python-3.x keras jupyter-notebook
我正在处理一个包含 45000 张图像的数据集。
1)对于像这样的大型数据集,我应该使用多少批量大小?
2)我应该使用什么优化器,比如 Adam 或 SGD,我总是有点困惑选择优化器。
环境: I7-8750h 和 GTX 1060(6GB)。
【问题讨论】:
标签: python-3.x keras jupyter-notebook
这实际上取决于您的计算资源和您的问题。
对于大多数计算机视觉问题,一个好的批量大小的经验法则是 16 或 32。但是,在许多问题中,例如图像语义分割,您可能无法将这样的批次放入您的 GPU 内存。因此,人们也相应地减少了批量大小。
最后,值得一提的是:
【讨论】: