【发布时间】:2023-03-31 13:13:02
【问题描述】:
对于普通的BatchNorm,每个 GPU 的最小批量大小为 2。
我想知道我是否使用SyncBatchNorm,我是否可以为每个具有多个 GPU 的 GPU 使用 batch_size=1?
即,total_batch_size 大于 1,但 batch_size_per_gpu 为 1。
我希望得到任何深度学习框架、pytorch、tensorflow、mxnet 等的答案
【问题讨论】:
标签: python tensorflow pytorch mxnet batch-normalization