【问题标题】:What is the least total batch size for SyncBatchNormSyncBatchNorm 的最小总批量大小是多少
【发布时间】:2023-03-31 13:13:02
【问题描述】:

对于普通的BatchNorm,每个 GPU 的最小批量大小为 2。

我想知道我是否使用SyncBatchNorm,我是否可以为每个具有多个 GPU 的 GPU 使用 batch_size=1

即,total_batch_size 大于 1,但 batch_size_per_gpu 为 1。

我希望得到任何深度学习框架、pytorch、tensorflow、mxnet 等的答案

【问题讨论】:

    标签: python tensorflow pytorch mxnet batch-normalization


    【解决方案1】:

    对于 PyTorch,使用 batch_size_per_gpu=1 和多个 GPU 即可。

    【讨论】:

      猜你喜欢
      • 2014-04-09
      • 2014-01-19
      • 1970-01-01
      • 1970-01-01
      • 2020-05-20
      • 2016-02-14
      • 2021-08-27
      • 1970-01-01
      • 2014-08-05
      相关资源
      最近更新 更多