单次训练用的样本数,通常为2^N,如32、64、128...

相对于正常数据集,如果过小,训练数据就收敛困难;过大,虽然相对处理速度加快,但所需内存容量增加。

使用中需要根据计算机性能和训练次数之间平衡。 

epoch

1 epoch = 完成一次全部训练样本 = 训练集个数 / batch_size

iterations

1 epoch = 完成一次batch_size个数据样本迭代,通常一次前向传播+一次反向传播

相关文章:

  • 2021-05-06
  • 2022-12-23
  • 2021-09-01
猜你喜欢
  • 2021-06-16
  • 2021-04-27
  • 2021-04-27
  • 2021-06-21
  • 2022-12-23
相关资源
相似解决方案