【发布时间】:2021-02-06 03:37:10
【问题描述】:
我正在尝试训练神经网络将单词分类为不同的类别。 我注意到两件事:
当我使用较小的batch_size(如 8、16、32)时,损失并没有减少,而是偶尔变化。当我使用更大的batch_size(如 128、256)时,损失会下降,但速度很慢。
更重要的是,当我使用更大的EPOCH 值时,我的模型在减少损失方面做得很好。但是我使用了一个非常大的值 (EPOCHS = 10000)。
问题:
如何获得最优的EPOCH 和batch_size 值?
【问题讨论】:
-
我认为你应该进行超参数调整......optuna 库与 pytorch 配合得很好
-
@PrajotKuvalekar 谢谢我检查一下似乎是我需要的东西。
标签: deep-learning neural-network pytorch