深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?
深度学习模型训练时候使用dropout实际上只是让部分神经元在当前训练批次以一定的概率不参与更新,这样使得每一轮迭代获得的模型都是不一样的。这个过程一定程度上保持了不同模型之间最优参数设置,使得训练出的每一个模型不至于太差。在预测时候,不使用dropout,但会在权重上都乘上保留概率。最终的输出可以被认为是Bagging的一种近似。

参考:http://jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf

深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?

相关文章:

  • 2021-11-23
  • 2021-11-26
  • 2022-12-23
  • 2022-01-08
  • 2022-12-23
  • 2021-07-20
  • 2022-12-23
  • 2021-12-09
猜你喜欢
  • 2021-08-26
  • 2021-04-30
  • 2021-07-22
  • 2021-06-20
  • 2021-06-11
  • 2021-12-24
相关资源
相似解决方案