learn_rate

学习率,通常位于优化步骤中

  • 表示每次结果误差的反馈系数,越大结果反馈误差对模型影响越大,一般取3、1、0.5、0.1、0.01、0.0001···
  • 对于深度学习来说,每 t 轮学习,学习率减半。对于监督学习来说,初始设置一个较大的学习率,然后随着迭代次数的增加,减小学习率。
  • 大多数的网络的学习率的初始值设置为0.01和0.001为宜
    pandlepandle深度学习模型参数的优化

感知器个数(隐藏层数)

层数越多,时间越长,越准确,注意输出神经元的参数不能改变

  • 关于隐藏层大小的经验法则是在输入层和输出层之间,为了计算隐藏层大小我们使用一个一般法则:
    感知层数 =(输入大小+输出大小)*2/3
  • pandlepandle深度学习模型参数的优化
    pandlepandle深度学习模型参数的优化

EPOCH_NUM

训练轮数,通常位于训练步骤的迭代中

  • 数越大时间越长,越拟合(你训练的模型越较真(二哈是二哈,不是狗))
  • 训练轮数越小,那么你的模型越糊弄(猫看起像狗就认为它是狗)
    尝试用多种不同的值去训练,然后观察对比效果,取最优值pandlepandle深度学习模型参数的优化

相关文章: