【发布时间】:2019-05-30 15:50:04
【问题描述】:
我正在尝试学习机器学习,所以我正在学习一门课程,目前正在研究线性回归的梯度下降。我刚刚了解到,如果学习率足够小,成本函数返回的值应该不断减小,直到收敛。当我想象这是在一个代码循环中完成时,似乎我可以跟踪前一次迭代中的成本,如果新成本大于前一个,则退出循环,因为这告诉我们学习率太大。我想听听意见,因为我是新手,但为了不让这个问题主要基于意见,我的主要问题是:这种检测学习率的方法需要减少?如果可能的话,我会很感激这个方法何时失败的例子。
【问题讨论】:
-
这里有一个实验可以尝试:与其以较大的错误率退出,不如从上一次迭代中恢复参数值,然后以降低的学习率重试。
-
请阅读次梯度方法(实际使用的方法)和随机梯度下降。事实上,您应该期望成本在整个优化过程中以非常高的概率增加。只有在非常严格的条件下,才能保证成本永远下降。
标签: machine-learning linear-regression gradient-descent