【发布时间】:2020-10-17 21:25:36
【问题描述】:
我正在学习梯度下降算法,并在Boston Housing 数据集(在 sklearn) 上实现了一个这样的**(在 python 中)**。我还实现了一个成本函数,它接受所有系数、截距和训练数据,并返回这些系数和截距的成本。我在波士顿数据集上运行了 1500 次迭代 和 learning_rate = 0.000003202 的算法,它成功收敛,成本最低为 61.840725406571245,但是当我在相同的训练数据上训练 sklearn 的 LinearRegression() 算法时,使用 .coef_ 和 .intercept_ 找到了成本。它给出的成本最低,为 19.958219814238042。 所以我的问题是如何说一定数量的迭代会给我最小/最优的成本?比如我运行算法 n 次,得到一个特定的代价,那么我怎么知道这个代价足够好还是需要进一步降低呢?
【问题讨论】:
标签: python machine-learning regression gradient-descent