【问题标题】:Evaluating convergence of SGD classifier in scikit learn在 scikit learn 中评估 SGD 分类器的收敛性
【发布时间】:2014-09-02 16:12:51
【问题描述】:

是否有任何自动化方法来评估 SGDClassifier 的收敛性?

我正在尝试在 python 中运行弹性网络 logit,并且正在使用 scikit learn 的 SGDClassifier 与日志丢失和弹性网络惩罚。当我在 python 中拟合模型时,我的系数全为零。当我在 R 中运行 glmnet 时,我得到了显着的非零系数。

经过一番折腾,我发现 scikit 学习系数在大约 1000 次迭代后接近 R 系数。

我在 scikit 中是否缺少任何方法来学习迭代,直到系数的变化相对较小(或已执行最大迭代次数),或者我是否需要自己通过交叉验证来做到这一点。

【问题讨论】:

    标签: python scikit-learn


    【解决方案1】:

    这是 scikit-learn 的 SGD 分类器当前实现的已知限制,目前该模型没有自动收敛检查。您可以设置verbose=1 以在运行时获得一些反馈。

    【讨论】:

    • 很高兴知道。有没有改变这种情况的计划?我没有看到有关此主题的任何问题。
    • 我们可能会在下周的 sprint 中讨论这个问题。
    猜你喜欢
    • 2013-06-04
    • 2014-10-03
    • 1970-01-01
    • 2016-01-02
    • 2021-03-02
    • 2018-05-14
    • 2020-06-27
    • 2014-10-04
    相关资源
    最近更新 更多