【问题标题】:Why Regularization strength negative value is not a right approach?为什么正则化强度负值不是正确的方法?
【发布时间】:2019-04-03 14:15:26
【问题描述】:

我有一个关于在添加正则化强度 λ 参数时训练您的模型的一般性问题,因为它会惩罚您的分数以防止过度拟合(据我从课堂和下面链接的 Tootone 答案中了解到)

所以我们需要尽可能地减小 λ,所以我们使用它的倒数

我的问题是>>为什么使用负值不是正确的方法?并且没有给出正确的预测

What is the inverse of regularization strength in Logistic Regression? How should it affect my code?

【问题讨论】:

    标签: python-3.x machine-learning scikit-learn computer-vision training-data


    【解决方案1】:

    当包含正则化参数时,您通常会修改成本函数以最小化

    C(x) + λ * p(x)

    其中 C(x) 是您的成本函数,p(x)>0 是惩罚。如果 λ奖励。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2022-12-05
      • 2010-11-21
      • 1970-01-01
      • 2020-11-26
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多