【发布时间】:2019-05-23 12:18:09
【问题描述】:
我试图了解sklearn.linear_model 中RidgeClassifier 和LogisticRegression 之间的区别。我在文档中找不到它。
我想我非常了解 LogisticRegression 的作用。它计算系数和截距以最小化 half of sum of squares of the coefficients + C times the binary cross-entropy loss,其中 C 是正则化参数。我从头开始检查了一个幼稚的实现,结果一致。
RidgeClassifier 的结果不同,我想不通,那里的系数和截距是如何计算的?查看 Github 代码,我没有足够的经验来解开它。
我问的原因是我喜欢 RidgeClassifier 的结果——它更好地概括了我的问题。但在我使用它之前,我想至少知道它是从哪里来的。
感谢您的帮助。
【问题讨论】:
-
你读过机器学习中的正则化吗?
-
也许这会有所帮助:scikit-learn.org/stable/modules/…
-
@Sociopath 是的。如文中所述,LogisticRegression() 中已经存在基本的 l2 正则化。
-
@VivekKumar 去过那里,谢谢 - 但不幸的是,它只会让我更加困惑,因为文档中的所有内容看起来都应该与 LogisticRegression 相同。 (从文档看来,alpha 应该与 LogisticRegression 的 1/C 一致)
标签: python machine-learning scikit-learn logistic-regression