【发布时间】:2021-05-22 14:56:47
【问题描述】:
我正在使用两个不同的分类器对相同的不平衡数据执行一些(二进制)文本分类。我想比较两个分类器的结果。
在使用 sklearns 逻辑回归时,我可以选择为 sklearn 朴素贝叶斯设置 class_weight = 'balanced',没有这样的参数可用。
我知道,我可以从较大的类中随机抽样,以使两个类的大小相同,但随后数据丢失。
为什么朴素贝叶斯没有这样的参数?我想这与算法的性质有关,但找不到关于这个具体问题的任何信息。我也想知道等价物是什么?如何达到类似的效果(分类器意识到不平衡的数据,并给予少数类更多的权重,而对多数类给予更少的权重)?
【问题讨论】:
-
哦,对不起,完成了:)
标签: python scikit-learn logistic-regression naivebayes