【问题标题】:Why KNN has low accuracy but high precision?为什么KNN准确率低但准确率高?
【发布时间】:2014-02-28 02:57:45
【问题描述】:

我用 k-nn 对 20NG 数据集进行分类,每个类别中有 200 个实例,训练测试拆分为 80-20,我发现以下结果

这里的准确度很低,但是当准确度那么低时,准确度有多高?不是精度公式 TP/(TP + FP) 吗?如果是,那么高精度分类器需要生成高真阳性,这将导致高精度,但是 K-nn 是如何在真阳性率太低的情况下生成高精度的?

【问题讨论】:

  • 您能否为该问题选择一个信息更丰富的标题?它会帮助其他人找到它。
  • @Sentry thanx 提出建议,我确实接受有时我选择的标题确实模棱两可,但我已经对其进行了编辑以使其与问题更相关。
  • 这样好多了,谢谢。现在其他人可以更轻松地找到它,您可以获得更多的点赞和答案:)

标签: machine-learning weka nearest-neighbor text-classification


【解决方案1】:

召回率相当于真阳性率。文本分类任务(尤其是信息检索,还有文本分类)显示了召回率和精度之间的权衡。当精度非常高时,召回率往往很低,反之亦然。这是因为您可以调整分类器以将更多或更少的实例分类为正例。您分类为阳性的实例越少,精度越高,召回率越低。

为确保有效性度量与准确性相关,您应该关注 F-measure,它平均召回率和准确率 (F-measure = 2*r*p / (r+p))。

非惰性分类器遵循一个训练过程,在该过程中它们尝试优化准确性或错误。 K-NN 是懒惰的,没有训练过程,因此它不会尝试优化任何有效性度量。您可以使用不同的 K 值,直观地说,K 越大,召回率越高,精度越低,反之亦然。

【讨论】:

    猜你喜欢
    • 2020-04-23
    • 2018-09-18
    • 2018-02-08
    • 2020-10-17
    • 2019-02-14
    • 1970-01-01
    • 2023-03-17
    • 2019-08-31
    • 2021-10-13
    相关资源
    最近更新 更多