【问题标题】:confusion matrix confusion between FN & FP on the heatmap热图上 FN 和 FP 之间的混淆矩阵混淆
【发布时间】:2020-11-05 19:41:35
【问题描述】:

我正在尝试使用 Python 上的机器学习来解决分类问题。该主题是关于使用信用数据集来预测该人的信用是好还是坏。当一个人有良好的信用时为 0,如果没有则为 1。我用 LR 创建了一个混淆矩阵。我不确定 13 是 FN 还是 FP。有人可以为我澄清一下吗? 这是他的混淆矩阵

【问题讨论】:

  • 是误报
  • 我不知道为什么 13 是 FP,你能解释一下为什么吗?
  • 哦,你的正面课是什么?
  • 0 为正类,0 表示良好的信用
  • 好吧,它被预测为负数,但实际上是正数。因此是假阴性。

标签: python confusion-matrix


【解决方案1】:

将 0 设为正类有点奇怪。在任何情况下,您都需要翻转混淆矩阵。假设您的测试和预测是这样的

y_test = np.repeat([0,1,0,1],[128,34,13,25])
y_pred = np.repeat([0,0,1,1],[128,34,13,25])

我们总是做预测,实际:

from sklearn.metrics import confusion_matrix
import seaborn as sns
cfm = confusion_matrix(y_pred,y_test)
sns.heatmap(cfm,annot=True,cmap="Blues")

所以在这种情况下,我们只是继续使用零作为您的正类,这与您在 wiki for confusion matrix 的图表中所拥有的完全一样:

右上角是假阳性(34),左下角是假阴性。

【讨论】:

    猜你喜欢
    • 2021-03-31
    • 2015-03-13
    • 2014-07-09
    • 2020-02-23
    • 2019-01-12
    • 2015-12-17
    • 2020-10-01
    • 2012-01-20
    • 2019-11-23
    相关资源
    最近更新 更多