【发布时间】:2018-05-03 10:23:19
【问题描述】:
我正在使用两个神经网络进行两类文本分类。我在测试数据上获得了 90% 的准确率。还使用不同的性能指标,如准确率、召回率、f 分数和混淆矩阵,以确保模型按预期执行。
在使用训练模型的预测实验中,我正在获取每个预测的概率。输出如下所示(无法提供在 Azure ML Studio 中实现的代码)
例如: class (probability) , class 2 (probability) -> 预测类
1 级 (0.99),2 级 (0.01) -> 1 级
1 级 (0.53) ,2 级 (0.47) -> 1 级
1 级 (0.2) ,2 级(0.8) -> 2 级
根据我目前的理解,通过查看我们可以判断的概率,模型对其预测的信心有多大。90% 的准确度意味着 100 条记录中 10 条预测可能出错。
现在我的问题是,通过查看概率(置信度),我们能否判断当前记录属于 90%(正确预测)或 10%(错误预测)的哪个桶?
我想要实现的是,为了告诉他/她这个预测可能是错误的,他们可能想在使用这些结果之前将其更改为其他类。
【问题讨论】:
-
我建议您考虑 ROC 分数作为准确度指标。这将使您知道您的预测有多好。
-
嗨 Tushar,感谢您的回复...我正在检查不同的性能指标,例如精度、召回率、f 分数和混淆矩阵,以确保模型按预期执行。然后使用经过训练的模型进行预测。在预测时,它为每个类分配一个概率,并输出概率最大的类。对不起,如果我的问题在上面不清楚。我的问题是,我们能否通过查看概率分数来判断预测是错误的还是正确的?
标签: machine-learning neural-network classification probability text-classification