【发布时间】:2021-04-14 03:52:03
【问题描述】:
在训练 ML 模型时,有没有很好的方法来限制误报?
假设您从具有两个类别的平衡数据集开始。您开发了一个用于二元分类的 ML 模型。由于任务很简单,输出分布将分别在 0 和 1 达到峰值,并在 0.5 左右重叠。然而你真正关心的是你的误报率是可持续的,不能超过一定的量。 所以充其量你希望 pred > 0.8 你只有一个类。
目前我正在权衡两个类以惩罚“0”类的错误。
history = model.fit(..., class_weight={0:5, 1:1}, ...)
正如预期的那样,它确实降低了 pred > 0.8 区域的 fpr,当然它会恶化第 1 类的召回率。
我想知道是否有其他方法可以强制执行此操作。
谢谢
【问题讨论】:
标签: python tensorflow machine-learning precision-recall