我将简要介绍我们试图解决的概念。
召回
在所有中正面,我们的模型预测有多少是正面的?
所有积极的 =
我们的模型所说的是积极的 =
由于召回率与 FN 成反比,因此提高它会降低 FN。
特异性
从所有负中,我们的模型预测有多少是负的?
所有否定的 =
我们的模型所说的是否定的 =
由于特异性与 FP 成反比,因此提高它会降低 FP。
在您的下一次搜索或您执行的任何与分类相关的活动中,知道这些将在沟通和理解方面为您提供额外的优势。
解决方案
所以。正如您已经弄清楚的那样,这两个概念是对立的。这意味着增加一个可能会减少另一个。
由于您希望 优先级 进行召回,但又不想在特异性上松散太多,您可以将这两者和属性权重结合起来。遵循this answer 中明确解释的内容:
import numpy as np
import keras.backend as K
def binary_recall_specificity(y_true, y_pred, recall_weight, spec_weight):
TN = np.logical_and(K.eval(y_true) == 0, K.eval(y_pred) == 0)
TP = np.logical_and(K.eval(y_true) == 1, K.eval(y_pred) == 1)
FP = np.logical_and(K.eval(y_true) == 0, K.eval(y_pred) == 1)
FN = np.logical_and(K.eval(y_true) == 1, K.eval(y_pred) == 0)
# Converted as Keras Tensors
TN = K.sum(K.variable(TN))
FP = K.sum(K.variable(FP))
specificity = TN / (TN + FP + K.epsilon())
recall = TP / (TP + FN + K.epsilon())
return 1.0 - (recall_weight*recall + spec_weight*specificity)
注意到recall_weight 和spec_weight?它们是我们赋予每个指标的权重。对于分发约定,它们应始终添加到1.0¹,例如recall_weight=0.9,specificity_weight=0.1。此处的目的是让您了解哪种比例最适合您的需求。
但是 Keras 的损失函数只能接收 (y_true, y_pred) 作为参数,所以让我们定义一个包装器:
# Our custom loss' wrapper
def custom_loss(recall_weight, spec_weight):
def recall_spec_loss(y_true, y_pred):
return binary_recall_specificity(y_true, y_pred, recall_weight, spec_weight)
# Returns the (y_true, y_pred) loss function
return recall_spec_loss
在使用它时,我们会拥有
# Build model, add layers, etc
model = my_model
# Getting our loss function for specific weights
loss = custom_loss(recall_weight=0.9, spec_weight=0.1)
# Compiling the model with such loss
model.compile(loss=loss)
¹ 添加的权重必须总计为1.0,因为如果recall=1.0 和specificity=1.0(满分),则公式
给我们,例如,
显然,如果我们得到满分,我们希望我们的损失等于 0。