【发布时间】:2021-09-10 09:46:29
【问题描述】:
我正在尝试弄清楚如何使用 numpy 计算误报和误报。
我可以通过以下方式计算准确度和不准确度:
在以下示例中,y_prediction 是在数据集上做出的预测的二维数组,即 1 和 0 的二维数组。 Truth_labels 是与特征向量相关联的类标签的一维数组,二维数组。
accurate_prediction_rate = np.count_nonzero(y_prediction == truth_labels)/truth_labels.shape[0]
inaccurate_prediction_rate = np.count_nonzero(y_prediction != truth_labels)/truth_labels.shape[0]
然后我尝试像这样计算误报(我的数据集中的正数用 1 表示)...
false_positives = np.count_nonzero((y_prediction != truth_labels)/truth_labels.shape[0] & predictions == 1)
但这会返回一个 TypeError。我是使用 numpy 的新手,所以不熟悉所有可用的方法。有没有更适合我想要做的事情的 numpy 方法?
【问题讨论】:
标签: python numpy precision-recall numpy-ufunc