【发布时间】:2023-03-18 00:50:02
【问题描述】:
如果我对自己的数据集进行一些培训或评估,我会对指标有一些疑问。我对这个话题还是新手,只是尝试了 tensorflow 和 googles 对象检测 api 和 tensorboard...
所以我做了所有这些事情来使用对象检测 api 启动和运行,并在一些图像上进行训练并在其他图像上进行了一些评估。
所以我决定使用加权 PASCAL 指标集进行评估: 在 tensorboard 中,我得到了每个班级的 IoU 以及 mAP,这很好看,现在问题来了。
IoU 为我提供了 ground-truth 和预测框的重叠程度的值,并衡量了我的对象检测器的准确性。
第一个问题:如果没有检测到具有ground-truth的对象,是否会对IoU产生影响?
第二个问题:如果一个ground-truth对象被预测为false negativ,是否会影响IoU?
第三个问题:如果没有真实对象的假阳性呢?
编码问题:
第四个问题:是否有人修改了对象检测 API 的评估工作流程以引入更多指标,例如准确度或 TP/FP/TN/FN?如果可以的话,可以为我提供一些带有解释的代码或您使用的教程 - 那将是很棒的!
第五个问题:如果我要监控一些过度拟合,并从我的 70% 训练数据中提取 30% 并进行一些评估,哪个参数表明我的数据集存在一些过度拟合?
也许这些问题是新手问题,或者我只需要阅读和理解更多 - 我不知道 - 所以感谢您帮助理解更多!
谢谢
【问题讨论】:
-
1 和 2 有什么区别?没有被检测到的真实物体是假阴性…… 3. 如果没有真实物体,那么它是假阳性,而不是真阳性。 4. 一开始你说你已经有准确度,这里你说你没有……
-
Q2 确实有一个预测框,并且覆盖了真实框,但有一个假阴性预测,并且 Q1 没有预测框,所以 IoU 可能会降低!?到 Q3 jep 并更正!我刚刚说过,IoU 衡量的是对象检测器的准确度,但其值是预测框与地面实况的覆盖程度
标签: tensorflow computer-vision metrics object-detection tensorboard