【问题标题】:CNN multi-class networkCNN多类网络
【发布时间】:2019-03-16 10:06:40
【问题描述】:

当我希望我的 CNN 多类网络在图像不属于时输出类似 [0.1, 0,1] 的内容时,我应该采取什么方法 到任何班级。对多类使用 softmax 和 categorical_crossentropy 会给我的输出总和为 1,所以仍然不是我想要的。 我是神经网络的新手,很抱歉提出愚蠢的问题,并提前感谢您的帮助。

【问题讨论】:

  • 在分类图像中总是属于某个类,因为您事先知道类的数量,添加新类并添加不属于任何类的训练示例。
  • 为什么是 0.1? 0.1 是否意味着输入不在类中?请详细说明您的问题。
  • 嗨@Giang Nguyễn,0.1 只是举例,任何小的输出都可以,我的目标是构建一个可以识别图像是狗还是猫的 CNN,但如果我也想要举个例子,房子的图像作为输入我的网络将输出类似 [[0.001], [0.001]] 的东西,表明它既不是这两个(或者至少一些输出可以帮助我表明输入图像既不是狗也不是猫)

标签: keras conv-neural-network


【解决方案1】:

我想你会考虑贝叶斯学习。首先,谈谈不确定性

例如,假设有几张狗品种的图片作为训练数据——当用户上传他的狗的照片时——假设的网站应该以相当高的可信度返回预测。但是,如果用户上传了一张猫的照片并要求网站决定狗的品种,会发生什么?

以上是分布测试数据的示例。该模型已经在不同品种的狗的照片上进行了训练,并且(希望)学会了区分它们。但是该模型以前从未见过猫,而猫的照片将位于模型训练的数据分布之外。这个说明性示例可以扩展到更严重的环境,例如具有诊断系统以前从未观察到的结构的 MRI 扫描,或者从未训练过自动驾驶汽车转向系统的场景。

在这种情况下,模型可能期望的行为是返回一个预测(尝试从我们观察到的数据外推),但返回一个答案,其中包含该点位于数据分布之外的附加信息。我们希望我们的模型拥有一些数量,通过此类输入传达高度不确定性(或者,传达低置信度)。

然后,我认为您可以简要阅读this paper,当它们也适用于分类任务并为类(狗、猫...)产生不确定性时。从这篇论文中,你可以将你的发现扩展到使用这篇论文的应用,我想你会找到你想要的。

【讨论】:

    猜你喜欢
    • 2017-06-08
    • 2019-01-31
    • 1970-01-01
    • 2018-08-03
    • 1970-01-01
    • 2017-11-22
    • 1970-01-01
    • 1970-01-01
    • 2021-04-12
    相关资源
    最近更新 更多