【问题标题】:one-hot-labelling for semantic segmentation用于语义分割的 one-hot-labeling
【发布时间】:2017-03-16 13:54:16
【问题描述】:

在阅读语义分割论文时,有时我会读到诸如 one-hot labeling for mask 图像之类的术语。我不清楚它的真正含义是什么?在阅读一些实现时,我可以看到它们通常是 rows*columns*2

我的猜测是一个通道对应前景,另一个对应背景。那正确吗?此外,我怎么知道哪一个是前景?如果现有的训练集只是形状rows*columns*1。如何将其转换为这种格式,即rows*columns*2?我正在做的只是使用newimage[:,:,:,0] = original_imagenewimage[:,:,:,1] = 1-original_image。但是不知道对不对?

【问题讨论】:

    标签: opencv computer-vision tensorflow deep-learning caffe


    【解决方案1】:

    1、2、3、4、5 等分类标签没有任何自然顺序。因此,使用这些数字可能意味着标签 5 大于标签 1,但冰箱和狗只是两个标签,例如没有自然顺序。

    所以我们将标签 1,2,3,4,5 转换为

    [1,0,0,0,0], [0,1,0,0,0], ...,[0,0,0,0,1]

    所以现在它们只是指向某个方向的向量,这使得逻辑回归和其他损失函数更容易使用。

    您也可以使用 rows*columns*1 对前景背景进行编码

    只需将前景值设置为 1 并将背景值设置为 0,然后我们就有了前景背景掩码。

    我需要查看何时使用 rows*columns*2 的示例,因为该示例并不常见,并且可能会根据您看到的位置而有所不同。

    【讨论】:

    • 就像在这篇 u-net 论文中一样,arxiv.org/pdf/1505.04597.pdf,他们使用了 2 个输出通道,带有 softmax 激活和 log-loss
    • 在第 4 页底部的那篇论文中,他们使用前景/背景掩码和每个类的分类标签,如第 5 页顶部所述。这就是为什么他们有两个输出掩码我相信。
    猜你喜欢
    • 2021-04-14
    • 2020-01-22
    • 2021-10-07
    • 2019-10-03
    • 2019-10-28
    • 1970-01-01
    • 2017-06-07
    • 2018-01-12
    • 2017-11-06
    相关资源
    最近更新 更多