【发布时间】:2017-12-24 09:09:47
【问题描述】:
我在使用 Sigmoid 和 BCELoss 时实现了一个用于二进制分割的 UNet。问题在于,经过几次迭代后,网络试图预测每个像素的非常小的值,而对于某些区域,它应该预测接近 1 的值(对于地面实况掩码区域)。它对错误行为有任何直觉吗?
此外,还有用于像素损失的 NLLLoss2d。目前,我只是忽略了这一点,我直接使用 MSELoss() 。我应该使用带有 Sigmoid 激活层的 NLLLoss2d 吗?
谢谢
【问题讨论】:
标签: python deep-learning pytorch