【发布时间】:2021-01-19 23:44:28
【问题描述】:
我有BxCxHxW 的张量,其中B 是批次。我感兴趣的是,当批量大小大于 1 时,PyTorch 中的损失是如何实现的。下面是我们通常在 PyTorch 中做的事情,
l1_loss = torch.nn.L1Loss()
loss = l1_loss(pred,gt)
loss 是不是这个批次的平均损失?
如果确实如此,那么下面的代码是不是就相当于我们平时在 PyTorch 中做的(上面的代码)?
l1_loss = torch.nn.L1Loss()
for idx in range(B):
if idx==0:
loss = l1_loss(pred[idx,:,:,:],gt[idx,:,:,:])
else:
loss = l1_loss(pred[idx,:,:,:],gt[idx,:,:,:]) + loss
loss = loss/B
【问题讨论】:
标签: neural-network pytorch conv-neural-network