【问题标题】:Why use relu before maxpooling? [duplicate]为什么在 maxpooling 之前使用 relu? [复制]
【发布时间】:2020-05-04 01:53:38
【问题描述】:

在这个pytorch神经网络教程tutorial link

我很困惑为什么我们需要在最大池化之前使用 relu。
图像中的像素值不是已经是正数了吗?
我不知道为什么需要 relu max(0, x)
有人可以就这个问题给我一些建议吗?

 class Net(nn.Module):
  ...(init function)

   def forward(self, x):
     x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2)) # Max pooling over a (2, 2) window

【问题讨论】:

标签: python pytorch


【解决方案1】:

神经网络的权重可以为负,因此您可以进行负激活,并且通过使用relu 函数,您只激活了用于该目的的节点。

【讨论】:

  • 1.权重可能是负数,但卷积层的输出是正数。 2、max-pooling层和relu层的顺序没有区别。如果我错了,请纠正我。
  • 2.你是对的,但对于 1. 这取决于权重和图层的输入。
猜你喜欢
  • 2012-06-26
  • 2019-12-12
  • 1970-01-01
  • 2018-04-25
  • 2020-07-13
  • 2018-08-13
  • 2014-03-08
  • 1970-01-01
  • 2022-11-04
相关资源
最近更新 更多