【发布时间】:2015-05-11 07:04:40
【问题描述】:
我想我在某处读到过,卷积神经网络不会像层数增加的标准 sigmoid 神经网络那样遭受梯度消失问题的困扰。但我一直无法找到“为什么”。
它真的没有问题还是我错了,它取决于激活函数? [我一直在使用 Rectified Linear Units,所以我从未测试过用于卷积神经网络的 Sigmoid Units]
【问题讨论】:
标签: machine-learning neural-network classification conv-neural-network