【发布时间】:2014-08-08 13:07:05
【问题描述】:
我亲自研究神经网络的理论并得到了一些问题。
在许多书籍和参考资料中,对于隐藏层的激活函数,都使用了超正切函数。
书籍提出了非常简单的理由,即 tanh 函数的线性组合可以描述几乎所有具有给定误差的函数形状。
但是,有一个问题。
- 这是使用 tanh 函数的真正原因吗?
- 如果是这样,这是使用 tanh 函数的唯一原因吗?
- 如果是这样,tanh 函数是唯一可以做到这一点的函数吗?
- 如果不是,真正的原因是什么?..
我在这里一直在思考...请帮助我摆脱这个心理(?...)陷阱!
【问题讨论】:
-
更好地使用 ReLU quora.com/Deep-Learning/…
标签: machine-learning neural-network hyperbolic-function