**函数

   使用一个神经网络时,需要决定使用哪种**函数用隐藏层上,哪种用在输出节点上。 

  在神经网路的前向传播中,卷积神经网络CNN笔记:**函数这两步会使用到sigmoid函数。sigmoid函数在这里被称为**函数。

sigmoid函数

  之前在线性回归中,我们用过这个函数,使我们的输出值平滑地处于0~1之间。

  卷积神经网络CNN笔记:**函数

说明:除非输出层是一个二分类问题否则基本不会用它。

双曲正切函数

  tanh函数是sigmoid的向下平移和伸缩后的结果。对它进行了变形后,穿过了原点,并且值域介于+1和-1之间。

  卷积神经网络CNN笔记:**函数

  结果表明,如果在隐藏层上使用函数tanh效果总是优于sigmoid函数。因为函数值域在-1和+1的**函数,其均值是更接近零均值的。在训练一个算法模型时,如果使用tanh函数代替sigmoid函数中心化数据,使得数据的平均值更接近0而不是0.5.

说明:tanh是非常优秀的,几乎适合所有场合

 

修正线性单元的函数(ReLu

  sigmoid函数与双曲正切函数都有一个共同的问题,在Z特别大或者特别小的情况下,导致梯度或者函数的斜率变得特别小,最后就会接近于0,导致降低梯度下降的速度。

  线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元, 是一种人工神经网络中常用的**函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。

  卷积神经网络CNN笔记:**函数

  

  Relu作为神经元的**函数,定义了该神经元在线性变换 卷积神经网络CNN笔记:**函数之后的非线性输出结果。换言之,对于进入神经元的来自上一层神经网络的输入向量卷积神经网络CNN笔记:**函数,使用线性整流**函数的神经元会输出卷积神经网络CNN笔记:**函数至下一层神经元或作为整个神经网络的输出(取决现神经元在网络结构中所处位置)。

  只要是WTX+b正值的情况下,导数恒等于1,当WTX+b是负值的时候,导数恒等于0。从实际上来说,当使用的导数时,WTX+b=0的导数是没有定义的。

带泄露线性整流函数(Leaky ReLU)

  在输入值 为负的时候,带泄露线性整流函数(Leaky ReLU)的梯度为一个常数 卷积神经网络CNN笔记:**函数,而不是0。在输入值为正的时候,带泄露线性整流函数和普通斜坡函数保持一致。

  卷积神经网络CNN笔记:**函数

  在深度学习中,如果设定 卷积神经网络CNN笔记:**函数 为一个可通过反向传播算法(Backpropagation)学习的变量,那么带泄露线性整流又被称为参数线性整流(Parametric ReLU)

相关文章:

  • 2022-02-02
  • 2021-08-13
  • 2021-11-25
  • 2021-06-05
  • 2022-01-14
猜你喜欢
  • 2022-01-20
  • 2021-05-27
  • 2021-12-19
  • 2021-06-26
  • 2022-01-04
相关资源
相似解决方案