【发布时间】:2016-12-09 15:18:29
【问题描述】:
众所周知,DNN 的主要问题是学习时间过长。
但是有一些方法可以加速学习:
-
批量标准化
=(x-AVG)/Variance: https://arxiv.org/abs/1502.03167
Batch Normalization 实现了相同的准确度,但减少了 14 倍 训练步骤
-
ReLU
=max(x, 0)- 整流线性单元(ReLU,LReLU,PReLU,RReLU):https://arxiv.org/abs/1505.00853
使用非饱和激活函数的好处在于两个 方面:首先是解决所谓的“爆炸/消失” 坡度”。二是加快收敛速度。
或者任意一个:(maxout, ReLU-family, tanh)
- 快速权重初始化(避免梯度消失或爆炸):https://arxiv.org/abs/1511.06856
我们的初始化与当前最先进的无监督匹配 或标准计算机视觉的自我监督预训练方法 图像分类和目标检测等任务,同时 大约快三个数量级。
或 LSUV 初始化(层序单位方差):https://arxiv.org/abs/1511.06422
但如果我们使用所有步骤:(1) 批量归一化,(2) ReLU,(3) 快速权重初始化或 LSUV - 那么在训练深度神经网络的任何步骤中使用autoencoder/autoassociator 是否有意义?
【问题讨论】:
-
你用自动编码器做什么?
标签: machine-learning neural-network deep-learning conv-neural-network autoencoder