【发布时间】:2017-10-25 16:17:03
【问题描述】:
是否可以从某个任意层截取反向梯度,修改其值并继续反向传播回到网络的起点,根据您提供的修改后的梯度值更新所有先前层的反向梯度?
我知道你可以directly modify the gradients themselves before applying the update,但据我所知,这只会修改指定层的渐变不会传播到前一层的渐变。
【问题讨论】:
标签: tensorflow deep-learning backpropagation