【发布时间】:2018-02-17 22:23:53
【问题描述】:
我正在尝试使用自定义渐变修改 TensorFlow 中所有层的渐变,并保存当前渐变。从概念上讲,第 i 次迭代中单层的计算过程如下:
original_grad = (actual gradient computed by TF)custom_grad = f(original_grad, stored_grad[i - 1])stored_grad[i] = original_grad- 使用
custom_grad更新层权重
我对 TF 还很陌生,所以对如何/是否可以实现这一点非常迷茫。
【问题讨论】:
标签: tensorflow