【发布时间】:2018-02-02 13:07:57
【问题描述】:
我正在尝试做一件简单的事情:使用 autograd 获取梯度并进行梯度下降:
import tangent
def model(x):
return a*x + b
def loss(x,y):
return (y-model(x))**2.0
在获得输入-输出对的损失后,我想获得梯度损失:
l = loss(1,2)
# grad_a = gradient of loss wrt a?
a = a - grad_a
b = b - grad_b
但是库教程没有展示如何获取关于 a 或 b 的梯度,即参数 so,既不是 autograd 也不是 tangent。
【问题讨论】:
-
他们don't show是什么意思?
-
@sascha 是的,我在切线之前先尝试过。他们仅展示了一个带有 tanh 的示例; 1.不是函数的组合,然后2.它们的函数没有任何参数,即。它只是 x,所以没有偏导数。
标签: python machine-learning deep-learning gradient-descent autograd