【发布时间】:2015-02-03 12:52:36
【问题描述】:
我对 Theano 的实现有疑问。 theano如何通过以下函数(T.grad)获得每个损失函数的梯度?感谢您的帮助。
gparams = T.grad(cost, self.params)
【问题讨论】:
-
几乎可以在 theano 中使用的每个运算符都包含有关其自身导数的信息。在您的情况下,
cost可能是此类操作的串联。梯度是通过链式法则的简单应用和原子操作导数的知识获得的。
标签: python math gradient theano automatic-differentiation