xixixing

x经过某些运算得到1个y,那么就出现了dy/dx,以及x→y的映射(y是如何由x运算得到的)。

dy/dx的获得需两步:y.backward() 、x.grad,即反向传播、求出梯度

x→y的映射,是Tensor对象的一个属性grad_fn:y.grad_fn

注意,反向传播会累加梯度,所以反向传播之前应该梯度清零

x=t.ones(2,2,requires_grad=True) #跟踪在x上的所有运算操作
y=x.sum() # 4. 注意y只有1个标量
y.grad_fn #y是由什么运算得到的,SumBackward0 at 0x2598370d948
#y对x微分,即梯度dy/dx
y.backward() #反向传播
print(x.grad) #输出梯度
#反向传播会累加梯度,所以反向传播之前应该梯度清零
y.backward() 
print(x.grad) #输出梯度
y.backward() 
print(x.grad) #输出梯度
#梯度清零
x.grad.zero_()
y.backward() #反传
print(x.grad) #输出梯度

 

 

分类:

技术点:

相关文章:

  • 2022-01-07
  • 2022-01-17
  • 2021-06-06
  • 2021-04-23
  • 2021-11-18
  • 2021-08-09
  • 2021-04-22
  • 2021-04-12
猜你喜欢
  • 2021-10-27
  • 2021-05-25
  • 2022-12-23
  • 2021-06-30
  • 2021-08-08
  • 2022-12-23
  • 2022-01-13
相关资源
相似解决方案