【问题标题】:Using pytorch Autograd on both images axis在两个图像轴上使用 pytorch Autograd
【发布时间】:2026-02-16 06:30:01
【问题描述】:

我想使用 autodiff,因为我听说过很多关于它的好故事。但是,我想检查是否 这甚至是我想要的。

给定一个返回图像 X(由单个输入图像生成)的函数。我想计算 x 和 y 方向的导数。通常我会使用内核方法,但我想看看这个 autodiff 是否可行。

我知道 autodif 是基于雅可比行列式的,因为我的函数只有一个输入.. 它只会计算 基于该变量的导数。因此,我预计它将无法进行这些方向导数。

这是真的吗?或者可以通过其他方式吗?

【问题讨论】:

    标签: pytorch


    【解决方案1】:

    我知道 autodif 是基于雅可比行列式

    我一开始是这么想的,但实际上是后向模式自动微分(AD)。 我创建了一个algorithm in Python for how AD works

    您只需在目标函数的某个级别上工作,也称为损失函数或成本函数或误差函数。

    因此,您编写目标函数也可以捕获 x 和 y 导数。你总是可以拥有主损失函数l1并添加loss = l1() + lx() + ly()

    【讨论】:

      最近更新 更多