【发布时间】:2021-04-17 06:41:30
【问题描述】:
我正在尝试使用带有 tf.GradientTape 的 TF 2.3 计算标量变量 f(x) = (x,x^2,x^3) 的简单向量函数的二阶导数。
def f_ab(x):
return x, x** 2, x** 3
import tensorflow as tf
in1 = tf.cast(tf.convert_to_tensor(tf.Variable([-1,3,0,6]))[:,None],tf.float64)
with tf.GradientTape(persistent=True) as tape2:
tape2.watch(in1)
with tf.GradientTape(persistent=True) as tape:
tape.watch(in1)
f1,f2,f3 = f_ab(in1)
df1 = tape.gradient(f1, in1)
df2 = tape.gradient(f2, in1)
df3 = tape.gradient(f3, in1)
d2f1_dx2 = tape2.gradient(df1, in1)
d2f2_dx2 = tape2.gradient(df2, in1)
d2f3_dx2 = tape2.gradient(df3, in1)
由于某种原因,只有最后两个导数是正确的,而第一个导数 d2f1_dx2 原来是 None。
当我将f_ab 更改为
def f_ab(x):
return x** 1, x** 2, x**3
我收到了d2f1_dx2 = <tf.Tensor: shape=(1, 4), dtype=float64, numpy=array([[-0., 0., nan, 0.]])>
这“几乎”是正确的结果。
仅当我将f_ab 更改为
def f_ab(inputs_train):
return tf.math.log(tf.math.exp(x) ), x** 2, x**3
我得到了正确的结果:d2f1_dx2 = <tf.Tensor: shape=(1, 4), dtype=float64, numpy=array([[0., 0., 0., 0.]])>
以前有人遇到过这个问题吗?为什么直接给出None?
【问题讨论】:
-
这对我来说确实是一种奇怪的行为。考虑填写issue on github。
标签: tensorflow machine-learning deep-learning tensorflow2.0 derivative