【发布时间】:2019-07-19 08:58:53
【问题描述】:
我正在研究复值神经网络。
对于复值神经网络,通常使用 Wirtinger 演算。那么导数的定义是(考虑到由于刘维尔定理,函数是非全纯的):
如果您阅读 Akira Hirose 的书《复值神经网络:进展和应用》,第 4 章的方程 4.9 定义:
当然也可以使用 Wirtinger 演算来计算偏导数。
张量流是这种情况吗?还是以其他方式定义?我找不到关于该主题的任何好的参考资料。
【问题讨论】:
-
我对复分析知之甚少(或任何东西),但如果你能给出一些非全纯函数的例子,我们可以看看 TensorFlow 对梯度做了什么。虽然 TF 确实支持复杂的张量,但我不确定它们在多大程度上实现了梯度(对于简单的算术,它似乎有效,但我不知道更复杂的操作)。即使一个函数被 TensorFlow 视为“不可微分”,您也可以使用
tf.gradient自己实现渐变(但这可能不是您现在感兴趣的)。
标签: tensorflow gradient complex-numbers autodiff