【问题标题】:Multidimensional gradient descent in TensorflowTensorflow 中的多维梯度下降
【发布时间】:2019-04-19 09:39:17
【问题描述】:

当梯度下降优化器应用于不是数字(大小为 1 的张量)而是向量(大小为 2、3、4 的一维张量的“损失”占位符时,Tensorflow 的真正作用是什么? ,或更多)?

这就像对分量之和进行下降吗?

【问题讨论】:

    标签: python tensorflow gradient-descent


    【解决方案1】:

    第二个问题的答案是“否”。

    至于第二个:就像在一维情况下(例如 y = f(x), x in R),其中算法采用的方向由函数相对于其单个变量的导数定义,在多维情况下,“整体”方向由函数对 each 变量的导数定义。

    这意味着您将在每个方向上采取的步长大小将由与该方向对应的变量的导数的值决定。

    由于没有办法在 StackOverflow 中正确键入数学,所以我建议你看看这个 article,而不是乱用它。

    【讨论】:

    • 也许我的问题不清楚。在 y=f(x) 中,我说的是多维中 y 的情况。
    【解决方案2】:

    Tensorflow 首先将损失减少到一个标量,然后对其进行优化。

    【讨论】:

    • 将向量“减少”为标量是什么意思?
    • 添加其所有条目,如 tf.reduce_sum
    猜你喜欢
    • 1970-01-01
    • 2018-08-18
    • 1970-01-01
    • 2016-07-09
    • 1970-01-01
    • 1970-01-01
    • 2016-09-25
    • 1970-01-01
    • 2017-11-27
    相关资源
    最近更新 更多