【问题标题】:What do W and U notate in a GRU?GRU 中的 W 和 U 表示什么?
【发布时间】:2020-01-24 20:40:56
【问题描述】:

我试图弄清楚如何反向传播 GRU 循环网络,但我无法准确理解 GRU 架构。

下图显示了一个具有 3 个神经网络的 GRU 单元,接收连接的先前隐藏状态和输入向量作为其输入。

GRU example

我在反向传播中引用的这张图片显示了输入被转发到每个门的 W 和 U 中,添加,然后应用了相应的激活函数。

GRU Backpropagation

wikipedia 上显示的更新门的方程式如下所示

zt = sigmoid((W(z)xt + U(z)ht-1))

谁能给我解释一下 W 和 U 代表什么?

编辑:

在我发现的大多数来源中,W 和 U 通常被称为“权重”,所以我最好的猜测是 W 和 U 代表它们自己的神经网络,但这与我之前找到的图像相矛盾。

如果有人可以举例说明 W 和 U 如何在一个简单的 GRU 中工作,那将很有帮助。

图片来源: https://cran.r-project.org/web/packages/rnn/vignettes/GRU_units.html https://towardsdatascience.com/animated-rnn-lstm-and-gru-ef124d06cf45

【问题讨论】:

    标签: python machine-learning recurrent-neural-network gated-recurrent-unit


    【解决方案1】:

    WU 是在训练期间学习其值的矩阵(也称为神经网络权重)。矩阵W 乘以向量xt 并产生一个新向量。类似地,矩阵 U 将向量 ht-1 相乘并生成一个新向量。将这两个新向量相加,然后将结果的每个分量传递给sigmoid 函数。

    【讨论】:

      猜你喜欢
      • 2019-06-09
      • 2017-10-20
      • 2023-03-31
      • 1970-01-01
      • 2012-09-08
      • 1970-01-01
      • 2022-01-08
      • 2023-03-03
      • 1970-01-01
      相关资源
      最近更新 更多