【发布时间】:2016-10-10 00:03:43
【问题描述】:
我了解循环神经网络 (RNN) 需要有记忆,以及如何通过反馈隐藏神经元的输出来获得记忆。但是为什么他们不能只保留输入;也就是说,仅延迟和反馈一系列输入,而不是作为这些输入函数的隐藏神经元,并使用 that 作为上下文?
这似乎解决了反馈整个隐藏状态的许多问题(即 BPTT 困难),但仍保留所有上下文。根据定义,输入具有计算上下文所需的任何数据。
即使上下文是输入的函数而不是输入本身,我们仍然可以使用它,因为单个隐藏层中的一些神经元将能够成为 x(t-1) x(t-2)... 输入的函数。因此,我们仍然可以计算我们可以使用标准 RNN 计算的任何内容,但复杂性要低得多:一些神经元将专注于 x(t),而另一些则专注于 x(t-n)。
现在,既然没有人这样做,我不得不想象他们考虑过并拒绝了它。为什么?
【问题讨论】:
标签: neural-network recurrent-neural-network