【问题标题】:ANN bypassing hidden layer for an inputANN绕过隐藏层输入
【发布时间】:2013-11-10 18:48:21
【问题描述】:

我刚刚被分配了一项任务来计算一些 ANN 输出并编写一个 ANN。简单的东西,以前做过,所以我不需要任何关于一般 ANN 东西的帮助。然而,有一点让我很困惑。作业中的拓扑如下(图是他的知识产权就不上传了):-

  • 2 层,3 个隐藏层和一个输出层。
  • 输入 x1 进入 2 个隐藏节点和输出节点。
  • 输入 x2 进入 2 个隐藏节点。

问题是非常常见的 XOR。他之前没有提到过这种拓扑,我肯定参加过每一堂课,认真听过。我就是这样的好学生:)

我不认为这算作家庭作业,因为我手头的实际任务不需要帮助。

任何关于为什么要使用具有这种拓扑结构的网络的见解都会很棒。

问候

【问题讨论】:

    标签: neural-network xor backpropagation feed-forward


    【解决方案1】:

    神经网络看起来像上图吗?它看起来像一个普通的 XOR 拓扑,有一个隐藏层和一个偏置神经元。偏置神经元基本上可以帮助您将激活函数的值向左或向右移动。

    有关偏置神经元作用的更多信息,请查看以下答案:

    更新

    我能够找到一些关于此的文献。显然,输入有可能跳过隐藏层并进入输出层。这称为跳过层,用于对神经网络中的传统线性回归进行建模。 Neural Network Modeling Using Sas Enterprise Miner 一书中的This page 描述了这个概念。同一本书中的This page 也更详细地介绍了这个概念。

    【讨论】:

    • 感谢您的回答。不,当我说其中一个输入进入输出节点(当然是加权的)时,我实际上是指输入向量中的一个元素。因此,在您的示例中,假设 A 和 H1 一样进入输出节点。
    • 但不是 H2,可以说。
    • 嗯,这是一个奇怪的拓扑;我以前从未见过这种情况,但我在神经网络方面的经验再次处于业余水平。
    • 嗯,这是在大学介绍 ANN 课程......我也觉得很奇怪。
    • 啊,太棒了,这至少提供了一些解释,并验证了它实际上是可以做到的!我必须承认很奇怪!
    猜你喜欢
    • 1970-01-01
    • 2016-09-09
    • 2021-07-01
    • 2019-05-29
    • 1970-01-01
    • 1970-01-01
    • 2011-12-06
    • 2020-04-19
    • 2013-08-18
    相关资源
    最近更新 更多