【问题标题】:Equations for outputs of nodes in hidden and output layers of a Neural Network神经网络隐藏层和输出层中节点输出的方程
【发布时间】:2011-07-31 19:14:52
【问题描述】:

大家好,我是神经网络的新手。我想知道如何为神经网络的隐藏层和输出层中的节点的输出提出方程。我想知道下面的答案以及您是如何做到的。我也找不到任何合适的阅读材料。

假设我有一个二元分类问题。假设我有一个带有一个隐藏层的多层神经网络。假设我有一个由f(x)=1/(1+e^-z) 给出的 sigmoid 激活函数。有谁知道我如何找到隐藏层中节点的输出和输出层中节点的输出的方程?

谢谢大家,任何帮助都会很棒。

【问题讨论】:

    标签: artificial-intelligence neural-network


    【解决方案1】:

    我将一个三层神经网络简化为一组方程(1 个输入节点、3 个隐藏节点、1 个输出节点),最后得到了图像中显示的那些。 (注意:我假设图像上传工作 - 它们被公司的道德过滤器阻止)。

    1. 我将每个节点的输出标记为 o,下标为 {layer,neuron}。
    2. 权重被标记为 w 下标表示 {to_layer,neuron} 和上标 表示 {from_layer,neuron}。
    3. 偏置项 b 下标为 {layer, neuron}

    如图所示,缩放的 NN 输入 (Cet) 被公式化为第 1 层节点的输出(在图中标记为 Eqn 3)。我的 sigmoidal 激活函数类似于你的(方程 4)。从那里开始,计算第 2 层节点 1 的输出(方程 5),然后计算第 2 层节点 2 的输出(方程 6),然后计算第 2 层节点 3 的输出(方程 7)。

    然后将输出(我的图片中的BISt)计算为隐藏层激活的加权和 - 然后通过激活函数传递。

    这个策略对我的应用很有效。

    【讨论】:

    • 谢谢.. 稍后我会仔细阅读此内容,并在有时间了解时按已接受的答案:)。
    • 没问题 - 如果您有任何问题,请告诉我。
    • 如果是 sigmoid 函数而不是 -x 为什么等式 4 中有 0.8*x 你能解释一下吗
    • @ahim888 细节:发布者在指数中删除了“-”。它应该是 exp(-0.8x)。一般声明:0.8 因子用作“整形”项,有效控制 x=0 附近的挤压函数的陡度。较高的值(在这种情况下为 10)会增加陡度并导致挤压函数趋向于单位阶跃函数。较低的值(在本例中为 0.1)会降低陡度并导致挤压函数更像 x=0 附近的线。
    猜你喜欢
    • 2017-09-28
    • 2017-12-20
    • 2019-08-02
    • 1970-01-01
    • 2015-11-27
    • 2018-01-30
    • 2016-12-30
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多