【发布时间】:2015-04-02 00:48:22
【问题描述】:
我目前正在研究神经网络理论,我发现它到处都是由以下几层组成的:
- 输入层
- 隐藏层
- 输出层
我看到一些图形描述将输入层显示为网络中的真实节点,而另一些则将该层显示为值的向量 [x1, x2, ... xn]
什么是正确的结构?
“输入层”是真正的神经元层吗?或者这只是抽象地命名为层,而它实际上只是输入向量?
添加我在网上找到的矛盾和令人困惑的照片:
这里看起来输入层由神经元组成:
这里看起来输入层只是一个输入向量:
【问题讨论】:
-
如果你有兴趣 - 在下面的库中,没有真正的输入层。网络的输入数量被分配为第一个“隐藏”层中每个神经元的输入数量。但是,输出的数量是要在输出层中创建的神经元的数量。 IE。输出层是真正的神经元层。这是合乎逻辑的,对于神经元来说,输入的数量是动态的,而输出的数量固定为只有一个输出。图书馆:sourceforge.net/projects/c-c-neural-networks
-
"对于一个神经元,输入的数量是动态的,而输出的数量是固定的,只有一个输出" ==> 因此输入的数量可以在第一个隐藏层中定义- 网络不必包含真正的输入层。但它确实必须包含一个真正的输出层。用 x 个神经元创建一个真正的输入层听起来也不自然,其中每个神经元由 x 个输入组成。用 1 个输入创建 x 个神经元,每个神经元听起来对我来说很有趣
标签: machine-learning neural-network