【发布时间】:2017-08-05 14:51:03
【问题描述】:
在网上查看 Keras CNN 示例时,我总是看到最后两层是全连接层,例如..
model.add(Flatten())
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(3))
我了解最后一个 Dense 层以及数字为 3 的事实,因为在这种特定情况下,这是可供选择的可能类的数量。
我不明白为什么倒数第二个 Dense 层是 64。有时是 64,或 128 或 512。
我的问题是model.add(Dense(64)) 中的 64 是什么意思,是什么决定了这个数字?
【问题讨论】:
-
反复试验……经验数据……奇思妙想……随你便。
-
这个问题不适合 SO,因为它与 keras 编码无关,请在 cross validation 上尝试。
-
表示一个全连接的神经层(不是 CNN 层),里面有 64 个节点。
标签: python keras conv-neural-network