【发布时间】:2020-07-17 03:17:32
【问题描述】:
我已阅读这篇文章,https://www.tensorflow.org/api_docs/python/tf/keras/layers/Dropout。 Dropout 将通过在 ANN 中生成非活动中子来帮助防止过度拟合。但是下一个问题……
为什么我们必须丢弃中子,因为我们可以调整 ANN 中的中子数量?比如这段代码有什么不同?
第一
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(100, activation='relu'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10)
])
第二
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(80, activation='relu'),
tf.keras.layers.Dense(10)
])
我们使用 80 个中子而不是 100 个,这样会丢失 20 个中子
【问题讨论】:
标签: tensorflow machine-learning deep-learning dropout