【发布时间】:2019-04-11 10:00:53
【问题描述】:
我看到了一些关于卷积神经网络代码的学习。我不明白这段代码的下一部分。
loss = tf.reduce_sum(tf.nn.l2_loss(tf.subtract(train_output, train_gt)))
for w in weights:
loss += tf.nn.l2_loss(w)*1e-4
第一行是可以理解的。它将学习结果与标签进行比较,然后表示差异的平方。这就是损失的定义。但是后面的代码我看不懂:for w in weights:!!
w 是 10 个权重和偏差的列表。所以len(w) 是20(w10 + b10)。但是为什么这段代码要计算w的平方并乘以1e-4来增加损失呢?
学习过程中是否有必要?
【问题讨论】:
标签: python tensorflow deep-learning regularized