【发布时间】:2021-10-25 00:44:01
【问题描述】:
我最近阅读了一篇题为“REGULARIZING NEURAL NETWORKS BY PENALIZING CONFIDENT OUTPUT DISTRIBUTIONS https://arxiv.org/abs/1701.06548"”的论文。作者讨论了通过惩罚低熵来正则化神经网络 通过在负对数似然中添加负熵项并为模型训练创建自定义损失函数来输出分布。
值 β 控制置信度惩罚的强度。我已经为分类交叉熵编写了一个自定义函数,如下所示,但是需要将负熵项添加到损失函数中。
import tensorflow as tf
def custom_loss(y_true, y_pred):
cce = tf.keras.losses.CategoricalCrossentropy()
cce_loss = cce(y_true, y_pred)
return cce_loss
【问题讨论】:
-
加上论文的链接会更好。无论如何,
H函数是什么? -
H是熵函数;添加了论文的链接,
标签: python numpy tensorflow keras deep-learning