1.binary_crossentropy交叉熵损失函数,一般用于二分类:

笔记|损失函数

这个是针对概率之间的损失函数,你会发现只有yi和ŷ i是相等时,loss才为0,否则loss就是为一个正数。而且,概率相差越大,loss就越大。这个神奇的度量概率距离的方式称为交叉熵。

2.categorical_crossentropy分类交叉熵函数:

笔记|损失函数

交叉熵可在神经网络(机器学习)中作为损失函数。 如下公式所示:y表示真实标记的分布,a则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量y与a的相似性。交叉熵作为损失函数还有一个好处是使用sigmoid函数在梯度下降时能避免均方误差损失函数学习速率降低的问题,因为学习速率可以被输出的误差所控制。

笔记|损失函数

相关文章:

  • 2022-12-23
  • 2021-05-09
  • 2021-10-21
  • 2021-08-05
  • 2022-12-23
  • 2021-07-14
  • 2021-08-24
猜你喜欢
  • 2021-05-29
  • 2021-07-14
  • 2021-08-09
  • 2021-08-24
  • 2021-09-27
  • 2022-01-19
  • 2021-12-01
相关资源
相似解决方案