【发布时间】:2019-03-23 07:51:29
【问题描述】:
我试图了解交叉熵如何用于分类任务中的损失定义。
我对 Wikipedia 中关于交叉熵总是大于熵的说法感到非常困惑。我想出了一个非常简单的p(真实分布)和q(假设分布)分布,并计算了交叉熵和熵。并发现这种情况下的交叉熵小于熵。
import numpy as np
p = [0.5, 0.2, 0.2, 0.1]
q_1 = [0.4, 0.2, 0.2, 0.2]
q = [0.4, 0.2, 0.2, 0.2]
def cross_entropy(p, q):
return np.sum(-1*np.multiply(p, np.log(q)))
# Get cross entropy
print(cross_entropy(p, q))
# Get entropy
print(cross_entropy(q_1, q))
出了什么问题?
【问题讨论】:
-
请为您使用的语言添加标签。
标签: python entropy information-theory