【发布时间】:2014-11-22 15:56:41
【问题描述】:
我有两个 GMM,用于在同一空间中拟合两组不同的数据,我想计算它们之间的 KL 散度。
目前我正在使用 sklearn (http://scikit-learn.org/stable/modules/generated/sklearn.mixture.GMM.html) 中定义的 GMM 和 KL-divergence (http://docs.scipy.org/doc/scipy-dev/reference/generated/scipy.stats.entropy.html) 的 SciPy 实现
我该怎么做呢?我是否只想创建大量随机点,在两个模型中的每一个上获取它们的概率(称为 P 和 Q),然后使用这些概率作为我的输入?或者在 SciPy/SKLearn 环境中是否有一些更规范的方法可以做到这一点?
【问题讨论】:
-
关闭的表单不存在。看看这篇论文以获得它的近似值。 scholar.google.co.kr/…
标签: python numpy statistics scipy scikit-learn