【发布时间】:2014-09-17 23:55:53
【问题描述】:
就压缩和信息论而言,源的熵是来自源的符号可以传达的平均信息量(以比特为单位)。通俗地说,如果我们对事件的结果有把握,那么熵就小了。
J. Principe, D. Xu, and J. Fisher, “Information theoretic learning,” in Unsupervised Adaptive Filtering, S. Haykin, Ed. New York: Wiley, 2000, vol. I, pp. 265–319.
熵(Shannon 和 Renyis)已通过最小化误差的熵作为目标函数而不是均方误差用于学习。
我的问题是
- 最小化误差熵的基本原理是什么?当熵最大时,我们可以对信息说些什么? 谢谢你
【问题讨论】:
-
不,这与家庭作业无关。我在论文中遇到过熵参数估计 - Deniz Erdogmus,成员,IEEE 和 Jose C. Principe,An Error-Entropy Minimization Algorithm for Supervised Training非线性自适应系统的 J. Principe、D. Xu 和 J. Fisher,“信息论学习”,无监督自适应过滤,S. Haykin,Ed。纽约:威利,2000 年,第一卷。我,第 265-319 页。
-
问题基于这些论文,我将更新我的问题并请求在更新适当后删除反对票。
-
不知道为什么你的投票失败了。这是一个经过充分研究的问题,有用且清晰。
-
@MrAlias:题外话了。
-
@MitchWheat 感谢您的反馈!但是,flag 功能旨在用于此目的。
标签: computer-science estimation entropy