【问题标题】:Compress/Decompress based on probability基于概率的压缩/解压缩
【发布时间】:2014-12-06 15:17:33
【问题描述】:

我目前正在阅读李泽年的Fundamentals of Multimedia

书中有一个我无法安静解决的示例问题,即使我似乎了解熵和算术编码/解码。

给定一个已压缩到 100,000 位长度的数据流,并告诉它是对数据序列运行“理想”熵编码器的结果。您还被告知, 原始数据由连续波形的样本组成,每个样本量化为 2 位。未压缩值的概率如下:

00 - 8/16
01 - 6/16
10 - 1/16
11 - 1/16

如何计算未压缩信号的大致长度?

【问题讨论】:

    标签: encoding compression entropy


    【解决方案1】:

    由于您“似乎了解熵”,因此您可以简单地使用熵的公式来做功课。这是玻尔兹曼墓碑上的提示:

    【讨论】:

    • 这对我帮助很大!谢谢!