信息冗余

王朝百科·作者佚名  2010-09-27
窄屏简体版  字體: |||超大  

定量定义信源的信息率的普遍形式为(1)。

根据前面的消息可以得到当前消息的期望的或者平均条件熵。在信息论中经常提及“信息率”或者“信息熵”,当信源是普通的英文文本时这是正确的。由于无记忆信源的消息之间没有相互依赖性,所以无记忆信源的信息率为H(M)。

信源的绝对信息率为

R=log I M I,

即是消息空间基数的对数值。这个公式也称作Hartley函数。这是传送用这个字母表表示的信息的最大信息率。其中对数要根据所用的测量单位选择合适的底数。当且仅当信源是无记忆的且均匀分布的时候,绝对信息率等于信息率。绝对信息冗余绝对信息冗余定义为

D=R-r,

即信息率与绝对信息率之间的差。相对信息冗余D/R称为相对信息冗余,它表示了最大的数据压缩率,这个压缩率用文件大小减小比例所表示。当用原始文件与压缩后的文件表示的时候,R:r 表示能够得到的最大压缩率。与相对信息冗余互补的是效率r/R。均匀分布的无记忆信源的冗余为 0,效率为 100%,因此无法压缩。

其它的冗余概念两个变量之间冗余的度量是互信息或者正规化变量。多个变量之间冗余的度量是总相关(total correlation)。

参见信源编码

信源编码定理

数据压缩

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
© 2005- 王朝網路 版權所有 導航