把这种推演用到任意信息源。如果一个信息源往外蹦的随机变量都独立而且服从同一个定义在S={1, 2,…, M}上的分布P(x),那么以下结论依次成立。
信息源里蹦出的随机序列几乎可以肯定是典型的!
每个典型序列出现的概率差不多就是 P(1)^(nP(1))*P(2)^(nP(2))*…*P(M)^(nP(M))!
典型序列的个数 T 差不多就是P(1)^(-nP(1))*P(2)^(-nP(2))*…*P(M)^(-nP(M))!
压缩这个信息源蹦出的每个随机变量平均所需要的最少比特数就是(logT)/n!
这个数字(logT)/n 就等于:-P(1)log P(1)- P(2) log P(2)- …- P(M)log P(M).
这个数字,就是熵。
从熵的表达式看,熵是通过一个概率分布函数 P(x)来定义的。因为概率分布函数 P(x)都对应于它所描写的随机变量 X,所以俺们也可以认为熵是对随机变量 X 的某种特性的度量,而把它记作 H(X)。从压缩的角度讲,熵值 H(X)是对产生随机变量 X 的信息源编码所需要的平均最小比特数,或随机变量 X 中固有的平均信息量。