前言

在上篇文章中我们介绍了下通信系统,按照信道中传输的是模拟信号还是数字信号,通信系统可分为模拟通信系统和数字通信系统;此外我们还介绍了广播、点-点、单工通信、半双工通信、全双工通信、并行传输、串行传输这些通信方式。在这篇文章里,我们将介绍信息量和平均信息量

上文链接:《通信原理》(1):初识通信系统

1.信息的度量:信息量

通信的目的在于传输信息,传输信息的多少可用“信息量”来进行衡量,信息量是对消息中“不确定性”的度量。我们先来看个例子:

中国男子乒乓球队获得冠军 中国男子足球队获得冠军

显然,这两条信息发生的概率完全不同,一个接近1,一个几乎为0(狗头保命),那么哪条信息包含的信息量大呢?答案是第二条消息中信息量与消息发生的概率相关,消息出现的概率越小,消息中包含的信息量就越大,且概率为零时(不可能发生事件)信息量为无穷大,概率为1时(必然事件)信息量为0。所以大家知道为什么第二条信息量更大了吧

现在我们用函数的方式来表示信息量I与消息出现概率P(x)之间的关系:

通信原理知识整理大全(通信原理2)(1)

消息出现的概率越小,所含信息量越大,反之信息量越小:

通信原理知识整理大全(通信原理2)(2)

若干个互相独立事件构成的消息,其所含信息量等于各独立事件信息量的和

通信原理知识整理大全(通信原理2)(3)

信息量I与消息出现的概率P(x)之间的关系为:

通信原理知识整理大全(通信原理2)(4)

其中,信息量的单位与对数底数a有关:

来看一道例题::设不同进制离散信源,试计算二进制符号等概率(以相等的概率发送数字0或1)和多进制(M进制)等概率时每个符号的信息量

通信原理知识整理大全(通信原理2)(5)

由此可以得到:

2.平均信息量

平均信息量等于各个符号信息量乘以各自出现的概率之和,描述每个符号所含信息量的统计平均值

设离散信源是一个由n个符号组成的符号集,每个符号xi(i=1,2,…,n)出现概率为P(xi),且ΣP(xi)=1, 则平均信息量为:

通信原理知识整理大全(通信原理2)(6)

与热力学中的熵形式一样,所以称它为信息源的熵,单位为bit/符号

当离散信息源中的每个符号等概率出现时,而且各符号的出现为统计独立时,该信息源的信息量最大,此时最大熵(平均信息量)为:

通信原理知识整理大全(通信原理2)(7)

下面来看两道例题:例1:设由5个符号组成的信息源,其相应概率为

通信原理知识整理大全(通信原理2)(8)

试求信源的平均信息量

解:利用平均信息量公式得:

通信原理知识整理大全(通信原理2)(9)

如果5个符号等概率出现时,平均信息量为:

通信原理知识整理大全(通信原理2)(10)

可以看到平均信息量的确更大

例2:设一离散信源由0, 1, 2, 3四个符号组成,它们出现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现都是独立的。试求某消息201020130213001203210100321010023102002010312032100120210的信息量以及每个符号的平均信息量

解:方法1:求消息中每个符号的个数,然后再乘以其信息量,最后求和

通信原理知识整理大全(通信原理2)(11)

很明显,当符号数目巨大时,这种方法并不合适,一个一个的数工作量太大了

方法2:先求平均信息量,再乘以符号总数

通信原理知识整理大全(通信原理2)(12)

可见,两种算法结果有一定误差,但当消息很长时,用熵的概念来计算比较方便,随着消息序列长度的增加,两种计算误差将趋于零

3.连续信号的信息量和信源熵

对于连续消息,信息论中有一个重要结论,就是任何形式的待传信息都可以用二进制形式表示而不失主要内容。抽样定理告诉我们:一个频带受限的连续信号,可以用每秒一定数目的抽样值代替,而每个抽样值可以用若干个二进制脉冲序列来表示。因此,以上信息量的定义和计算同样适用于连续信号

信源熵(平均信息量):

通信原理知识整理大全(通信原理2)(13)

,