![信息论与编码原理](https://wfqqreader-1252317822.image.myqcloud.com/cover/517/688517/b_688517.jpg)
2.1.3信息熵的性质
1. 非负性
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0024_0005.jpg?sign=1738842645-qdgAXPAirY69Eq67M7WdJ1C9HLT9vMfZ-0-a615a44e070c02c4c273f07adf5f8bfb)
其中等号成立的充要条件是当且仅当对某i,p(xi)=1,其余的p(xk)=0(k≠i)。
证明 由H(X)的定义式(2-7)可知,随机变量X的概率分布满足0≤p(x)≤1,log2p(x) ≤0,所以H(X)≥0。
因为每一项非负,所以必须是每一项为零等号才成立。即-p(xi)log2 p(xi)=0,此时只有p(xi)=0或p(xi)=1时上式才成立,而
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0001.jpg?sign=1738842645-7Ynch9NDTQnT9qjPlkvHEoUbdQMLx2s2-0-6c4f5010c2799be657c1d44fbb9d56f2)
所以只能有一个p(xi)=1,而其他p(xk)=0(k≠i)。这个信源是一个确知信源,其熵等于零。
2.对称性
熵的对称性是指H(X)中的p(x1), p(x2), …, p(xi), …, p(xn)的顺序任意互换时,熵的值不变。即
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0002.jpg?sign=1738842645-pYSS698Y9ky3Pe1n1cLhsDbxBoqtFMGu-0-474a4c713eab2ef5ef80f1f6ed7b63a3)
由式(2-7)的右边可以看出,当概率的顺序互换时,只是求和顺序不同,并不影响求和结果。这一性质说明熵的总体特性,它只与信源的总体结构有关,而与个别消息的概率无关。
例如,两个信源
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0003.jpg?sign=1738842645-8yBSADhwXV9iEfzObbL9iDJrg1YklBBV-0-cf9affe225e26c5687f4edc8877d6713)
的信息熵相等,其中x1,x2,x3分别表示红、黄、蓝3个具体消息,而y1,y2,y3分别表示晴、雾、雨3个消息。因为两个信源的总体统计特性相同,信息熵只抽取了信源输出的统计特征,而没有考虑信息的具体含义和效用。
3. 最大离散熵定理
定理2-1信源X中包含n个不同离散消息时,信源熵有
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0004.jpg?sign=1738842645-1HfarJeAbkPdXd7vT656fmS88rQDhd7o-0-69376195afd996f424e656aeac8130a6)
当且仅当X中各个消息出现的概率相等时,等号成立。
证明 自然对数具有性质 lnx≤x-1,x>0,当且仅当 x=1时,该式取等号。这个性质可用图2-1表示。
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0006.jpg?sign=1738842645-39D7ra21ZrD3qWrOyB4lfZMvqWPddapC-0-48a6e14c8ceb38543ef76c1e6c8a9eb8)
图2-1 自然对数的性质
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0005.jpg?sign=1738842645-wtMA5ylh6UTndipWMUDnbiyRHQPyRUJY-0-cdd004c6b30c78df602298745d05f46d)
令
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0007.jpg?sign=1738842645-JcfkXKqfCvr7vkVSindiJBe4xq1S39xO-0-937dc970973177e4d20a6b26d6c3ea13)
并且
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0008.jpg?sign=1738842645-qZDjQartRVZNNvkUTQr7rvyFDvIkHOyR-0-9525e0e72741f47c7e45d15a99ef1e2c)
得
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0025_0009.jpg?sign=1738842645-RtFNYPdwRk3VcaEfbaICaxNW8pE9rIvx-0-f878b0ae1c52c8ea0574ce739252e6f8)
所以
H(x)≤log2n
等式成立的条件为
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0001.jpg?sign=1738842645-k4ZmjWWxIfZxREYHP5M9YLF2GfdDFgke-0-8fd2b64ac94fc5bdaadb71e378a6daa1)
即。上式表明,等概率分布信源的熵为最大,只要信源中某一信源符号出现的概率较大,就会引起整个信源的熵下降。由于对数函数的单调上升性,集合中元素的数目n越多,其熵值就越大。
4. 可加性
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0003.jpg?sign=1738842645-T6VE4p1y89GtPYsVZ9RADlwRsGSP6LOi-0-15bee41477c95adc3d0b1107797317da)
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0004.jpg?sign=1738842645-ivCOTUu4x9mbpjAEYfojlZzfqLrtNDKx-0-96fa70787357bbfe9a82e98bc3346285)
可加性是信源熵的一个重要特性,可以推广到多个随机变量构成的概率空间之间的关系。
设有N个概率空间X1, X2, …, XN,其联合熵可表示为
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0005.jpg?sign=1738842645-o8sFXk9TtKIOm3gHJWg2yjdbZvIXxNVA-0-62fcad96d1319206ab01d0f476e9bcd6)
如果N个随机变量相互独立,则有
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0006.jpg?sign=1738842645-j6UXxGUBOgFFNF8BuFI5G4Rde2k8b1e4-0-69f0c12c97e2930ee9cc44ba71e48e42)
5. 香农辅助定理和极值性
定理2-2对于任意两个消息数相同的信源X和Y,i=1, 2, …, n,有
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0007.jpg?sign=1738842645-tSrIvxDJpoVSzng8IKFYIee6EAhw9OTA-0-a03c7de75f6d07ec86845f17aa69cc36)
其中,
其含义是任一概率分布对其他概率分布的自信息量取数学期望,必大于等于本身的熵。
由上式可证明条件熵小于等于无条件熵,即
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0009.jpg?sign=1738842645-XGbMet0Cmceg1Yidrn2rcxrFzrajhQum-0-9518c2fe1058bc5ca241d52bb83eaae2)
证明
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0010.jpg?sign=1738842645-R9eYK6iEnJfnXdXXyEKkofrOSTvHqYUb-0-905033ad1369ee8d1825efa9abfc118a)
其中
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0026_0011.jpg?sign=1738842645-zEsdeeSdRqPw5sLUIBOa52hkuSTJMBl4-0-60104b710380ef0b9abfd9938529cd36)
当X与Y互相独立时,即p(xi/yj)=p(xi),上面两式等号成立。
同理
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0027_0001.jpg?sign=1738842645-quBYE2ZjbV1HjXrcKamewKT5i5bu654y-0-4d6acaf45c1e9fbfa192e0513fcfefad)
6. 确定性
![](https://epubservercos.yuewen.com/FE81D6/3590511703660201/epubprivate/OEBPS/Images/figure_0027_0002.jpg?sign=1738842645-jEtFpXNGag8qyjaeXLQJxanJOFJD30nC-0-01449fc19b8b4819df661c969bcb8e4b)
只要信源符号中,有一个符号的出现概率为1,信源熵就等于零。从总体来看,信源虽然有不同的输出符号,但它只有一个符号是必然出现的,而其他符号则是不可能出现的,这个信源是确知信源。