离散无记忆与有记忆信源的序列熵

news2025/8/2 20:38:31

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

文章目录

      • 离散无记忆信源的序列熵
        • 信源的序列熵
      • 离散有记忆信源的序列熵
        • 平稳有记忆N次扩展源的熵

离散无记忆信源的序列熵

马尔可夫信源的特点:无后效性。

发出单个符号的信源

  • 指信源每次只发出一个符号代表一个消息;

发出符号序列的信源

  • 指信源每次发出一组含二个以上符号的符号序列代表一个消息。

当信源无记忆时:
p ( X ˉ = x i ) = p ( x i 1 , x i 2 , ⋯   , x i L ) = p ( x i 1 ) p ( x i 2 ) p ( x i 3 ) ⋯ p ( x i L ) = ∏ l = 1 L p ( x i l ) \begin{aligned} p(\bar{X}&\left.=x_{i}\right)=p\left(x_{i_{1}}, x_{i_{2}}, \cdots, x_{i_{L}}\right) =p\left(x_{i_{1}}\right) p\left(x_{i_{2}}\right) p\left(x_{i_{3}}\right) \cdots p\left(x_{i_{L}}\right)=\prod_{l=1}^{L} p\left(x_{i_{l}}\right) \end{aligned} p(Xˉ=xi)=p(xi1,xi2,,xiL)=p(xi1)p(xi2)p(xi3)p(xiL)=l=1Lp(xil)

信源的序列熵

H ( X ˉ ) = − ∑ i = 1 n L p ( x i ) log ⁡ p ( x i ) = − ∑ i ∏ l = 1 L p ( x i i ) log ⁡ p ( x i i ) = ∑ l = 1 L H ( X l ) \begin{aligned} H(\bar{X}) &=-\sum_{i=1}^{n^{L}} p\left(x_{i}\right) \log p\left(x_{i}\right) \\ &=-\sum_{i} \prod_{l=1}^{L} p\left(x_{i_{i}}\right) \log p\left(x_{i_{i}}\right)=\sum_{l=1}^{L} H\left(X_{l}\right) \end{aligned} H(Xˉ)=i=1nLp(xi)logp(xi)=il=1Lp(xii)logp(xii)=l=1LH(Xl)

  • 若又满足平稳特性(平稳信号包含的信息量小,其统计特性随时间不变化),即与序号l无关时:

    p ( X ‾ ) = ∏ l = 1 L p ( x i i ) = p L p(\overline{\mathrm{X}})=\prod_{l=1}^{L} p\left(x_{i_{\mathrm{i}}}\right)=p^{L} p(X)=l=1Lp(xii)=pL

  • 信源的序列熵

    H ( X ‾ ) = LH ⁡ ( X ) H(\overline{\mathrm{X}})=\operatorname{LH}(X) H(X)=LH(X)

  • 平均每个符号(消息)熵(符号熵) 为

    H L ( X ˉ ) = 1 L H ( X ˉ ) = H ( X ) H_{L}(\bar{X})=\frac{1}{L} H(\bar{X})=H(X) HL(Xˉ)=L1H(Xˉ)=H(X)

例: 有一个无记忆信源随机变量 X ∈ ( 0 , 1 ) \mathrm{X} \in(0,1) X(0,1) , 等概率分布, 若以单个符号出现为一事件, 则此时的信源熵:

H ( X ) = log ⁡ 2 2 = 1 H(X)=\log _{2} 2=1 H(X)=log22=1 bit/符号

即用 1 比特就可表示该事件。

  • 如果以两个符号出现 ( L = 2 \mathrm{L}=2 L=2 的序列 )为一事件, 则随机序 列 X ∈ ( 00 , 01 , 10 , 11 ) \mathrm{X} \in(00,01,10,11) X(00,01,10,11) , 信源的序列熵

    H ( X ˉ ) = log ⁡ 2 4 = 2 H(\bar{X})=\log _{2} 4=2 H(Xˉ)=log24=2 bit/序列

即用2比特才能表示该事件。

  • 信源的符号熵

    H 2 ( X ‾ ) = 1 2 H ( X ‾ ) = 1 H_{2}(\overline{\mathrm{X}})=\frac{1}{2} H(\overline{\mathrm{X}})=1 H2(X)=21H(X)=1 bit/符号

  • 信源的序列熵

H ( X ‾ ) = H ( X L ) = − ∑ i = 1 9 p ( a i ) log ⁡ p ( a i ) = 3 b i t /  序列  H(\overline{\mathrm{X}})=H\left(X^{L}\right)=-\sum_{i=1}^{9} p\left(a_{i}\right) \log p\left(a_{i}\right)=3 b i t / \text { 序列 } H(X)=H(XL)=i=19p(ai)logp(ai)=3bit/ 序列 

  • 平均每个符号 (消息) 熵为

H ( X ) = − ∑ i = 1 3 p ( x i ) log ⁡ p ( x i ) = 1.5  bit/符号  H ( X ˉ ) = 2 H ( X ) = 2 × 1.5 = 3 b i t /  序列  \begin{array}{c} H(X)=-\sum_{i=1}^{3} p\left(x_{i}\right) \log p\left(x_{i}\right)=1.5 \text { bit/符号 } \\ H(\bar{X})=2 H(X)=2 \times 1.5=3 \mathrm{bit} / \text { 序列 } \end{array} H(X)=i=13p(xi)logp(xi)=1.5 bit/符号 H(Xˉ)=2H(X)=2×1.5=3bit/ 序列 

离散有记忆信源的序列熵

  • 对于有记忆信源,就不像无记忆信源那样简单, 它必须引入条件熵的概念, 而且只能在某些特殊情况下才能得到一些有价值的结论。

  • 对于由两个符号组成的联合信源, 有下列结论:
    H ( X 1 X 2 ) = H ( X 1 ) + H ( X 2 ∣ X 1 ) = H ( X 2 ) + H ( X 1 ∣ X 2 ) H\left(X_{1} X_{2}\right)=H\left(X_{1}\right)+H\left(X_{2} \mid X_{1}\right)=H\left(X_{2}\right)+H\left(X_{1} \mid X_{2}\right) H(X1X2)=H(X1)+H(X2X1)=H(X2)+H(X1X2)

    H ( X 1 ) ≥ H ( X 1 ∣ X 2 ) , H ( X 2 ) ≥ H ( X 2 ∣ X 1 ) H\left(X_{1}\right) \geq H\left(X_{1} \mid X_{2}\right), H\left(X_{2}\right) \geq H\left(X_{2} \mid X_{1}\right) H(X1)H(X1X2),H(X2)H(X2X1)

  • 当前后符号无依存关系时,有下列推论:
    H ( X 1 X 2 ) = H ( X 1 ) + H ( X 2 ) H ( X 1 ∣ X 2 ) = H ( X 1 ) , H ( X 2 ∣ X 1 ) = H ( X 2 ) \begin{array}{l} H\left(X_{1} X_{2}\right)=H\left(X_{1}\right)+H\left(X_{2}\right) \\ H\left(X_{1} \mid X_{2}\right)=H\left(X_{1}\right), H\left(X_{2} \mid X_{1}\right)=H\left(X_{2}\right) \end{array} H(X1X2)=H(X1)+H(X2)H(X1X2)=H(X1),H(X2X1)=H(X2)

  • 若信源输出一个L长序列,则信源的序列熵

    H ( X ‾ ) = H ( X 1 X 2 ⋯ X L ) = H ( X 1 ) + H ( X 2 ∣ X 1 ) + ⋯ + H ( X L ∣ X L − 1 ⋯ X 1 ) = ∑ l L H ( X l ∣ X l − 1 ) = H ( X L ) \begin{aligned} H(\overline{\mathrm{X}}) &=H\left(X_{1} X_{2} \cdots X_{L}\right) \\ &=H\left(X_{1}\right)+H\left(X_{2} \mid X_{1}\right)+\cdots+H\left(X_{L} \mid X_{L-1} \cdots X_{1}\right) \\ &=\sum_{l}^{L} H\left(X_{l} \mid X^{l-1}\right)=H\left(X^{L}\right) \end{aligned} H(X)=H(X1X2XL)=H(X1)+H(X2X1)++H(XLXL1X1)=lLH(XlXl1)=H(XL)

  • 平均每个符号的熵为:

    H L ( X ˉ ) = 1 L H ( X L ) H_{L}(\bar{X})=\frac{1}{L} H\left(X^{L}\right) HL(Xˉ)=L1H(XL)

  • 若当信源退化为无记忆时: 若进一步又满足平稳性时

    H ( X ˉ ) = ∑ l L H ( X l ) H ( X ˉ ) = L H ( X ) H(\bar{X})=\sum_{l}^{L} H\left(X_{l}\right) \quad H(\bar{X})=L H(X) H(Xˉ)=lLH(Xl)H(Xˉ)=LH(X)

平稳有记忆N次扩展源的熵

X \mathbf{X} X 为离散平稳有记忆信源, X \mathbf{X} X N \mathbf{N} N 次扩展源记为 X N X^{N} XN ,

X N = [ X 1 X 2 ⋯ X N ] X^{N}=\left[X_{1} X_{2} \cdots X_{N}\right] XN=[X1X2XN]
根据熵的可加性,得
H ( X N ) = H ( X 1 X 2 ⋯ X N ) = H ( X 1 ) + H ( X 2 / X 1 ) + ⋯ H ( X N / X 1 ⋯ X N − 1 ) H\left(X^{N}\right)=H\left(X_{1} X_{2} \cdots X_{N}\right)=H\left(X_{1}\right)+H\left(X_{2} / X_{1}\right)+\cdots H\left(X_{N} / X_{1} \cdots X_{N-1}\right) H(XN)=H(X1X2XN)=H(X1)+H(X2/X1)+H(XN/X1XN1)
根据平稳性和熵的不增原理,得 H ( X N ) ≤ N H ( X 1 ) H\left(X^{N}\right) \leq N H\left(X_{1}\right) H(XN)NH(X1), 仅当无记忆信源时等式成立。

对于 X \mathrm{X} X N \mathrm{N} N 次扩展源, 定义平均符号熵为:

H N ( X ) = 1 N H ( X N ) = 1 N H ( X 1 ⋯ X N ) H_{N}(X)=\frac{1}{N} H\left(X^{N}\right)=\frac{1}{N} H\left(X_{1} \cdots X_{N}\right) HN(X)=N1H(XN)=N1H(X1XN)
信源 X \mathrm{X} X 的极限符号熵定义为:
H ∞ ( X ) = lim ⁡ N → ∞ 1 N H ( X N ) = lim ⁡ N → ∞ 1 N H ( X 1 ⋯ X N ) H_{\infty}(X)=\lim _{N \rightarrow \infty} \frac{1}{N} H(X^{N})=\lim _{N \rightarrow \infty} \frac{1}{N} H(X_{1} \cdots X_{N}) H(X)=NlimN1H(XN)=NlimN1H(X1XN)
极限符号熵简称符号熵, 也称熵率

定理: 对任意离散平稳信源, 若 H 1 ( X ) < ∞ H_{1}(X)<\infty H1(X)< , 有:

(1) H ( X N / X 1 ⋯ X N − 1 ) H\left(X_{N} / X_{1} \cdots X_{N-1}\right) H(XN/X1XN1) 不随 N \mathbf{N} N而增加;
(2) H N ( X ) ≥ H ( X N / X 1 ⋯ X N − 1 ) ; H_{N}(X) \geq H\left(X_{N} / X_{1} \cdots X_{N-1}\right) ; HN(X)H(XN/X1XN1);
(3) H N ( X ) H_{N}(X) HN(X) 不随 N 而增加;
(4) H ∞ ( X ) H_{\infty}(X) H(X) 存在,且 H ∞ ( X ) = lim ⁡ N → ∞ H ( X N / X 1 ⋯ X N − 1 ) H_{\infty}(X)=\lim _{N \rightarrow \infty} H(X_{N} / X_{1} \cdots X_{N-1}) H(X)=limNH(XN/X1XN1)

该式表明, 有记忆信源的符号熵也可通过计算极限条件熵得到。

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/367689.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

以高能低碳技术融入PC全生命周期,英特尔联合业界推出绿色商用电脑

双碳既是关系到地球上每个人的大话题&#xff0c;也是IT系统和产品降本增效的重要手段。 英特尔将高能低碳新理念融入从PC定义设计到回收循环的全生命周期 4 大关键环节&#xff0c;值得参考。 碳达峰、碳中和这个“双碳”的话题貌似与技术开发者个人距离很远。其实&#xff0c…

骨传导耳机是怎么传声的,选择骨传导耳机的时候需要注意什么?

​骨传导耳机之所以能够成为当下最火的耳机&#xff0c;骨传导技术将声音转化为震动感&#xff0c;通过骨头进行传播&#xff0c;不会堵塞耳朵&#xff0c;就不会影响到周围环境音。这种技术也让骨传导耳机比传统入耳式耳机更安全&#xff0c;无需入耳式设计&#xff0c;避免了…

小猫小狗玩数学-第14届蓝桥杯STEMA测评Scratch真题精选

[导读]&#xff1a;超平老师的《Scratch蓝桥杯真题解析100讲》已经全部完成&#xff0c;后续会不定期解读蓝桥杯真题&#xff0c;这是Scratch蓝桥杯真题解析第102讲。 蓝桥杯选拔赛现已更名为STEMA&#xff0c;即STEM 能力测试&#xff0c;是蓝桥杯大赛组委会与美国普林斯顿多…

蓝牙运动耳机哪个好,比较好的运动蓝牙耳机

很多想选择蓝牙运动耳机的朋友都不知道应该如何选择&#xff0c;运动首先需要注意的就是耳机的防水能力以及耳机佩戴舒适度&#xff0c;在运动当中会排出大量的汗水&#xff0c;耳机防水等级做到越高&#xff0c;可以更好地保护耳机不受汗水浸湿&#xff0c;下面就分享五款适合…

智能电视“套娃式”收费背后的自我救赎

配图来自Canva可画 近年来随着智能化浪潮的迅速铺开&#xff0c;与以前只能看电视的智能电视相比&#xff0c;现在的智能电视还能打游戏、听音乐&#xff0c;用户还可在电视上自行下载、安装、卸载应用软件&#xff0c;功能大大丰富了。但随着智能电视功能的逐渐增多&#xff…

我们应该如何优雅的处理 React 中受控与非受控

引言 大家好&#xff0c;我是19组清风。有段时间没有和大家见面了&#xff0c;最近因为有一些比较重要的事情&#xff08;陪女朋友和换了新公司&#xff09;在忙碌所以销声匿迹了一小段时间&#xff0c; 后续会陆陆续续补充之前构建 & 编译系列中缺失的部分&#xff0c;提…

day 33 状态压缩dp

二维状态压缩dp对于解决哈密顿回路问题的状态压缩dp只能计算固定起点到其他点的总方案数或最小路径等回路计数小蓝现在在第一栋教学楼&#xff0c;他想要访问每栋教学楼正好一次&#xff0c;最终回到第一栋教学楼&#xff08;即走一条哈密尔顿回路&#xff09;可看做&#xff1…

华为OD机试题,用 Java 解【计算面积】问题

最近更新的博客 华为OD机试 - 猴子爬山 | 机试题算法思路 【2023】华为OD机试 - 分糖果(Java) | 机试题算法思路 【2023】华为OD机试 - 非严格递增连续数字序列 | 机试题算法思路 【2023】华为OD机试 - 消消乐游戏(Java) | 机试题算法思路 【2023】华为OD机试 - 组成最大数…

索引的创建与设计原则

1.索引的声明与使用 1.1索引的分类 MySQL的索引包括普通索引、唯一性索引、全文索引、单列索引、多列索引和空间索引等。 从 功能逻辑 上说&#xff0c;索引主要有 4 种&#xff0c;分别是普通索引、唯一索引、主键索引、全文索引。按照 物理实现方式&#xff0c;索引可以分…

【编程基础之Python】6、Python基础知识

【编程基础之Python】6、Python基础知识Python基础知识Python的基本要素模块语句表达式注释Python的代码格式Python基础知识 Python 是一种高级的、动态的、解释型的编程语言&#xff0c;具有简单易学、开发效率高、可读性强等特点&#xff0c;广泛应用于数据科学、Web 开发、…

CRM系统能帮外贸行业解决哪些问题

国内的外贸行业经历了四个发展阶段&#xff0c;从发展期到繁荣期&#xff0c;CRM客户管理系统逐步走到幕前&#xff0c;成为外贸企业必不可少的主打工具。那么外贸行业整面临哪些问题&#xff1f;该如何解决&#xff1f;下面我们就来说说适合外贸行业的CRM解决方案。 外贸行业…

数据分享|2023年OSM道路数据(全国,分省,分市)

道路数据是我们在各项研究中经常使用的数据!道路数据虽然很常用,但是却基本没有能下载最近年份道路数据的网站,所以很多人不知道如何获到道路数据。 本次我们为大家推荐的下载道路数据的网站是Open Street Map!我们先来了解下Open Street Map,其简称为OSM,是一个开源的地…

整数保序的离散化(C/C++)

目录 1. 离散化的概念 1.1 离散化的运用思路 1.2 离散化的方法 1.2.1 排序 1.2.2 确定一个元素离散化后的结果 1.3 案例分析 1.3.1 1.3.2 区间和 &#xff08;来源&#xff1a;Acwing&#xff09; 1. 离散化的概念 离散化&#xff0c;把无限空间中有限的个体映射到有限的…

机房信息牌系统

产品特色&#xff1a; 无线低功耗安装简单&#xff0c;快速布置易于维护墨水屏显示&#xff0c;清晰&#xff0c;更环保信息后台推送&#xff0c;远程管理多模版样式随意制作多尺寸&#xff1a;4.2寸&#xff0c;7.5寸&#xff0c;10.2寸4.2寸7.5寸10.2寸标签特性&#xff1a;…

每日一个小技巧:教你如何使用终端工具给你的电脑发送弹窗提醒

现在人手一部智能手机&#xff0c;这些智能手机都有个非常实用的功能&#xff0c;那就是弹窗提醒。当我们收到短信&#xff0c;或者微信信息时&#xff0c;手机就会弹窗显示信息的大致内容。有了这个功能你就不会错过重要信息了。 电脑上也有类似的功能&#xff0c;也很实用。…

改进YOLO系列 | 添加轻量化Decouple_Head 和 ASFF_Head

绿色为ASFF_Head,浅蓝色Decoupled_Head,深蓝色是第三步加的_initialize_dh_biases方法后的效果。 参数量与计算量对比 模型参数量 parameters计算量GFLOPsyolov5s_Head723538916.5ASFF_Head1267484725.0Decoupled_Head892869722.0结构图 本篇介绍的这个Decouple_Head和YOLOX…

亚马逊、temu、速卖通、eBay如何提高店铺的订单数量?有什么技巧?

亚马逊卖家店铺的排名与店铺的订单数量有很大关系&#xff0c;所以卖家必须尝试改善店铺的销售。如果找不到正确的方法&#xff0c;订单速度很慢&#xff0c;卖家应该如何提高店铺的订单数量&#xff1f; 一、选择价格低、流量大的产品 无论是精细操作还是配送模式操作&…

代码随想录 NO51 | 动态规划_leetcode583. 两个字符串的删除操作 72. 编辑距离

动态规划_leetcode583. 两个字符串的删除操作 72. 编辑距离 编辑距离总结动态规划快结束了&#xff0c;时间过的好快啊&#xff0c;今天编辑距离系列结束&#xff01; 583. 两个字符串的删除操作 给定两个单词 word1 和 word2 &#xff0c;返回使得 word1 和 word2 相同所需的…

python使用requests提交post请求并上传文件(multipart/form-data)

目录 一、背景 二、请求接口上传文件 2.1、分析接口 2.2、python进行请求 三、总结 一、背景 也是前几天&#xff0c;有一个需求上传文件需要自动化。具体是上传到系统一个文件&#xff0c;并收到返回结果。考虑使用python的requests&#xff0c;一般这种查询或上传文件的接…

DMotion - 基于DOTS的动画框架和状态机

【博物纳新】专栏是UWA旨在为开发者推荐新颖、易用、有趣的开源项目&#xff0c;帮助大家在项目研发之余发现世界上的热门项目、前沿技术或者令人惊叹的视觉效果&#xff0c;并探索将其应用到自己项目的可行性。很多时候&#xff0c;我们并不知道自己想要什么&#xff0c;直到某…