完整版王兴亮数字通信原理.ppt

  1. 1、本文档共92页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第 1 章 绪 论 1.6.2 传输信道 1. 有线信道 常用的有线信道传输媒介有 : 双绞线、同轴电缆、架空 明线、多芯电缆和光纤。 1) 双绞线 双绞线又称为双扭线,它是由若干对且每对由两条相 互绝缘的铜导线按一定规则绞合而成。 双绞线既可以传输模拟信号,又可以传输数字信号,其通信距离一般为 几千米到十几千米。导线越粗,通信距离越远,但导线价格越高。 第 1 章 绪 论 2) 同轴电缆 同轴电缆以硬铜线为芯,外包 一层绝缘材料。这层绝缘材料用密 织的网状导体环绕,网外又覆盖一 层保护性材料。 同轴电缆比双绞线具有更宽的带宽和更好的噪声抑制特性。 50Ω 同轴电缆 : 用于数字信号的传输,即基带同轴电缆; 75Ω同轴电缆 : 用于宽带模拟信号的传输,即宽带同轴电缆。 指沿电缆导体各 点的电磁电压与 电流之比 第 1 章 绪 论 3) 光纤 光纤为圆柱状,由纤芯、包层和护套组成。 纤芯:是由一条或多条非常细的 玻璃或塑料纤维线构成。 包层:折射率比纤芯低,因此可 使光波保持在芯线内。 护套:防止外部的潮湿气体侵入, 并防止磨损或挤压等伤害。 第 1 章 绪 论 根据光纤传输模式的不同,分为 单模光纤 : 指的是光在光纤中的传播只有一种单一模式, 纤芯比较细; 多模光纤 : 指的是光在光纤中可能有多条不同角度入射 的光线在一条光纤中同时传播,纤芯比较粗。 与同轴电缆比较,光纤可提供极宽的频带且功率损耗 小、传输距离远 (2km 以上 ) 、传输率高 ( 可达数千 Mb/s) 、抗 干扰性强 ( 不会受到电子监听 ) ,是构建安全网络的理想选择。 第 1 章 绪 论 1.4 信息论基础 1.4.1 信息 (information) 及其量度 信息可被理解为消息中包含的有意义的内容;消息可 以有各种各样的形式,但消息的内容可统一用信息来表述。 传输信息的多少可直观地使用“信息量”进行衡量。 消息中所含信息量与消息出现的概率之间的关系应反映如下 规律: (1) 消息中所含信息量 I 是消息出现的概率 P ( x ) 的函数,即 )] ( [ x P I I ? (1-2) 第 1 章 绪 论 (2) 消息出现的概率愈小, 它所含信息量愈大; 反之信 息量愈小。 且 时 时 0 1 ? ? P P ? ? ? I I 0 (3) 若干个互相独立事件构成的消息, 所含信息量等于各 独立事件信息量的和, 即 ) ( [ )] ( [ ] ) ( ) ( [ 2 1 2 1 x P I x P I x P x P I ? ? ? ? 可以看出 I 与 P(x) 间应满足以上三点, 则它们有如下关系式: ) ( log ) ( 1 log x P x P I a a ? ? ? (1-3) 第 1 章 绪 论 信息量 I 的单位与对数的底数 a 有关: a =2 单位为比特 (bit ,简写为 b) ; a =e 单位为奈特 (nat ,简写为 n) a =10 单位为笛特 (Det) 或称为十进制单位; a = r 单位称为 r 进制单位。 通常使用的单位为比特。 第 1 章 绪 论 例 1-1 试计算二进制符号等概率和多进制 ( M 进制 ) 等概率 时每个符号的信息量。 解 二进制等概率时, 即 ) bit ( 1 2 1 b 1 ) 0 ( ) 1 ( 2 1 ) 0 ( ) 1 ( ? ? ? ? ? ? I I P P 第 1 章 绪 论 M 进制等概率时,有 M M P P P 1 ) ( ) 2 ( ) 1 ( ? ? ? ? ? ) bit ( b 1 ) ( 1 1 log ) ( ) 2 ( ) 1 ( M M M M I I I M ? ? ? ? ? ? ? 进制单位 ? 第 1 章 绪 论 例 1-2 试计算二进制符号不等概率时的信息量 ( 设 P (1)= P ) 。 解 P (1)= P P (0)=1- P I (1)=-lb P (1)=-lb P (bit) I (0)=-lb P (0)=-lb (1- P ) (bit) 可见, 不等概率时,每个符号的信息量不同。 这里我们引入 平均信息量的概念。平均信息量 I 等于各个符号的信息量乘以 各自出现的概率之和。 第 1 章 绪 论 ) 0 ( 1 ) 0 ( ) 1 ( 1 ) 1 ( bP P bP P I ? ? ? 把 P (1)= P 代入, 则 ) / bit ( ) 1 ( b 1 ) 1 ( b 1 ) 1 ( b 1 ) 1 ( b 1 符号 P P P P P P P P I ? ? ? ? ? ? ? ? ? ? (1-4) 二进制时: 1.4.2 平均信息量 平均信息量 I 等于各个符号的信息量

文档评论(0)

wangsux + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档