信源编码的基本原理及其应用.. 下载本文

内容发布更新时间 : 2024/6/12 21:33:00星期一 下面是文章的全部内容请认真阅读。

信源编码的基本原理及其应用

课程名称 专 业班 级

学 号 学生姓名

论文成绩 指导教师

通信原理Ⅱ 通信工程 ******* ****** ***** *****

******

信源编码的基本原理及其应用

信息论的理论定义是由当代伟大的数学家美国贝尔实验室杰出的科学家香农在他1948 年的著名论文《通信的数学理论》所定义的,它为信息论奠定了理论基础。后来其他科学家,如哈特莱、维纳、朗格等人又对信息理论作出了更加深入的探讨。使得信息论到现在形成了一套比较完整的理论体系。

信息通过信道传输到信宿的过程即为通信,通信中的基本问题是如何快速、准确地传送信息。要做到既不失真又快速地通信,需要解决两个问题:一是不失真或允许一定的失真条件下,如何提高信息传输速度(如何用尽可能少的符号来传送信源信息);二是在信道受到干扰的情况下,如何增加信号的抗干扰能力,同时又使得信息传输率最大(如何尽可能地提高信息传输的可靠性)。这样就对信源的编码有了要求,如何通过对信源的编码来实现呢?

通常对于一个数字通信系统而言,信源编码位于从信源到信宿的整个传输链路中的第一个环节,其基本目地就是压缩信源产生的冗余信息,降低传递这些不必要的信息的开销,从而提高整个传输链路的有效性。在这个过程中,对冗余信息的界定和处理是信源编码的核心问题,那么首先需要对这些冗余信息的来源进行分析,接下来才能够根据这些冗余信息的不同特点设计和采取相应的压缩处理技术进行高效的信源编码。简言之,信息的冗余来自两个主要的方面:首先是信源的相关性和记忆性。这类降低信源相关性和记忆性编码的典型例子有预测编码、变换编码等;其次是信宿对信源失真具有一定的容忍程度。这类编码的直接应用有很大一部分是在对模拟信源的量化上,或连续信源的限失真编码。可以把信源编码看成是在有效性和传递性的信息完整性(质量)之间的一种折中有段。 信源编码的基本原理:

信息论的创始人香农将信源输出的平均信息量定义为单消息(符号)离散信源的信息熵:

H(x)???p(xi)log2p(xi)i?1L香农称信源输出的一个符号所含的平均信息量为H ( x ) 为信源的信息熵。 通信原理中对信源研究的内容包括3个方面: (1)信源的建模

信源输出信号的数学描述已有成熟的理论——随机过程,一般的随机过程理

论并不涉及和讨论信号中所携带的信息,而通信原理所关心的中心内容则是信号中携带的信息。发射器发送1和发送0的概率是不相等的,因此需要讨论发送1和发送0的不同概率。

(2)信源输出信号中携带信息的效率的计算

在通信原理中,信源输出信号所携带信息的效率是用熵率或冗余度来表示的。

(3)信源输出信息的有效表示

一般地,信源输出信号中携带信息的效率并不很高,如何用适当的信号有效地表示信源输出的信息是人们感兴趣的问题,这就是信源编码的问题。 信源编码的方式:

一、模数转化:脉冲编码调制和增量编码调制PCM/DM

二、离散无记忆信源编码DMS,包括有Huffman编码和等长编码

三、线性预测编码LPC,将信源等效地视为在一个适当输入信号激励下的线性系统输出。用线性系统的参数及伴随的输入激励信号进行编码。 一、脉冲编码调制

1.1低通信号的抽样定理——Nyquist抽样定理(均匀采样定理)

一个带限于(0,fm)Hz内的连续时间信号f(t),如果以Ts≤1/2fm秒的时间间隔进行抽样,则f(t)将由得到的抽样值f(kTt)完全确定。

fsNyquist抽样速率: ?2fmTs?1Nyquist最大时间间隔: 2fm低通信号的抽样示意图: