信息论与编码期末考试题(全套) 下载本文

内容发布更新时间 : 2024/5/20 19:35:33星期一 下面是文章的全部内容请认真阅读。

(一)

6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . 7、某二元信源

一、判断题共 10 小题,满分 20 分.

1. 当随机变量X和Y相互独立时,条件熵H(X|Y)等于信源熵H(X). ( )

2. 由于构成同一空间的基底不是唯一的,所以不同的基

1??X??0??P(X)??1/21/2?,其失真矩阵

?????0a?,则该信源的Dmax= . D????a0?底或生成矩阵有可能生成同一码集. 三、本题共 4 小题,满分 50 分.

( ) 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( ) 4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通

信. ( ) 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存

在的充分和必要条件. ( ) 6. 连续信源和离散信源的熵都具有非负性. ( ) 7. 信源的消息通过信道传输后的误差或失真越大,信宿

收到消息后对信源存在的不确

定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0. ( )

10.必然事件和不可能事件的自信息量都是0. ( )

二、填空题共 6 小题,满分 20 分.

1

于 .

2、信源编码的目的是 ;信道编码的目的是 .

3、把信息组原封不动地搬到码字前k位的(n,k)码就叫做 .

4、香农信息论中的三大极限定理

是 、 、 . 5、设信道的输入与输出随机序列分别为X和Y,则I(XN,YN)?NI(X,Y)成立的

条件 ..

word文档 可自由复制编辑

1、某信源发送端有2种符号xi(i?1,2),p(x1)?a;接收端

有3种符号yi(j?1,2,3),转移概率矩阵为

P??1/21-p1-p?1/20??1/21/41/4?.

?p/2(1) 计算接收端的平均不确

01p/2定度H(Y); p/2p/2(2) 计算由于噪声产生的不

p/2p/2确定度H(Y|X);

(3) 计算信道容量以及最佳

2 入口分布 .

1-p2、一阶马尔可夫信源的状态转移图2-13图如右图所示, 信源X的符号集为{0,1,2}.

( 1 )求信源平稳后的概率分布; (2)求此信源的熵; ( 3 )近似地认为此信源为无记忆时,符号的概率分布为

稳分布.求近似信源的熵H(X)并与H?进行比较. 4、设二元(7,4)线性分组码的生成矩阵为

??1101000?G??0110100???1110010??. ?1010001??(1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;

(2)若接收矢量v?(0001011),试计算出其对应的伴随式S并按照最小距离译码准则 试着对其译码.

(二)

一、填空题(共15分,每空1分)

1、信源编码的主要目的是 ,信道编码的主要目的是 。

2、信源的剩余度主要来自两个方面,一是 ,二是 。 3、三进制信源的最小熵为 ,最大熵为 。 4、无失真信源编码的平均码长最小理论极限制为 。 5、当 时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为和 。 7、根据是否允许失真,信源编码可分为和 。

8、若连续信源输出信号的平均功率为?2,则输出信号幅度的概率密度是 时,信源具有最大熵,其值为值 。

9、在下面空格中选择填入数学符号“?,?,?,?”或“?”

(1)当X和Y相互独立时,H(XY) H(X)+H(X/Y) H(Y)+H(X)。

(2)HX??H?X1X2?H?X1X2X3?2?2 H3?X??3

(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y) 0,

H(Y/X) 0,I(X;Y) H(X)。

三、(16分)已知信源

??S??s1s2s3s4s5s6??????P?0.20.20.20.20.10.1?? (1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分)

(3)计算编码信息率R?;(2分)

(4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分)

四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分)

五、(16分)一个一阶马尔可夫信源,转移概率为

P?S211|S1??3,P?S2|S1??3,P?S1|S2??1,P?S2|S2??0。

word文档 可自由复制编辑

(1) 画出状态转移图。(4分) (2) 计算稳态概率。(4分)

(3) 计算马尔可夫信源的极限熵。(4分)

(4) 计算稳态下H1,H2及其对应的剩余度。(4分)

六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。

X12Y12121212121212

七、(16分)设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘

积)。试计算 (1) H?X?,H?Z?;

(2) H?XY?,H?XZ?;

(3) H?X|Y?,H?Z|X?;

(4) I?X;Y?,I?X;Z?;

八、(10分)设离散无记忆信源的概率空间为

??X??x1x2?P???0.80.2?,通过干扰信道,信道输出端的接收符号????集为Y??y1,y2?,信道传输概率如下图所示。

x561y11634x214y2

(1) 计算信源X中事件x1包含的自信息量; (2) 计算信源X的信息熵; (3) 计算信道疑义度H?X|Y?;

(4) 计算噪声熵H?Y|X?;

(5) 计算收到消息Y后获得的平均互信息量。

《信息论基础》2参考答案

一、填空题(共15分,每空1分) 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。

3、三进制信源的最小熵为0,最大熵为log32bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。

5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。

8、若连续信源输出信号的平均功率为?2,则输出信号幅度的概率密度是高斯分布或正态分布或f?x??1?x22?22??e时,

信源具有最大熵,其值为值12log2?e?2。

9、在下面空格中选择填入数学符号“?,?,?,?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。

(2)HH?X1X2?H?X1X2X3?2?X??2?H3?X??3 (3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

??S??s1s2s3s4s5s6??P?????0.20.20.20.20.10.1?? (1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分)

(3)计算编码信息率R?;(2分)

(4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分)

(1)

word文档 可自由复制编辑

S10.200S20.21S01.030.20S140.21S050.11 S60.11

编码结果为:

S1?00S2?01S3?100S4?101 S5?110S6?1116(2)L??Pi?i?0.4?2?0.6?3?2.6码元

i?1符号(3)R??Llogr=2.6bit符号

(4)R?H?S??2.53?0.973bitL2.6码元其中,H?S??H?0.2,0.2,0.2,0.2,0.1,0.1??2.53bit符号

(5)??H?S?H?S?Llogr?L?0.973

评分:其他正确的编码方案:1,要求为即时码 2,平均码长

最短 四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分)

(1)R1t?t??H?X??H?XY???

H?X???11118log8?4?2log2?1log8?1log2 22?3

2log2?12log2?2log2?2bitR2bitt??s?4?1060.5bps五、(16分)一个一阶马尔可夫信源,转移概率为

P?S211|S1??3,P?S2|S1??3,P?S1|S2??1,P?S2|S2??0。

(1) 画出状态转移图。(4分)