信息论自测试卷1
一、选择题
1、下列那位创立了信息论。( )
A. 牛顿 B. 高斯 C. 香农 D. 哈夫曼
2、下列不属于消息的是。( )
A. 文字 B. 信号 C. 图像 D. 语言
3、同时扔两个正常的骰子,即各面呈现的概率都是 1/6,若点数之和为2,则得到的自信息量为( )
A. -log36 bit B. log36 bit C. -log18 bit D. log18 bit
4、下列说法不正确的是( )
A. 异字头码肯定是唯一可译的 B. 逗点码是唯一可译的
C. 唯一可译码不必满足Kraft 不等式 D. 无逗点码可以唯一可译
5、下述编码中那个可能是任何概率分布对应的Huffman编码( )
A. {0,10,11} B. {00,01,10,110} C. {01,10}
D. {001,011,100,101}
6、下列物理量不满足非负性的是( )
A. H(X) B. I(X;Y) C. H(Y|X) D. I(xj;yj)
7、信源的输出与信道的输入匹配的目的不包括( )
A. 符号匹配 B. 信息匹配 C. 降低信道剩余度 D. 功率匹配
8、在串联系统中,有效信息量的值( )
A. 趋于变大 B. 趋于变小 C. 不变 D. 不确定
二、判断题
1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。
( )
2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。( ) 3、两个事件之间的互信息量可正,可负,也可能为0。( )
4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。( )
5、Huffman 编码是唯一的。( ) 6、概率大的事件自信息量大。( )
7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。( ) 8、平稳的离散无记忆信道不可用一维概率描述。( )
三、填空题
1、必然事件的自信息是 。
2、根据码字所含的码元的个数,编码可分为 编码和 编码。 3、不等长D元码,码字最长限定为N,则至多有 个码字。 4、实现准对称DMC信道容量的输入分布为 。 5、各随机变量彼此统计独立,相应的信源就称做 信源。 6、U={a1,a2,a3}, =0.25,P2=0.5,P3=0.25,则H(U) = 。 7、设信源X包含4个不同的离散消息,当且仅当X中各个消息出现的概率为 时,信源熵达到最大值,为 。
8、平均互信息量I(X;Y)与信源熵和条件熵之间的关系 。 四、计算题
1、设离散无记忆信源
s2s3s4s5s6s7s8??S??s1??P??0.220.200.180.150.100.080.050.02? ????码符号集X={0,1,2,3},现对该信源S进行四元哈夫曼编码,试求信源熵H(S)、平均码长L和编码速率η。
2、从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?
五、证明题
1、试证明:任何两个事件之间的互信息量不可能大于其中任何一个事件的自信息量。
2、试证明:平均互信息量同信息熵之间满足
I(X;Y)=H(X)+H(Y)-H(XY)
百度搜索“77cn”或“免费范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,免费范文网,提供经典小说综合文库信息论自测试卷1在线全文阅读。
相关推荐: