77范文网 - 专业文章范例文档资料分享平台

信息论期末复习

来源:网络收集 时间:2020-12-22 下载这篇文档 手机版
说明:文章内容仅供预览,部分内容可能不全,需要完整文档或者需要复制内容,请下载word后使用。下载word有问题请添加微信号:或QQ: 处理(尽可能给您提供完整文档),感谢您的支持与谅解。点击这里给我发消息

第二章 信源熵

一、自信息量

1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。定 义为其发生概率对数的负值。若随机事件发生ai的概率为p(ai),那么它的自信 息量为:I(ai) log2p(ai) (bit)

2. 性质:在事件发生前,I(ai)表示该事件发生的不确定性。 在事件发生后,I(ai)表示事件发生所提供的信息量。 二、信源熵

1. 定义: 已知单符号离散无记忆信源的数学模型

我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信

n

1

] p(ai)log2p(ai) 源的平均信息量: H(X) E[I(ai)] E[log2

p(ai)i 1

, ai, , an X a1, a2,

P(X) p(a),p(a), ,p(a), ,p(a) 12in

2. 信源熵与平均自信息量之间的区别

两者在数值上是相等的,但含义不同。信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。在离散信源的情况下,信源熵的值是有限的。而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。

3. 最大离散熵定理:信源X中包含n个不同离散消息时,信源熵H(X)有: H(X) log2n

当且仅当X中各个消息出现的概率全相等时,上式取等号。

4. 扩展信源的信源熵:N次扩展信源的信源熵:H(X) NH(X)

N

百度搜索“77cn”或“免费范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,免费范文网,提供经典小说综合文库信息论期末复习在线全文阅读。

信息论期末复习.doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印 下载失败或者文档不完整,请联系客服人员解决!
本文链接:https://www.77cn.com.cn/wenku/zonghe/1168825.html(转载请注明文章来源)
Copyright © 2008-2022 免费范文网 版权所有
声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。
客服QQ: 邮箱:tiandhx2@hotmail.com
苏ICP备16052595号-18
× 注册会员免费下载(下载后可以自由复制和排版)
注册会员下载
全站内容免费自由复制
注册会员下载
全站内容免费自由复制
注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: