Transcript 信息技术简介PPT
信息论 --- 信息的概念
•信息是什么?
•信息论研究什么
•信息的量的度量 – 熵
•基本假说(不说 有点扯淡的话题)
•应用
信息论 --- 信息是什么?
确定性的增加---逆Shannon信息定义
物质、能量、信息的标示---Wiener信息定
义的逆
事物及其属性标识的集合 --- 其它
客观事物状态和运动特征的一种普遍形
式(客观世界中大量地存在、产生和传递着以这些
方式表示出来的各种各样的信息)
信息论 --- 研究什么(1)
信息论是运用概率论与数理统计的方法研究信息、
信息熵、通信系统、数据传输、密码学、数据压缩等问
题的应用数学学科。
信息论是一门用数理统计方法来研究信息的度量、
传递和变换规律的科学。它主要是研究通讯和控制系统
中普遍存在着信息传递的共同规律以及研究最佳解决信
息的获限、度量、变换、储存和传递等问题的基础理论。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信
道容量的方法信息传输和信息压缩是信息论研究中的两大领域。这
两个方面又由信息传输定理、信源-信道隔离定理相互联系。
信息论 --- 研究什么(2)
狭义信息论是一门应用数理统计方法来研
究信息处理和信息传递的科学。它研究存在于通
讯和控制系统中普遍存在着的信息传递的共同规
律,以及如何提高各信息传输系统的有效性和可
靠性的一门通讯理论。
一般信息论主要是研究通讯问题,但还包
括噪声理论、信号滤波与预测、调制与信息处理
等问题。
广义信息论不仅包括狭义信息论和一般信
息论的问题,而且还包括所有与信息有关的领域,
如心理学、语言学、神经心理学、语义学等。
信息论 --- 熵的概念(1)
香农于1948年发表于《贝尔系统技术学报》上的论
文《A Mathematical Theory of Communication》(通
信的数学理论)作为现代信息论研究的开端。这一
文章部分基于哈里·奈奎斯特和拉尔夫·哈特利先前的
成果。在该文中,香农给出了信息熵(以下简称为
“熵”Entropy)的定义:
H(x)=E[I(xi)]=E[ log(1/p(xi)) ]
=-∑p(xi)log(p(xi))
(i=1,2,..n)
信息论 --- 熵的概念(2)
Shannon 指出,任何信息都存在冗余,冗余大小与信息中每个符
号(数字、字母或单词)的出现概率或者说不确定性有关。
熵度量的是消息中所含的信息量,其中去除了由消息的固有结构
所决定的部分,比如,语言结构的冗余性以及语言中字母、词的使
用频度等统计特性
Shannon 借鉴了热力学的概念,把信息中排除了冗余后的平均信
息量称为“信息熵”,并给出了上述数学表达式
一般而言,当一种信息出现概率更高的时候,表明它被传播得更
广泛,或者说被引用的程度更高。可以认为,从信息传播的角度来
看,信息熵可以表示信息的价值。
我们就有一个衡量信息价值高低的标准,可以做出关于知识流通
问题的更多推论。
信息论 --- 熵的概念(3)
信息熵:信息的基本作用就是消除人们对事
物的不确定性
一个变量的不确定性越大,熵也就越大,把
它搞清楚所需要的信息量也就越大
一个系统越是有序,信息熵就越低;反之,
一个系统越是混乱,信息熵就越高
信息熵也可以说是系统有序化程度的一个度
量。凡是导致随机事件集合的肯定性、组织性、
法则性或有序性等增加或减少的活动过程,都
可以用信息熵的改变量这个统一的标尺来度量。
信息论 --- 熵的概念(4)
互信息(Mutual Information)是另一有用的信息度
量,它是指两个事件集合之间的相关性。两个
事件X和Y的互信息定义为:
I(X,Y) = H(X) + H(Y) - H(X,Y)
其中H(X,Y) 是联合熵(Joint Entropy),定义为:
H(X,Y) = - ∑ p(x,y)logp(x,y)
信息论 – 应用
编码学
密码学与密码分析学
数据传输
数据压缩
检测理论
估计理论