模糊推理

Download Report

Transcript 模糊推理

© BeiHang University
人工智能
Artificial Intelligence
主 讲 人:姚 忠
E-mail: [email protected]
Artificial Intelligence
Searching: 1
© BeiHang University
第四章 不确定性推理
Artificial Intelligence
Searching: 2
© BeiHang University
Artificial Intelligence
Searching: 3
0、引言-推理的方式及分类
确定性推理、不确定性推理
© BeiHang University
从推理所用知识的确定性来划分
所谓确定性推理,就是指推理时所用知识与证据都是确定的,推
出的结论也是确定的,其值或者为真或者为假,没有第三种情
况出现。
--根据经典逻辑(命题逻辑及一阶谓词逻辑)的逻辑规则进行
的一种推理。
所谓不确定性推理,是指推理时使用的知识与证据不都是确定的,
推出的结论也是不确定的。
--现实世界中的事物和现象大都是不确定的,或者模糊的,很
难用精确的数学模型来描述,要使计算机能模拟人类的思维活
动,就必须使它具有不确定推理的能力。
4
Artificial Intelligence
Searching: 4
© BeiHang University
一、基本概念
5
前面讨论了建立在经典逻辑基础上的确定性推理,
已知事实以及推理时所依据的知识都是确定的。推
出的结论或证明的假设都是精确的,其真值或者为
真,或者为假。
但是,现实世界中的事物事物之间的关系及其负责
复杂,由于客观上存在的随机性、模糊性以及某些
事物或现象暴露的不充分性,导致人们对它们的认
识是不精确的、不全面的,具有一定程度的不确定
性。
Artificial Intelligence
Searching: 5
一、基本概念
© BeiHang University
I.不确定性是建立在非经典逻辑基础上的一种
推理。它是从不确定性的初始证据出发,通过运用
不确定性的知识,最终推出具有一定程度的不确定
性但却是合理或者近乎合理的结论的思维过程。
II.分类:
不确定推理方法分为两类:一是模型方法,另
一是控制方法。
6
Artificial Intelligence
Searching: 6
© BeiHang University
一、基本概念
7
模型方法-特点是把不确定的证据和不确定的知识分别
与某种度量标准对应起来,并给出更新结论不确定性
的合适的算法。从而建立相应的不确定性推理模型。
控制方法-特点是通过识别领域中引起不确定性的某些
特征及相应的控制策略来限制或减少不确定系统产生
的影响,这类方法没有设置不确定的统一模型。
Artificial Intelligence
Searching: 7
一、基本概念
模型方法又分为
© BeiHang University
a.数值方法
数值方法根据其所依据的理论不同分为基于概率的方法和模糊推
理方法;
基于概率的方法所依据的理论是概率论,而模糊推理依据的理论
是模糊理论。
b.非数值方法
非数值方法是除a之外的不确定性的方法。逻辑法就是一种非数
值方法。
8
Artificial Intelligence
Searching: 8
© BeiHang University
一、基本概念
9
由于概率论有着完善的理论,同时还为不确定性
的合成与传递提供了现成的公式,成为度量不确定
性的重要手段。
这种纯粹依靠概率模型来表示和处理不确定性的
方法称为纯概率方法或概率方法。它虽然有严密的
理论依据,但却要求给出事件的先验概率和条件概
率,而这些数据又不易获得,使其应用受到限制.
为此,人们在概率论的基础上,发展了一些新的
处理不确定性的方法。包括:可信度方法、主观
Bayes方法和证据理论方法。
Artificial Intelligence
Searching: 9
一、基本概念
© BeiHang University
重点探讨的不确定推理方法
10
• 可信度方法
• 主观Bayes方法
• 证据理论方法
• 模糊推理方法
Artificial Intelligence
Searching: 10
二、可信度方法
可信度方法是美国斯坦福大学E. H.Shortliffe等人在
© BeiHang University
确定性理论(Theory of Confirmation)的基础上,结合概
率论提出的一种不确定性推理方法。在MYCIN中成功应用。
I.概念
所谓可信度,就是人们在实际生活中根据自己的经验或
观察对某一事件或现象为真的相信程度(certainty)。
可信度也可以称为”确定性因子“,具有较大的主观性和
经验性,其准确性很难把握。但是,对于某一具体领域而
言,由于领域专家具有丰富的专业知识和实践经验,要给出
该领域的知识的可信度还是完全有可能的。
11
Artificial Intelligence
Searching: 11
二、可信度方法
© BeiHang University
II.表示
C-F模型中,知识是用产生式规则表示的,一般形式为:
IF E
THEN H (CF(H,E))
其中,E是知识的前提条件,或称为证据。可以是简单条件,
还可以是AND或OR所构成的复合条件。
E=E1 AND E2 AND(E3 OR E4)
H是结论,可以是简单结论,也可以是多个结论;
CF(H,E)是该知识的可信度,称为可信度因子(Certainty
Factor)或规则强度。反映了前提条件与结论的联系程度。
如: IF 头痛 AND 流涕 THEN 感冒(0.7)
-----表示有七成把握认为他是患感冒了。
12
Artificial Intelligence
Searching: 12
二、可信度方法
© BeiHang University
CF(H,E)是在[-1,1]上取值。 CF(H,E)值要求
领域专家直接给出。原则是:
若由于相应证据的出现增加结论H为真的可信度,则
取CF(H,E)>0,证据的出现越是增加支持H为真,就
使CF(H,E)的值越大。
反之,取CF(H,E)<0,证据的出现越是支持H为假,
就使CF(H,E)的值越小。
若证据的出现与否与H无关,则取CF(H,E)=0。
13
Artificial Intelligence
Searching: 13
二、可信度方法
III.证据不确定性的表示
© BeiHang University
证据的不确定性也可以用可信度因子表示。
CF(E)是在[-1,1]上取值。对于初始证据,若对它的所有观
察S能肯定它为真,则取CF(E)=1;若肯定它为假,则取CF
(E)=-1;若它以某种程度为真,则取CF(E)为(0,1)中
的一个值,即0<CF(E)<1。若它以某种程度为假,则取CF
(E)为(-1,0)中的一个值,即-1<CF(E)<0。
知识的静态强度与证据的动态强度都是用可信度因子CF
表示的,但意义不相同。静态强度CF(H,E)表示的是知
识的强度,即当E所对应的证据为真时,对H的影响程度;而
动态强度CF(E)表示的是证据E当前的不确定性程度。
14
Artificial Intelligence
Searching: 14
© BeiHang University
二、可信度方法
IV.组合证据不确定性的方法
当组合证据是多个单一证据的合取时,
E=E1 AND E2 AND… AND En
若已知CF(E1), CF(E2),…, CF(En),则
CF(E)=min {CF(E1), CF(E2),…, CF(En)}
当组合证据是多个单一证据的析取时,
E=E1 OR E2 OR… OR En
若已知CF(E1), CF(E2),…, CF(En),则
CF(E)=max {CF(E1), CF(E2),…, CF(En)}
15
Artificial Intelligence
Searching: 15
二、可信度方法
© BeiHang University
V.不确定性的传递算法
C-F模型中的不确定推理从不确定的初始证据出发,通过运用
相关的不确定性知识,最终推出结论并求出结论的可信度。 结
论H的可信度由下式计算:
CF(H)= CF(H,E)×max{0, CF(E)};
若当相应证据以某种程度为假,即CF(E)<0,则 CF(H)=0
说明,该模型没有考虑证据为假时对结论H所产生的影响。
若证据为真,即 CF(E)=1, 可得 CF(H)= CF(H,
E) 说明知识中的规则强度CF(H,E)实际就是前提条件对
应的证据为真时结论H的可信度。或者说,当知识的前提条件
对应的证据存在且为真时,结论H有CF(H,E)大小的可信度。
16
Artificial Intelligence
Searching: 16
二、可信度方法
© BeiHang University
VI.结论不确定性的合成算法
由多条不同知识推出了相同的结论,但可信度不同,则可用合
成算法求出综合可信度。
设有如下知识:
IF E1 THEN H (CF(H, E1 ))
IF E2 THEN H (CF(H, E2 ))
则结论H的综合可信度可分为两步算出:
(1) 分别对每一条知识求出CF(H):
CF1(H)= CF(H, E1 )× max{0, CF( E1 )};
CF2(H)= CF(H, E2 )× max{0, CF( E2 )};
17
Artificial Intelligence
Searching: 17
二、可信度方法
© BeiHang University
VI.结论不确定性的合成算法
18
(2)用下述公式求E1与E2对H的综合影响所形成的可
信度CF1,2(H)。


CF H   CF2 H   CF1 H CF2 H 
 1

CF1, 2 H   CF1 H   CF2 H   CF1 H CF2 H 

CF1 H   CF2 H 


1  minCF1 H  , CF2 H  
Artificial Intelligence
若CF1 H   0,CF2 H   0
若CF1 H   0,CF2 H   0
若CF1 H CF2 H   0
Searching: 18
二、可信度方法
H
E1
E2
E3
例题: 设有一组知识:
© BeiHang University
E4
r1: IF E1 THEN H (0.8)
r2: IF E2 THEN H (0.6)
E7
E8
E5
E6
r3: IF E3 THEN H (-0.5)
推理网络
r4: IF E4 AND ( E5 OR E6)THEN E1 (0.7)
r5: IF E7 AND E8 THEN E3 (0.9)
已知: CF( E2 )=0.8, CF( E4 )=0.5, CF( E5 )=0.6, CF( E6 )=0.7,
CF( E7 )=0.6, CF( E8 )=0.9
求:CF(H)
19
Artificial Intelligence
Searching: 19
二、可信度方法
© BeiHang University
第一步:对每一条规则求出CF(H)
r4: IF E4 AND ( E5 OR E6)THEN E1 (0.7)
CF  E 1   0 . 7  max 0 , CF  E 4
 E 5 OR E 6 
 0 . 7  max 0 , min CF  E 4 , CF  E 5
OR
E 6 
 0 . 7  max 0 , min CF  E 4 , max CF  E 5 , CF  E 6 
 0 . 7  max 0 , min 0 . 5 , max 0 . 6 , 0 . 7 
 0 . 7  max 0 , 0 . 5
AND
 0 . 35
20
Artificial Intelligence
Searching: 20
二、可信度方法
© BeiHang University
第一步:对每一条规则求出CF(H)
r5: IF E7 AND E8 THEN E3 (0.9)
CF  E 3   0 . 9  max 0 , CF  E 7
AND
E 8 
 0 . 9  max 0 , min CF  E 7 , CF  E 8

 0 . 9  max 0 , min 0 . 6 , 0 . 9 
 0 . 9  max 0 , 0 . 6 
 0 . 54
21
Artificial Intelligence
Searching: 21
二、可信度方法
© BeiHang University
第一步:对每一条规则求出CF(H)
r1: IF E1 THEN H (0.8)
CF 1  H   0 . 8  max 0 , CF  E 1 
 0 . 8  max 0 , 0 . 35 
 0 . 28
22
Artificial Intelligence
Searching: 22
二、可信度方法
© BeiHang University
第一步:对每一条规则求出CF(H)
r2: IF E2 THEN H (0.6)
CF 2  H   0 . 6  max 0 , CF  E 2

 0 . 6  max 0 , 0 . 8
 0 . 48
23
Artificial Intelligence
Searching: 23
二、可信度方法
© BeiHang University
第一步:对每一条规则求出CF(H)
r3: IF E3 THEN H (-0.5)
CF 3  H    0 . 5  max 0 , CF  E 3 
  0 . 5  max 0 , 0 . 54 
  0 . 27
24
Artificial Intelligence
Searching: 24
二、可信度方法
© BeiHang University
第二步:根据结论不确定性的合成算法得到
CF 1, 2  H
  CF 1  H   CF 2  H   CF 1  H CF 2  H 
 0 . 28  0 . 48  0 . 28  0 . 48
 0 . 63
CF 1, 2 , 3  H



CF 1, 2  H   CF 3  H
1  min
CF
1, 2
H  ,

CF 3  H

0 . 63  0 . 27
1  min 0 . 63 , 0 . 27 
0 . 36
1  0 . 27
 0 . 49
所以,综合可信度为0.49。
25
Artificial Intelligence
Searching: 25
© BeiHang University
三、主观Bayes方法
主观Bayes方法又称主观概率论,是由R.O.Duda(杜达)等
人于1976年提出的一种不确定推理模型,是对概率论中基本
Bayes公式的改进,该方法在地矿勘探专家系统
PROSPECTOR中得到了成功地应用。
I.基本Bayes公式
设事件B1、B2、。。 Bn是彼此独立、互不相容的事件,
B 1  B 2    B n   (全),
P  B i   0 i  1, 2 ,  , n 
.
对于任一事件A能且只能与B1、B2、。。. Bn中的一个同时发生。
而且 P  A   0 ,则有
P  A B i P  B i 
P B i A  
n
 P A
B
j
P B j 
j 1
26
Artificial Intelligence
Searching: 26
三、主观Bayes方法
© BeiHang University
则有
P B i
 是事件Bi的先验概率 ;P  A B i  是事件Bi发生
条件下事件A的条件概率; P  B i A  是事件A发生条件下事
件Bi的条件概率。
这个公式将出现病症A时,患疾病Bi的概率计算问题转
化为 P  A B i  和 P  B i  的计算问题。即患了疾病Bi时表现为
症状A的概率和患疾病Bi的概率的计算。
如果借助产生式规则
IF E THEN Hi
中的前提条件E代替Bayes公式中的A,用Hi代替公式中
的Bi ,就可以得到
27
Artificial Intelligence
Searching: 27
三、主观Bayes方法
© BeiHang University
P H
i
P E H
E
i
P  H i 
n
 P E
H
j
i  1, 2 ,  , n
P H j 
j 1
也就是说,已知结论Hi的先验概率P(Hi)和已知结论
Hi (i=1,2,…,n)成立时前提条件E所对应的证据出现的条
件概率P(E/Hi),就可用上式求出相应证据出现时结论Hi
的条件概率P(Hi/E)。
28
Artificial Intelligence
Searching: 28
三、主观Bayes方法
© BeiHang University
设H1 ,H2 ,H3分别是3个结论,E是支持这些结论的
证据,且已知:P(H1)=0.4, P(H2)=0.5, P(H3)
=0.2, P(E/H1)=0.3, P(E/H2)=0.4, P(E/H3)
=0.5,求P(H1/E), P(H2/E), P(H3/E)的值 。
P H 1 E  

P H 1  P E H 1 
P H 1  P E H 1   P H
2
 P E
H
2
  P H 3  P E
H
3

0 . 12
0 . 12  0 . 2  0 . 1
 0 . 286
29
Artificial Intelligence
Searching: 29
三、主观Bayes方法
© BeiHang University
II .主观Bayes方法
从上述讨论,直接使用逆概率方法求结论Hi 在证据E
存在情况下的条件概率P(Hi/E)时,不仅需要已知Hi的先
验概率P(Hi),而且还需要知道结论Hi成立的情况下,
证据E出现的概率P(E/Hi)。这在实际中也是相当困难的。
为此,1976年杜达(R.O.Duda)、哈特(P.E.Hart)等
人在Bayes公式的基础上经适当改进提出了主观Bayes方
法,建立了相应的不确定推理模型,并在地址勘探专家系
统PROSPECTOR中得到了成功的运用。
30
Artificial Intelligence
Searching: 30
三、主观Bayes方法
© BeiHang University
a .知识不确定的表示
在主观Bayes方法中,知识是用产生式规则表示的,具
体形式为:
IF E THEN (LS,LN) H
(P(H))其中:
(1)E是该知识的前提条件,它既可以是一个简单条件,也可以
是一个复合条件;
(2)H是结论, P(H)是H的先验概率,它指出在没
有任何证据情况下的结论H为真的概率,即H的一般可能性。
其值由领域专家根据以往的实践及经验给出;
31
Artificial Intelligence
Searching: 31
三、主观Bayes方法
© BeiHang University
IF E THEN (LS,LN) H
(3)( LS,LN )为规则强度,其值由领域专家给出。
LS,LN相当于知识的静态强度。其中LS称为规则成立的
充分性度量,用于指出E对H的支持程度,取值范围为 0 , 

。其定义为:
LS 
32
(P(H))
Artificial Intelligence
P E H

P E  H

(A)
Searching: 32
三、主观Bayes方法
© BeiHang University
a .知识不确定的表示
IF E THEN (LS,LN) H
(P(H))其中
LN相当于规则成立的必要性度量。用于指出¬E对H的支
持程度,即E对H为真的必要性程度,取值范围为 0 ,   ,
其定义为
LN 
P  E H 
P  E  H 

1  P E H 
1  P E  H 
(A1)
(LS,LN)既考虑了证据E的出现对其结论H的支持,
又考虑了证据E的不出现对其结论的H的影响。
33
Artificial Intelligence
Searching: 33
三、主观Bayes方法
© BeiHang University
b .证据不确定性的表示
在主观Bayes方法中,证据的不确定性也是用概率表示
的。例如对于初始证据E,由用户根据观察S给出概率P
(E/S),它相当于动态强度。但由于P(E/S)不太直观,
因而在具体的应用系统中往往采用复合一般经验的比较直观
的方法,如在PROSPECTOR中就引入了可信度的概念。让
用户在-5至5之间的11个整数中根据实际情况选一个数作为
初始证据的可信度,表示他对所提供的证据可以相信的程度。
然后从可信度C(E/S)计算出概率P(E/S)。
34
Artificial Intelligence
Searching: 34
三、主观Bayes方法
© BeiHang University
b .证据不确定性的表示
可信度C(E/S)和概率P(E/S)的对应关系如下:
C(E/S)=-5,表示在观察S下证据E肯定不存在,即
P(E/S)=0;
C(E/S)=0,表示观察S与证据E无关,应该仍然是先验概
率,即P(E/S)=P(E);
C(E/S)=5,表示在观察S下证据E肯定存在,即
P(E/S)=1;
C(E/S)为其他数时与P(E/S)的对应关系,则通过对上述三点
进行分段线性插值得到
35
Artificial Intelligence
Searching: 35
三、主观Bayes方法
P(E/S)
© BeiHang University
b .证据不确定性的表示
1
可信度C(E/S)和概率P
P(E)
(E/S)的对应关系式:
-5 -4 -3 -2 -1 0 1 2 3 4 5
C(E/S)
 C  E S   P  E   5  C  E S  
若0  C  E S   5


5
P E S   
 P  E   C  E S   5 
若  5  C E S   0

5

这样,用户只要对初始证据给出相应的可
信度C(E/S),就可由上式将其转换
为相应的概率P(E/S)。
36
Artificial Intelligence
Searching: 36
三、主观Bayes方法
c .组合证据不确定性的表示
© BeiHang University
当组合证据是多个单一证据的合取时,即:
E=E1 AND E2 AND … AND En
则组合证据的概率取各个单一证据的概率的最小值,即
P(E/S)=min {P(E1 /S), P(E2 /S),…, P(En/S)}
当组合证据是多个单一证据的析取时,即:则组合证据的概率
取各个单一证据的概率的最大值,即
P(E/S)=max {P(E1 /S), P(E2 /S),…, P(En/S)}
对于“非”的运算,则用下式计算:
P(¬ E/S)=1- P(E/S)
37
Artificial Intelligence
Searching: 37
三、主观Bayes方法
d .不确定性的传递算法
© BeiHang University
在主观bayes方法的表示中,P(H)是专家对结论给出
的先验概率,它是在没有考虑任何证据的情况下根据经验给
出的。随着新证据的获得,对H的信任程度应该有所改变。主
观Bayes方法推理的任务就是根据证据E和概率P(E)和LS、
LN的值,把H的先验概率P(H)更新为后验概率P(H/E)和
P(H/¬ E )。即
P(H)
P  E , LS , LN
P(H/E)或P(H/¬ E )。
由于一条知识所对应的证据可能是肯定存在的,也可能是肯定
不存在的,或者是不确定的,而且在不同情况下确定后验概率
的方法不同,所以下面分别进行讨论。
38
Artificial Intelligence
Searching: 38
三、主观Bayes方法
© BeiHang University
1.证据肯定存在的情况
在证据肯定存在时, P(E)= P(E/S)=1
由bayes公式可得证据E成立的情况下,结论H成立的概
率为: P  H E   P  E H   P  H  / P  E 
(1)
同理,证据E成立的情况下,结论H不成立的概率为:
P  H E   P  E  H   P  H  / P  E 
(2)
(1)除以(2)式,得到
P H E 
P  H E 
39
Artificial Intelligence

P E H

P E  H


P H

P  H

(3)
Searching: 39
三、主观Bayes方法
© BeiHang University
1.证据肯定存在的情况
为简洁,引入几率(odds)函数O(x),它与概率P(x)
的关系为: P  x   O  x 
1  O x 
或者
O x  
P x 
P  x 

P x 
1  P x 
概率和比率的取值范围是不同的,概率
O  x   0 ,  
(B)
P  x   0 ,1
,几率
,可见,P(x)和O(x)有相同的单调性。即
P(x1)< P(x2),则O(x1)< O(x2)。那么,两者虽有着不同
的形式,但一样可以表示证据的不确定性。它们变化的趋势是相
同的,当A为真的程度越大时,几率函数的值也越大。
40
Artificial Intelligence
Searching: 40
三、主观Bayes方法
© BeiHang University
1.证据肯定存在的情况
由LS的定义式(A)以及概率与几率的关系式(B),可得Bayes的修正
公式:
P E H 
P x 
P x 
LS 
O x  

P E  H 
P  x  1  P  x 
O  H / E   LS  O  H

(C)
这就是证据肯定存在时,把先验几率(Prior odds)更新为后验几率
(posterior odds)O(H/E)的计算公式,若换为概率形式,由(B)式,
得到
LS  P  H 
P H E  
 LS  1   P  H   1
这就是把先验概率P(H)更新为后验概率P(H/E)的计算公式。
41
Artificial Intelligence
Searching: 41
三、主观Bayes方法
1.证据肯定存在的情况
© BeiHang University
由以上讨论可以看出充分性度量LS的意义:
(1)当LS>1时,由(C)式,可得
O H / E   O H

由P(x)与O(x)具有相同的单调性,可知
P H / E   P H

这表明,当LS>1时,由于证据E的存在,将增大结论H为真的
概率,而且LS越大, P(H/E)越大,即E对H为真的支持越强。
当 LS   时,O  H / E    ,即 P  H / E   1,表明由于证据E的
存在,将导致H为真,由此,E的存在对H为真是充分的,故称
LS为充分性度量。
42
Artificial Intelligence
Searching: 42
三、主观Bayes方法
1.证据肯定存在的情况
© BeiHang University
(2)当LS=1时,由(C)式,可得
O H / E   O H

O H / E   O H

这表明,E与H无关。
(3)当LS<1时,由(C)式,可得
这表明,由于E的存在,将使H为真的可能性下降。
(4)当LS=0时,由(C)式,可得
O H / E   0
这表明由于证据E的存在,将导致H为假。
上述关于LS的讨论可作为领域专家为LS赋值的依据当证据愈是
支持H为真时,应使相应的LS的值越大。
43
Artificial Intelligence
Searching: 43
P  E
三、主观Bayes方法
LN 
H

P  E  H
O x  
© BeiHang University
2.证据肯定不存在的情况
在证据肯定不存在时, P(E)= P(E/S)=0;


1  P E H
1  P E  H
P x 
P  x 

P x 
1  P x 
P(¬ E )=1;
由于 P  H  E   P  E H   P  H  / P  E 
P  H  E   P  E  H   P  H  / P  E 
两式相除得到
P H  E 
P  H  E 

P  E H

P  E  H


P H

P  H

(D)
由(A1)和(B),可将(D)写为Bayes修正公式:
O  H  E   LN  O  H
44


这就是证据E不存在时,把先验几率O(H)更新为后验概率O
Artificial
Intelligence
Searching: 44
(H/
¬ E)的计算公式。

三、主观Bayes方法
© BeiHang University
2.证据肯定不存在的情况
如果把几率换成概率,可以得到
P H  E  
LN  P  H
 LN

 1  P  H   1
这就是先验概率P(H)更新为后验概率P(H/ ¬ E)的计算公
式。
由上述表达式讨论必要性度量LN的意义:
(1)当LN>1时, O  H  E   O  H 
P H  E   P H

因为P(x)与O(x)具有相同的单调性,可知
这表明LN>1时,由于证据E不存在,将增大结论H为真的概率,
而且LN越大, P(H/ ¬ E)就越大;即¬ E对H为真的支持越强。
当 LN   时,O  H  E    ,
45
Artificial Intelligence
Searching: 45
三、主观Bayes方法
© BeiHang University
2.证据肯定不存在的情况
即
P H  E   1
。表明由于证据不存在,将导致H为真。
(2)当LN=1时, O  H  E   O  H

这表明, ¬ E与H无关.
(3)当LN<1时, O  H  E   O  H

这表明,由于证据E不存在,将使H为真的可能性下降,
或者说由于证据E不存在,将反对H为真。由此,可以体会E
对H的必要性。
46
Artificial Intelligence
Searching: 46
三、主观Bayes方法
© BeiHang University
2.证据肯定不存在的情况
(4)当LN=0时,可得 O  H  E   0
这表明, 由于证据E不存在,将导致H为假。由此可以
看出E对H为真的必要性,故称LN为必要性度量。
由上述讨论,领域专家可为LN赋值,若证据E对H愈是必
要,则相应的LN值越小。
47
Artificial Intelligence
Searching: 47
三、主观Bayes方法
© BeiHang University
2.证据肯定不存在的情况
由于E和¬ E 不可能同时支持H或同时反对H,所以在一条
知识中的LS和LN一般不应该出现如下情况中的一种:
(1)LS>1,LN>1
(2)LS<1,LN<1
只有如下三种情况存在:
(1)LS>1且LN<1
(2)LS<1且LN>1
(3)LS=LN=1
48
Artificial Intelligence
Searching: 48
三、主观Bayes方法
© BeiHang University
例题:设有如下知识:
r1: IF E1 THEN (10,1) H1 (0.03)
r2: IF E2 THEN (20,1) H2 (0.05)
r3: IF E3 THEN (1,0.002) H3 (0. 3)
求当证据E1 E2 E3存在及不存在时, P(Hi/ Ei)及
P(Hi/ ¬ Ei)的值各是多少:
由于r1和r2中的LN=1,所以E1和E2不存在时对H1和H2不
产生影响,即不需要计算P(H1/ ¬ E1)和P(H2/ ¬ E2);
49
Artificial Intelligence
Searching: 49
三、主观Bayes方法
© BeiHang University
r1: IF E1 THEN (10,1) H1 (0.03)
r2: IF E2 THEN (20,1) H2 (0.05)
r3: IF E3 THEN (1,0.002) H3 (0. 3)
由于r1和r2中的LS>1,所以E1和E2存在时需要计算P
(H1/ E1)和P(H2/ E2);
后验概率:
P H 1 E 1  

LS 1  P  H 1 
 LS 1
 1  P  H 1   1
10  0 . 03
10
P H 1 E1 
P H 1 

0 . 24
8
0 . 03
 1   0 . 03  1
 0 . 24
50
Artificial Intelligence
Searching: 50
三、主观Bayes方法
© BeiHang University
r1: IF E1 THEN (10,1) H1 (0.03)
r2: IF E2 THEN (20,1) H2 (0.05)
r3: IF E3 THEN (1,0.002) H3 (0. 3)
后验概率:
P H
2
E2 

LS
 LS 2
2
 P H
2
 1  P  H
P H

2
1
2
P H
E2
2



0 . 51
 10 . 2
0 . 05
20  0 . 05
20
 1   0 . 05  1
 0 . 51
表明:由于E1的存在使H1为真的可能性比先验概率增加了8倍;
由于E2的存在使H2为真的可能性比先验概率增加了10多倍。
51
Artificial Intelligence
Searching: 51
三、主观Bayes方法
© BeiHang University
r1: IF E1 THEN (10,1) H1 (0.03)
r2: IF E2 THEN (20,1) H2 (0.05)
r3: IF E3 THEN (1,0.002) H3 (0. 3)
对于r3,由于LS=1,所以E3存在对H3无影响,不需要计算P(H3/ E3),但因其
LN<1,所以当E3不存在时需要计算P(H3/ ¬ E3);
后验概率:
P H
3
E3  

LN
 LN
3
3
 P H
3
 1  P  H
0 . 002  0 . 3
0 . 002

3 1
P H 3 
P H 3  E 3 
 350
 1  0 .3  1
 0 . 00086
由此看出,由于E3不存在使H3为真的可能性削弱了近350倍。
52
Artificial Intelligence
Searching: 52
三、主观Bayes方法
© BeiHang University
3.证据不确定的情况
以上讨论是在证据肯定存在和肯定不存在情况下,将H
的先验概率更新为后验概率的情况,在现实中,更多的情况
是介于两者之中的情况,表示一种不确定。例如,用户告知
只有60%的把握说明证据E是真的,这就表明初始证据为真的
程度为0.6,即P(E/S)=0.6,这里S是对E的有关观察。下
面,讨论0<P(E/S)<1情况下,确定H的后验概率P(H/S)。
证据不确定的情况下,不能再使用上面的有关公式,要用到杜
达等人在1976年,证明了如下公式:
P  H S   P  H E   P  E S   P  H  E   P  E S 
53
Artificial Intelligence
Searching: 53
© BeiHang University
三、主观Bayes方法
下面,分四种情况讨论这一公式。
(1) P(E/S)=1
此时, P( ¬ E/S)=0,则
P H S   P H E  
LS  P  H
 LS

 1  P  H   1
这就是证据肯定存在的情况。
(2) P(E/S)=0
此时,P( ¬ E/S)=1,则
P H S   P H  E  
LN  P  H
 LN

 1  P  H   1
这就是证据肯定不存在的情况。
54
Artificial Intelligence
Searching: 54
三、主观Bayes方法
© BeiHang University
(3) P(E/S)=P(E)时,表示E与S无关。
P  H S   P  H E   P  E S   P  H  E   P  E S 
利用全概率公式, 上式变为:
P B  
n
 PA
i
P  B /
Ai

i 1
P  H S   P  H E   P  E   P  H  E   P  E   P  H
55
Artificial Intelligence

Searching: 55
三、主观Bayes方法
© BeiHang University
P  H S   P  H E   P  E S   P  H  E   P  E S 
(4) P(E/S)为其他值时,通过分段线性插值可得到:
P H   P H  E 



P
H

E

 P  E S , 若 0  P  E S   P  E 

P E 

P H S   
 P  H   P  H E   P  H    P  E S   P  E  若 P  E   P  E S   1

1  P E 

P(H/S)
1
该公式称为EH公式或UED公式:
P(H/E)
P(H)
P(H/¬E)
EH公式的分段线性插值
56
Artificial Intelligence
0
P(E)
1
P(E/S)
Searching: 56
三、主观Bayes方法
对于初始证据,由于其不确定性是由可信度C(E/S)给出的,
© BeiHang University
只要利用P(E/S)和C(E/S)的对应关系进行转换,得到利用可信
度C(E/S)计算P(H/S)的公式:

1











P
H

E

P
H

P
H

E

C
E
S

1


 , 若 0  C E S   0

5


P H S   
1

P  H    P  H E   P  H   C  E S  若 C  E S   0

5

该公式称为CP公式。
当用初始证据进行推理时,根据用户告知的C(E/S),利用CP
公式求出P(H/S);当用推理过程中得到的中间结论作为证据进行推
理时,利用EH公式求出P(H/S)。
57
Artificial Intelligence
Searching: 57
三、主观Bayes方法
© BeiHang University
e.结论不确定的合成算法
若有n条知识都支持相同的结论,而且每条知识的前
提条件所对应的证据Ei(i=1,2,…,n)都有相应的观察Si
与之对应,则只要先对每条知识分别求出O(H/Si),然后
运用下述公式求出O(H/S1, S2, …, Sn)
O H S 1 , S 2 ,  , S n  
O H / S 1 
O H


O H / S 2
O H


 
O H / S n
O H


 O H
下面给出一个例子,以熟悉主观Bayes的推理过程。
58
Artificial Intelligence
Searching: 58

三、主观Bayes方法
© BeiHang University
e.结论不确定的合成算法
设有下列规则:
r1: IF E1 THEN (2,0.001)
H1
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
已知,O(H1=0.1), O(H2=0.01),(几率)
C(E1/S1)=2, C(E2/S2)=1;(可信度)
求: O(H2/S1,S2)
分析:计算O(H1/S1), O(H1/S2), O(H1/S1,S2)
进而求出O(H2/S1,S2)。
59
Artificial Intelligence
Searching: 59
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
(1)计算O(H1/S1)
P H 1  

O H 1 
1  O H 1 
0 .1
1  0 .1
P H 1 E 1  

O H 1 E 1 
1  O H 1 E 1 
2  0 .1
1  2  0 .1

LS 1  O  H 1 
1  LS 1  O  H 1 
 0 . 17
 0 . 09
60
Artificial Intelligence
Searching: 60
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
(1)计算O(H1/S1)
由于已知了可信度C(E1/S1)=2>0,可以使用CP公式计算
P(H1/S1),用CP公式的后半部分;
P  H 1 / S 1   P  H 1    P  H 1 / E 1   P  H 1 
 0 . 09  0 . 17  0 . 09  
 0 . 122
61
H2
Artificial Intelligence
2
5
1
5
C E 1 / S 1 
O H 1 / S 1  

P H 1 / S 1 
1  P H 1 / S 1 
0 . 122
1  0 . 122
 0 . 14
Searching: 61
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
(2)计算O(H1/S2)
由上面的计算,可以知道P(H1)=0.09
P H 1 E 2  

62
H2
Artificial Intelligence
O H 1 E 2

1  O H 1 E 2
100  0 . 1
1  100  0 . 1


LS
2
1  LS
 O H 1 
2
 O H 1 
 0 . 91
Searching: 62
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
(2)计算O(H1/S2)
由于已知了可信度C(E2/S2)=1>0,可以使用CP公式计算
P(H1/S2),用CP公式的后半部分;
P  H 1 / S 2   P  H 1    P  H 1 / E 2   P  H 1 
 0 . 09  0 . 91  0 . 09  
 0 . 254
63
H2
Artificial Intelligence
1
5
C E 2 / S 2

O H 1 / S 2  
1
5

P H 1 / S 2

1  P H 1 / S 2
0 . 254
1  0 . 254
 0 . 34
Searching: 63

三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
(3)计算O(H1/S1 , S2)
已知了O(H1/S1) ,O(H1/S2)
O H 1 S 1 , S 2  

O H 1 / S 1 
O H 1 
0 . 14
0 .1

0 . 34

O H 1 / S 2
O H 1 

O H 1 
 0 .1
0 .1
 0 . 476
64
Artificial Intelligence
Searching: 64
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
(4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2)
这里H1相当于E,(S1 ,S2 )相当于S。为了确定用EH公式的
哪个部分求 P(H2/S1 ,S2) ,要确定P(H1)和P( H1/S1 ,
S2 )的大小关系:
由于O(H1/S1 ,S2)=0.476, O(H1)=0.1
由与O(x)与P(x)有相同的单调性,所以
由 O(H1/S1 ,S2)> O(H1)推出 P(H1/S1 ,S2)> P(H1)
故选用EH公式的后半部分,求解P(H2/S1 ,S2) 。
65
Artificial Intelligence
Searching: 65
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
(4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2)
P H S   P H  
P H
2
已知
P H E   P H
1  P E 
S 1 , S 2   P H
P H
2


2
Artificial Intelligence

O H
2
1  O H
0 . 01
1  0 . 01
 0 . 01
66
H2

  P  E S   P  E 
P H
2
H 1   P H
1  P H 1 

2

2
若 P E   P  E S   1

EH公式
 P  H 1 S 1 , S 2   P  H 1 
P H 1 S 1 , S 2  

O H 1 / S 1 , S 2

1  O H 1 / S 1 , S 2

0 . 476
1  0 . 476
 0 . 32
Searching: 66
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
(4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2)
P H 2 H 1   P H 2 
P H 2 S 1 , S 2   P H 2  
 P  H 1
1  P H 1 
已知
P H
2
/ H1


O H
2
1  O H
LS
3
1  LS
/ H1
2
/ H1
 O H
3
S 1 , S 2   P  H 1 
2
 O H
200  0 . 01
1  200  0 . 01

2

P H
2
S 1 , S 2   0 . 01 
0 . 67  0 . 01
1  0 . 09
 0 . 32  0 . 09 
 0 . 175
 0 . 67
67
Artificial Intelligence
Searching: 67
三、主观Bayes方法
r1: IF E1 THEN (2,0.001)
H1
© BeiHang University
r2: IF E2 THEN (100, 0.001) H1
r3: IF H1 THEN (200,0.01)
H2
(4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2)
最后,根据O和P的关系,得到
O H
2
S1 , S 2  

P H
S1 , S 2
2
1  P H
0 . 175
1  0 . 175
2

S1 , S 2

 0 . 212
可以看到,H2原先的几率是0.01,通过运用知识r1 r2
r3 ,以及初始证据的可信度C(E1/S1)=2, C(E2/S2)=1
进行推理,最后得出H2的后验几率是0.212,相当于几率
68
Artificial Intelligence
增加了20多倍。
Searching: 68
三、主观Bayes方法
© BeiHang University
最后,再来看一下主观Bayes方法的优缺点:
(1)主观Bayes方法计算公式大多是在概率基础上推导出来的,有坚实的理
论基础;
(2)LS和LN由领域专家更具实践经验给出,避免了大量数学统计工作;
(3)不仅给出了证据肯定存在、肯定不存在的H的先验概率更新为后验概率
的方法,还给出了证据不确定情况下的方法,其确实实现了不确定的逐级传
递。该方法是一种比较实用且较为灵活的不确定推理方法。
缺点:
(1)要求领域专家给出知识时,同时给出H的先验 概率P(H),
这个比较困难;
(2)Bayes定理中关于事件独立性的要求使主观Bayes方法的
使用受到限制。
69
Artificial Intelligence
Searching: 69
© BeiHang University
四、证据理论(theory of evidence)
70
证据理论又称D-S理论,是由德普斯特(Dempster)首先提
出,并由沙佛(Shafer)进一步发展起来的一种处理不确定性
的理论。1981年,由巴纳特(Baenett)将该理论引入到专家
系统,同年,卡威(Garvey)等人用它实现了不确定性推理。
该理论能够区分“不确定”和“不知道”的差异,并能处理由“不知
道”引起的不确定性,具有较大的灵活性,因此受到人们的重
视。
Artificial Intelligence
Searching: 70
四、证据理论
© BeiHang University
回忆:在可信度方法和主观Bayes方法中,知识是用产生式的形
式表示的。
在可信度方法中,证据、结论及知识的不确定性用“可信
度”进行度量的。IF E
THEN H (CF(H,E))
而在主观Bayes方法中,证据及结论的不确定性是以概
率的形式进行度量,而知识的不确定性是以数值对(LS,LN)
来进行度量的。 IF E THEN (LS,LN) H
(P(H))
在用产生式表示知识时,证据可以是单个命题,也可以
是用AND和OR连接起来的复合命题。
71
Artificial Intelligence
Searching: 71
© BeiHang University
四、证据理论
72
在D-S理论中,知识也是用产生式的形式表示的,但证据和结
论又要以集合进行表示。
例如:假设D是所有可能疾病的集合,医生为进行诊断而进行
的各种检查就是获得所需证据的过程,检查获得的结果就是获
得的证据,这些证据就构成了证据集合E。根据证据集合中的这
些证据,就可以判断病人的疾病。
通常,有的证据所支持的不止是一种疾病,而是多种疾病,这
些疾病当然都是集合D中的元素,可以构成D的一个子集H,H就
是结论集合。
设D是变量x所有可能取值的集合,且D中的元素是互斥的,在
任何时刻x都取且只能取D中的某一个元素为值,则称D为x的样
本空间。
Artificial Intelligence
Searching: 72
© BeiHang University
四、证据理论
在D-S理论中,D的任何一个子集A都对应一个关于x的命题,
称该命题为“x的值是在A中。”例如:用x代表打靶时击中的环
数,D={1,2,…,10},则A={5}表示“x的值是5”或者“击中的环数
是5”; A={5,6,7,8}表示“击中的环数是5、6、7、8中的某
一个”。又如:用x代表所看到的颜色, D={红,黄,蓝},则
A={红}表示“x是红色”;若A={红,蓝},则它表示“x或者是红
色,或者是蓝色”。
在D-S理论中,知识的不确定性通过一个集合形式的“可信度因
子”来表示,而证据和结论的不确定性度量则采用信任函数和似
然函数来表示。
73
Artificial Intelligence
Searching: 73
四、证据理论
© BeiHang University
I.概率分配函数
设D为样本空间,其中有n个元素,则D中的子集个数为
2n个,并以2D表示这2n个集合。概率分配函数的作用是把D
D
上的任意一个子集A( 2 )都映射称为[0,1]上的一个数M(A)。
设D为样本空间,领域内的命题都是用D的子集表示,如
果定义函数M(x)为集合2D到区间[0,1]上的一个映射函
数,其满足下列条件: M    0
 M A  1
A D
D
则称M(x)为2 上的基本概率分配函数(Basic
Probability Assignment Function),M(A)称为命题
A的基本概率数;
74
Artificial Intelligence
Searching: 74
四、证据理论
© BeiHang University
M(A)表示对相应命题A的精确信任度。例如:设D={红,
黄,蓝};则它的子集数个数刚好是23=8个,具体为:
A1={red}; A2={yellow}; A3={blue}; A4={red,blue}; A5
={yellow,blue}; A6={red,yellow}; A7={red,yellow,blue}; A8=
{ };
若A={red},M(A)=0.3

表示对命题“x是红色”的正确性的信任度是0.3。
若B={red,yellow}, M(B)=0.2
表示对命题“x或者是红色,或者是黄色”的正确性的信任
度是0.2。可以理解为:概率分配函数实际上是对D的各个子
集进行信任度分配, M(A)表示分给A的那一部分。
75
Artificial Intelligence
Searching: 75
四、证据理论
当A是由多个元素组成时,M(A)不包括对A的子集的
© BeiHang University
信任度,而且也不知道该对它如何进行分配。
例如:在M({red,yellow})=0.2
中不包含对A={red}的信任度0.3,而且也不知道把这个0.2
分给了red,还是分给了yellow.
当A=D时, M(A)是对D的各个子集进行信任分配后剩下的部
分,它表示不知道对这部分如何进行分配。
若M(D)=M({red,yellow,blue} =0.1
表示对这个0.1如何分配,但它不是属于{red},就一定
属于{yellow}或{blue},只是由于存在未知信息,不知道应该
如何分配。
76
Artificial Intelligence
Searching: 76
四、证据理论
概率分配函数与概率不同,如D={red,yellow,blue};
© BeiHang University
M({red})=0.3; M({yellow})=0; M({blue})=0.1; M({red,blue})=0.2;
M({yellow,blue})=0.1; M({red,yellow})=0.2;
M({red,yellow,blue})=0.1;
M( )=0;
显然,M属于概率分配函数的定义,但是
M({red})+ M({blue})+ M({yellow})=0.4
若按概率的要求,这三者的和应该等于1。
77
Artificial Intelligence
Searching: 77
四、证据理论
© BeiHang University
II.信任函数
命题的信任函数(Belief function)Bel: 2D
且 Bel  A  
[0,1],
 M B 
B A
对所有的 A  D .
其中,2D表示D的所有子集。
Bel函数又称为下限函数,Bel(A)表示对命题A为真的
总的信任程度。
由信任函数及概率分配函数的定义容易推出:
Bel    M    0
Bel  D  
78
Artificial Intelligence
 M B   1
B D
Searching: 78
四、证据理论
© BeiHang University
III.似然函数
似然函数(Plausibility function)又称为不可驳斥函数
或上限函数,以下是定义:
似然函数Pl: 2D
[0,1],且Pl  A   1  Bel  A 
对所有的
A  D
由于Bel(A)表示对A为真的信任程度,所以Bel(¬
A)表示对¬A为真,即A为假的信任程度,可以推出Pl
(A)表示对A为非假的信任程度。
下面我们来体会一下:
79
Artificial Intelligence
Searching: 79
四、证据理论
© BeiHang University
III.似然函数
Pl({red})= 1-Bel({¬red})=1- Bel({yellow,blue})
=1-[M({yellow})+M({blue})+M({yellow,blue})]
=1-[0+0.1+0.1]
=0.8
Pl({yellow,blue})=1- Bel(¬{yellow,blue})
=1-Bel({red})
=1-0.3
=0.7
80
Artificial Intelligence
Searching: 80
四、证据理论
© BeiHang University
III.似然函数
Pl({red})= 1-Bel({¬red})=1- Bel({yellow,blue})
=1-[M({yellow})+M({blue})+M({yellow,blue})]
=1-[0+0.1+0.1]
=0.8
由于与{red} 相交不为空集的那些子集
 M  B   M ({ red })  M ({ red , yelow })  M ({ red , blue })  M ({ red , yellow , blue })
{ red }  B  
 0 .3  0 .2  0 .2  0 .1
81

0 . 8 Intelligence
Artificial
Searching: 81
四、证据理论
© BeiHang University
III.似然函数
Pl({yellow,blue})=1- Bel(¬{yellow,blue})
=1-Bel({red})
=1-0.3
=0.7
 M  B   M ({ yellow })  M ({ blue })  M ({ yellow , blue })  M ({ red , blue })
{ yellow , blue }  B  
 M ({ red , yellow })  M ({ red , yellow , blue })
 0  0 .1  0 .1  0 .2  0 .2  0 .1
 0 .7
推广到一般情况,
Pl  A  
 M B 
A B  
82
Artificial Intelligence
Searching: 82
四、证据理论
© BeiHang University
III.似然函数
证明:
Pl  A  
 M  B   1  Bel  A    M  B 
A B  
A B 

 1   Bel  A  



M B 

A B 



M C  
 1 

 C  A

 1

M B 

A B  


 M E 
ED
 0
83
Artificial Intelligence
Searching: 83
四、证据理论
© BeiHang University
IV.信任函数与似然函数的关系
因为
Bel  A   Bel  A  
 M  B    M C 
B A

C  A
 M E   1
ED
所以
Pl  A   Bel  A   1  Bel  A   Bel  A 
1   Bel  A   Bel  A 
0
故
Pl  A   Bel  A 
由于Bel(A)表示对A为真的信任程度,Pl(A)表示对
A为非假的信任程度,因此分别称Bel(A)和Pl(A)为对A
84
Artificial Intelligence
信任程度的下限和上限,记为A(
Bel(A),Pl(A))Searching: 84
四、证据理论
© BeiHang University
IV.信任函数与似然函数的关系
85
下面说明上限和下限的意义:
A(0,0):由于Bel(A)=0,说明对A为真不信任;另外,由
于Bel(¬A)=1-Pl(A)=1-0=1,说明对¬A信任,所以A(0,
0)表示A为假。
A(0,1):由于Bel(A)=0,说明对A为真不信任;另外,由
于Bel(¬A)=1-Pl(A)=1-1=0,说明对¬A也不信任,所以A
(0,1)表示对A一无所知。
A(1,1): Bel(A)=1,说明对A为真信任;另外,由于
Bel(¬A)=1-Pl(A)=1-1=0,说明对¬A不信任,所以A(1,
1)表示A为真。
Artificial Intelligence
Searching: 85
四、证据理论
A(0.25,1):由于Bel(A)=0.25,说明对A为真有一定
© BeiHang University
程度的信任,信任度为0.25;另外,由于Bel(¬A)=1-Pl(A)
=1-1=2,说明对¬A不信任,所以A(0.25,0)表示对A为
真有0.25的信任度。
A(0,0.85):由于Bel(A)=0,说明对A为真不信任;
另外,由于Bel(¬A)=1-Pl(A)=1-0.85=0.15,所以A
(0,0.85 )表示对A为假有一定的信任,信任度为0.15。
A(0.25 ,0.85 ): Bel(A)=0.25,说明对A为真信
有0.25的信任度;另外,由于Bel(¬A)=1-Pl(A)=1- 0.85
=0.15,说明对A为假有0.15的信任度,所以, A
(0.25 ,0.85 )表示对A为真的信任度比对A为假的信任
86
度稍高一些。
Artificial Intelligence
Searching: 86
四、证据理论
© BeiHang University
IV.信任函数与似然函数的关系
从上面的讨论中可以看出, Bel(A)表示对A为真的信
任度; Bel(¬A)表示对¬A,即A为假的信任度; Pl(A)
表示对A为非假的信任度。那么, Pl(A)- Bel(A)表示
对A不知道的程度,即既非对A信任又非不信任的那部分,在
上例中, A(0.25 ,0.85 )中,0.85-0.25=0.60就表示
了对A不知道的程度;
87
Artificial Intelligence
Searching: 87
四、证据理论
© BeiHang University
V.概率分配函数的正交和
有时对同样的证据会得到两个不同的概率分配函数,例
如,对样本空间D={a,b}
从不同的来源分别得到如下两个概率分配函数:
M1({a})=0.3, M1({b})=0.6, M1({a,b})=0.1, M1({ })=0
M2({a})=0.4, M2({b})=0.4, M2({a,b})=0.2, M2({ })=0


需要对其进行组合,德普斯特提出的组合方法就是对两个概
率分配函数进行正交和运算;
R:IF E1 AND E2 THEN A={a} (CF={0.8})
88
Artificial Intelligence
Searching: 88
四、证据理论
© BeiHang University
V.概率分配函数的正交和
定义:设M1和M2是两个概率分配函数,则其正交和
为:
M  M1  M
M A  K
1
M    0
2
M
1
 x M 2  y 
x y A
其中:
K  1
M
x y
1
 x M 2  y  
M
1
 x M 2  y 
x y 
如果 K  0 ,则正交和M也是一个概率分配函数;若 K  0
则不存在正交和M,即没有可能存在的概率函数,称M1和M2矛盾。
89
Artificial Intelligence
Searching: 89
四、证据理论
© BeiHang University
V.概率分配函数的正交和
例:设D={黑,白};且设
M1({黑},{白}, {黑,白},{ })=(0.3, 0.5,0.2,0)

M2({黑},{白}, {黑,白},{ })=(0.6,
0.3,0.1,0)

则,得到
K  1
M
1
 x M 2  y 
x y
 1  [ M 1 黑M
2
白  M 1 白M 2 黑]
 1  [ 0 .3  0 .3  0 .5  0 .6 ]
 0 . 61
90
Artificial Intelligence
Searching: 90
四、证据理论
© BeiHang University
V.概率分配函数的正交和
M 黑   K
M
1
1
 x M 2  y 
x  y  黑

1
0 . 61

1
M 1 黑M 2 黑  M 1 黑M 2 黑, 白  M 1 黑, 白M 2 黑
[ 0 .3  0 .6  0 .3  0 .1  0 .2  0 .6 ]
0 . 61
 0 . 54
同理,可得
,
M 白  0 . 43 M 黑, 白  0 . 03
经过M1和M2进行组合后,得到的概率分配函数为:
M 黑, 白, 黑, 白,    0 .54 ,0 .43 ,0 .03 ,0 
91
Artificial Intelligence
Searching: 91
五、模糊推理方法
© BeiHang University
有对于大多数的应用系统而言,其主要且重要的信息源
有两种,即来自传感器的数据信息和来自专家的语言信息。
前者常用0.5,3,50等数字来表示;而语言信息则用诸如:
大、中等、非常小等文字来表达。传统的工程设计方法只能
用数据信息,而无法用语言信息,而人类解决问题时所使用
的大量知识是经验性的,通常用语言信息来描述,是模糊
的。
1965年,美国著名学者加利福尼亚大学的教授扎德
(Lotfi Zadeh)发表了“fuzzy set”的论文,首先提出了模
糊理论。
92
Artificial Intelligence
Searching: 92
(1)发展
在模糊理论提出的年代,由于计算机发展的限制,以及
© BeiHang University
科学界对模糊的误解,使得模糊理论没有得到应有的发展。
在美国、欧洲、中国和日本,只有少数科学家研究模糊理
论。实际应用寥寥无几。
模糊理论成功的应用首先在自动控制领域。1974年,
英国伦敦大学教授Mamdani(玛达尼)首次将模糊理论应用
于热电厂的蒸气机控制,揭开了模糊理论在控制领域应用的
新篇章。1976年,Mamdani又将模糊理论用于水泥旋转炉
的控制。在所有的应用中,模糊控制在欧洲主要是用于工业
自动化,在美国主要用于军事领域。
93
Artificial Intelligence
Searching: 93
(1)发展
到了80年代,随着计算机技术的发展,日本科学家将模
© BeiHang University
糊理论成功地用于工业控制和消费品控制,在世界范围内掀
起了模糊控制应用高潮,1983年,日本Fuji Electric公司
实现了饮水处理装置的模糊控制。1987年日本Hitachi公司
研制出地铁的模糊控制系统。1987-1990年在日本申报的
模糊产品专利就达319种,分布在过程控制、汽车电子、图
象识别/图象数据处理、测量技术/传感器、机器人、诊断、
家用电器控制等领域。
目前,各种模糊产品充满日本、西欧和美国市场,如模
糊洗衣机、模糊吸尘器、模糊电冰箱和模糊摄像机。各国都
将模糊技术作为本国重点发展的关键技术。
94
Artificial Intelligence
Searching: 94
(1)发展
大多数的工业过程,参数时变呈现极强的非线性特
© BeiHang University
性,一般很难建立数学模型,而常规控制一般都要求系统有
精确的数学模型。所以对于不确定性系统的控制,常规控制
很难实现。而模糊控制可以利用语言信息却不需要精确的数
学模型。模糊控制由模糊数学、计算机科学、人工智能、知
识工程等学科相互渗透,是理论性很强的科学技术。
在人工智能领域,特别是知识的表达方面,模糊逻辑有
相当广阔的应用前景。目前在自动控制、模式识别、自然语
言理解、机器人及专家系统研制等方面,模糊逻辑取得了一
定的成果,引起了计算机科学等领域的越来越多的专家学者
95
的关注。
Artificial Intelligence
Searching: 95
(2)模糊集合
模糊集合(Fuzzy Sets)是模糊控制的数学基础,被
© BeiHang University
认为是经典集合的扩充。我们在这里要明确几个重要的概念:
I. 论域--所讨论的全体对象;“U、E”
II. 元素--论域中的每个对象;
III.集合--论域中具有某种相同属性的确定的、可以彼
此区别的元素的全体。
在经典集合中,元素a属于集合A的关系只有两种,a属
于A或a不属于A,即只有两个真值,“真”和“假”。
96
Artificial Intelligence
Searching: 96
(2)模糊集合
例如,定义18岁以上为成年人,那么不足18岁的人,
© BeiHang University
哪怕差一天也不属于成年,经典集合用特征函数来表征。如
 成年人
1
x   
0
x  18
x  18
这是一种对事物的二值描述即二值逻辑。经典集合不能
描述模糊的概念。在集合概念的基础上,我们引入模糊集合
的说法,那么,集合中的特征函数就相应的变为隶属函数。
隶属度表示元素a属于集合A的程度。是0和1之间的实
数,描述介于“真”和“假”之间的过程。集合中,所有元素的
隶属度全体构成集合的隶属函数。
97
Artificial Intelligence
Searching: 97
(2)模糊集合
表示方法:
© BeiHang University
当论域中元素数目有限时,模糊集合A的数学描述为:
(1)Zadeh表示法
A    x ,  A  x , x  X 
A=uA(x1)/x1+uA(x1)/x2+…+ui(xi)/xi
其中,/只表示分隔符号,不表述分数的意思。
当论域是连续的,或元素数目无限时,
A

A
x  / x
xU
这里,符号+、-、∫不代表数学上的加、减和积分,只是模糊
集合的一种表示,代表“构成”或“属于”。
98
Artificial Intelligence
Searching: 98
(2)模糊集合
© BeiHang University
( 2)序偶表示法
99
A
 A  x 1 , x 1 ,  A  x 2 , x 2 ,  ,  A  x n , x n 
(3)向量表示法
A   A  x 1 ,  A  x 2 ,  ,  A  x n

在向量表示法中,隶属度为0项不能省略。
Artificial Intelligence
Searching: 99
(3)隶属函数
© BeiHang University
隶属函数(Membership Function)是对模
糊概念的定量描述。
 A x 
 A x 
成年人
1.0
0.5
0
18
“成年人”特征函数
100
1.0
Artificial Intelligence
18 25
“成年人”隶属函数
Searching: 100
(3)隶属函数
© BeiHang University
例,以年龄为论域,取U=[0,200],Zadeh给出了“年
老”0与“年青“Y两个模糊集合的隶属函数
0  u  50
0

1

2 
 o u    
5


 
 1  
u

50

 



50  u  200
Y
1

1

u      u  25  2 
 
 1  
5

 



25  u  200
采用Zadeh表示法, “年老”0与“年青“Y两个模糊集合
可以表示为
O 

2

 u  50 
1  

5



50  u  200
101
0  u  25
Artificial Intelligence



1
Y 
u
 1u 
0  u  25

2

 u  25  
1  
 
5

 

1
u
25  u  200
Searching: 101
(3)隶属函数
隶属函数确定方法:
© BeiHang University
I. 模糊统计法;
u0对模糊集合A的隶属度= u0属于A的次数/试验总次数A
II.
ANN法;
利用神经网络的学习功能,由神经网络自动生成隶属函数,并
通过网络的学习自动调整隶属函数的值。
III.专家经验法;
当论域是离散论域时,可根据主观认识,结合个人经验,经过
分析和推理,直接给出隶属度。
IV.常见模糊分布:正态分布、三角分布、梯形分布;S形
分布、Z形分布…
102
Artificial Intelligence
Searching: 102
© BeiHang University
高斯隶属函数
f
x, , c  
参数

 x  c 2
e
2
2
通常为正,c用于

确定曲线的中心。Matlab表
示为gaussmf(x,[ ,c])。

 gaussmf(x,[2,5])
103
Artificial Intelligence
Searching: 103
© BeiHang University
三角形隶属函数
0

xa

b  a
f x, a, b, c   
c  x
c  b
0

x a
a  xb
b xc
xc
参数a、c确定▲形的
脚,b确定▲形的峰。
Matlab表示为
trimf(x,[a, b,c])。

104
trimf(x,[3 6 8])
Artificial Intelligence
Searching: 104
© BeiHang University
S形隶属函数
f x, a, c  
1
1 e
a( xc)
参数a的正负决定了S形
隶属函数的开口朝左或朝
右,用来表示正大、负大的
概念。Matlab表示为
sigmf(x,[a, c])。

105
sigmf(x,[2 4])
Artificial Intelligence
Searching: 105
© BeiHang University
梯形隶属函数
f x, a, b, c, d

0

x

b

 1
d

d
0

x  a
a
a
a  x  b
b  x  c
 x
c
c  x  d
x  d
参数a、d确定梯形的
脚,b、c确定梯形的肩膀,
Matlab表示为
trapmf(x,[a, b,c,d])。

106
trapmf(x,[1 5 7 8])
Artificial Intelligence
Searching: 106
© BeiHang University
Z形隶属函数
这是基于样条函数的曲
线,曲线呈现Z形状。
Matlab表示为
zmf(x,[a, b])。

107
zmf(x,[3 7])
Artificial Intelligence
Searching: 107
(4)模糊集合的运算
© BeiHang University
I. 基本运算--因为模糊集合是由隶属函数来
表征的,所以两个子集之间的运算实际上就
是逐点隶属度进行相应的运算。
(1)空集(模糊集合为空集,则隶属度为0)
A     A u   0
(2)全集(模糊集合为全集E,则隶属度为1)
A  E   A u   1
108
Artificial Intelligence
Searching: 108
© BeiHang University
(4)模糊集合的运算
(3)等集(对所有元素u,若它们的隶属度相等,则A和
B也相等)
A  B   A u    B u 
(4)补集(若 为A的补集)
A   A u   1   A  u 
109
Artificial Intelligence
Searching: 109
© BeiHang University
(4)模糊集合的运算
(5)子集(若B为A的子集)
B  A   B u    A u 
(6)并集(若C为A和B的并集,C  A  B
A  B   A  B u   max   A u ,  B u    A u    B u 
(7)交集(若C为A和B的并集,C
)
)
 A B
A  B   A  B u   min   A u ,  B u    A u    B u 
110
Artificial Intelligence
Searching: 110
(4)模糊集合的运算
© BeiHang University
II. 代数运算
(1)代数积
 A  B  x    A  x  B  x 
(2)代数和
 A  B  x    A  x    B  x    A B  x 
(3)有界和
 A  B  x   min 1,  A  x    B  x   1   A  x    B  x 
(4)有界积
 A  B  x   max 0 ,  A  x    B  x   1  0   A  x    B  x   1
111
Artificial Intelligence
Searching: 111
(4)模糊集合的运算
© BeiHang University
III. 基本性质
满足幂等率、交换率、分配率、吸收率、同
一率、复原率、对偶率。
模糊集合一般不满足互补率,即
A A
C
U
,
A A
C
 
这是因为模糊集合没有明确的边界,其补集
也没有明确的边界。
112
Artificial Intelligence
Searching: 112
(5)模糊关系与模糊关系的合成
© BeiHang University
模糊关系是普通关系的推广。普通关系是描
113
述两个集合中的元素是否有关联,而模糊关系描
述两个模糊集合中的元素之间关联程度的多少。
当论域为有限时,可以用模糊矩阵来描述模糊关
系。
Artificial Intelligence
Searching: 113
(5)模糊关系与模糊关系的合成
© BeiHang University
设某地区人的身高论域为
114
X={140,150,160,170,180}(m),体重论域Y=
{40,50,60,70}(kg),身高与体重两个集合的元
素之间的关联程度如下表:
R
40
50
60
70
80
140
1
0.8
0.2
0.1
0
150
0.8
1
0.8
0.2
0.1
160
0.2
0.8
1
0.8
0.2
170
0.1
0.2
0.8
1
0.8
180
0
0.1
0.2
0.8
1
Artificial Intelligence
Searching: 114
(5)模糊关系与模糊关系的合成
© BeiHang University
它是从X到Y的一个模糊关系R,可以用模糊矩阵表示
为:
1 . 0

0 .8

R   0 .2

 0 .1
0

0 .8
0 .2
0 .1
1 .0
0 .8
0 .2
0 .8
1 .0
0 .8
0 .2
0 .8
1 .0
0 .1
0 .2
0 .8


0 .1

0 .2 

0 .8 
1 
0
模糊矩阵合成是指,根据第一个集合和第二个集合之
间的模糊关系与第二个集合和第三个集合之间的模糊关
系,进而得到第一个集合和第三个集合之间的模糊关系的
一种运算形式。模糊矩阵的合成类似于普通集合的乘积。
将乘积运算换成“取小”,将加运算换成“取大”即可。
115
Artificial Intelligence
Searching: 115
(5)模糊关系与模糊关系的合成
© BeiHang University
设,它是从X到Y的一个模糊关系R,可以用模糊矩阵
表示为:A   a11

 a 21
 c 11
C  AB  
 c 13
a 12 

a 22 
,B
 b11
 
 b 21
b12 

b 22 
,则

c 12 

c 14 
c ij   a ik  b kj

c 11  a 11  b11   a 12  b 21 
c 12  a 11  b12   a 12  b 22

c 21  a 21  b11   a 22  b 21 
c 22  a 21  b12   a 22  b 22
116
Artificial Intelligence

Max-Min复合运算
Searching: 116
(6)模糊推理
© BeiHang University
模糊语句:
将含有模糊概念的语法规则所构成的语句称
为模糊语句,根据语义和构成语法规则分为:
模糊陈述句:语句本身具有模糊性,又称为模糊命题“今
天天气很热”
模糊判断句:形式为:x是a;其中,a表示的概念是模糊的。
如“张三是好学生”。
模糊推理句:语句形式为:若x是a,则x是b,为模糊推
理语句。如:今天是晴天,则天气暖和。
117
Artificial Intelligence
Searching: 117
(6)模糊推理
© BeiHang University
模糊推理方法:
(1)扎德(Zaheh)方法
(2)玛达尼(Mamdani)方法
(3)鲍德温(Baldwin)方法
(4)耶格(Yager)方法
(5)楚卡莫托(Thukamoto)方法
我们的结论是:扎德推理法得到的结果与玛达尼推
理法的推理结果相比,扎德推理法更符合人的思维。
118
Artificial Intelligence
Searching: 118
(6)模糊推理
© BeiHang University
模糊推理:
If A then B类型的模糊规则的推理:
A
B
R
单输入单输出模糊控制器
若已知输入为A,则输出为B,若现在已知输入为
A’,则B’用合成规则求取:
B   A  R
其中,模糊关系R定义为:
 R  x , y   min  A  x ,  B  y 
119
Artificial Intelligence
Searching: 119
(6)模糊推理
© BeiHang University
例如,已知输入的模糊集合A和输出的模糊集
合B分别为:
A=1.0/a1+0.8/a2+0.5/a3+0.2/a4+0.0/a5;
B=0.7/b1+1.0/b2+0.6/b3+0.0/b4;
则模糊关系为
R  A B  
120
Artificial Intelligence
T
A
B
1 . 0 


0 .8


  0 . 5   0 . 7


 0 .2 
 0 .0 


1 .0
0 .6
0 .0 
Searching: 120
© BeiHang University
(6)模糊推理
121
R  A B  
Artificial Intelligence
T
A
B
1 . 0 


0 .8


  0 . 5   0 . 7


0
.
2


 0 .0 


1 .0
0 .6
1 . 0  0 . 7

0 .8  0 .7

  0 .5  0 .7

 0 .2  0 .7
 0 .0  0 .7

1 .0  1 .0
 0 .7

0 .7

  0 .5

 0 .2
 0 .0

1 .0
0 .6
0 .8
0 .6
0 .5
0 .5
0 .2
0 .2
0 .0
0 .0
0 .0 
1 .0  0 .6
0 .8  1 .0
0 .8  0 .6
0 .5  1 .0
0 .5  0 .6
0 .2  1 .0
0 .2  0 .6
0 .0  1 .0
0 .0  0 .6
0 .0 

0 .0

0 .0 

0 .0 
0 . 0 
1 .0  0 .0 

0 .8  0 .0

0 .5  0 .0 

0 .2  0 .0 
0 . 0  0 . 0 
Searching: 121
(6)模糊推理
© BeiHang University
则当输入
122
A’=0.4/a1+0.7/a2+1.0/a3+0.6/a4+0.0/a5;B’由下式求取
 0 .4 


0 .7





B  A  R  1 .0 


0
.
6


 0 .0 


T
 0 .7

0 .7

  0 .5

 0 .2
 0 .0

1 .0
0 .6
0 .8
0 .6
0 .5
0 .5
0 .2
0 .2
0 .0
0 .0
0 .0 

0 .0

0 .0 

0 .0 
0 . 0 
[ 0 . 4  0 . 7   0 . 7  0 . 7   1 . 0  0 . 5   0 . 6  0 . 2   0 . 0  0 . 0 ,
0 . 4  1 . 0   0 . 7  0 . 8   1 . 0  0 . 5   0 . 6  0 . 2   0 . 0  0 . 0 ,
0 . 4  0 . 6   0 . 7  0 . 6   1 . 0  0 . 5   0 . 6  0 . 2   0 . 0  0 . 0 ,
0 . 4  0 . 0   0 . 7  0 . 0   1 . 0  0 . 0   0 . 6  0 . 0   0 . 0  0 . 0 , ]
 [ 0 . 4  0 . 7  0 . 5  0 . 2  0 . 0 , 0 . 4  0 . 7  0 . 5  0 . 2  0 . 0 ,
0 . 4  0 . 6  0 . 5  0 . 2  0 . 0 , 0 . 0  0 . 0  0 . 0  0 . 0  0 . 0 ]
 0 . 7 , 0 . 7 , 0 . 6 , 0 . 0 
Artificial Intelligence
Searching: 122
(6)模糊推理
© BeiHang University
模糊推理:
If A and B then C型的推理:
If A then B else C 如:若炉温偏低,则增加燃料
量,否则减少燃料量;
If A and B then C 如:若炉温偏低,且温度变化
的系数为负,则增加燃料量;
以第二种为例:
A
B
C
模糊控制器R
两输入单输出模糊控制器
123
Artificial Intelligence
Searching: 123
© BeiHang University
(6)模糊推理
常用的模糊推理方法有两种:Zadeh法和
Mamdani法,后者是模糊控制中普遍使用的方
法,本质是一种合成方法。其中,蕴涵的关系是
A B  C
均为三元模糊关系,则关系矩阵R为:
R  A  B 

124
,根据Mamdani模糊推理法,A、B、C
T1
C
称为直积运算。
Artificial Intelligence
Searching: 124
(6)模糊推理
© BeiHang University
其中,T1为列向量转换,n和m分别为A和B
125
论域元素的个数。在确定了模糊关系R后,可以
求给定A1和B1后,对应的输出C1 。为
C 1   A1  B 1 
T2
R
其中,T2为行向量转换。
Artificial Intelligence
Searching: 125
(6)模糊推理-例题
© BeiHang University
设论域X={a1,a2,a3};Y={b1,b2,b3};Z=
{c1,c2,c3},已
知
C 
0 .4
c1

1
c2
A
0 .5

a1
1
a2
Artificial Intelligence
0 .1
1

b1
a3
A1 
时的输出C1。
126
B 

b2
,
0 .6
b3
,
,试确定”If A and B then C“所决定
的模糊关系R,以及输入
解算:

0 .1
 0 .5 


A B  1
 0 . 1


 0 . 1 
1
1 .0
a1

0 .5
a2
 0 .1

0 .6   0 .1

 0 . 1

0 .1
a3
0 .5
1 .0
0 .1
,B
1

0 .1
b1

1
b2

0 .6
b3
0 .5 

0 .6

0 . 1 
Searching: 126
(6)模糊推理-例题
© BeiHang University
解算:
将A×B矩阵扩展成如下列向量:
 A  B T
1
R  A  B 
 0 .1
 
 0 .1
T1
 0 . 1
 C  0 . 1
0 .5
0 .5
0 .1
1 .0
0 .5
0 .5
0 .1
1 .0
0 .6
0 . 1

0 .1 
0 .4
0 .4
0 .1
0 .4
0 .4
0 .1
0 .1
0 .5
0 .5
0 .1
1 .0
0 .6
0 .1
0 .1
0 .6
0 .1
0 .1
0 .1
0 .5
1
0 . 1
T
0 .1
0 . 1  0 . 4
T
1
T
当输入为A1和B1时,有
1 


A1  B 1  0 . 5  0 . 1


 0 . 1 
127
Artificial Intelligence
0 .5
 0 .1

1  0 . 1

 0 . 1
0 .5
0 .1


0 .5

0 . 1 
Searching: 127
(6)模糊推理-例题
© BeiHang University
解算:
将A1×B1矩阵扩展成如下行向量:
 A1  B 1 T
 0 . 1
0 .5
1
0 .1
0 .5
0 .5
0 .1
0 . 1
0 .1
最后得C1为
C 1  0 . 1
 0 . 4
0 .5
1
0 .1
0 .5
0 .5
0 .1
0 .5 
即
128
2
C1 
Artificial Intelligence
0 .4
c1

0 .1
 0 .1
0 . 1  
 0 .1
0 .4
0 .4
0 .1
0 .4
0 .4
0 .1
0 .1
0 .5
0 .5
0 .1
1 .0
0 .6
0 .1
0 .1
0 . 1

0 .1 
0 .5
c2
Searching: 128
T
(7)模糊决策
© BeiHang University
即将模糊推理结果转化为精确值的过程称为反模糊化。
常用的反模糊化方法有三种:
(1)最大隶属度法 (Mamdani推理)
选取推理结果的模糊集合中隶属度最大的元
素作为输出值。即
 0  max    ,   V
如果在输出论域V中,其最大隶属度对应的输出值多
于一个,则取所有具有最大隶属度输出的平均值。若平均
129
值不是整数,则按照四舍五入原则。
1 N
0 
 i  i  max    ,   V

N i 1
Artificial Intelligence
Searching: 129
(7)模糊决策
优点:简单易行、实时性好。
© BeiHang University
缺点:不考虑输出隶属度函数的形状,只考虑最大
隶属度处的输出值,会丢失许多信息,如忽略了小隶属度
元素的影响和作用,但在要求不高的场合,仍可采用。
命令  0  max    ,   V
最大隶属度平均法:
‘lom’最大隶属度取大法
‘som’最小隶属度取小法
130
Artificial Intelligence
Searching: 130
(7)模糊决策
© BeiHang University
(2)取中位数法(Lason推理)
计算模糊集合U的隶属度曲线和论域元素横坐标围成
区域的面积,取平分该面积的数作为模糊判决结果。
优点:充分利用了模糊集合的信息。
缺点:计算繁琐,且缺乏对隶属度最大元素提供主导
信息的充分重视。
命令 y  defuzz  x , mf , ' bi sec tor ' 
131
Artificial Intelligence
(面积等分法)
Searching: 131
(7)模糊决策
© BeiHang University
(3)加权平均法(Tsukamoto推理,楚卡莫托方法)
根据权重进行平均。在工业控制中被广泛采用。
m
0 
面积重心法(力矩法)

i
ki
i 1
m

ki
i 1
取隶属度函数曲线与横坐标围成面积的重心作为模糊推理的最终
输出值。
优点:更平滑的输出推理控制。即使对于输入信号的微小变化也能
使输出产生变化。当
k i     i  时,加权法就转化为重心法。
命令 y  defuzz  x , mf , ' centroid '  面积重心法
132
Artificial Intelligence
Searching: 132
(7)模糊决策
输出隶属函数的一般形式:
© BeiHang University
去模糊化图解
133
Artificial Intelligence
Searching: 133
© BeiHang University
End of Class
134
Review ? Questions?
Examination?
Artificial Intelligence
Searching: 134