Transcript 模糊推理
© BeiHang University 人工智能 Artificial Intelligence 主 讲 人:姚 忠 E-mail: [email protected] Artificial Intelligence Searching: 1 © BeiHang University 第四章 不确定性推理 Artificial Intelligence Searching: 2 © BeiHang University Artificial Intelligence Searching: 3 0、引言-推理的方式及分类 确定性推理、不确定性推理 © BeiHang University 从推理所用知识的确定性来划分 所谓确定性推理,就是指推理时所用知识与证据都是确定的,推 出的结论也是确定的,其值或者为真或者为假,没有第三种情 况出现。 --根据经典逻辑(命题逻辑及一阶谓词逻辑)的逻辑规则进行 的一种推理。 所谓不确定性推理,是指推理时使用的知识与证据不都是确定的, 推出的结论也是不确定的。 --现实世界中的事物和现象大都是不确定的,或者模糊的,很 难用精确的数学模型来描述,要使计算机能模拟人类的思维活 动,就必须使它具有不确定推理的能力。 4 Artificial Intelligence Searching: 4 © BeiHang University 一、基本概念 5 前面讨论了建立在经典逻辑基础上的确定性推理, 已知事实以及推理时所依据的知识都是确定的。推 出的结论或证明的假设都是精确的,其真值或者为 真,或者为假。 但是,现实世界中的事物事物之间的关系及其负责 复杂,由于客观上存在的随机性、模糊性以及某些 事物或现象暴露的不充分性,导致人们对它们的认 识是不精确的、不全面的,具有一定程度的不确定 性。 Artificial Intelligence Searching: 5 一、基本概念 © BeiHang University I.不确定性是建立在非经典逻辑基础上的一种 推理。它是从不确定性的初始证据出发,通过运用 不确定性的知识,最终推出具有一定程度的不确定 性但却是合理或者近乎合理的结论的思维过程。 II.分类: 不确定推理方法分为两类:一是模型方法,另 一是控制方法。 6 Artificial Intelligence Searching: 6 © BeiHang University 一、基本概念 7 模型方法-特点是把不确定的证据和不确定的知识分别 与某种度量标准对应起来,并给出更新结论不确定性 的合适的算法。从而建立相应的不确定性推理模型。 控制方法-特点是通过识别领域中引起不确定性的某些 特征及相应的控制策略来限制或减少不确定系统产生 的影响,这类方法没有设置不确定的统一模型。 Artificial Intelligence Searching: 7 一、基本概念 模型方法又分为 © BeiHang University a.数值方法 数值方法根据其所依据的理论不同分为基于概率的方法和模糊推 理方法; 基于概率的方法所依据的理论是概率论,而模糊推理依据的理论 是模糊理论。 b.非数值方法 非数值方法是除a之外的不确定性的方法。逻辑法就是一种非数 值方法。 8 Artificial Intelligence Searching: 8 © BeiHang University 一、基本概念 9 由于概率论有着完善的理论,同时还为不确定性 的合成与传递提供了现成的公式,成为度量不确定 性的重要手段。 这种纯粹依靠概率模型来表示和处理不确定性的 方法称为纯概率方法或概率方法。它虽然有严密的 理论依据,但却要求给出事件的先验概率和条件概 率,而这些数据又不易获得,使其应用受到限制. 为此,人们在概率论的基础上,发展了一些新的 处理不确定性的方法。包括:可信度方法、主观 Bayes方法和证据理论方法。 Artificial Intelligence Searching: 9 一、基本概念 © BeiHang University 重点探讨的不确定推理方法 10 • 可信度方法 • 主观Bayes方法 • 证据理论方法 • 模糊推理方法 Artificial Intelligence Searching: 10 二、可信度方法 可信度方法是美国斯坦福大学E. H.Shortliffe等人在 © BeiHang University 确定性理论(Theory of Confirmation)的基础上,结合概 率论提出的一种不确定性推理方法。在MYCIN中成功应用。 I.概念 所谓可信度,就是人们在实际生活中根据自己的经验或 观察对某一事件或现象为真的相信程度(certainty)。 可信度也可以称为”确定性因子“,具有较大的主观性和 经验性,其准确性很难把握。但是,对于某一具体领域而 言,由于领域专家具有丰富的专业知识和实践经验,要给出 该领域的知识的可信度还是完全有可能的。 11 Artificial Intelligence Searching: 11 二、可信度方法 © BeiHang University II.表示 C-F模型中,知识是用产生式规则表示的,一般形式为: IF E THEN H (CF(H,E)) 其中,E是知识的前提条件,或称为证据。可以是简单条件, 还可以是AND或OR所构成的复合条件。 E=E1 AND E2 AND(E3 OR E4) H是结论,可以是简单结论,也可以是多个结论; CF(H,E)是该知识的可信度,称为可信度因子(Certainty Factor)或规则强度。反映了前提条件与结论的联系程度。 如: IF 头痛 AND 流涕 THEN 感冒(0.7) -----表示有七成把握认为他是患感冒了。 12 Artificial Intelligence Searching: 12 二、可信度方法 © BeiHang University CF(H,E)是在[-1,1]上取值。 CF(H,E)值要求 领域专家直接给出。原则是: 若由于相应证据的出现增加结论H为真的可信度,则 取CF(H,E)>0,证据的出现越是增加支持H为真,就 使CF(H,E)的值越大。 反之,取CF(H,E)<0,证据的出现越是支持H为假, 就使CF(H,E)的值越小。 若证据的出现与否与H无关,则取CF(H,E)=0。 13 Artificial Intelligence Searching: 13 二、可信度方法 III.证据不确定性的表示 © BeiHang University 证据的不确定性也可以用可信度因子表示。 CF(E)是在[-1,1]上取值。对于初始证据,若对它的所有观 察S能肯定它为真,则取CF(E)=1;若肯定它为假,则取CF (E)=-1;若它以某种程度为真,则取CF(E)为(0,1)中 的一个值,即0<CF(E)<1。若它以某种程度为假,则取CF (E)为(-1,0)中的一个值,即-1<CF(E)<0。 知识的静态强度与证据的动态强度都是用可信度因子CF 表示的,但意义不相同。静态强度CF(H,E)表示的是知 识的强度,即当E所对应的证据为真时,对H的影响程度;而 动态强度CF(E)表示的是证据E当前的不确定性程度。 14 Artificial Intelligence Searching: 14 © BeiHang University 二、可信度方法 IV.组合证据不确定性的方法 当组合证据是多个单一证据的合取时, E=E1 AND E2 AND… AND En 若已知CF(E1), CF(E2),…, CF(En),则 CF(E)=min {CF(E1), CF(E2),…, CF(En)} 当组合证据是多个单一证据的析取时, E=E1 OR E2 OR… OR En 若已知CF(E1), CF(E2),…, CF(En),则 CF(E)=max {CF(E1), CF(E2),…, CF(En)} 15 Artificial Intelligence Searching: 15 二、可信度方法 © BeiHang University V.不确定性的传递算法 C-F模型中的不确定推理从不确定的初始证据出发,通过运用 相关的不确定性知识,最终推出结论并求出结论的可信度。 结 论H的可信度由下式计算: CF(H)= CF(H,E)×max{0, CF(E)}; 若当相应证据以某种程度为假,即CF(E)<0,则 CF(H)=0 说明,该模型没有考虑证据为假时对结论H所产生的影响。 若证据为真,即 CF(E)=1, 可得 CF(H)= CF(H, E) 说明知识中的规则强度CF(H,E)实际就是前提条件对 应的证据为真时结论H的可信度。或者说,当知识的前提条件 对应的证据存在且为真时,结论H有CF(H,E)大小的可信度。 16 Artificial Intelligence Searching: 16 二、可信度方法 © BeiHang University VI.结论不确定性的合成算法 由多条不同知识推出了相同的结论,但可信度不同,则可用合 成算法求出综合可信度。 设有如下知识: IF E1 THEN H (CF(H, E1 )) IF E2 THEN H (CF(H, E2 )) 则结论H的综合可信度可分为两步算出: (1) 分别对每一条知识求出CF(H): CF1(H)= CF(H, E1 )× max{0, CF( E1 )}; CF2(H)= CF(H, E2 )× max{0, CF( E2 )}; 17 Artificial Intelligence Searching: 17 二、可信度方法 © BeiHang University VI.结论不确定性的合成算法 18 (2)用下述公式求E1与E2对H的综合影响所形成的可 信度CF1,2(H)。 CF H CF2 H CF1 H CF2 H 1 CF1, 2 H CF1 H CF2 H CF1 H CF2 H CF1 H CF2 H 1 minCF1 H , CF2 H Artificial Intelligence 若CF1 H 0,CF2 H 0 若CF1 H 0,CF2 H 0 若CF1 H CF2 H 0 Searching: 18 二、可信度方法 H E1 E2 E3 例题: 设有一组知识: © BeiHang University E4 r1: IF E1 THEN H (0.8) r2: IF E2 THEN H (0.6) E7 E8 E5 E6 r3: IF E3 THEN H (-0.5) 推理网络 r4: IF E4 AND ( E5 OR E6)THEN E1 (0.7) r5: IF E7 AND E8 THEN E3 (0.9) 已知: CF( E2 )=0.8, CF( E4 )=0.5, CF( E5 )=0.6, CF( E6 )=0.7, CF( E7 )=0.6, CF( E8 )=0.9 求:CF(H) 19 Artificial Intelligence Searching: 19 二、可信度方法 © BeiHang University 第一步:对每一条规则求出CF(H) r4: IF E4 AND ( E5 OR E6)THEN E1 (0.7) CF E 1 0 . 7 max 0 , CF E 4 E 5 OR E 6 0 . 7 max 0 , min CF E 4 , CF E 5 OR E 6 0 . 7 max 0 , min CF E 4 , max CF E 5 , CF E 6 0 . 7 max 0 , min 0 . 5 , max 0 . 6 , 0 . 7 0 . 7 max 0 , 0 . 5 AND 0 . 35 20 Artificial Intelligence Searching: 20 二、可信度方法 © BeiHang University 第一步:对每一条规则求出CF(H) r5: IF E7 AND E8 THEN E3 (0.9) CF E 3 0 . 9 max 0 , CF E 7 AND E 8 0 . 9 max 0 , min CF E 7 , CF E 8 0 . 9 max 0 , min 0 . 6 , 0 . 9 0 . 9 max 0 , 0 . 6 0 . 54 21 Artificial Intelligence Searching: 21 二、可信度方法 © BeiHang University 第一步:对每一条规则求出CF(H) r1: IF E1 THEN H (0.8) CF 1 H 0 . 8 max 0 , CF E 1 0 . 8 max 0 , 0 . 35 0 . 28 22 Artificial Intelligence Searching: 22 二、可信度方法 © BeiHang University 第一步:对每一条规则求出CF(H) r2: IF E2 THEN H (0.6) CF 2 H 0 . 6 max 0 , CF E 2 0 . 6 max 0 , 0 . 8 0 . 48 23 Artificial Intelligence Searching: 23 二、可信度方法 © BeiHang University 第一步:对每一条规则求出CF(H) r3: IF E3 THEN H (-0.5) CF 3 H 0 . 5 max 0 , CF E 3 0 . 5 max 0 , 0 . 54 0 . 27 24 Artificial Intelligence Searching: 24 二、可信度方法 © BeiHang University 第二步:根据结论不确定性的合成算法得到 CF 1, 2 H CF 1 H CF 2 H CF 1 H CF 2 H 0 . 28 0 . 48 0 . 28 0 . 48 0 . 63 CF 1, 2 , 3 H CF 1, 2 H CF 3 H 1 min CF 1, 2 H , CF 3 H 0 . 63 0 . 27 1 min 0 . 63 , 0 . 27 0 . 36 1 0 . 27 0 . 49 所以,综合可信度为0.49。 25 Artificial Intelligence Searching: 25 © BeiHang University 三、主观Bayes方法 主观Bayes方法又称主观概率论,是由R.O.Duda(杜达)等 人于1976年提出的一种不确定推理模型,是对概率论中基本 Bayes公式的改进,该方法在地矿勘探专家系统 PROSPECTOR中得到了成功地应用。 I.基本Bayes公式 设事件B1、B2、。。 Bn是彼此独立、互不相容的事件, B 1 B 2 B n (全), P B i 0 i 1, 2 , , n . 对于任一事件A能且只能与B1、B2、。。. Bn中的一个同时发生。 而且 P A 0 ,则有 P A B i P B i P B i A n P A B j P B j j 1 26 Artificial Intelligence Searching: 26 三、主观Bayes方法 © BeiHang University 则有 P B i 是事件Bi的先验概率 ;P A B i 是事件Bi发生 条件下事件A的条件概率; P B i A 是事件A发生条件下事 件Bi的条件概率。 这个公式将出现病症A时,患疾病Bi的概率计算问题转 化为 P A B i 和 P B i 的计算问题。即患了疾病Bi时表现为 症状A的概率和患疾病Bi的概率的计算。 如果借助产生式规则 IF E THEN Hi 中的前提条件E代替Bayes公式中的A,用Hi代替公式中 的Bi ,就可以得到 27 Artificial Intelligence Searching: 27 三、主观Bayes方法 © BeiHang University P H i P E H E i P H i n P E H j i 1, 2 , , n P H j j 1 也就是说,已知结论Hi的先验概率P(Hi)和已知结论 Hi (i=1,2,…,n)成立时前提条件E所对应的证据出现的条 件概率P(E/Hi),就可用上式求出相应证据出现时结论Hi 的条件概率P(Hi/E)。 28 Artificial Intelligence Searching: 28 三、主观Bayes方法 © BeiHang University 设H1 ,H2 ,H3分别是3个结论,E是支持这些结论的 证据,且已知:P(H1)=0.4, P(H2)=0.5, P(H3) =0.2, P(E/H1)=0.3, P(E/H2)=0.4, P(E/H3) =0.5,求P(H1/E), P(H2/E), P(H3/E)的值 。 P H 1 E P H 1 P E H 1 P H 1 P E H 1 P H 2 P E H 2 P H 3 P E H 3 0 . 12 0 . 12 0 . 2 0 . 1 0 . 286 29 Artificial Intelligence Searching: 29 三、主观Bayes方法 © BeiHang University II .主观Bayes方法 从上述讨论,直接使用逆概率方法求结论Hi 在证据E 存在情况下的条件概率P(Hi/E)时,不仅需要已知Hi的先 验概率P(Hi),而且还需要知道结论Hi成立的情况下, 证据E出现的概率P(E/Hi)。这在实际中也是相当困难的。 为此,1976年杜达(R.O.Duda)、哈特(P.E.Hart)等 人在Bayes公式的基础上经适当改进提出了主观Bayes方 法,建立了相应的不确定推理模型,并在地址勘探专家系 统PROSPECTOR中得到了成功的运用。 30 Artificial Intelligence Searching: 30 三、主观Bayes方法 © BeiHang University a .知识不确定的表示 在主观Bayes方法中,知识是用产生式规则表示的,具 体形式为: IF E THEN (LS,LN) H (P(H))其中: (1)E是该知识的前提条件,它既可以是一个简单条件,也可以 是一个复合条件; (2)H是结论, P(H)是H的先验概率,它指出在没 有任何证据情况下的结论H为真的概率,即H的一般可能性。 其值由领域专家根据以往的实践及经验给出; 31 Artificial Intelligence Searching: 31 三、主观Bayes方法 © BeiHang University IF E THEN (LS,LN) H (3)( LS,LN )为规则强度,其值由领域专家给出。 LS,LN相当于知识的静态强度。其中LS称为规则成立的 充分性度量,用于指出E对H的支持程度,取值范围为 0 , 。其定义为: LS 32 (P(H)) Artificial Intelligence P E H P E H (A) Searching: 32 三、主观Bayes方法 © BeiHang University a .知识不确定的表示 IF E THEN (LS,LN) H (P(H))其中 LN相当于规则成立的必要性度量。用于指出¬E对H的支 持程度,即E对H为真的必要性程度,取值范围为 0 , , 其定义为 LN P E H P E H 1 P E H 1 P E H (A1) (LS,LN)既考虑了证据E的出现对其结论H的支持, 又考虑了证据E的不出现对其结论的H的影响。 33 Artificial Intelligence Searching: 33 三、主观Bayes方法 © BeiHang University b .证据不确定性的表示 在主观Bayes方法中,证据的不确定性也是用概率表示 的。例如对于初始证据E,由用户根据观察S给出概率P (E/S),它相当于动态强度。但由于P(E/S)不太直观, 因而在具体的应用系统中往往采用复合一般经验的比较直观 的方法,如在PROSPECTOR中就引入了可信度的概念。让 用户在-5至5之间的11个整数中根据实际情况选一个数作为 初始证据的可信度,表示他对所提供的证据可以相信的程度。 然后从可信度C(E/S)计算出概率P(E/S)。 34 Artificial Intelligence Searching: 34 三、主观Bayes方法 © BeiHang University b .证据不确定性的表示 可信度C(E/S)和概率P(E/S)的对应关系如下: C(E/S)=-5,表示在观察S下证据E肯定不存在,即 P(E/S)=0; C(E/S)=0,表示观察S与证据E无关,应该仍然是先验概 率,即P(E/S)=P(E); C(E/S)=5,表示在观察S下证据E肯定存在,即 P(E/S)=1; C(E/S)为其他数时与P(E/S)的对应关系,则通过对上述三点 进行分段线性插值得到 35 Artificial Intelligence Searching: 35 三、主观Bayes方法 P(E/S) © BeiHang University b .证据不确定性的表示 1 可信度C(E/S)和概率P P(E) (E/S)的对应关系式: -5 -4 -3 -2 -1 0 1 2 3 4 5 C(E/S) C E S P E 5 C E S 若0 C E S 5 5 P E S P E C E S 5 若 5 C E S 0 5 这样,用户只要对初始证据给出相应的可 信度C(E/S),就可由上式将其转换 为相应的概率P(E/S)。 36 Artificial Intelligence Searching: 36 三、主观Bayes方法 c .组合证据不确定性的表示 © BeiHang University 当组合证据是多个单一证据的合取时,即: E=E1 AND E2 AND … AND En 则组合证据的概率取各个单一证据的概率的最小值,即 P(E/S)=min {P(E1 /S), P(E2 /S),…, P(En/S)} 当组合证据是多个单一证据的析取时,即:则组合证据的概率 取各个单一证据的概率的最大值,即 P(E/S)=max {P(E1 /S), P(E2 /S),…, P(En/S)} 对于“非”的运算,则用下式计算: P(¬ E/S)=1- P(E/S) 37 Artificial Intelligence Searching: 37 三、主观Bayes方法 d .不确定性的传递算法 © BeiHang University 在主观bayes方法的表示中,P(H)是专家对结论给出 的先验概率,它是在没有考虑任何证据的情况下根据经验给 出的。随着新证据的获得,对H的信任程度应该有所改变。主 观Bayes方法推理的任务就是根据证据E和概率P(E)和LS、 LN的值,把H的先验概率P(H)更新为后验概率P(H/E)和 P(H/¬ E )。即 P(H) P E , LS , LN P(H/E)或P(H/¬ E )。 由于一条知识所对应的证据可能是肯定存在的,也可能是肯定 不存在的,或者是不确定的,而且在不同情况下确定后验概率 的方法不同,所以下面分别进行讨论。 38 Artificial Intelligence Searching: 38 三、主观Bayes方法 © BeiHang University 1.证据肯定存在的情况 在证据肯定存在时, P(E)= P(E/S)=1 由bayes公式可得证据E成立的情况下,结论H成立的概 率为: P H E P E H P H / P E (1) 同理,证据E成立的情况下,结论H不成立的概率为: P H E P E H P H / P E (2) (1)除以(2)式,得到 P H E P H E 39 Artificial Intelligence P E H P E H P H P H (3) Searching: 39 三、主观Bayes方法 © BeiHang University 1.证据肯定存在的情况 为简洁,引入几率(odds)函数O(x),它与概率P(x) 的关系为: P x O x 1 O x 或者 O x P x P x P x 1 P x 概率和比率的取值范围是不同的,概率 O x 0 , (B) P x 0 ,1 ,几率 ,可见,P(x)和O(x)有相同的单调性。即 P(x1)< P(x2),则O(x1)< O(x2)。那么,两者虽有着不同 的形式,但一样可以表示证据的不确定性。它们变化的趋势是相 同的,当A为真的程度越大时,几率函数的值也越大。 40 Artificial Intelligence Searching: 40 三、主观Bayes方法 © BeiHang University 1.证据肯定存在的情况 由LS的定义式(A)以及概率与几率的关系式(B),可得Bayes的修正 公式: P E H P x P x LS O x P E H P x 1 P x O H / E LS O H (C) 这就是证据肯定存在时,把先验几率(Prior odds)更新为后验几率 (posterior odds)O(H/E)的计算公式,若换为概率形式,由(B)式, 得到 LS P H P H E LS 1 P H 1 这就是把先验概率P(H)更新为后验概率P(H/E)的计算公式。 41 Artificial Intelligence Searching: 41 三、主观Bayes方法 1.证据肯定存在的情况 © BeiHang University 由以上讨论可以看出充分性度量LS的意义: (1)当LS>1时,由(C)式,可得 O H / E O H 由P(x)与O(x)具有相同的单调性,可知 P H / E P H 这表明,当LS>1时,由于证据E的存在,将增大结论H为真的 概率,而且LS越大, P(H/E)越大,即E对H为真的支持越强。 当 LS 时,O H / E ,即 P H / E 1,表明由于证据E的 存在,将导致H为真,由此,E的存在对H为真是充分的,故称 LS为充分性度量。 42 Artificial Intelligence Searching: 42 三、主观Bayes方法 1.证据肯定存在的情况 © BeiHang University (2)当LS=1时,由(C)式,可得 O H / E O H O H / E O H 这表明,E与H无关。 (3)当LS<1时,由(C)式,可得 这表明,由于E的存在,将使H为真的可能性下降。 (4)当LS=0时,由(C)式,可得 O H / E 0 这表明由于证据E的存在,将导致H为假。 上述关于LS的讨论可作为领域专家为LS赋值的依据当证据愈是 支持H为真时,应使相应的LS的值越大。 43 Artificial Intelligence Searching: 43 P E 三、主观Bayes方法 LN H P E H O x © BeiHang University 2.证据肯定不存在的情况 在证据肯定不存在时, P(E)= P(E/S)=0; 1 P E H 1 P E H P x P x P x 1 P x P(¬ E )=1; 由于 P H E P E H P H / P E P H E P E H P H / P E 两式相除得到 P H E P H E P E H P E H P H P H (D) 由(A1)和(B),可将(D)写为Bayes修正公式: O H E LN O H 44 这就是证据E不存在时,把先验几率O(H)更新为后验概率O Artificial Intelligence Searching: 44 (H/ ¬ E)的计算公式。 三、主观Bayes方法 © BeiHang University 2.证据肯定不存在的情况 如果把几率换成概率,可以得到 P H E LN P H LN 1 P H 1 这就是先验概率P(H)更新为后验概率P(H/ ¬ E)的计算公 式。 由上述表达式讨论必要性度量LN的意义: (1)当LN>1时, O H E O H P H E P H 因为P(x)与O(x)具有相同的单调性,可知 这表明LN>1时,由于证据E不存在,将增大结论H为真的概率, 而且LN越大, P(H/ ¬ E)就越大;即¬ E对H为真的支持越强。 当 LN 时,O H E , 45 Artificial Intelligence Searching: 45 三、主观Bayes方法 © BeiHang University 2.证据肯定不存在的情况 即 P H E 1 。表明由于证据不存在,将导致H为真。 (2)当LN=1时, O H E O H 这表明, ¬ E与H无关. (3)当LN<1时, O H E O H 这表明,由于证据E不存在,将使H为真的可能性下降, 或者说由于证据E不存在,将反对H为真。由此,可以体会E 对H的必要性。 46 Artificial Intelligence Searching: 46 三、主观Bayes方法 © BeiHang University 2.证据肯定不存在的情况 (4)当LN=0时,可得 O H E 0 这表明, 由于证据E不存在,将导致H为假。由此可以 看出E对H为真的必要性,故称LN为必要性度量。 由上述讨论,领域专家可为LN赋值,若证据E对H愈是必 要,则相应的LN值越小。 47 Artificial Intelligence Searching: 47 三、主观Bayes方法 © BeiHang University 2.证据肯定不存在的情况 由于E和¬ E 不可能同时支持H或同时反对H,所以在一条 知识中的LS和LN一般不应该出现如下情况中的一种: (1)LS>1,LN>1 (2)LS<1,LN<1 只有如下三种情况存在: (1)LS>1且LN<1 (2)LS<1且LN>1 (3)LS=LN=1 48 Artificial Intelligence Searching: 48 三、主观Bayes方法 © BeiHang University 例题:设有如下知识: r1: IF E1 THEN (10,1) H1 (0.03) r2: IF E2 THEN (20,1) H2 (0.05) r3: IF E3 THEN (1,0.002) H3 (0. 3) 求当证据E1 E2 E3存在及不存在时, P(Hi/ Ei)及 P(Hi/ ¬ Ei)的值各是多少: 由于r1和r2中的LN=1,所以E1和E2不存在时对H1和H2不 产生影响,即不需要计算P(H1/ ¬ E1)和P(H2/ ¬ E2); 49 Artificial Intelligence Searching: 49 三、主观Bayes方法 © BeiHang University r1: IF E1 THEN (10,1) H1 (0.03) r2: IF E2 THEN (20,1) H2 (0.05) r3: IF E3 THEN (1,0.002) H3 (0. 3) 由于r1和r2中的LS>1,所以E1和E2存在时需要计算P (H1/ E1)和P(H2/ E2); 后验概率: P H 1 E 1 LS 1 P H 1 LS 1 1 P H 1 1 10 0 . 03 10 P H 1 E1 P H 1 0 . 24 8 0 . 03 1 0 . 03 1 0 . 24 50 Artificial Intelligence Searching: 50 三、主观Bayes方法 © BeiHang University r1: IF E1 THEN (10,1) H1 (0.03) r2: IF E2 THEN (20,1) H2 (0.05) r3: IF E3 THEN (1,0.002) H3 (0. 3) 后验概率: P H 2 E2 LS LS 2 2 P H 2 1 P H P H 2 1 2 P H E2 2 0 . 51 10 . 2 0 . 05 20 0 . 05 20 1 0 . 05 1 0 . 51 表明:由于E1的存在使H1为真的可能性比先验概率增加了8倍; 由于E2的存在使H2为真的可能性比先验概率增加了10多倍。 51 Artificial Intelligence Searching: 51 三、主观Bayes方法 © BeiHang University r1: IF E1 THEN (10,1) H1 (0.03) r2: IF E2 THEN (20,1) H2 (0.05) r3: IF E3 THEN (1,0.002) H3 (0. 3) 对于r3,由于LS=1,所以E3存在对H3无影响,不需要计算P(H3/ E3),但因其 LN<1,所以当E3不存在时需要计算P(H3/ ¬ E3); 后验概率: P H 3 E3 LN LN 3 3 P H 3 1 P H 0 . 002 0 . 3 0 . 002 3 1 P H 3 P H 3 E 3 350 1 0 .3 1 0 . 00086 由此看出,由于E3不存在使H3为真的可能性削弱了近350倍。 52 Artificial Intelligence Searching: 52 三、主观Bayes方法 © BeiHang University 3.证据不确定的情况 以上讨论是在证据肯定存在和肯定不存在情况下,将H 的先验概率更新为后验概率的情况,在现实中,更多的情况 是介于两者之中的情况,表示一种不确定。例如,用户告知 只有60%的把握说明证据E是真的,这就表明初始证据为真的 程度为0.6,即P(E/S)=0.6,这里S是对E的有关观察。下 面,讨论0<P(E/S)<1情况下,确定H的后验概率P(H/S)。 证据不确定的情况下,不能再使用上面的有关公式,要用到杜 达等人在1976年,证明了如下公式: P H S P H E P E S P H E P E S 53 Artificial Intelligence Searching: 53 © BeiHang University 三、主观Bayes方法 下面,分四种情况讨论这一公式。 (1) P(E/S)=1 此时, P( ¬ E/S)=0,则 P H S P H E LS P H LS 1 P H 1 这就是证据肯定存在的情况。 (2) P(E/S)=0 此时,P( ¬ E/S)=1,则 P H S P H E LN P H LN 1 P H 1 这就是证据肯定不存在的情况。 54 Artificial Intelligence Searching: 54 三、主观Bayes方法 © BeiHang University (3) P(E/S)=P(E)时,表示E与S无关。 P H S P H E P E S P H E P E S 利用全概率公式, 上式变为: P B n PA i P B / Ai i 1 P H S P H E P E P H E P E P H 55 Artificial Intelligence Searching: 55 三、主观Bayes方法 © BeiHang University P H S P H E P E S P H E P E S (4) P(E/S)为其他值时,通过分段线性插值可得到: P H P H E P H E P E S , 若 0 P E S P E P E P H S P H P H E P H P E S P E 若 P E P E S 1 1 P E P(H/S) 1 该公式称为EH公式或UED公式: P(H/E) P(H) P(H/¬E) EH公式的分段线性插值 56 Artificial Intelligence 0 P(E) 1 P(E/S) Searching: 56 三、主观Bayes方法 对于初始证据,由于其不确定性是由可信度C(E/S)给出的, © BeiHang University 只要利用P(E/S)和C(E/S)的对应关系进行转换,得到利用可信 度C(E/S)计算P(H/S)的公式: 1 P H E P H P H E C E S 1 , 若 0 C E S 0 5 P H S 1 P H P H E P H C E S 若 C E S 0 5 该公式称为CP公式。 当用初始证据进行推理时,根据用户告知的C(E/S),利用CP 公式求出P(H/S);当用推理过程中得到的中间结论作为证据进行推 理时,利用EH公式求出P(H/S)。 57 Artificial Intelligence Searching: 57 三、主观Bayes方法 © BeiHang University e.结论不确定的合成算法 若有n条知识都支持相同的结论,而且每条知识的前 提条件所对应的证据Ei(i=1,2,…,n)都有相应的观察Si 与之对应,则只要先对每条知识分别求出O(H/Si),然后 运用下述公式求出O(H/S1, S2, …, Sn) O H S 1 , S 2 , , S n O H / S 1 O H O H / S 2 O H O H / S n O H O H 下面给出一个例子,以熟悉主观Bayes的推理过程。 58 Artificial Intelligence Searching: 58 三、主观Bayes方法 © BeiHang University e.结论不确定的合成算法 设有下列规则: r1: IF E1 THEN (2,0.001) H1 r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 已知,O(H1=0.1), O(H2=0.01),(几率) C(E1/S1)=2, C(E2/S2)=1;(可信度) 求: O(H2/S1,S2) 分析:计算O(H1/S1), O(H1/S2), O(H1/S1,S2) 进而求出O(H2/S1,S2)。 59 Artificial Intelligence Searching: 59 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 (1)计算O(H1/S1) P H 1 O H 1 1 O H 1 0 .1 1 0 .1 P H 1 E 1 O H 1 E 1 1 O H 1 E 1 2 0 .1 1 2 0 .1 LS 1 O H 1 1 LS 1 O H 1 0 . 17 0 . 09 60 Artificial Intelligence Searching: 60 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) (1)计算O(H1/S1) 由于已知了可信度C(E1/S1)=2>0,可以使用CP公式计算 P(H1/S1),用CP公式的后半部分; P H 1 / S 1 P H 1 P H 1 / E 1 P H 1 0 . 09 0 . 17 0 . 09 0 . 122 61 H2 Artificial Intelligence 2 5 1 5 C E 1 / S 1 O H 1 / S 1 P H 1 / S 1 1 P H 1 / S 1 0 . 122 1 0 . 122 0 . 14 Searching: 61 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) (2)计算O(H1/S2) 由上面的计算,可以知道P(H1)=0.09 P H 1 E 2 62 H2 Artificial Intelligence O H 1 E 2 1 O H 1 E 2 100 0 . 1 1 100 0 . 1 LS 2 1 LS O H 1 2 O H 1 0 . 91 Searching: 62 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) (2)计算O(H1/S2) 由于已知了可信度C(E2/S2)=1>0,可以使用CP公式计算 P(H1/S2),用CP公式的后半部分; P H 1 / S 2 P H 1 P H 1 / E 2 P H 1 0 . 09 0 . 91 0 . 09 0 . 254 63 H2 Artificial Intelligence 1 5 C E 2 / S 2 O H 1 / S 2 1 5 P H 1 / S 2 1 P H 1 / S 2 0 . 254 1 0 . 254 0 . 34 Searching: 63 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 (3)计算O(H1/S1 , S2) 已知了O(H1/S1) ,O(H1/S2) O H 1 S 1 , S 2 O H 1 / S 1 O H 1 0 . 14 0 .1 0 . 34 O H 1 / S 2 O H 1 O H 1 0 .1 0 .1 0 . 476 64 Artificial Intelligence Searching: 64 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 (4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2) 这里H1相当于E,(S1 ,S2 )相当于S。为了确定用EH公式的 哪个部分求 P(H2/S1 ,S2) ,要确定P(H1)和P( H1/S1 , S2 )的大小关系: 由于O(H1/S1 ,S2)=0.476, O(H1)=0.1 由与O(x)与P(x)有相同的单调性,所以 由 O(H1/S1 ,S2)> O(H1)推出 P(H1/S1 ,S2)> P(H1) 故选用EH公式的后半部分,求解P(H2/S1 ,S2) 。 65 Artificial Intelligence Searching: 65 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) (4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2) P H S P H P H 2 已知 P H E P H 1 P E S 1 , S 2 P H P H 2 2 Artificial Intelligence O H 2 1 O H 0 . 01 1 0 . 01 0 . 01 66 H2 P E S P E P H 2 H 1 P H 1 P H 1 2 2 若 P E P E S 1 EH公式 P H 1 S 1 , S 2 P H 1 P H 1 S 1 , S 2 O H 1 / S 1 , S 2 1 O H 1 / S 1 , S 2 0 . 476 1 0 . 476 0 . 32 Searching: 66 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 (4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2) P H 2 H 1 P H 2 P H 2 S 1 , S 2 P H 2 P H 1 1 P H 1 已知 P H 2 / H1 O H 2 1 O H LS 3 1 LS / H1 2 / H1 O H 3 S 1 , S 2 P H 1 2 O H 200 0 . 01 1 200 0 . 01 2 P H 2 S 1 , S 2 0 . 01 0 . 67 0 . 01 1 0 . 09 0 . 32 0 . 09 0 . 175 0 . 67 67 Artificial Intelligence Searching: 67 三、主观Bayes方法 r1: IF E1 THEN (2,0.001) H1 © BeiHang University r2: IF E2 THEN (100, 0.001) H1 r3: IF H1 THEN (200,0.01) H2 (4)计算P(H2/S1 ,S2) ,O(H2/S1 ,S2) 最后,根据O和P的关系,得到 O H 2 S1 , S 2 P H S1 , S 2 2 1 P H 0 . 175 1 0 . 175 2 S1 , S 2 0 . 212 可以看到,H2原先的几率是0.01,通过运用知识r1 r2 r3 ,以及初始证据的可信度C(E1/S1)=2, C(E2/S2)=1 进行推理,最后得出H2的后验几率是0.212,相当于几率 68 Artificial Intelligence 增加了20多倍。 Searching: 68 三、主观Bayes方法 © BeiHang University 最后,再来看一下主观Bayes方法的优缺点: (1)主观Bayes方法计算公式大多是在概率基础上推导出来的,有坚实的理 论基础; (2)LS和LN由领域专家更具实践经验给出,避免了大量数学统计工作; (3)不仅给出了证据肯定存在、肯定不存在的H的先验概率更新为后验概率 的方法,还给出了证据不确定情况下的方法,其确实实现了不确定的逐级传 递。该方法是一种比较实用且较为灵活的不确定推理方法。 缺点: (1)要求领域专家给出知识时,同时给出H的先验 概率P(H), 这个比较困难; (2)Bayes定理中关于事件独立性的要求使主观Bayes方法的 使用受到限制。 69 Artificial Intelligence Searching: 69 © BeiHang University 四、证据理论(theory of evidence) 70 证据理论又称D-S理论,是由德普斯特(Dempster)首先提 出,并由沙佛(Shafer)进一步发展起来的一种处理不确定性 的理论。1981年,由巴纳特(Baenett)将该理论引入到专家 系统,同年,卡威(Garvey)等人用它实现了不确定性推理。 该理论能够区分“不确定”和“不知道”的差异,并能处理由“不知 道”引起的不确定性,具有较大的灵活性,因此受到人们的重 视。 Artificial Intelligence Searching: 70 四、证据理论 © BeiHang University 回忆:在可信度方法和主观Bayes方法中,知识是用产生式的形 式表示的。 在可信度方法中,证据、结论及知识的不确定性用“可信 度”进行度量的。IF E THEN H (CF(H,E)) 而在主观Bayes方法中,证据及结论的不确定性是以概 率的形式进行度量,而知识的不确定性是以数值对(LS,LN) 来进行度量的。 IF E THEN (LS,LN) H (P(H)) 在用产生式表示知识时,证据可以是单个命题,也可以 是用AND和OR连接起来的复合命题。 71 Artificial Intelligence Searching: 71 © BeiHang University 四、证据理论 72 在D-S理论中,知识也是用产生式的形式表示的,但证据和结 论又要以集合进行表示。 例如:假设D是所有可能疾病的集合,医生为进行诊断而进行 的各种检查就是获得所需证据的过程,检查获得的结果就是获 得的证据,这些证据就构成了证据集合E。根据证据集合中的这 些证据,就可以判断病人的疾病。 通常,有的证据所支持的不止是一种疾病,而是多种疾病,这 些疾病当然都是集合D中的元素,可以构成D的一个子集H,H就 是结论集合。 设D是变量x所有可能取值的集合,且D中的元素是互斥的,在 任何时刻x都取且只能取D中的某一个元素为值,则称D为x的样 本空间。 Artificial Intelligence Searching: 72 © BeiHang University 四、证据理论 在D-S理论中,D的任何一个子集A都对应一个关于x的命题, 称该命题为“x的值是在A中。”例如:用x代表打靶时击中的环 数,D={1,2,…,10},则A={5}表示“x的值是5”或者“击中的环数 是5”; A={5,6,7,8}表示“击中的环数是5、6、7、8中的某 一个”。又如:用x代表所看到的颜色, D={红,黄,蓝},则 A={红}表示“x是红色”;若A={红,蓝},则它表示“x或者是红 色,或者是蓝色”。 在D-S理论中,知识的不确定性通过一个集合形式的“可信度因 子”来表示,而证据和结论的不确定性度量则采用信任函数和似 然函数来表示。 73 Artificial Intelligence Searching: 73 四、证据理论 © BeiHang University I.概率分配函数 设D为样本空间,其中有n个元素,则D中的子集个数为 2n个,并以2D表示这2n个集合。概率分配函数的作用是把D D 上的任意一个子集A( 2 )都映射称为[0,1]上的一个数M(A)。 设D为样本空间,领域内的命题都是用D的子集表示,如 果定义函数M(x)为集合2D到区间[0,1]上的一个映射函 数,其满足下列条件: M 0 M A 1 A D D 则称M(x)为2 上的基本概率分配函数(Basic Probability Assignment Function),M(A)称为命题 A的基本概率数; 74 Artificial Intelligence Searching: 74 四、证据理论 © BeiHang University M(A)表示对相应命题A的精确信任度。例如:设D={红, 黄,蓝};则它的子集数个数刚好是23=8个,具体为: A1={red}; A2={yellow}; A3={blue}; A4={red,blue}; A5 ={yellow,blue}; A6={red,yellow}; A7={red,yellow,blue}; A8= { }; 若A={red},M(A)=0.3 表示对命题“x是红色”的正确性的信任度是0.3。 若B={red,yellow}, M(B)=0.2 表示对命题“x或者是红色,或者是黄色”的正确性的信任 度是0.2。可以理解为:概率分配函数实际上是对D的各个子 集进行信任度分配, M(A)表示分给A的那一部分。 75 Artificial Intelligence Searching: 75 四、证据理论 当A是由多个元素组成时,M(A)不包括对A的子集的 © BeiHang University 信任度,而且也不知道该对它如何进行分配。 例如:在M({red,yellow})=0.2 中不包含对A={red}的信任度0.3,而且也不知道把这个0.2 分给了red,还是分给了yellow. 当A=D时, M(A)是对D的各个子集进行信任分配后剩下的部 分,它表示不知道对这部分如何进行分配。 若M(D)=M({red,yellow,blue} =0.1 表示对这个0.1如何分配,但它不是属于{red},就一定 属于{yellow}或{blue},只是由于存在未知信息,不知道应该 如何分配。 76 Artificial Intelligence Searching: 76 四、证据理论 概率分配函数与概率不同,如D={red,yellow,blue}; © BeiHang University M({red})=0.3; M({yellow})=0; M({blue})=0.1; M({red,blue})=0.2; M({yellow,blue})=0.1; M({red,yellow})=0.2; M({red,yellow,blue})=0.1; M( )=0; 显然,M属于概率分配函数的定义,但是 M({red})+ M({blue})+ M({yellow})=0.4 若按概率的要求,这三者的和应该等于1。 77 Artificial Intelligence Searching: 77 四、证据理论 © BeiHang University II.信任函数 命题的信任函数(Belief function)Bel: 2D 且 Bel A [0,1], M B B A 对所有的 A D . 其中,2D表示D的所有子集。 Bel函数又称为下限函数,Bel(A)表示对命题A为真的 总的信任程度。 由信任函数及概率分配函数的定义容易推出: Bel M 0 Bel D 78 Artificial Intelligence M B 1 B D Searching: 78 四、证据理论 © BeiHang University III.似然函数 似然函数(Plausibility function)又称为不可驳斥函数 或上限函数,以下是定义: 似然函数Pl: 2D [0,1],且Pl A 1 Bel A 对所有的 A D 由于Bel(A)表示对A为真的信任程度,所以Bel(¬ A)表示对¬A为真,即A为假的信任程度,可以推出Pl (A)表示对A为非假的信任程度。 下面我们来体会一下: 79 Artificial Intelligence Searching: 79 四、证据理论 © BeiHang University III.似然函数 Pl({red})= 1-Bel({¬red})=1- Bel({yellow,blue}) =1-[M({yellow})+M({blue})+M({yellow,blue})] =1-[0+0.1+0.1] =0.8 Pl({yellow,blue})=1- Bel(¬{yellow,blue}) =1-Bel({red}) =1-0.3 =0.7 80 Artificial Intelligence Searching: 80 四、证据理论 © BeiHang University III.似然函数 Pl({red})= 1-Bel({¬red})=1- Bel({yellow,blue}) =1-[M({yellow})+M({blue})+M({yellow,blue})] =1-[0+0.1+0.1] =0.8 由于与{red} 相交不为空集的那些子集 M B M ({ red }) M ({ red , yelow }) M ({ red , blue }) M ({ red , yellow , blue }) { red } B 0 .3 0 .2 0 .2 0 .1 81 0 . 8 Intelligence Artificial Searching: 81 四、证据理论 © BeiHang University III.似然函数 Pl({yellow,blue})=1- Bel(¬{yellow,blue}) =1-Bel({red}) =1-0.3 =0.7 M B M ({ yellow }) M ({ blue }) M ({ yellow , blue }) M ({ red , blue }) { yellow , blue } B M ({ red , yellow }) M ({ red , yellow , blue }) 0 0 .1 0 .1 0 .2 0 .2 0 .1 0 .7 推广到一般情况, Pl A M B A B 82 Artificial Intelligence Searching: 82 四、证据理论 © BeiHang University III.似然函数 证明: Pl A M B 1 Bel A M B A B A B 1 Bel A M B A B M C 1 C A 1 M B A B M E ED 0 83 Artificial Intelligence Searching: 83 四、证据理论 © BeiHang University IV.信任函数与似然函数的关系 因为 Bel A Bel A M B M C B A C A M E 1 ED 所以 Pl A Bel A 1 Bel A Bel A 1 Bel A Bel A 0 故 Pl A Bel A 由于Bel(A)表示对A为真的信任程度,Pl(A)表示对 A为非假的信任程度,因此分别称Bel(A)和Pl(A)为对A 84 Artificial Intelligence 信任程度的下限和上限,记为A( Bel(A),Pl(A))Searching: 84 四、证据理论 © BeiHang University IV.信任函数与似然函数的关系 85 下面说明上限和下限的意义: A(0,0):由于Bel(A)=0,说明对A为真不信任;另外,由 于Bel(¬A)=1-Pl(A)=1-0=1,说明对¬A信任,所以A(0, 0)表示A为假。 A(0,1):由于Bel(A)=0,说明对A为真不信任;另外,由 于Bel(¬A)=1-Pl(A)=1-1=0,说明对¬A也不信任,所以A (0,1)表示对A一无所知。 A(1,1): Bel(A)=1,说明对A为真信任;另外,由于 Bel(¬A)=1-Pl(A)=1-1=0,说明对¬A不信任,所以A(1, 1)表示A为真。 Artificial Intelligence Searching: 85 四、证据理论 A(0.25,1):由于Bel(A)=0.25,说明对A为真有一定 © BeiHang University 程度的信任,信任度为0.25;另外,由于Bel(¬A)=1-Pl(A) =1-1=2,说明对¬A不信任,所以A(0.25,0)表示对A为 真有0.25的信任度。 A(0,0.85):由于Bel(A)=0,说明对A为真不信任; 另外,由于Bel(¬A)=1-Pl(A)=1-0.85=0.15,所以A (0,0.85 )表示对A为假有一定的信任,信任度为0.15。 A(0.25 ,0.85 ): Bel(A)=0.25,说明对A为真信 有0.25的信任度;另外,由于Bel(¬A)=1-Pl(A)=1- 0.85 =0.15,说明对A为假有0.15的信任度,所以, A (0.25 ,0.85 )表示对A为真的信任度比对A为假的信任 86 度稍高一些。 Artificial Intelligence Searching: 86 四、证据理论 © BeiHang University IV.信任函数与似然函数的关系 从上面的讨论中可以看出, Bel(A)表示对A为真的信 任度; Bel(¬A)表示对¬A,即A为假的信任度; Pl(A) 表示对A为非假的信任度。那么, Pl(A)- Bel(A)表示 对A不知道的程度,即既非对A信任又非不信任的那部分,在 上例中, A(0.25 ,0.85 )中,0.85-0.25=0.60就表示 了对A不知道的程度; 87 Artificial Intelligence Searching: 87 四、证据理论 © BeiHang University V.概率分配函数的正交和 有时对同样的证据会得到两个不同的概率分配函数,例 如,对样本空间D={a,b} 从不同的来源分别得到如下两个概率分配函数: M1({a})=0.3, M1({b})=0.6, M1({a,b})=0.1, M1({ })=0 M2({a})=0.4, M2({b})=0.4, M2({a,b})=0.2, M2({ })=0 需要对其进行组合,德普斯特提出的组合方法就是对两个概 率分配函数进行正交和运算; R:IF E1 AND E2 THEN A={a} (CF={0.8}) 88 Artificial Intelligence Searching: 88 四、证据理论 © BeiHang University V.概率分配函数的正交和 定义:设M1和M2是两个概率分配函数,则其正交和 为: M M1 M M A K 1 M 0 2 M 1 x M 2 y x y A 其中: K 1 M x y 1 x M 2 y M 1 x M 2 y x y 如果 K 0 ,则正交和M也是一个概率分配函数;若 K 0 则不存在正交和M,即没有可能存在的概率函数,称M1和M2矛盾。 89 Artificial Intelligence Searching: 89 四、证据理论 © BeiHang University V.概率分配函数的正交和 例:设D={黑,白};且设 M1({黑},{白}, {黑,白},{ })=(0.3, 0.5,0.2,0) M2({黑},{白}, {黑,白},{ })=(0.6, 0.3,0.1,0) 则,得到 K 1 M 1 x M 2 y x y 1 [ M 1 黑M 2 白 M 1 白M 2 黑] 1 [ 0 .3 0 .3 0 .5 0 .6 ] 0 . 61 90 Artificial Intelligence Searching: 90 四、证据理论 © BeiHang University V.概率分配函数的正交和 M 黑 K M 1 1 x M 2 y x y 黑 1 0 . 61 1 M 1 黑M 2 黑 M 1 黑M 2 黑, 白 M 1 黑, 白M 2 黑 [ 0 .3 0 .6 0 .3 0 .1 0 .2 0 .6 ] 0 . 61 0 . 54 同理,可得 , M 白 0 . 43 M 黑, 白 0 . 03 经过M1和M2进行组合后,得到的概率分配函数为: M 黑, 白, 黑, 白, 0 .54 ,0 .43 ,0 .03 ,0 91 Artificial Intelligence Searching: 91 五、模糊推理方法 © BeiHang University 有对于大多数的应用系统而言,其主要且重要的信息源 有两种,即来自传感器的数据信息和来自专家的语言信息。 前者常用0.5,3,50等数字来表示;而语言信息则用诸如: 大、中等、非常小等文字来表达。传统的工程设计方法只能 用数据信息,而无法用语言信息,而人类解决问题时所使用 的大量知识是经验性的,通常用语言信息来描述,是模糊 的。 1965年,美国著名学者加利福尼亚大学的教授扎德 (Lotfi Zadeh)发表了“fuzzy set”的论文,首先提出了模 糊理论。 92 Artificial Intelligence Searching: 92 (1)发展 在模糊理论提出的年代,由于计算机发展的限制,以及 © BeiHang University 科学界对模糊的误解,使得模糊理论没有得到应有的发展。 在美国、欧洲、中国和日本,只有少数科学家研究模糊理 论。实际应用寥寥无几。 模糊理论成功的应用首先在自动控制领域。1974年, 英国伦敦大学教授Mamdani(玛达尼)首次将模糊理论应用 于热电厂的蒸气机控制,揭开了模糊理论在控制领域应用的 新篇章。1976年,Mamdani又将模糊理论用于水泥旋转炉 的控制。在所有的应用中,模糊控制在欧洲主要是用于工业 自动化,在美国主要用于军事领域。 93 Artificial Intelligence Searching: 93 (1)发展 到了80年代,随着计算机技术的发展,日本科学家将模 © BeiHang University 糊理论成功地用于工业控制和消费品控制,在世界范围内掀 起了模糊控制应用高潮,1983年,日本Fuji Electric公司 实现了饮水处理装置的模糊控制。1987年日本Hitachi公司 研制出地铁的模糊控制系统。1987-1990年在日本申报的 模糊产品专利就达319种,分布在过程控制、汽车电子、图 象识别/图象数据处理、测量技术/传感器、机器人、诊断、 家用电器控制等领域。 目前,各种模糊产品充满日本、西欧和美国市场,如模 糊洗衣机、模糊吸尘器、模糊电冰箱和模糊摄像机。各国都 将模糊技术作为本国重点发展的关键技术。 94 Artificial Intelligence Searching: 94 (1)发展 大多数的工业过程,参数时变呈现极强的非线性特 © BeiHang University 性,一般很难建立数学模型,而常规控制一般都要求系统有 精确的数学模型。所以对于不确定性系统的控制,常规控制 很难实现。而模糊控制可以利用语言信息却不需要精确的数 学模型。模糊控制由模糊数学、计算机科学、人工智能、知 识工程等学科相互渗透,是理论性很强的科学技术。 在人工智能领域,特别是知识的表达方面,模糊逻辑有 相当广阔的应用前景。目前在自动控制、模式识别、自然语 言理解、机器人及专家系统研制等方面,模糊逻辑取得了一 定的成果,引起了计算机科学等领域的越来越多的专家学者 95 的关注。 Artificial Intelligence Searching: 95 (2)模糊集合 模糊集合(Fuzzy Sets)是模糊控制的数学基础,被 © BeiHang University 认为是经典集合的扩充。我们在这里要明确几个重要的概念: I. 论域--所讨论的全体对象;“U、E” II. 元素--论域中的每个对象; III.集合--论域中具有某种相同属性的确定的、可以彼 此区别的元素的全体。 在经典集合中,元素a属于集合A的关系只有两种,a属 于A或a不属于A,即只有两个真值,“真”和“假”。 96 Artificial Intelligence Searching: 96 (2)模糊集合 例如,定义18岁以上为成年人,那么不足18岁的人, © BeiHang University 哪怕差一天也不属于成年,经典集合用特征函数来表征。如 成年人 1 x 0 x 18 x 18 这是一种对事物的二值描述即二值逻辑。经典集合不能 描述模糊的概念。在集合概念的基础上,我们引入模糊集合 的说法,那么,集合中的特征函数就相应的变为隶属函数。 隶属度表示元素a属于集合A的程度。是0和1之间的实 数,描述介于“真”和“假”之间的过程。集合中,所有元素的 隶属度全体构成集合的隶属函数。 97 Artificial Intelligence Searching: 97 (2)模糊集合 表示方法: © BeiHang University 当论域中元素数目有限时,模糊集合A的数学描述为: (1)Zadeh表示法 A x , A x , x X A=uA(x1)/x1+uA(x1)/x2+…+ui(xi)/xi 其中,/只表示分隔符号,不表述分数的意思。 当论域是连续的,或元素数目无限时, A A x / x xU 这里,符号+、-、∫不代表数学上的加、减和积分,只是模糊 集合的一种表示,代表“构成”或“属于”。 98 Artificial Intelligence Searching: 98 (2)模糊集合 © BeiHang University ( 2)序偶表示法 99 A A x 1 , x 1 , A x 2 , x 2 , , A x n , x n (3)向量表示法 A A x 1 , A x 2 , , A x n 在向量表示法中,隶属度为0项不能省略。 Artificial Intelligence Searching: 99 (3)隶属函数 © BeiHang University 隶属函数(Membership Function)是对模 糊概念的定量描述。 A x A x 成年人 1.0 0.5 0 18 “成年人”特征函数 100 1.0 Artificial Intelligence 18 25 “成年人”隶属函数 Searching: 100 (3)隶属函数 © BeiHang University 例,以年龄为论域,取U=[0,200],Zadeh给出了“年 老”0与“年青“Y两个模糊集合的隶属函数 0 u 50 0 1 2 o u 5 1 u 50 50 u 200 Y 1 1 u u 25 2 1 5 25 u 200 采用Zadeh表示法, “年老”0与“年青“Y两个模糊集合 可以表示为 O 2 u 50 1 5 50 u 200 101 0 u 25 Artificial Intelligence 1 Y u 1u 0 u 25 2 u 25 1 5 1 u 25 u 200 Searching: 101 (3)隶属函数 隶属函数确定方法: © BeiHang University I. 模糊统计法; u0对模糊集合A的隶属度= u0属于A的次数/试验总次数A II. ANN法; 利用神经网络的学习功能,由神经网络自动生成隶属函数,并 通过网络的学习自动调整隶属函数的值。 III.专家经验法; 当论域是离散论域时,可根据主观认识,结合个人经验,经过 分析和推理,直接给出隶属度。 IV.常见模糊分布:正态分布、三角分布、梯形分布;S形 分布、Z形分布… 102 Artificial Intelligence Searching: 102 © BeiHang University 高斯隶属函数 f x, , c 参数 x c 2 e 2 2 通常为正,c用于 确定曲线的中心。Matlab表 示为gaussmf(x,[ ,c])。 gaussmf(x,[2,5]) 103 Artificial Intelligence Searching: 103 © BeiHang University 三角形隶属函数 0 xa b a f x, a, b, c c x c b 0 x a a xb b xc xc 参数a、c确定▲形的 脚,b确定▲形的峰。 Matlab表示为 trimf(x,[a, b,c])。 104 trimf(x,[3 6 8]) Artificial Intelligence Searching: 104 © BeiHang University S形隶属函数 f x, a, c 1 1 e a( xc) 参数a的正负决定了S形 隶属函数的开口朝左或朝 右,用来表示正大、负大的 概念。Matlab表示为 sigmf(x,[a, c])。 105 sigmf(x,[2 4]) Artificial Intelligence Searching: 105 © BeiHang University 梯形隶属函数 f x, a, b, c, d 0 x b 1 d d 0 x a a a a x b b x c x c c x d x d 参数a、d确定梯形的 脚,b、c确定梯形的肩膀, Matlab表示为 trapmf(x,[a, b,c,d])。 106 trapmf(x,[1 5 7 8]) Artificial Intelligence Searching: 106 © BeiHang University Z形隶属函数 这是基于样条函数的曲 线,曲线呈现Z形状。 Matlab表示为 zmf(x,[a, b])。 107 zmf(x,[3 7]) Artificial Intelligence Searching: 107 (4)模糊集合的运算 © BeiHang University I. 基本运算--因为模糊集合是由隶属函数来 表征的,所以两个子集之间的运算实际上就 是逐点隶属度进行相应的运算。 (1)空集(模糊集合为空集,则隶属度为0) A A u 0 (2)全集(模糊集合为全集E,则隶属度为1) A E A u 1 108 Artificial Intelligence Searching: 108 © BeiHang University (4)模糊集合的运算 (3)等集(对所有元素u,若它们的隶属度相等,则A和 B也相等) A B A u B u (4)补集(若 为A的补集) A A u 1 A u 109 Artificial Intelligence Searching: 109 © BeiHang University (4)模糊集合的运算 (5)子集(若B为A的子集) B A B u A u (6)并集(若C为A和B的并集,C A B A B A B u max A u , B u A u B u (7)交集(若C为A和B的并集,C ) ) A B A B A B u min A u , B u A u B u 110 Artificial Intelligence Searching: 110 (4)模糊集合的运算 © BeiHang University II. 代数运算 (1)代数积 A B x A x B x (2)代数和 A B x A x B x A B x (3)有界和 A B x min 1, A x B x 1 A x B x (4)有界积 A B x max 0 , A x B x 1 0 A x B x 1 111 Artificial Intelligence Searching: 111 (4)模糊集合的运算 © BeiHang University III. 基本性质 满足幂等率、交换率、分配率、吸收率、同 一率、复原率、对偶率。 模糊集合一般不满足互补率,即 A A C U , A A C 这是因为模糊集合没有明确的边界,其补集 也没有明确的边界。 112 Artificial Intelligence Searching: 112 (5)模糊关系与模糊关系的合成 © BeiHang University 模糊关系是普通关系的推广。普通关系是描 113 述两个集合中的元素是否有关联,而模糊关系描 述两个模糊集合中的元素之间关联程度的多少。 当论域为有限时,可以用模糊矩阵来描述模糊关 系。 Artificial Intelligence Searching: 113 (5)模糊关系与模糊关系的合成 © BeiHang University 设某地区人的身高论域为 114 X={140,150,160,170,180}(m),体重论域Y= {40,50,60,70}(kg),身高与体重两个集合的元 素之间的关联程度如下表: R 40 50 60 70 80 140 1 0.8 0.2 0.1 0 150 0.8 1 0.8 0.2 0.1 160 0.2 0.8 1 0.8 0.2 170 0.1 0.2 0.8 1 0.8 180 0 0.1 0.2 0.8 1 Artificial Intelligence Searching: 114 (5)模糊关系与模糊关系的合成 © BeiHang University 它是从X到Y的一个模糊关系R,可以用模糊矩阵表示 为: 1 . 0 0 .8 R 0 .2 0 .1 0 0 .8 0 .2 0 .1 1 .0 0 .8 0 .2 0 .8 1 .0 0 .8 0 .2 0 .8 1 .0 0 .1 0 .2 0 .8 0 .1 0 .2 0 .8 1 0 模糊矩阵合成是指,根据第一个集合和第二个集合之 间的模糊关系与第二个集合和第三个集合之间的模糊关 系,进而得到第一个集合和第三个集合之间的模糊关系的 一种运算形式。模糊矩阵的合成类似于普通集合的乘积。 将乘积运算换成“取小”,将加运算换成“取大”即可。 115 Artificial Intelligence Searching: 115 (5)模糊关系与模糊关系的合成 © BeiHang University 设,它是从X到Y的一个模糊关系R,可以用模糊矩阵 表示为:A a11 a 21 c 11 C AB c 13 a 12 a 22 ,B b11 b 21 b12 b 22 ,则 c 12 c 14 c ij a ik b kj c 11 a 11 b11 a 12 b 21 c 12 a 11 b12 a 12 b 22 c 21 a 21 b11 a 22 b 21 c 22 a 21 b12 a 22 b 22 116 Artificial Intelligence Max-Min复合运算 Searching: 116 (6)模糊推理 © BeiHang University 模糊语句: 将含有模糊概念的语法规则所构成的语句称 为模糊语句,根据语义和构成语法规则分为: 模糊陈述句:语句本身具有模糊性,又称为模糊命题“今 天天气很热” 模糊判断句:形式为:x是a;其中,a表示的概念是模糊的。 如“张三是好学生”。 模糊推理句:语句形式为:若x是a,则x是b,为模糊推 理语句。如:今天是晴天,则天气暖和。 117 Artificial Intelligence Searching: 117 (6)模糊推理 © BeiHang University 模糊推理方法: (1)扎德(Zaheh)方法 (2)玛达尼(Mamdani)方法 (3)鲍德温(Baldwin)方法 (4)耶格(Yager)方法 (5)楚卡莫托(Thukamoto)方法 我们的结论是:扎德推理法得到的结果与玛达尼推 理法的推理结果相比,扎德推理法更符合人的思维。 118 Artificial Intelligence Searching: 118 (6)模糊推理 © BeiHang University 模糊推理: If A then B类型的模糊规则的推理: A B R 单输入单输出模糊控制器 若已知输入为A,则输出为B,若现在已知输入为 A’,则B’用合成规则求取: B A R 其中,模糊关系R定义为: R x , y min A x , B y 119 Artificial Intelligence Searching: 119 (6)模糊推理 © BeiHang University 例如,已知输入的模糊集合A和输出的模糊集 合B分别为: A=1.0/a1+0.8/a2+0.5/a3+0.2/a4+0.0/a5; B=0.7/b1+1.0/b2+0.6/b3+0.0/b4; 则模糊关系为 R A B 120 Artificial Intelligence T A B 1 . 0 0 .8 0 . 5 0 . 7 0 .2 0 .0 1 .0 0 .6 0 .0 Searching: 120 © BeiHang University (6)模糊推理 121 R A B Artificial Intelligence T A B 1 . 0 0 .8 0 . 5 0 . 7 0 . 2 0 .0 1 .0 0 .6 1 . 0 0 . 7 0 .8 0 .7 0 .5 0 .7 0 .2 0 .7 0 .0 0 .7 1 .0 1 .0 0 .7 0 .7 0 .5 0 .2 0 .0 1 .0 0 .6 0 .8 0 .6 0 .5 0 .5 0 .2 0 .2 0 .0 0 .0 0 .0 1 .0 0 .6 0 .8 1 .0 0 .8 0 .6 0 .5 1 .0 0 .5 0 .6 0 .2 1 .0 0 .2 0 .6 0 .0 1 .0 0 .0 0 .6 0 .0 0 .0 0 .0 0 .0 0 . 0 1 .0 0 .0 0 .8 0 .0 0 .5 0 .0 0 .2 0 .0 0 . 0 0 . 0 Searching: 121 (6)模糊推理 © BeiHang University 则当输入 122 A’=0.4/a1+0.7/a2+1.0/a3+0.6/a4+0.0/a5;B’由下式求取 0 .4 0 .7 B A R 1 .0 0 . 6 0 .0 T 0 .7 0 .7 0 .5 0 .2 0 .0 1 .0 0 .6 0 .8 0 .6 0 .5 0 .5 0 .2 0 .2 0 .0 0 .0 0 .0 0 .0 0 .0 0 .0 0 . 0 [ 0 . 4 0 . 7 0 . 7 0 . 7 1 . 0 0 . 5 0 . 6 0 . 2 0 . 0 0 . 0 , 0 . 4 1 . 0 0 . 7 0 . 8 1 . 0 0 . 5 0 . 6 0 . 2 0 . 0 0 . 0 , 0 . 4 0 . 6 0 . 7 0 . 6 1 . 0 0 . 5 0 . 6 0 . 2 0 . 0 0 . 0 , 0 . 4 0 . 0 0 . 7 0 . 0 1 . 0 0 . 0 0 . 6 0 . 0 0 . 0 0 . 0 , ] [ 0 . 4 0 . 7 0 . 5 0 . 2 0 . 0 , 0 . 4 0 . 7 0 . 5 0 . 2 0 . 0 , 0 . 4 0 . 6 0 . 5 0 . 2 0 . 0 , 0 . 0 0 . 0 0 . 0 0 . 0 0 . 0 ] 0 . 7 , 0 . 7 , 0 . 6 , 0 . 0 Artificial Intelligence Searching: 122 (6)模糊推理 © BeiHang University 模糊推理: If A and B then C型的推理: If A then B else C 如:若炉温偏低,则增加燃料 量,否则减少燃料量; If A and B then C 如:若炉温偏低,且温度变化 的系数为负,则增加燃料量; 以第二种为例: A B C 模糊控制器R 两输入单输出模糊控制器 123 Artificial Intelligence Searching: 123 © BeiHang University (6)模糊推理 常用的模糊推理方法有两种:Zadeh法和 Mamdani法,后者是模糊控制中普遍使用的方 法,本质是一种合成方法。其中,蕴涵的关系是 A B C 均为三元模糊关系,则关系矩阵R为: R A B 124 ,根据Mamdani模糊推理法,A、B、C T1 C 称为直积运算。 Artificial Intelligence Searching: 124 (6)模糊推理 © BeiHang University 其中,T1为列向量转换,n和m分别为A和B 125 论域元素的个数。在确定了模糊关系R后,可以 求给定A1和B1后,对应的输出C1 。为 C 1 A1 B 1 T2 R 其中,T2为行向量转换。 Artificial Intelligence Searching: 125 (6)模糊推理-例题 © BeiHang University 设论域X={a1,a2,a3};Y={b1,b2,b3};Z= {c1,c2,c3},已 知 C 0 .4 c1 1 c2 A 0 .5 a1 1 a2 Artificial Intelligence 0 .1 1 b1 a3 A1 时的输出C1。 126 B b2 , 0 .6 b3 , ,试确定”If A and B then C“所决定 的模糊关系R,以及输入 解算: 0 .1 0 .5 A B 1 0 . 1 0 . 1 1 1 .0 a1 0 .5 a2 0 .1 0 .6 0 .1 0 . 1 0 .1 a3 0 .5 1 .0 0 .1 ,B 1 0 .1 b1 1 b2 0 .6 b3 0 .5 0 .6 0 . 1 Searching: 126 (6)模糊推理-例题 © BeiHang University 解算: 将A×B矩阵扩展成如下列向量: A B T 1 R A B 0 .1 0 .1 T1 0 . 1 C 0 . 1 0 .5 0 .5 0 .1 1 .0 0 .5 0 .5 0 .1 1 .0 0 .6 0 . 1 0 .1 0 .4 0 .4 0 .1 0 .4 0 .4 0 .1 0 .1 0 .5 0 .5 0 .1 1 .0 0 .6 0 .1 0 .1 0 .6 0 .1 0 .1 0 .1 0 .5 1 0 . 1 T 0 .1 0 . 1 0 . 4 T 1 T 当输入为A1和B1时,有 1 A1 B 1 0 . 5 0 . 1 0 . 1 127 Artificial Intelligence 0 .5 0 .1 1 0 . 1 0 . 1 0 .5 0 .1 0 .5 0 . 1 Searching: 127 (6)模糊推理-例题 © BeiHang University 解算: 将A1×B1矩阵扩展成如下行向量: A1 B 1 T 0 . 1 0 .5 1 0 .1 0 .5 0 .5 0 .1 0 . 1 0 .1 最后得C1为 C 1 0 . 1 0 . 4 0 .5 1 0 .1 0 .5 0 .5 0 .1 0 .5 即 128 2 C1 Artificial Intelligence 0 .4 c1 0 .1 0 .1 0 . 1 0 .1 0 .4 0 .4 0 .1 0 .4 0 .4 0 .1 0 .1 0 .5 0 .5 0 .1 1 .0 0 .6 0 .1 0 .1 0 . 1 0 .1 0 .5 c2 Searching: 128 T (7)模糊决策 © BeiHang University 即将模糊推理结果转化为精确值的过程称为反模糊化。 常用的反模糊化方法有三种: (1)最大隶属度法 (Mamdani推理) 选取推理结果的模糊集合中隶属度最大的元 素作为输出值。即 0 max , V 如果在输出论域V中,其最大隶属度对应的输出值多 于一个,则取所有具有最大隶属度输出的平均值。若平均 129 值不是整数,则按照四舍五入原则。 1 N 0 i i max , V N i 1 Artificial Intelligence Searching: 129 (7)模糊决策 优点:简单易行、实时性好。 © BeiHang University 缺点:不考虑输出隶属度函数的形状,只考虑最大 隶属度处的输出值,会丢失许多信息,如忽略了小隶属度 元素的影响和作用,但在要求不高的场合,仍可采用。 命令 0 max , V 最大隶属度平均法: ‘lom’最大隶属度取大法 ‘som’最小隶属度取小法 130 Artificial Intelligence Searching: 130 (7)模糊决策 © BeiHang University (2)取中位数法(Lason推理) 计算模糊集合U的隶属度曲线和论域元素横坐标围成 区域的面积,取平分该面积的数作为模糊判决结果。 优点:充分利用了模糊集合的信息。 缺点:计算繁琐,且缺乏对隶属度最大元素提供主导 信息的充分重视。 命令 y defuzz x , mf , ' bi sec tor ' 131 Artificial Intelligence (面积等分法) Searching: 131 (7)模糊决策 © BeiHang University (3)加权平均法(Tsukamoto推理,楚卡莫托方法) 根据权重进行平均。在工业控制中被广泛采用。 m 0 面积重心法(力矩法) i ki i 1 m ki i 1 取隶属度函数曲线与横坐标围成面积的重心作为模糊推理的最终 输出值。 优点:更平滑的输出推理控制。即使对于输入信号的微小变化也能 使输出产生变化。当 k i i 时,加权法就转化为重心法。 命令 y defuzz x , mf , ' centroid ' 面积重心法 132 Artificial Intelligence Searching: 132 (7)模糊决策 输出隶属函数的一般形式: © BeiHang University 去模糊化图解 133 Artificial Intelligence Searching: 133 © BeiHang University End of Class 134 Review ? Questions? Examination? Artificial Intelligence Searching: 134