先进人工智能课程复习笔记Ⅳ--不确定性推理

不确定性推理

重点:可信度方法、模糊推理

  • 基本概念

  • 概率方法

  • 主观Bayes方法

  • 可信度方法

  • 模糊理论

  • 简单模糊推理


【不确定性推理】:不确定性的初始证据,用不确定性的知识,推出一定程度上不确定的结论。

【如何表示】:

  • 知识不确定性:由领域专家给出的一个数值表示,称为静态强度
  • 证据不确定性:也是一个数值,称为动态强度

【不确定性的匹配】:

  • 设计不确定性匹配算法
  • 指定一个匹配阈值

【不确定性的计算】:

经典概率方法:规则:IF E THEN H,条件概率P(H|E)可作为规则的静态强度。

先验概率:P(H) 后验概率:P(H|E)

贝叶斯公式:P(HE)=P(EH)P(H)P(E),P(E)=P(EHi)P(Hi)P(H|E)=\frac{P(E|H)P(H)}{P(E)},其中P(E)=\sum{P(E|H_i)P(H_i)}

P(HE1,E2)=P(E1H)P(E2H)P(H)P(E),P(E1E2)=P(E1Hi)P(E2Hi)P(Hi)P(H|E_1,E_2)=\frac{P(E_1|H)P(E_2|H)P(H)}{P(E)},其中P(E_1E_2)=\sum{P(E_1|H_i)P(E_2|H_i)P(H_i)}

由于概率推理方法存在一些现实局限,所以主观贝叶斯方法表示知识:IF E THEN (LS,LN) H。

【不确定性的更新】:

【不确定性的合成】:


【主观贝叶斯公式】IF.E.THEN.(LS,LN)H(P(H))IF.E.THEN.(LS,LN) H(P(H))

P(HE)=P(EH)P(H)P(E)P(H|E)=\frac{P(E|H)P(H)}{P(E)}

P(notHE)=P(EnotH)P(notH)P(E)P(notH|E)=\frac{P(E|notH)P(notH)}{P(E)}

LS是充分性度量:LS=P(EH)P(EnotH)LS=\frac{P(E|H)}{P(E|notH)},指出E对H的支持程度

LN是必要性度量:LN=P(notEH)P(notEnotH)LN=\frac{P(notE|H)}{P(notE|notH)}

Θ(HnotE)=P(HnotE)P(notHnotE)\Theta(H|notE)=\frac{P(H|notE)}{P(notH|notE)}

【以上应该不考/(ㄒoㄒ)/~~】


###可信度的计算

【可信度】:根据经验对一个事物和现象为真的相信程度。

  • 在可信度方法中,由专家给出规则或知识的可信度,从而避免求先验概率或条件概率。

  • CF模型:IF E THEN H (CF(H,E)),其中,可信度因子/规则强度:CF(H,E)[1,1]\in[-1,1]

  • CF(H,E)>0 则P(H|E)>P(H); 同号

  • CF(H,E)=MB(H,E)-MD(H,E),其中MB,MD分别表示证据对结论有利和无利的一面,称为信任/不信任增长度。

  • 定义:

    MB(H,E)={1,P(H)=1max(P(HE),P(H))P(H)1P(H),MB(H,E)=\begin{cases}1,P(H)=1 \\ \frac{max(P(H|E),P(H))-P(H)}{1-P(H)},否则\end{cases}

    MD(H,E)={1,P(H)=0min(P(HE),P(H))P(H)P(H),MD(H,E)=\begin{cases}1,P(H)=0 \\ \frac{min(P(H|E),P(H))-P(H)}{-P(H)},否则\end{cases}

    CF(H,E)={MB(H,E)0=P(HE)P(H)1P(H),P(HE)>P(H)0,P(HE)=P(H)0MD(H,E)=P(H)P(HE)P(H),P(HE)<P(H)CF(H,E)=\begin{cases}MB(H,E)-0=\frac{P(H|E)-P(H)}{1-P(H)},P(H|E)>P(H) \\ 0\qquad\qquad\qquad\qquad\qquad\qquad,P(H|E)=P(H) \\0-MD(H,E)=\frac{P(H)-P(H|E)}{P(H)},P(H|E)<P(H)\end{cases}

【证据的不确定性】用可信度因子表示,动态强度:CF(E)>0:某种程度上证据为真;CF(E)<0:某种程度上证据为假。

【结论H的可信度】CF(H)=CF(H,E)×max{0,CF(E)}CF(H)[1,1],CF(H)\in[-1,1]

【结论不确定性的合成算法】同一个结论可以有多条不同的知识推出来。

【结论H的综合可信度】:

  1. 对每一条知识求CFi(H)CF_i(H)

  2. CF12(H)={CF1(H)+CF2(H)CF1(H)×CF2(H),both>=0CF1(H)+CF2(H)+CF1(H)×CF2(H),both<0CF1(H)+CF2(H)1minCF1(H),CF2(H),CF_{12}(H)=\begin{cases}CF_1(H)+CF_2(H)-CF_1(H)×CF_2(H),both>=0 \\CF_1(H)+CF_2(H)+CF_1(H)×CF_2(H) ,both<0\\\frac{CF_1(H)+CF_2(H)}{1-min{|CF_1(H)|,|CF_2(H)|}},二者异号\end{cases}

  3. 必考题
    先进人工智能课程复习笔记Ⅳ--不确定性推理
    【带有阈值限度的不确定性推理】CF(H,E),lambda

当CF(E)>=λ时,知识才可以被应用,CF(H)=CF(H,E)×CF(E)

【结论不确定性的合成算法】

  1. 当n条规则都满足CF(Ei)>=λ,i=1,2,...,nCF(E_i)>=\lambda,i=1,2,...,n时,计算CFi(H)CF_i(H)
  2. 求综合可信度
    • 极大值法:CF(H)=maxCF1(H),CF2(H),...,CFn(H)CF(H)=max{CF_1(H),CF_2(H),...,CF_n(H)}
    • 加权求和法:CF(H)=1CF(H,Ei)CF(H,Ei)×CF(Ei)CF(H)=\frac{1}{\sum{CF(H,E_i)}}\sum{CF(H,E_i)×CF(E_i)}
    • 有限和法:CF(H)=min(CFi(H),1)CF(H)=min{(\sum{CF_i(H)},1)}
    • 递推法:C1=CF(H,E1)×CF(E1),Ck=Ck1+(1Ck1)×CF(H,Ek)×CF(Ek)C_1=CF(H,E_1)×CF(E_1),C_k=C_{k-1}+(1-C_{k-1})×CF(H,E_k)×CF(E_k)

【加权的不确定性推理】

知识表示:IF E1(ω1)ANDE2(ω2)AND...ANDEn(ωn)E_1(\omega_1)ANDE_2(\omega_2)AND...ANDE_n(\omega_n) THEN H (CF(H,E),λ)(CF(H,E),\lambda)

其中,ωi[0,1]\omega_i\in[0,1]是加权因子,λ\lambda是阈值,都由专家给出。ωi=1\sum{\omega_i}=1

组合证据的可信度:CF(E)=1ωi(ωi×CF(Ei))CF(E)=\frac{1}{\sum{\omega_i}}\sum{(\omega_i×CF(E_i))}
先进人工智能课程复习笔记Ⅳ--不确定性推理

【前提条件中带有可信度因子的不确定性推理】


###【模糊推理】