Aide à la décision 2

Download Report

Transcript Aide à la décision 2

Fusion de données :
Vision probabiliste de la fusion
Approche
probabiliste
1
« Ce que les hommes veulent en fait, ce n’est
pas la connaissance, c’est la certitude. »
Bertrand Russel
2
Rappels
 Théorie des probabilités
• Approche fréquentiste
une probabilité = la limite d'une fréquence d'occurrence d'événements
•Approche subjective (ou confiance)
une probabilité reflète simplement un état de connaissance et le lien
avec une fréquence réelle d'occurrence n'existe que dans certains cas.
 Théories non probabilistes
• théorie des possibilités (cadre de la logique floue)
• théorie de l'évidence proposée par Shafer (1976).
Approche
probabiliste
2
Deux écoles de pensée :
1- les probabilistes: les résultats et mécanismes auxquels conduisent
ces approches  toujours atteints par une méthode strictement
probabiliste (à condition qu'elle soit suffisamment adaptée)
2- les adeptes de la théorie de l'évidence ou des possibilités
volonté de chercher une modélisation plus fidèle sémantiquement
vis-à-vis de l'information disponible.
3
Approche
probabiliste
3
Introduction

Modèle probabiliste
 le plus ancien et le plus utilisé

Deux approches différentes :
– approche objectiviste (fréquentiste) : distribution de
probabilité d'une variable aléatoire
– approche subjective : répartition de probabilités image de
l'état des connaissances
4
Approche fréquentiste

étude statistique du phénomène

évaluation de la fréquence d'occurrence d'un événement

exemple : jet de dé
 le ratio de fréquence d'apparition d'une face est de 1/6
Approche
probabiliste
4
5
Approche subjective

codage de l'état des connaissances

confiance dans l'apparition d'un événement

exemple :
 Paul apprend à rouler à vélo, il a beaucoup de "chances" de
tomber.
Approche
probabiliste
5
6
Théories des probabilités
Le cadre classique




Approche
probabiliste
Ensemble fini W={w1,…,wc}
A  W : événement, proposition, hypothèse, …
P : 2W  [0,1] est une mesure de probabilité si :
– P(W)=1
– A,B  W, AB=  P(AB)=P(A)+P(B)
[axiome d’additivité]
Conséquences :
– P()=0
– A,B  W, P(AB)=P(A)+P(B)-P(AB)
P( A) =  p(w )
–  p : W  [0,1] , A  W,
wA
6
7
Théories des probabilités
Qu’est-ce que P(A) ?
1.
Interprétation fréquentiste : limite vers laquelle tend la fréquence
relative de l’événement A au cours d’une suite d’épreuves
indépendantes (phénomènes aléatoires)
P( A) =
Nbre cas observés
Nbre total d ' essais
 suppose la répétabilité des épreuves
2.
Interprétation classique : issue de la théorie des jeux
P( A) =
Approche 3.
probabiliste
7
Nbre cas favorables
Nbre cas possibles
Interprétation subjectiviste : P(A)=degré de croyance d’un agent
rationnel en l’occurrence de l’événement A.
[Axiomes de Cox (1946)]
8
Théories des probabilités
Représentation de l’ignorance


Approche
probabiliste
8

Principe de raison insuffisante (PRI) : en l’absence
d’information, prendre la loi de probabilité uniforme p(w)=cste.
Exemple 1 : course entre 3 chevaux W={a, b, c}.
– Pour le néophyte
p(a)=p(b)=p(c)=1/3
– Pour le connaisseur sachant que les 3 chevaux sont de
même valeur :
p(a)=p(b)=p(c)=1/3
 Deux états de connaissance très différents sont représentés
exactement de la même façon...
9
Modélisation
Modélisation de la précision
Précision : distribution de probabilité sur l'espace de définition continu
b
P([a, b] / d ) =  p( x / d )dx
a
p(x/d)
Probabilité que X  [a,b], si la

mesure est d.
Approche
probabiliste
9
Distribution Gaussienne :
moyenne d, variance
2
d X
x
10
Modélisation
Modélisation de la confiance

Incertitude : distribution de probabilités sur W : P(H1), P(H2), P(H3),
P(H4)

Propriétés :
–
–
–
–
Approche
probabiliste
10
 A  2 W, 0  P(A)  1
P(W ) =1
 A, B  2W, P(A B) = P(A) + P(B) si A B=
 A, B  2W, P(A) = P(A  B) + P(A B)
11
Modélisation
Modélisation de la méconnaissance (ignorance)

Modélisation implicite : répartition de la probabilité sur les
différentes hypothèses possibles :
A = H1  H2 ; P(A) = 0.6
P(H1) = 0.3 et P(H2) = 0.3

Exemple : jet de pièce
P(pile) = P(face) = 0.5
p( x / d )
Approche
probabiliste
11
x
12
Modélisation
Modélisation de la méconnaissance (ignorance)

Principe d’indifférence ou de « raison insuffisante »
–
Ignorance = modélisée par une distribution de probabilité uniforme
 Principe de maximum d’entropie
Approche
probabiliste
12
13
Modélisation
Méconnaissance pour probabilités subjectives

Confusion entre doute et méconnaissance

Exemple :
Les fantômes existent-ils ?
P(fantôme existe) = P(fantôme n'existe pas) = 0.5
Approche
probabiliste
13
14
Conversion numérique-symbolique

modèle de conversion :
– statistique : apprentissage supervisé
– subjective : modélisation d'une connaissance experte
distribution de vraisemblance :
 Hi  W , vd (Hi ) = p (d /Hi)
Hi-1
Approche
probabiliste
d
14
p(d/Hi)
Hi
x
15
Fusion
Fusion bayesienne

Basée sur l'utilisation du théorème de Bayes
p( A / B ) p( B )
p( B / A) =
p( A)
Approche
probabiliste
15
16
Le théorème du révérend Thomas Bayes
Théorème de Bayes: conséquence immédiate de la loi de
composition des probabilités (qui est nécessairement un des
axiomes fondamentaux de toute théorie des probabilités).
Si A et B deux événements, loi de composition des probabilités
indique: probabilité P(AB) d'observer à la fois A et B est simplement
donnée par:
P(AB) = P(A) P(B|A) = P(B) P(A|B)
où P(A|B) se lit "probabilité d'observer A sachant que B s'est
réalisé".
Cela implique immédiatement:
A priori
Approche
probabiliste
16
P(B|A) = P(B) P(A|B)/P(A)
Théorème de Bayes
Rq: Ce théorème se généralise au cas de plusieurs événements A,
B, C, D, etc.
17
Le théorème du révérend Thomas Bayes
Propriétés
• Approche bayesienne compare des hypothèses aux données
réelles;
P( H E ) P( E )
P( E H ) =
P( H )
• Approche classique compare les données réelles à des données
hypothétiques.
• Inférence bayesienne dépend des données examinées et des
données et des connaissances (ou croyances...) antérieures;
Approche
probabiliste
17
• Inférence classique ne dépend que des seules données
examinées.
18
Le théorème du révérend Thomas Bayes
Propriétés
Soit (Bi),i=1...N, une partition de l’espace W et A un événement.
Supposons que l’on connaît les probabilités P(Bi) et les
probabilités conditionnelles P(A|Bi) et que l’on s’intéresse à la
probabilité conditionnelle d’un événement Bj sachant que A s’est
réalisé, i.e. P(Bj|A). On trouve:
P(Bj|A) = P(Bj  A)/P(A) = P(A|Bj)·P(Bj)/P(A)
En exprimant P(A) à l’aide des probabilités conditionnelles P(A|Bi)
en utilisant la loi de probabilité totale, on obtient la formule de
Bayes:
Approche
probabiliste
18
P(Bj|A) = P(A|Bj)·P(Bj)/ P(A|Bi)·P(Bi)
19
Le théorème du révérend Thomas Bayes
Exemple
Dans un système de communication numérique, on transmet des « 0 » et
des « 1 » via un canal de transmission bruité tel que:
Si un « 0 » est émis , on reçoit un « 0 » avec une probabilité 0.75;
Si un « 1 » est émis, un « 1 » est reçu avec une probabilité 0.9.
Supposons qu’un « 0 » est émis avec une probabilité 0.4.
Quelle est la probabilité que, quand un « 0 » est reçu, un « 0 » a été émis?
 P(B0|A0) =?
Approche
probabiliste
19
Soit B0 l’événement « un 0 a été émis", B1 l’événement « un 1 a été émis",
A0 l’événement « un 0 a été reçu" et A1 l’événement « un 1 a été reçu".
Les probabilités suivantes sont connues:
• P(A1|B0) = 0.25
• P(B0) = 0.4
• P(A0|B1) = 0.1
• P(B1) = 0.6
• P(A0|B0) = 0.75 • P(A1|B1) = 0.9
20
Le théorème du révérend Thomas Bayes
Exemple (suite)
• P(B0) = 0.4
• P(B1) = 0.6
• P(A0|B0) = 0.75
• P(A1|B0) = 0.25
• P(A0|B1) = 0.1
• P(A1|B1) = 0.9
Quelle est la probabilité que, quand un « 0 » est reçu, un « 0 » a été émis?
 P(B0|A0) =?
En appliquant la formule de Bayes à A0 et la partition (B0,B1) on obtient:
P(B0|A0) = P(A0|B0)·P(B0)/ [P(A0|B0)·P(B0) + P(A0|B1)·P(B1)] =
0.75·0.4/[0.75·0.4 + 0.1·0.6] = 0.833=5/6.
Approche
probabiliste
20
21
Fusion
Fusion : modèle - mesure

Information disponible :
–
distribution de probabilité a priori P(Hi)
–
distribution de vraisemblance P(d/Hi)=vd(Hi)
probabilité a posteriori
vd ( x) p ( x)
p( x / d ) =
 vd ( y ) p ( y )
Approche
probabiliste
yW
vd ( H i ) P( H i )
P( H i / d ) =
 vd ( H j ) P( H j )
H j W
Bayes
21
22
Fusion
Fusion : mesure - mesure

Information disponible :
– distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi)
– distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi)
Vraisemblance
Approche
probabiliste
22
vd1,2 ( x) =
vd1 ( x).vd 2 ( x)
 v d 1 ( y )v d 2 ( y )
yW
vd 1 ( H i ).vd 2 ( H i )
vd 1,2 ( H i ) =
 vd1( H j )vd 2 ( H j )
H j W
23
Fusion
Modélisation du conflit

Notion de conflit n'existe pas

Combinaison concordante normalisée

Conflit total : la mesure de vraisemblance n'est plus possible
 vd1 ( y)vd 2 ( y) = 0
yW
Approche
probabiliste
 vd1 ( H j )vd 2 ( H j ) = 0
H j W
vd 1 ( H i ).vd 2 ( H i )
vd 1,2 ( H i ) =
 vd1( H j )vd 2 ( H j )
H j W
23
Problème!
24
Fusion
Doute et conflit
Approche
probabiliste
24
Doute donc répartition
équiprobable
v1 ( H1 ) = 0,5 

v1 ( H 2 ) = 0,5  v12 ( H1 ) = 0,5
Et donc je n’en
sais pas plus!

v2 ( H1 ) = 0,5  v12 ( H 2 ) = 0,5
Pas plus l’une
v2 ( H 2 ) = 0,5 
n1(H1)=0,1  que l’autre!

n1(H2)=0,9  n12(H1)=0,5
Désaccord

(conflit)
n2(H1)=0,9  n12(H2)=0,5

n2(H2)=0,1 
25
Décision
Décision avec des probabilités

Maximum de probabilité a posteriori (MAP)
H retenue

Approche
probabiliste
25


= Arg max P( H i / d ) =
H i W



vd ( H i ) P( H i ) 

vd ( H j ) P( H j ) 


H j W

Maximum de vraisemblance (MV)
H retenue


= Arg max vd 1, 2 ( H i ) =
H i W



vd 1 ( H i ).vd 2 ( H i ) 

vd 1 ( H j )vd 2 ( H j ) 


H j W

26
Exemple : Jet de dé
Point de départ
Approche
probabiliste
26

ensemble de définition W={F1, F2, F3, F4, F5, F6}

probabilités a priori P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6

Capteur 1 : indique le nombre de point au milieu

Capteur 2 : indique le nombre de points sur un coté
27
Exemple : Jet de dé
Capteurs
0 point : F2 , F4 , F6
1 point : F1 , F3 , F5
Approche
probabiliste
27
0 point : F1
1 point : F2, F3
2 points : F4, F5 , F6
3 points : F6
D’après M. Rombaut (LIS – UJF, Grenoble)
28
Exemple : Jet de dé
Fusion : modèle - mesure

Information disponible
–
distribution de probabilité a priori P(Hi)
–
distribution de vraisemblance P(d/Hi)=vd(Hi)
probabilité a posteriori
Approche
probabiliste
28
vd ( H i ) P( H i )
P( H i / d ) =
 vd ( H j ) P( H j )
H j W
29
Exemple : Jet de dé
Probabilités
conditionnelles
Probabilités
a priori
p(point/face) = vpoint(face)
p(face)
Approche
probabiliste
29
0 point
1 point
p(F1)= 1/6
F1
p(0point/F1) = 0.1
p(1point/F1) = 0.9
p(F2)= 1/6
F2
p(0point/F2) = 0.8
p(1point/F2) = 0.2
p(F3)= 1/6
F3
p(0point/F3) = 0.1
p(1point/F3) = 0.9
p(F4)= 1/6
F4
p(0point/F4) = 0.7
p(1point/F4) = 0.3
p(F5)= 1/6
F5
p(0point/F5) = 0.1
p(1point/F5) = 0.9
p(F6)= 1/6
F6
p(0point/F6) = 0.8
p(1point/F6) = 0.2
D’après M. Rombaut (LIS – UJF, Grenoble)
30
Exemple : Jet de dé
Fusion modèle-mesure
Capteur 1 : 1 point
 p(1point/ F ). p( F ) = 3.4 / 6
i
i
Fi
1 point
Approche
probabiliste
30
F1
p(F1/1point ) = p(1point/F1). p(F1) . 6 / 3.4 = 0.26
F2
p(F2/1point ) = p(1point/F2). p(F2) . 6 / 3.4 = 0.06
F3
p(F3/1point ) = p(1point/F3). p(F3) . 6 / 3.4 = 0.26
F4
p(F4/1point ) = p(1point/F4). p(F4) . 6 / 3.4 = 0.09
F5
p(F5/1point ) = p(1point/F5). p(F5) . 6 / 3.4 = 0.26
F6
p(F6/1point ) = p(1point/F6). p(F6) . 6 / 3.4 = 0.06
D’après M. Rombaut (LIS – UJF, Grenoble)
31
Exemple : Jet de dé
Fusion : mesure - mesure

Information disponible
– distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi)
– distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi)
vraisemblance
vd 1 ( H i ).vd 2 ( H i )
vd 1,2 ( H i ) =
 vd1( H j )vd 2 ( H j )
H j W
Approche
probabiliste
31
32
Exemple : Jet de dé
Fusion mesure-mesure
Capteur 1 : 1 point
Capteur 2 : 1 point
1 point
Approche
probabiliste
1 point
F1
p(1point/F1) = 0.9
F1
p(1point/F1) = 0.2
F2
p(1point/F2) = 0.2
F2
p(1point/F2) = 0.8
F3
p(1point/F3) = 0.9
F3
p(1point/F3) = 0.9
F4
p(1point/F4) = 0.3
F4
p(1point/F4) = 0.1
F5
p(1point/F5) = 0.9
F5
p(1point/F5) = 0.2
F6
p(1point/F6) = 0.2
F6
p(1point/F6) = 0.1
p(1point,1point/F3)=v1point,1point(F3) = 0.81 / 1.38 = 0.59
32
D’après M. Rombaut (LIS – UJF, Grenoble)
33
Curiosité liée aux probabilités
Paradoxe de Bertrand
Soit une bouteille contenant un mélange eau – vin
La bouteille contient :
• au moins autant d’eau que de vin;
• au plus deux fois plus d’eau que de vin.
Question :
Probabilité que la bouteille contienne au plus 1.5 fois plus d’eau
que de vin ?
Approche
probabiliste
33
34
Curiosité liée aux probabilités
Paradoxe de Bertrand
Soit
le rapport eau/vin :
PRI : loi uniforme sur [1;2]
0.5
Approche
probabiliste
34
Probabilité que la bouteille contienne au plus 1.5 fois plus d’eau
que de vin égale 0.5
35
Curiosité liée aux probabilités
Paradoxe de Bertrand
Soit
le rapport vin/eau :
PRI : loi uniforme sur [0.5;1]
2/3
Approche
probabiliste
35
Probabilité que la bouteille contienne au plus 1.5 fois plus d’eau
que de vin égale 2/3 !!!
Au même événement sont attribuées des probabilités différentes !
Curiosité liée aux probabilités
36
Paradoxe de Bertrand
Triangle équilatéral inscrit dans un cercle. Une corde de ce cercle choisie au
hasard.
Quelle est la probabilité que sa longueur soit supérieure au côté du triangle?
Approche
probabiliste
36

Corde caractérisée par la position de son milieu
P=1/4

Corde caractérisée par la distance de son milieu au centre du cercle
P=1/2

Corde caractérisée par ses extrémités
P=1/3
Au même événement sont attribuées des probabilités différentes !
37
Théories des probabilités
Conséquence
Approche
probabiliste

La théorie des probabilités n’est pas suffisamment générale
pour modéliser toutes les formes d’incertitude.

Généralisations :
– mesures de confiance
– théorie des possibilités
– théorie des fonctions de croyance

En particulier
– Remise en cause de l’additivité


37
mesures floues [Sugeno, 74]
capacités [Choquet, 53]
38
Conclusion
Mesures de confiance




Approche
probabiliste
38
Un cadre plus général que celui de la théorie des probabilités.
W fini (domaine d’une variable y), g:2W[0,1] est une mesure
de confiance (mesure floue) si
– g()=0, g(W)=1
–  A,B  W, A  B  g(A)  g(B)
[monotonie]
Interprétation : g(A)=degré de confiance dans l’événement A
(c.a.d. dans le fait que y  A)
Une mesure de probabilité est une mesure de confiance, mais
une mesure de confiance n’est pas nécessairement additive.
39
Conclusion






Approche
probabiliste
39
Formalisme très largement utilisé
Distribution continue (e.g. gaussienne)
Confusion entre méconnaissance (ignorance) et équiprobabilité
Fusion conjonctive normalisée
Conflit non modélisé (ennuyeux quand sources sont en désaccord)
Bon fonctionnement en cas de connaissances riches
40
This is the end of this part!
Approche
probabiliste
40