RECONNAISSANCE DE FORMES IAR-6002

Download Report

Transcript RECONNAISSANCE DE FORMES IAR-6002

RECONNAISSANCE DE
FORMES
IAR-6002
Extraction des caractéristiques
 Introduction
 Extraction
des caractéristiques
Introduction
 L’extraction
consiste à trouver un espace des
caractéristiques de dimension d à partir d’un
espace original de D caractéristiques
 La compression de l’information est accomplie
par la projection des caractéristiques originales
dans un espace de dimension inférieure et ce en
éliminant la redondance de l’information
 Cette projection prend la forme:
x = A(y)
Introduction
 Processus
de projection de l’ensemble des
caractéristiques originales dans un autre espace
de caractéristiques de dimension inférieure
Introduction
 Si
la fonction de projection A est linéaire, nous
cherchons alors un extracteur de caractéristiques
où A est une matrice D X d, permettant la projection d’un vecteur y (dimension D) sur un vecteur x
(dimension d) et dont la forme est:
x  A
T
y
Extraction des caractéristiques
 Analyse
en composante principale
– Ce type de méthode est aussi appelée
• Transformée discrète de Karhunen-Loève
• Transformée de Hotelling
• Transformée en vecteurs propres
– Cette méthode permet de déduire une transformation linéaire permettant d’éliminer la corrélation
entre les composantes d’un vecteur de variables
aléatoires
Extraction des caractéristiques
 Analyse
en composante principale
– Si nous avons une population (n observations) de
vecteurs aléatoires (D dimensions) de la forme:
 y1 
y 
2 

y
  
 C
 yD 
• Avec comme vecteur moyenne
n
1
m y  E  y    yi
n i 1
• Avec une matrice de covariance
y

 E  y  mx  y  m y 
T

1 n
  yi yiT  m y mTy
n i 1
Extraction des caractéristiques
 Analyse
en composante principale
– Si nous avons une matrice A définissant une transformation linéaire pouvant générer un nouveau
vecteur x à partir d’un vecteur y par:
x  A( y  m y )
– A est construite de telle façon que ses rangées
sont les vecteurs propres de Cy
Extraction des caractéristiques
 Analyse
en composante principale
– Le vecteur x est aléatoire de moyenne 0 (mx = 0)
– La matrice de covariance de x découle de:
1
C x  AC y AT  
 0

• Le vecteur x est donc
0  composé de variables

 aléatoires non corrélées
D  •  est la variance de x
k
k
– La transformation A élimine donc la corrélation entre
les composantes du vecteur y
Extraction des caractéristiques
 Analyse
en composante principale
– Cette transformation est aussi réversible:
1
yA xA x
T
• A est symétrique
Extraction des caractéristiques
 Diminution
de la dimension du vecteur y
– Nous pouvons réduire la dimension du vecteur y de
D-M (nombre de caractéristiques) en ignorant les
vecteurs propres correspondant aux D-M plus
faibles valeurs propres
– Si nous avons la matrice B de M X D (M < D)
découlant de l’élimination des D-M rangées inférieures (classée en ordre croissant d’importance) de A
Extraction des caractéristiques
 Réduction
de la dimension du vecteur y
– En guise de simplification nous supposons que m =
0
– Le vecteur x transformé est alors donné par:
xˆ  By
– Le vecteur y est reconstitué approximativement par:
yˆ  B xˆ
T
Extraction des caractéristiques
 Réduction
de la dimension du vecteur y
– L’erreur quadratique moyenne de l’approximation
est:
D
MSE   i 
i 1
DM

i 1
i

D

i  M 1
i
Extraction des caractéristiques
 Recherche
des valeurs et vecteurs propres
– Cherchons les valeurs et les vecteurs propres associés
à une matrice Cy (matrice variance-covariance)
– Si nous avons une matrice Cy de D x D nous pouvons
écrire
C y v  v
–
Où v est un vecteur propre de Cy et  une valeur propre
de Cy
Extraction des caractéristiques
 Recherche
des valeurs et vecteurs propres
– Si nous avons une matrice Cy de D x D nous pouvons
écrire
C y v  v
C y v  Iv
(C y  I )v  0
– Par définition, pour que  soit une valeur propre il faut
que la solution v de la dernière équation soit non nulle.
Pour que v soit non nulle il faut que
C y  I  0
Extraction des caractéristiques
 Recherche
des valeurs et vecteurs propres
– Si nous considérons un cas d’ordre 3, nous obtenons
c11  
C y  I  c21
c31
c12
c22  
c13
c23
c32
c33  
0
– Le déterminant donne
c11   (c22   )( c33   )  c23c32  
c12 c21 (c33   )  c23c31  
c13 c21c32  (c22   )c31   0
3  b2 2  b1  b0  0
Extraction des caractéristiques
 Recherche
des valeurs et vecteurs propres
– Lorsque nous avons les valeurs propres, nous les
substituons une à une dans
(Cy-I) v = 0
pour trouver les vecteurs propres v
Extraction des caractéristiques
 Recherche
des valeurs et vecteurs propres
– Exemple
2
6
Cy  
2
2

0  1
6.854
   2  v1

0.146

 0.918
A
 0.333

 0.217
0
 1

1 

 0.918 
 0.333 
 0.217 
 v   0.667  v   0.634 

0
.
392

 2

 3





 0.067 

 0.667 

 0.742 

0.392
 0.067 
 0.667
0.667 

0.634
0.742 

1
C x  AC y AT  
0

0
0
2
0
0  6.854
 0
0

 
3   0
0
2
0
0 
0 

0.146

Extraction des caractéristiques
(principes)
Extraction des caractéristiques
(exemple en télédétection)
Extraction des caractéristiques
(exemple en télédétection)
Extraction des caractéristiques
(exemple en télédétection)
 3210 


 1  931.4 
   118.5 
  2

   83.88 
  
64.00
 D 


13.40 
• Les 2 premières composantes contribuent pour 94 %
de la variance totale