SVMs - AgroParisTech
Download
Report
Transcript SVMs - AgroParisTech
SVMs (Séparateurs à Vastes Marges)
et
Méthodes à noyaux
Laurent Orseau
AgroParisTech
[email protected]
à partir des transparents d'Antoine Cornuéjols
Cours SVM
Plan
Induction
1-
Induction
Les SVMs
• Principe
2-
Les SVMs
• Problème associé
Méthodes à noyaux
• Fonctions noyau
3-
Les méthodes à noyau
. Illustration
. Marge douce
Mise en œuvre
4-
• Validation
Mise en œuvre
• Construction de
noyaux
5-
Applications
Applications
Bilan
6-
Bilan
Cours SVM (L. Orseau)
2/86
Apprentissage inductif supervisé
Induction
Les SVMs
• Principe
À partir de l’échantillon d’apprentissage S = {(xi, ui)}1,m
on cherche à identifier une loi de dépendance sous-jacente
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
(fonction cible) tq :
Mise en œuvre
• Validation
• Construction de
Par exemple une fonction h aussi proche possible de f
noyaux
ui = f(xi)
Ou bien de la distribution de probabilités P(xi, ui)
Applications
Bilan
afin de prédire l’avenir
Cours SVM (L. Orseau)
3/86
Apprentissage inductif supervisé
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
Échantillon
d’apprentissage
• Construction de
noyaux
Applications
Bilan
Identification :
h « proche de » f
Prédiction
h « bonne règle de décision »
Cours SVM (L. Orseau)
:
4/86
Hyperplans séparateurs
Tâche de classification
Induction
Les SVMs
Cas de la séparation linéaire
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
- On cherche h sous forme d’une fonction linéaire : h(x) = w.x + b
- La surface de séparation est donc l’hyperplan :
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
- Elle est valide si
w. x b 0
noyaux
Applications
Bilan
- L’hyperplan est dit sous forme canonique lorsque
ou encore
i ui h(xi ) 0
min w.x b 1
i
i ui (w.xi b) 1
Cours SVM (L. Orseau)
5/86
Discrimination linéaire : le Perceptron
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
6/86
Hyperplan de plus vaste marge
Hyperplan
valide
Induction
Les SVMs
• Principe
• Problème associé
M arge
maximale
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Hyperplan
optimal
Cours SVM (L. Orseau)
7/86
Optimisation de la marge
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
8/86
Optimisation de la marge
La distance d’un point à l’hyperplan est :
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
w. x w 0
d(x)
w
L’hyperplan optimal est celui pour lequel la distance aux points les plus
2
proches (marge) est maximale. Cette distance vaut
w
Maximiser la marge revient donc à minimiser ||w|| sous contraintes:
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
1
2
min w
2
i u (w. x w ) 1
i
i
0
9/86
SVMs : un problème d’optimisation quadratique
EXPRESSION
PRIMAIRE
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
Il faut donc déterminer w et w0 minimisant :
• Fonctions noyau
1
(w )
w
2
. Illustration
. Marge douce
Mise en œuvre
• Validation
2
(afin de maximiser le pouvoir de généralisation)
• Construction de
noyaux
Applications
Bilan
sous les contraintes (hyperplan séparateur) :
ui (w . xi ) w0 1 ,
Cours SVM (L. Orseau)
10/86
i 1,..., n
Résolution de la forme primaire du problème
d : dimension de l’espace d’entrée
Induction
Les SVMs
• Principe
• Problème associé
Il faut régler d + 1 paramètres
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Possible quand d est assez petit
avec des méthodes d'optimisation quadratique
Mise en œuvre
• Validation
• Construction de
noyaux
Impossible quand d est grand (> qqs 103)
Applications
Bilan
Cours SVM (L. Orseau)
11/86
Transformation du problème d’optimisation
Induction
Méthode des multiplicateurs de Lagrange
L(w, w 0 , )
i 0
i
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
1
2
w
2
i {(xi .w w 0 )u i 1}
i 1
EXPRESSION
DUALE
. Illustration
. Marge douce
l
Problème dual
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
l
1
max
i
2
i 1
i i 0
l
u 0
i i
i 1
l
l
i j ui u j (xi . x j )
i 1 j 1
Cours SVM (L. Orseau)
12/86
Propriétés de la forme duale
Induction
Les SVMs
La conversion est possible car les fonctions de coût et les contraintes sont
strictement convexes (Th. de Kuhn-Tucker)
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
La complexité du problème d'optimisation est
. Illustration
. Marge douce
Mise en œuvre
m
(taille de l'échantillon d'apprentissage)
et non d
( taille de l'espace d'entrée X )
• Validation
• Construction de
noyaux
Applications
Possible d'obtenir des solutions pour des problèmes
impliquant ≈ 105 exemples
Bilan
Cours SVM (L. Orseau)
13/86
Solution du problème d’optimisation
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
D(x) (w* .x w*0 )
m
*
*
w
i ui xi
i 1
m
*
*
w
u
0
s
i ui (xi .xs )
i1
* : estimé
(xS,uS) étant
n'importe quel
point de support
Propriété1 : seuls les i correspondant aux points les plus proches sont non-nuls.
On parle de points de support (exemples critiques).
Propriété 2 : seuls interviennent les produits scalaires entre les observations x
dans le problème d’optimisation.
Cours SVM (L. Orseau)
14/86
Pourquoi ça marche ?
La marge est liée à la capacité en généralisation
Induction
Normalement, la classe des hyperplans de Rd est de dH = d + 1
Mais la classe des hyperplans de marge
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
est bornée par :
• Fonctions noyau
dH ≤ Min (R2 c, d) + 1
1
w
tq. w
2
c
. Illustration
. Marge douce
où R est le rayon de la plus petite sphère englobant l'échantillon
Mise en œuvre
d'apprentissage S
• Validation
• Construction de
noyaux
Applications
Bilan
Peut être beaucoup plus petit que la dimension d de l'espace
d'entrée X
Cours SVM (L. Orseau)
15/86
Les fonctions noyau
(kernel functions)
Fonction k telle que :
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
Espace de redescription
muni d’un produit interne
où :
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
16/86
Les fonctions noyau : exemple
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
est une fonction noyau
Applications
Bilan
Rq (non unicité de l’espace F défini par F) :
(le même noyau calcule le produit interne dans cet espace aussi)
Cours SVM (L. Orseau)
17/86
Les méthodes à noyau
Induction
Modularité
Les SVMs
• Principe
• Problème associé
Découplage entre
Les algorithmes (linéaires)
La description des données
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
18/86
Petite digression …
… La reconnaissance de chiffres manuscrits par réseaux de neurones (ATT
Bell labs, 1993)
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
19/86
Leçons (provisoires)
Induction
Les SVMs
L’emploi de fonctions noyau permet :
• Principe
• Problème associé
Méthodes à noyaux
D’utiliser les algorithmes de recherche de régularités linéaires
pour la recherche de régularités non linéaires
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
D’employer ces algorithmes même sur des données non
vectorielles (du moment que l’on sait trouver une fonction
• Validation
• Construction de
noyaux
noyau adéquate)
Applications
Bilan
De redécrire implicitement les données dans des espaces de
grande dimension sans en avoir le coût computationnel
Cours SVM (L. Orseau)
20/86
Les méthodes à noyaux
Induction
Tout passe par les produits internes dans F !!!
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Philosophie de représentation des données
radicalement différente
Cours SVM (L. Orseau)
21/86
Conséquences d’une représentation par noyau
Induction
Les SVMs
Des informations sont perdues
• Principe
• Problème associé
Orientation (invariance de la matrice K par rotation)
Alignement des données avec les axes (idem)
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
22/86
Les fonctions noyau : définition
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
Fonction noyau
Symétrique :
Positive définie :
positive définie
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Théorème de Mercer
Bilan
Cours SVM (L. Orseau)
Toute fonction positive définie peut être exprimée comme
un produit interne dans un espace de description
23/86
Fonctions noyau pour des vecteurs
Noyaux polynomiaux
Induction
Tous les produits d’exactement
d variables
Les SVMs
• Principe
• Problème associé
Tous les produits d’au plus
d variables
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
Noyaux gaussiens
• Validation
Sorte de décomposition
en série de Fourrier
• Construction de
noyaux
Applications
Bilan
Noyaux sigmoïdes
Pas définie positive.
Mais fonction de décision
proche des réseaux connexionnistes
Cours SVM (L. Orseau)
24/86
Morale
Induction
Les SVMs
• Principe
Les données s’expriment à travers la matrice noyau
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
La matrice noyau contrôle la régularisation du
risque
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
25/86
Solution du problème d’optimisation dual
Induction
Les SVMs
Dans la forme duale :
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
mS : nb de points
de support
Bilan
Cours SVM (L. Orseau)
26/86
Schéma de fonctionnement des SVMs
sign( i ui K(xi,x) + w0)
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
1
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
K
2
K
Sortie :
sign( i ui K(xi,x) + w0)
3
K
4
K
Comparaison : K(xi, x)
• Validation
• Construction de
noyaux
Échantillon x1, x2, x3, ...
Applications
Bilan
Vecteur d'entrée x
Cours SVM (L. Orseau)
27/86
Illustration
Induction
Les SVMs
Soient 5 points sur la droite :
{(x1=1, u1 =1), (x2=2, u2= 1), (x3= 4, u3= -1), (x4= 5, u4 = -1),
(x5= 6, u5= 1)}
• Principe
• Problème associé
1
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
2
4
k(xi, xj) = (xi xj + 1)2
C = 100
noyaux
Bilan
6
Utilisation d’un noyau polynomial de degré 2
• Construction de
Applications
5
Recherche de i par :
Cours SVM (L. Orseau)
28/86
Illustration
Induction
Utilisation d’un programme de résolution de problème quadratique
Les SVMs
• Principe
1=0, 2=2.5, 3=0, 4=7.333, 5=4.833
Les points de supports sont : { x2=2, x4= 5, x5= 6}
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
La fonction de décision est :
. Marge douce
Mise en œuvre
h(x) = (2.5)(1)(2x+1)2 + 7.333(1)(5x+1)2 + 4.833(1)(6x+1)2+b
= 0.6667 x2 - 5.333 x + b
Avec b obtenue par h(2)=1 ou par h(5)=-1 ou par h(6)=1, puisque x2,
x4 et x5 sont sur la droite ui(wTF(x)+b)=1
ce qui donne b=9
• Validation
• Construction de
noyaux
Applications
Bilan
D’où :
h(x) = 0.6667 x2 - 5.333 x + 9
Cours SVM (L. Orseau)
29/86
Illustration
Valeur de la fonction discriminante
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
classe 1
classe 1
classe 2
• Construction de
noyaux
Applications
1
Bilan
2
4
5
6
{x=2, x=5, x=6} sont points supports
Cours SVM (L. Orseau)
30/86
Séparation linéaire dans l'espace des features
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
31/86
Illustration : le cas du XOR
Induction
x2
Les SVMs
• Principe
1
• Problème associé
Index i
x
u
1
(1,1)
1
2
(1,-1)
-1
3
(-1,-1)
1
4
(-1,1)
-1
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
1
-1
x1
• Construction de
noyaux
Applications
-1
Bilan
Cours SVM (L. Orseau)
32/86
Illustration : le cas du XOR
Induction
Fonction noyau polynomiale de d° 2 :
Les SVMs
• Principe
K(x,x') = [1 + (xT . x')]2
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
soit : K(x,xi ) = 1 + x12xi12 + 2 x1x2xi1xi2 + x22xi22 + 2x1xi1 + 2x2xi2
. Marge douce
Mise en œuvre
• Validation
• Construction de
correspondant à la projection F :
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
[1, x12, √2 x1x2, x22, √2 x1, √2 x2 ] T
33/86
Illustration : le cas du XOR
l
l
1
i
max
2
i 1
i 1
i 0 i C
l
u 0
i i
i 1
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
l
i j ui u j K (xi , x j )
j 1
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Ici :
Applications
Bilan
Q 1 2 3 4
1
2
(91 21 2 213 21 4
2
922 22 3 22 4 932 23 4 9 24 )
Cours SVM (L. Orseau)
34/86
Illustration : le cas du XOR
Induction
Les SVMs
L'optimisation de Q() en fonction des multiplicateurs de Lagrange
conduit au système d'équations :
• Principe
9 1 2 3 4
1 9 2 3 4
1 2 93 4
1 2 3 9 4
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
1
1
1
1
• Construction de
noyaux
Applications
La valeur optimale des multiplicateurs de Lagrange est :
Bilan
*
1
Cours SVM (L. Orseau)
*
2
*
3
35/86
*
4
1
8
Illustration : le cas du XOR
Induction
Les SVMs
• Principe
Les 4 exemples sont donc des exemples critiques ("support vectors")
La valeur optimale de Q() est :
Et :
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
*
Q ( ) 14
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
1 *
w
2
soit :
1
4
w
36/86
*
1
2
Illustration : le cas du XOR
Induction
Les SVMs
Les 4 exemples sont donc des exemples critiques ("support vectors")
( i , i ≠ 0)
• Principe
• Problème associé
Méthodes à noyaux
La fonction de décision s’écrit :
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
37/86
Illustration : le cas du XOR
En revenant dans l’espace d’origine :
Induction
Les SVMs
Le vecteur poids optimal est :
• Principe
• Problème associé
w
Méthodes à noyaux
• Fonctions noyau
. Illustration
soit :
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
w
*
Bilan
Cours SVM (L. Orseau)
*
1
F(x1 ) F(x2 ) F(x3 ) F(x4 )
8
1
1
1 2
1
8
2
2
1
1
2
1
2
2
38/86
1
1
2
1
2
2
1
0
1
0
2
1 2
1 0
2
0
2
0
Illustration : le cas du XOR
Induction
Les SVMs
• Principe
L'hyperplan optimal correspond à :
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
1
*T
w .F(x) 0, 0,
, 0, 0, 0
2
Cours SVM (L. Orseau)
39/86
1
x12
2x1 x 2
x1 x2 0
2
x2
2x1
2x2
Illustration : le cas du XOR
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Séparatrice dans l'espace F(X)
(espace à 6 dimensions)
Séparatrice dans l'espace d'entrée
D(x) = -x1x2
Cours SVM (L. Orseau)
2 x1x 2 0
40/86
Cas du problème non séparable : marges douces
On introduit des variables “ressort” qui pénalisent l’erreur commise :
Induction
l
1
2
min w C i
2
i 1
i u (w. x w ) 1
i
i
0
i
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
Le problème dual a la même forme à l’exception d’une constante C
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
41/86
La mise en pratique
Il faut choisir :
Induction
Les SVMs
Le type de fonction noyau k
• Principe
• Problème associé
Méthodes à noyaux
Sa forme
Ses paramètres
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
La valeur de la constante C
• Construction de
noyaux
Applications
Bilan
La sélection de ces paramètres requiert l’utilisation de méthodes
empiriques pour faire le meilleur choix (validation croisée)
Cours SVM (L. Orseau)
42/86
Exemple
: exemple +
Induction
Les SVMs
• Principe
• : exemple Dans cercle : points de support
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Fct noyau polynomiale de degré 3
QuickTime™ and a
GIF decompressor
are needed to see this picture.
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Démo :
http://svm.research.bell-labs.com/
http://svm.dcs.rhbnc.ac.uk/pagesnew/G
Pat.shtml
Cours SVM (L. Orseau)
43/86
Les données d'apprentissage
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
44/86
Effet des paramètres de contrôle
Apprentissage de deux classes
Induction
Les SVMs
• Principe
• Problème associé
exemples tirés uniformément sur
l'échiquier
SVM à fonctions noyau gaussienne
Méthodes à noyaux
• Fonctions noyau
K(x, x' ) e
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
Bilan
En haut : petite valeur
En bas : grande valeur
2
Les gros points sont des exemples
critiques
2s
2
Ici deux valeurs de s
noyaux
Applications
x x'
Plus en haut qu'en bas
Dans les deux cas : Remp = 0
Cours SVM (L. Orseau)
45/86
Paramètres de contrôle : les fonctions noyau
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
http://svm.dcs.rhbnc.ac.uk/pagesnew/GPat.shtml
47 exemples (22 +, 25 -)
Exemples critiques : 4 + et 3 -
Ici fonction polynomiale de degré 5 et C = 10000
Cours SVM (L. Orseau)
46/86
Paramètres de contrôle : les fonctions noyau
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
(5-, 4+)
• Fonctions noyau
47 exemples (22 +, 25 -)
. Illustration
. Marge douce
Exemples critiques : 4 + et 3 -
(3-, 4+)
(5-, 4+)
Ici fonction polynomiale de degré 2, 5, 8 et C = 10000
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
(10-, 11+)
(8-, 6+)
(4-, 5+)
Ici fonction Gaussienne de s = 2, 5, 10 et C = 10000
Cours SVM (L. Orseau)
47/86
Ajout de quelques points ...
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
http://svm.dcs.rhbnc.ac.uk/pagesnew/GPat.shtml
47 + 8 exemples (30 +, 25 -)
Exemples critiques : 5 + et 8 -
Ici fonction polynomiale de degré 5 et C = 10000
Cours SVM (L. Orseau)
48/86
Estimation de la performance
Empiriquement : par validation croisée
Heuristiquement (mais théoriquement fondé)
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
Nombre de points de supports
• Fonctions noyau
. Illustration
Moins il y en a, mieux c’est
. Marge douce
Mise en œuvre
Caractéristiques de la matrice noyau
• Validation
• Construction de
Si pas de structure dans K, aucune régularité ne peut-être trouvée
E.g.
noyaux
Applications
Bilan
Si les termes hors diagonale sont très petits : sur-adaptation
Si matrice uniforme : sous-apprentissage : tous les points sont
attribués à la même classe
Cours SVM (L. Orseau)
49/86
Construction de fonctions noyau
Induction
Les SVMs
Construction à partir de fonctions noyau de base
(Propriétés de clôture)
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
K(x,z) = K1(x,z) + K2(x,z)
K(x,z) = a K1(x,z)
K(x,z) = K1(x,z) . K2(x,z)
…
Construction de fonctions noyau dédiées
Splines Bm
Expansion de Fourrier
Ondelettes
...
50/86
Construction de noyaux
Induction
Noyau invariant par translation
Noyau défini sur des ensembles
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
51/86
Stratégies de construction
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
Noyau vu comme un moyen de coder de l’information a priori
Invariance: synonymie, longueur de document, …
Traitements linguistiques: normalisation des mots, semantique,
stopwords, weighting scheme, …
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
Noyaux de convolution :
le texte est une structure de données récursivement définie.
noyaux
Pb : construire un noyau global à partir de noyaux locaux ?
Applications
Bilan
Noyaux à partir de modèles génératifs :
la “topologie” du problème est traduite en une fonction noyau
Cours SVM (L. Orseau)
52/86
Applications
Induction
Catégorisation de textes
Reconnaissance de
caractères manuscrits
Détection de visages
Diagnostic de cancer du
sein
Classification de
protéines
Prévision de
consommation électrique
Recherche de vidéos par
du texte
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Trained SVM classifiers
for pedestrian and face
object detection
(Papageorgiou, Oren,
Osuna and Poggio,
1998)
Applications
Bilan
Cours SVM (L. Orseau)
53/86
Implémentation des SVMs
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
Minimisation de fonctions différentiables convexes à plusieurs
variables
Pas d’optima locaux
Mais :
• Fonctions noyau
. Illustration
Problèmes de stockage de la matrice noyau (si milliers d’exemples)
Long dans ce cas
. Marge douce
Mise en œuvre
• Validation
• Construction de
D’où mise au point de méthodes spécifiques
noyaux
Applications
Bilan
Plusieurs packages publics disponibles
Cours SVM (L. Orseau)
Gradient sophistiqué
Méthodes itératives, optimisation par morceaux
SVMTorch
SVMLight
SMO
…
54/86
Bilan : état des recherches
Induction
Deux tâches évidentes
Les SVMs
Conception de noyaux
• Principe
• Problème associé
Commence à être bien étudié
Encore des recherches pour certains types de données
Méthodes à noyaux
• Fonctions noyau
. Illustration
Noyautiser les algorithmes classiques (« kernelization »)
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
SVM
Kernel Régression
Kernel PCA
Clustering (K-means, …)
Estimation de densité, détection de nouveauté
Tri (ranking)
…
Recherche sur la sélection automatique des modèles
(choix des paramètres)
Cours SVM (L. Orseau)
55/86
Extensions
Induction
Les SVMs
Classification multi-classes
Régression
Détection de « nouveautés »
Analyse en composantes principales par noyaux
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
56/86
SVM et régression
Fonction de perte :
Régression linéaire :
Soit à minimiser :
Généralisation :
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
x
x
x
x
x
x
Cours SVM (L. Orseau)
x
x
x
0
x
x
57/86
SVM et apprentissage non supervisé
Détection de « nouveautés »
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
On cherche à séparer au
maximum le nuage de points de
l’origine
Cours SVM (L. Orseau)
w /||w||
58/86
/||w||
Bilan
Induction
Les méthodes à noyau sont :
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
Une bonne idée
Destinées à durer
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
Offrent une boîte à outils
noyaux
Applications
Très versatile
Avec de bons fondements théoriques
Bilan
Cours SVM (L. Orseau)
E.g. garanties de performance
59/86
Bilan
Nouvelle philosophie de représentation
Induction
Les SVMs
• Principe
Toute l’information sur les données passe par le filtre de la matrice
noyau
• Problème associé
Méthodes à noyaux
• Fonctions noyau
De l’information est perdue
Permet des manipulations particulières
. Illustration
. Marge douce
Mise en œuvre
• Validation
E.g. ajout d’une constante sur la diagonale marge souple ou
terme de régularisation
• Construction de
noyaux
Applications
Bilan
Incorporation de connaissances a priori
Matrice noyau : interface entre les modules de traitement
La qualité de l’apprentissage peut être estimée à partir des
caractéristiques de la matrice noyau
Cours SVM (L. Orseau)
60/86
Sources documentaires
Induction
Ouvrages / articles
Cornuéjols & Miclet (10) : Apprentisage artificiel. Concepts et algorithmes. Eyrolles,
2010.
Herbrich (02) : Learning kernel classifiers. MIT Press, 2002.
Schölkopf, Burges & Smola (eds) (98) : Advances in Kernel Methods : Support Vector
Learning. MIT Press, 1998.
Schölkopf & Smola (02) : Learning with kernels. MIT Press, 2002.
Shawe-Taylor & Cristianini(04) : Kernel methods for pattern analysis. Cambridge
University Press, 2004.
Smola, Bartlett, Schölkopf & Schuurmans (00) : Advances in large margin classifiers. MIT
Press, 2000.
Vapnik (95) : The nature of statistical learning. Springer-Verlag, 1995.
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Sites web
http://www.kernel-machines.org/
(point d’entrée)
http://www.support-vector.net
(point d’entrée)
Cours SVM (L. Orseau)
61/86
Les fonctions noyau
Induction
Les SVMs
Efficacité computationnelle :
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Cours SVM (L. Orseau)
62/86
Justification impliquant la fonction noyau
Norme du vecteur de poids
Espace d’hypothèses de norme bornée
Fonction de perte (hinge loss)
Alors :
Induction
Les SVMs
• Principe
• Problème associé
Méthodes à noyaux
• Fonctions noyau
. Illustration
. Marge douce
Mise en œuvre
• Validation
• Construction de
noyaux
Applications
Bilan
Complexité de
Rademacher de
Avec prob ≥ 1-d
Cours SVM (L. Orseau)
63/86