Transcript Apprentissage
Slide 1
Dynamique des systèmes complexes et applications aux SHS :
modèles, concepts méthodes
Apprentissage (I)
Mirta B. Gordon
Laboratoire Leibniz-IMAG
Grenoble
Slide 2
plan
• c’est quoi ?
• différents types d’apprentissage
• algorithmes d’apprentissage
• les réseaux de neurones
– le perceptron
– réseaux plus complexes
• théorie de l’apprentissage
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
2
Slide 3
c’est quoi ?
• apprendre est s’adapter à l’environnement à partir de
l’expérience
• schéma :
– on a des stimuli ou entrées
– il faut donner une réponse adéquate, ou sortie
• entrées-sorties :
– à partir de notre perception visuelle reconnaître un visage
– à partir de descripteurs d’une situation prendre une décision
– à partir de descripteurs de données les classer
• « apprendre » à partir de données empiriques
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
3
Slide 4
trois types d’apprentissage
• supervisé :
– on a un ensemble d’exemples (couples entrée-sortie)
– on doit apprendre à donner la sortie correcte à de nouvelles entrées
• non-supervisé :
– on a un ensemble de données (entrées sans la sortie correspondante)
– on doit trouver des régularités permettant de les classer (clusters)
• par renforcement
– on a des entrées décrivant une situation
– on reçoit une punition si la sortie qu’on donne n’est pas adéquate
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
4
Slide 5
algorithmes d’apprentissage
• heuristiques (recettes) pour chaque type d’apprentissage
• apprendre
problème inverse, mal posé
pas de solution unique
• différents algorithmes : chacun a sa performance
• critères :
– vitesse de convergence
• temps d’apprentissage en fonction du nombre d’exemples
– capacité de généralisation
• évolution de la qualité de la solution en fonction du nombre d’exemples
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
5
Slide 6
apprentissage supervisé
• classification ou discrimination :
attribuer une classe à une donnée, à partir des traits
décrivant cette donnée
• exemples de tâches de discrimination :
• le diagnostic médical
• la reconnaissance de caractères manuscrits
• la décision d’acheter une action à partir des données du marché financier
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
6
Slide 7
formalisation
• information contenue dans un
ensemble d’apprentissage
LM = {
(xm,tm)
xm2,
– apprendre
classe +1
classe -1
}1≤m≤M
– M vecteurs de dimension N :
xm=(xm1,
• deux phases :
xmN)
…,
(m=1,2,…,M)
x1
– et leurs classes :
m t m 1, 1
t x
classe?
• « apprendre » à donner de
bonnes réponses s(x) à de
nouveaux vecteurs x
mars 2004
x2
- généraliser
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
7
Slide 8
classifieur élémentaire : le perceptron
• d’inspiration biologique : « neurone » élémentaire
N
h w ixi w x
i1
input :
x1 x2
w1
s sgn h
xN
xi
wN
output : s=sgn(w.x)
• surface discriminante linéaire :
x tels que
wx
N
w i xi
0
i1
g
• stabilité d’un exemple :
w
– distance à la surface discriminante
avec signe – si mal classé
g
mars 2004
m
t
m
w x
w
m
m
t h
m
w
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
8
Slide 9
algorithme du perceptron
• on initialise les poids du perceptron
• on parcourt les exemples
m (1 m M )
– si la sortie donnée par le perceptron est incorrecte, on modifie les
poids
m
w wt x
m
– jusqu’à convergence
• convergence assurée seulement si les exemples sont
linéairement séparables
• si les exemples sont linéairement séparables : infinité de
solutions
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
9
Slide 10
apprendre les poids d’un perceptron
• par minimisation d’une fonction de coût
– les poids qui classent al les exemples ont un coût élevé
E w; L M
M
m
V w; x , t
g
– pénalisant les stabilités négatives
• rappel :
mars 2004
g
t
m
m 1
• coûts « ad-hoc »
m
m
w x
w
m
m
t h
w
m
w
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
10
Slide 11
exemples non séparables linéairement
• problème :
– l’algorithme du perceptron ne converge pas
– les autres algorithmes convergent mais souvent vers des solutions
« non intéressantes » (poids des exemples moins bien classés)
• deux solutions :
• classique :
réseaux en couches
• « moderne » :
Support Vector Machines
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
11
Slide 12
fin premier cours
Dynamique des systèmes complexes et applications aux SHS :
modèles, concepts méthodes
Apprentissage (I)
Mirta B. Gordon
Laboratoire Leibniz-IMAG
Grenoble
Slide 2
plan
• c’est quoi ?
• différents types d’apprentissage
• algorithmes d’apprentissage
• les réseaux de neurones
– le perceptron
– réseaux plus complexes
• théorie de l’apprentissage
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
2
Slide 3
c’est quoi ?
• apprendre est s’adapter à l’environnement à partir de
l’expérience
• schéma :
– on a des stimuli ou entrées
– il faut donner une réponse adéquate, ou sortie
• entrées-sorties :
– à partir de notre perception visuelle reconnaître un visage
– à partir de descripteurs d’une situation prendre une décision
– à partir de descripteurs de données les classer
• « apprendre » à partir de données empiriques
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
3
Slide 4
trois types d’apprentissage
• supervisé :
– on a un ensemble d’exemples (couples entrée-sortie)
– on doit apprendre à donner la sortie correcte à de nouvelles entrées
• non-supervisé :
– on a un ensemble de données (entrées sans la sortie correspondante)
– on doit trouver des régularités permettant de les classer (clusters)
• par renforcement
– on a des entrées décrivant une situation
– on reçoit une punition si la sortie qu’on donne n’est pas adéquate
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
4
Slide 5
algorithmes d’apprentissage
• heuristiques (recettes) pour chaque type d’apprentissage
• apprendre
problème inverse, mal posé
pas de solution unique
• différents algorithmes : chacun a sa performance
• critères :
– vitesse de convergence
• temps d’apprentissage en fonction du nombre d’exemples
– capacité de généralisation
• évolution de la qualité de la solution en fonction du nombre d’exemples
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
5
Slide 6
apprentissage supervisé
• classification ou discrimination :
attribuer une classe à une donnée, à partir des traits
décrivant cette donnée
• exemples de tâches de discrimination :
• le diagnostic médical
• la reconnaissance de caractères manuscrits
• la décision d’acheter une action à partir des données du marché financier
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
6
Slide 7
formalisation
• information contenue dans un
ensemble d’apprentissage
LM = {
(xm,tm)
xm2,
– apprendre
classe +1
classe -1
}1≤m≤M
– M vecteurs de dimension N :
xm=(xm1,
• deux phases :
xmN)
…,
(m=1,2,…,M)
x1
– et leurs classes :
m t m 1, 1
t x
classe?
• « apprendre » à donner de
bonnes réponses s(x) à de
nouveaux vecteurs x
mars 2004
x2
- généraliser
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
7
Slide 8
classifieur élémentaire : le perceptron
• d’inspiration biologique : « neurone » élémentaire
N
h w ixi w x
i1
input :
x1 x2
w1
s sgn h
xN
xi
wN
output : s=sgn(w.x)
• surface discriminante linéaire :
x tels que
wx
N
w i xi
0
i1
g
• stabilité d’un exemple :
w
– distance à la surface discriminante
avec signe – si mal classé
g
mars 2004
m
t
m
w x
w
m
m
t h
m
w
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
8
Slide 9
algorithme du perceptron
• on initialise les poids du perceptron
• on parcourt les exemples
m (1 m M )
– si la sortie donnée par le perceptron est incorrecte, on modifie les
poids
m
w wt x
m
– jusqu’à convergence
• convergence assurée seulement si les exemples sont
linéairement séparables
• si les exemples sont linéairement séparables : infinité de
solutions
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
9
Slide 10
apprendre les poids d’un perceptron
• par minimisation d’une fonction de coût
– les poids qui classent al les exemples ont un coût élevé
E w; L M
M
m
V w; x , t
g
– pénalisant les stabilités négatives
• rappel :
mars 2004
g
t
m
m 1
• coûts « ad-hoc »
m
m
w x
w
m
m
t h
w
m
w
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
10
Slide 11
exemples non séparables linéairement
• problème :
– l’algorithme du perceptron ne converge pas
– les autres algorithmes convergent mais souvent vers des solutions
« non intéressantes » (poids des exemples moins bien classés)
• deux solutions :
• classique :
réseaux en couches
• « moderne » :
Support Vector Machines
mars 2004
[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I
11
Slide 12
fin premier cours