Apprentissage

Download Report

Transcript Apprentissage

Slide 1

Dynamique des systèmes complexes et applications aux SHS :
modèles, concepts méthodes

Apprentissage (I)
Mirta B. Gordon
Laboratoire Leibniz-IMAG
Grenoble


Slide 2

plan
• c’est quoi ?
• différents types d’apprentissage
• algorithmes d’apprentissage
• les réseaux de neurones
– le perceptron
– réseaux plus complexes

• théorie de l’apprentissage

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

2


Slide 3

c’est quoi ?
• apprendre est s’adapter à l’environnement à partir de
l’expérience
• schéma :
– on a des stimuli ou entrées
– il faut donner une réponse adéquate, ou sortie

• entrées-sorties :
– à partir de notre perception visuelle  reconnaître un visage
– à partir de descripteurs d’une situation  prendre une décision
– à partir de descripteurs de données  les classer

• « apprendre » à partir de données empiriques

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

3


Slide 4

trois types d’apprentissage
• supervisé :
– on a un ensemble d’exemples (couples entrée-sortie)
– on doit apprendre à donner la sortie correcte à de nouvelles entrées

• non-supervisé :
– on a un ensemble de données (entrées sans la sortie correspondante)
– on doit trouver des régularités permettant de les classer (clusters)

• par renforcement
– on a des entrées décrivant une situation
– on reçoit une punition si la sortie qu’on donne n’est pas adéquate

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

4


Slide 5

algorithmes d’apprentissage
• heuristiques (recettes) pour chaque type d’apprentissage
• apprendre 

problème inverse, mal posé
pas de solution unique

• différents algorithmes : chacun a sa performance
• critères :
– vitesse de convergence
• temps d’apprentissage en fonction du nombre d’exemples

– capacité de généralisation
• évolution de la qualité de la solution en fonction du nombre d’exemples

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

5


Slide 6

apprentissage supervisé
• classification ou discrimination :
attribuer une classe à une donnée, à partir des traits
décrivant cette donnée

• exemples de tâches de discrimination :
• le diagnostic médical
• la reconnaissance de caractères manuscrits
• la décision d’acheter une action à partir des données du marché financier

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

6


Slide 7

formalisation
• information contenue dans un
ensemble d’apprentissage

LM = {

(xm,tm)
xm2,

– apprendre

classe +1
classe -1

}1≤m≤M

– M vecteurs de dimension N :

xm=(xm1,

• deux phases :

xmN)

…,
(m=1,2,…,M)

x1

– et leurs classes :

 m   t m   1,  1

t x

classe?

• « apprendre » à donner de
bonnes réponses s(x) à de
nouveaux vecteurs x
mars 2004

x2
- généraliser

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

7


Slide 8

classifieur élémentaire : le perceptron
• d’inspiration biologique : « neurone » élémentaire
 N


h   w ixi   w  x


 i1


input :

x1 x2
w1

s  sgn h 

xN

xi
wN

output : s=sgn(w.x)

• surface discriminante linéaire :
x tels que

wx 

N

 w i xi

 0

i1

g

• stabilité d’un exemple :

w

– distance à la surface discriminante
avec signe – si mal classé
g
mars 2004

m



t

m

w x
w

m

m



t h

m

w

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

8


Slide 9

algorithme du perceptron
• on initialise les poids du perceptron
• on parcourt les exemples

m (1  m  M )

– si la sortie donnée par le perceptron est incorrecte, on modifie les
poids
m

w  wt x

m

– jusqu’à convergence

• convergence assurée seulement si les exemples sont
linéairement séparables
• si les exemples sont linéairement séparables : infinité de
solutions
mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

9


Slide 10

apprendre les poids d’un perceptron
• par minimisation d’une fonction de coût
– les poids qui classent al les exemples ont un coût élevé
E w; L M  

M



m

 V w; x , t

g

– pénalisant les stabilités négatives

• rappel :

mars 2004

g



t

m



m 1

• coûts « ad-hoc »

m

m

w x
w

m

m



t h

w

m

w

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

10


Slide 11

exemples non séparables linéairement
• problème :
– l’algorithme du perceptron ne converge pas
– les autres algorithmes convergent mais souvent vers des solutions
« non intéressantes » (poids des exemples moins bien classés)

• deux solutions :

• classique :
réseaux en couches
• « moderne » :
Support Vector Machines

mars 2004

[email protected] - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

11


Slide 12

fin premier cours