Transcript uczenie

Slide 1

formalnie:

Uczenie nienadzorowane
Dorota Cendrowska

nieformalnie:

podobne do podobnych, a niepodobne gdzie?


Slide 2

Plan wykładu
 uczenie:
 nadzorowane
 nienadzorowane

 sieć Kohonena
 algorytm:
 k średnich
 K-centroidów
 sieć ART
 sieć Fuzzy-ART


Slide 3

uczenie (?)
 uczenie się
 wiersza na pamięć,
 jako „przyswajanie” wiedzy teoretycznej,
 jako rozwijanie umiejętności
wykorzystywania wiedzy posiadanej,
 jako umiejętność korzystania
z doświadczenia (własnego i cudzego),
 jako umiejętność wnioskowania,
 jako umiejętność
dostrzegania podobieństw (+generalizacja)








Slide 4

uczenie z nadzorem (?)
inaczej uczenie z nauczyciela
 informacja dotycząca oczekiwanej reakcji
 znana „prawidłowa” odpowiedź
 przykłady:

 sieci jednokierunkowe
(zagadnienia klasyfikacji, aproksymacji)


Slide 5

uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
 brak informacji zwrotnej, czy podjęta

aktywność jest prawidłową reakcją,
 brak systemu „marchewka i kijek”,
który nagradza lub karze.


Slide 6

uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
 brak informacji zwrotnej, czy podjęta

aktywność jest prawidłową reakcją,
 brak systemu „marchewka i kijek”,
który nagradza lub karze.

 idealny przykład: małe dziecko

uczące się zwrotów „mało kulturalnych”
 idealny kontrprzykład: małe dziecko,

uczące się „terroryzować” rodziców krzykiem


Slide 7

powtórka z rozrywki...
 budowa:
 jednowarstwowe
 wielowarstwowe

...podział sieci neuronowych

 przepływ sygnału:
 jednokierunkowe
 ze sprzężeniem zwrotnym
 uczenie:
 z nauczycielem (nadzorowane)
 bez nauczyciela


Slide 8

„jutrzejsza” powtórka z rozrywki...
 budowa:
 jednowarstwowe
 wielowarstwowe

...podział sieci neuronowych

 przepływ sygnału:
 jednokierunkowe
 ze sprzężeniem zwrotnym
 uczenie:
 z nauczycielem (nadzorowane)
 bez nauczyciela


Slide 9

uczenie nienadzorowane a sieci neuronowe
 zastosowanie:
 odkrywanie podobieństw w zbiorach uczących
(grupowanie danych)
 problemy:
 definicja podobieństwa,
 ścisłe określenie algorytmu uczenia
(pomimo braku nauczyciela)

 sieci neuronowe:
 sieć Kohonena
 sieć rezonansowa ART
 sieć rezonansowa Fuzzy-ART


Slide 10

sieć Kohonena
 sieć jednowarstwowa

 neurony o ciągłej funkcji

aktywacji
 interpretacja geometryczna wag
 zdolność grupowania danych

na N grup
 podobieństwo zdefiniowane jako:
„jak najmniejsze różnice
poszczególnych składowych
wejściowych w stosunku do (?)”


Slide 11

Uruchamianie sieci Kohonena
 interpretacja wag neuronu:

„charakterystyczny”
reprezentant grupy

 dane wejściowe zostają

zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia


Slide 12

Uruchamianie sieci Kohonena
 interpretacja wag neuronu:

„charakterystyczny”
reprezentant grupy

 dane wejściowe zostają

zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia

?


Slide 13

Uruchamianie sieci Kohonena
 interpretacja wag neuronu:

„charakterystyczny”
reprezentant grupy

?

 dane wejściowe zostają

zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia

Jak teoria
mijała się
z prawdą


Slide 14

Wagi sieci Kohonena
 wymagana jest normalizacja wag:
w i,j
^
w i,j = ||w ||

i= 1 ,2 ,..., N

x2

i

^
w
2
o
x
x

1

x
x

x1

o
^
w1
x

ˆd 
x w


min

i 1, 2 , ..., N

min

i 1, 2 , ..., N

ˆi 
x  w
t

min

t

i 1, 2 , ..., N
t

ˆ ix 1 
x x  2w

t

t

ˆ ix  w
ˆ iw
ˆi 
x x  2w

max

i 1, 2 , ..., N

t

ˆ ix
w


Slide 15

Uczenie sieci Kohonena
 reguła WINNER TAKES ALL

korekcie wag podlega
tylko neuron „zwycięzca”

ˆ i (t )   ( x  w
ˆ i (t )) i  d
w
w i (t  1 )  
ˆ i (t )
w
i  d


ˆ i (t  1 ) 
w

w i (t  1 )
wi

i  1, 2 , ..., N

 korekcie wag podlega nie tylko neuron „zwycięzca”,
ale również neuronów należących do sąsiedztwa


Slide 16

Sieć Kohonena, problemy
 wymagana znajomość maksymalnej liczby grup

 sieć „nie zna” odpowiedzi NIE WIEM

każdy z obrazów wejściowych zostanie
zaklasyfikowany do jednej z N grup

?


Slide 17

Sieć Kohonena, zaskakujące (?) własności
 Kto tak naprawdę zwycięża i skąd to się bierze?

II
I
?


Slide 18

Sieć Kohonena, zaskakujące (?) własności
 Kto tak naprawdę zwycięża i skąd to się bierze?

II
I
?


Slide 19

Sieć Kohonena, zaskakujące (?) własności
 Kto tak naprawdę zwycięża i skąd to się bierze?

II
II
II
?
?
ˆd 
x  w


min

i 1, 2 , ..., N

min

i 1, 2 , ..., N

ˆi 
x  w
t

min

t

i 1, 2 , ..., N
t

ˆ ix 1 
x x  2w

t

t

ˆ ix  w
ˆ iw
ˆi 
x x  2w

max

i 1, 2 , ..., N

t

ˆ ix
w


Slide 20

Algorytm k średnich
 Grupowanie na k grup:
1. Znajdujemy k wzajemnie najdalszych punktów. Stają
się one reprezentantami k grup.
2. Każdemu z grupowanych obiektów przypisujemy
etykietę informującą o tym, do którego reprezentanta
ma „najbliżej”.
3. Uaktualniamy reprezentantów grup. Kolejne cechy
stanowią średnią arytmetyczną przynależących do
grupy obiektów.
4. Kroki 2 i 3 powtarzamy dopóki modyfikowana jest
przynajmniej jedna cecha dowolnego reprezentanta.


Slide 21

Algorytmy k-***
 K-means (k-średnich):

 start:
k wzajemnie najdalszych punktów.
 K-centroidów:

 start:
zbiór jest dzielony na k grup i wykonywany jest
3 krok algorytmu.


Slide 22

Algorytm „prawie” k-średnich (przykład)
 losowo wybrane współrzędne reprezentantów grup

c1
c2

c3


Slide 23

Algorytm „prawie” k-średnich (przykład)
 krok 2 algorytmu

c1
c2

c3


Slide 24

Algorytm „prawie” k-średnich (przykład)
 krok 3 algorytmu

c1
c2

c3


Slide 25

Algorytm „prawie” k-średnich (przykład)
 po wykonaniu kroku 3 algorytmu

c3
c1
c2


Slide 26

Algorytm „prawie” k-średnich (przykład)

c3
c1
c2


Slide 27

Algorytm „prawie” k-średnich (przykład)
 krok 2 algorytmu

c3
c1
c2


Slide 28

Algorytm „prawie” k-średnich (przykład)
 krok 3 algorytmu

c3
c1
c2


Slide 29

Algorytm „prawie” k-średnich (przykład)
 po kroku 3 algorytmu

c3

c1

c2


Slide 30

Dyskretna sieć ART
 rozdzielenie wag od reprezentanta grupy

 możliwość dynamicznej zmiany liczby neuronów
 parametr ρ „próg czujności” akceptowalny

współczynnik podobieństwa obrazu wejściowego
i reprezentanta grupy
 sygnał wejściowy
dyskretny (0 lub 1)


Slide 31

Uruchamianie sieci ART
 Klasyfikacja nowych obrazów:
 reguła WINNER TAKES ALL
 dla zwycięzcy obliczany jest współczynnik podobieństwa
do reprezentanta grupy zwycięskiego neuronu
n

 v di x i
pd 

i 1
n



i  1, 2, ..., k

pd  

xi

i 1

 jeśli wartość obliczonego współczynnika
jest mniejsza od akceptowalnej wartości
współczynnika podobieństwa
sieć „odpowiada NIE WIEM”


Slide 32

Uczenie dyskretnej sieci ART
 początkowa wartość wag neuronów

(0 )

w ij

i wartości składowych obrazów typowych
 dla zwycięskiego neuronu, który pomyślnie
przeszedł test podobieństwa przeprowadzamy
korektę wag i typowego obrazu:
(t  1 )

v di

(t  1 )
w di

(t )

 v di x i
(t  1 )

(t )

v di x i



 

n

(t )
v dj x j
j 1



v di



 

n

(t  1 )
v dj
j 1



i  1, 2, ..., k



1
1k

(0 )

v ij

1


Slide 33

wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1 
1
 v ij ( 3 
10
k , v )  0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11  00 11


34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1,  v 2 ( 0 ) 0 1

,
v
 1 1
5 5 5
5 
1
7 7 7 7 7 7 

 rozmiar sieci:


(3 )
w1  0

(2
(1))
w
w11  00


(3 )
w 2( 0 ) 0
1
w1 


jeden neuron (start)
 ustalamy =0.6 =1

1

0

1

1 1 0 1
1 1 1 1

(jedynego neuronu)
n

 v di x i
pd 

i  1, 2, ..., k



pd  

xi

i 1
(t  1 )

v di

(t  1 )
w di

(t )

 v di x i
(t  1 )

(t )

v di x i



 

n

(t )
v dj x j
j 1



v di



 

n

(t  1 )
v dj
j 1

0

00 11 00 0
1

 test podobieństwa dla zwycięzcy

i 1
n

0

i  1, 2, ..., k



xx 00 11 1
00 111 000 110 


Slide 34

wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1 
1
 v ij ( 3 
10
k , v )  0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11  00 11


34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1,  v 2 ( 0 ) 0 1

,
v
 1 1
5 5 5
5 
1
7 7 7 7 7 7 

 rozmiar sieci:


(3 )
w1  0

(2
(1))
w
w11  00


(3 )
w 2( 0 ) 0
1
w1 


jeden neuron (start)
 ustalamy =0.6 =1

1

0

1

1 1 0 1
1 1 1 1

zwycięzcy
(jedynego neuronu)
n

 v di x i
pd 

i  1, 2, ..., k



pd  

xi

i 1
(t  1 )

v di

(t  1 )
w di

(t )

 v di x i
(t  1 )

(t )

v di x i



 

n

(t )
v dj x j
j 1



v di



 

n

(t  1 )
v dj
j 1



i  1, 2, ..., k

?

0

00 11 00 0
1

 test podobieństwa dla

i 1
n

0

xx 00 11 1
00 111 000 110 


Slide 35

Sieć Fuzzy-ART
 rozdzielenie wag od reprezentanta grupy

 możliwość dynamicznej zmiany liczby neuronów
 parametr ρ „próg czujności”
 sygnał wejściowy x

ciągły <0,1>
 wejście sieci stanowi
wektor X=[x,x c],
gdzie dla x =[x1, ..., xk]
x c =[1-x1, ..., 1-xk]

zmiany!


Slide 36

Uczenie sieci Fuzzy-ART a uczenie ART

 sieć Fuzzy-ART

 sieć ART
k

2k

 v di  x i
pd 

i 1

( t  1)

 vx idi  x i
ii 11

xi
(t ) 
 v di i
x
1 i

( t  1)

k

 

( t  1)

w di





( t  1)

v di

(t )
v dj
(t )
v
j  1 di
k

22kk

 xv idi  x i

i i11

 x
 x ij

   v dj  x j
(t )

2k

xi
(t ) 
 v di i 1 x i

( t  1)

(t )

(t )
di x x i
vdi v 
i

v di


i 1

pd 

k

( t  1)

w di

pd 

kk

pd 

v di

 v di  x i

( t  1)

w di

(t )

(t )
di x x i
vdi v 
i

v di


2k

   v dj( t )  x j

( t  1)

w di



(t )

v
j  1 di
2k

 xi

   v dj  x j

operatorj 1logicznej koniunkcji j 1
klasyczny operator rozmyty AND

(t )


Slide 37

Geometryczna interpretacja Fuzzy-ART


Slide 38

zamiast Paddingtona...
 filozoficznie:
 co oznacza grupowanie pojęć, danych?

Przy odrobinie wysiłku można wykazać,
że cokolwiek weźmiemy, wszystko się łączy
— egzystencja jest pełna nie kończących się
odniesień. A każda rzecz ma więcej niż jedną
definicję. Kot jest ssakiem, narcyzem,
towarzyszem, zagadką.

Martha Cooley, Archiwista, Muza 2000