Transcript uczenie
Slide 1
formalnie:
Uczenie nienadzorowane
Dorota Cendrowska
nieformalnie:
podobne do podobnych, a niepodobne gdzie?
Slide 2
Plan wykładu
uczenie:
nadzorowane
nienadzorowane
sieć Kohonena
algorytm:
k średnich
K-centroidów
sieć ART
sieć Fuzzy-ART
Slide 3
uczenie (?)
uczenie się
wiersza na pamięć,
jako „przyswajanie” wiedzy teoretycznej,
jako rozwijanie umiejętności
wykorzystywania wiedzy posiadanej,
jako umiejętność korzystania
z doświadczenia (własnego i cudzego),
jako umiejętność wnioskowania,
jako umiejętność
dostrzegania podobieństw (+generalizacja)
Slide 4
uczenie z nadzorem (?)
inaczej uczenie z nauczyciela
informacja dotycząca oczekiwanej reakcji
znana „prawidłowa” odpowiedź
przykłady:
sieci jednokierunkowe
(zagadnienia klasyfikacji, aproksymacji)
Slide 5
uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
brak informacji zwrotnej, czy podjęta
aktywność jest prawidłową reakcją,
brak systemu „marchewka i kijek”,
który nagradza lub karze.
Slide 6
uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
brak informacji zwrotnej, czy podjęta
aktywność jest prawidłową reakcją,
brak systemu „marchewka i kijek”,
który nagradza lub karze.
idealny przykład: małe dziecko
uczące się zwrotów „mało kulturalnych”
idealny kontrprzykład: małe dziecko,
uczące się „terroryzować” rodziców krzykiem
Slide 7
powtórka z rozrywki...
budowa:
jednowarstwowe
wielowarstwowe
...podział sieci neuronowych
przepływ sygnału:
jednokierunkowe
ze sprzężeniem zwrotnym
uczenie:
z nauczycielem (nadzorowane)
bez nauczyciela
Slide 8
„jutrzejsza” powtórka z rozrywki...
budowa:
jednowarstwowe
wielowarstwowe
...podział sieci neuronowych
przepływ sygnału:
jednokierunkowe
ze sprzężeniem zwrotnym
uczenie:
z nauczycielem (nadzorowane)
bez nauczyciela
Slide 9
uczenie nienadzorowane a sieci neuronowe
zastosowanie:
odkrywanie podobieństw w zbiorach uczących
(grupowanie danych)
problemy:
definicja podobieństwa,
ścisłe określenie algorytmu uczenia
(pomimo braku nauczyciela)
sieci neuronowe:
sieć Kohonena
sieć rezonansowa ART
sieć rezonansowa Fuzzy-ART
Slide 10
sieć Kohonena
sieć jednowarstwowa
neurony o ciągłej funkcji
aktywacji
interpretacja geometryczna wag
zdolność grupowania danych
na N grup
podobieństwo zdefiniowane jako:
„jak najmniejsze różnice
poszczególnych składowych
wejściowych w stosunku do (?)”
Slide 11
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
Slide 12
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
?
Slide 13
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
?
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
Jak teoria
mijała się
z prawdą
Slide 14
Wagi sieci Kohonena
wymagana jest normalizacja wag:
w i,j
^
w i,j = ||w ||
i= 1 ,2 ,..., N
x2
i
^
w
2
o
x
x
1
x
x
x1
o
^
w1
x
ˆd
x w
min
i 1, 2 , ..., N
min
i 1, 2 , ..., N
ˆi
x w
t
min
t
i 1, 2 , ..., N
t
ˆ ix 1
x x 2w
t
t
ˆ ix w
ˆ iw
ˆi
x x 2w
max
i 1, 2 , ..., N
t
ˆ ix
w
Slide 15
Uczenie sieci Kohonena
reguła WINNER TAKES ALL
korekcie wag podlega
tylko neuron „zwycięzca”
ˆ i (t ) ( x w
ˆ i (t )) i d
w
w i (t 1 )
ˆ i (t )
w
i d
ˆ i (t 1 )
w
w i (t 1 )
wi
i 1, 2 , ..., N
korekcie wag podlega nie tylko neuron „zwycięzca”,
ale również neuronów należących do sąsiedztwa
Slide 16
Sieć Kohonena, problemy
wymagana znajomość maksymalnej liczby grup
sieć „nie zna” odpowiedzi NIE WIEM
każdy z obrazów wejściowych zostanie
zaklasyfikowany do jednej z N grup
?
Slide 17
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
I
?
Slide 18
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
I
?
Slide 19
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
II
II
?
?
ˆd
x w
min
i 1, 2 , ..., N
min
i 1, 2 , ..., N
ˆi
x w
t
min
t
i 1, 2 , ..., N
t
ˆ ix 1
x x 2w
t
t
ˆ ix w
ˆ iw
ˆi
x x 2w
max
i 1, 2 , ..., N
t
ˆ ix
w
Slide 20
Algorytm k średnich
Grupowanie na k grup:
1. Znajdujemy k wzajemnie najdalszych punktów. Stają
się one reprezentantami k grup.
2. Każdemu z grupowanych obiektów przypisujemy
etykietę informującą o tym, do którego reprezentanta
ma „najbliżej”.
3. Uaktualniamy reprezentantów grup. Kolejne cechy
stanowią średnią arytmetyczną przynależących do
grupy obiektów.
4. Kroki 2 i 3 powtarzamy dopóki modyfikowana jest
przynajmniej jedna cecha dowolnego reprezentanta.
Slide 21
Algorytmy k-***
K-means (k-średnich):
start:
k wzajemnie najdalszych punktów.
K-centroidów:
start:
zbiór jest dzielony na k grup i wykonywany jest
3 krok algorytmu.
Slide 22
Algorytm „prawie” k-średnich (przykład)
losowo wybrane współrzędne reprezentantów grup
c1
c2
c3
Slide 23
Algorytm „prawie” k-średnich (przykład)
krok 2 algorytmu
c1
c2
c3
Slide 24
Algorytm „prawie” k-średnich (przykład)
krok 3 algorytmu
c1
c2
c3
Slide 25
Algorytm „prawie” k-średnich (przykład)
po wykonaniu kroku 3 algorytmu
c3
c1
c2
Slide 26
Algorytm „prawie” k-średnich (przykład)
c3
c1
c2
Slide 27
Algorytm „prawie” k-średnich (przykład)
krok 2 algorytmu
c3
c1
c2
Slide 28
Algorytm „prawie” k-średnich (przykład)
krok 3 algorytmu
c3
c1
c2
Slide 29
Algorytm „prawie” k-średnich (przykład)
po kroku 3 algorytmu
c3
c1
c2
Slide 30
Dyskretna sieć ART
rozdzielenie wag od reprezentanta grupy
możliwość dynamicznej zmiany liczby neuronów
parametr ρ „próg czujności” akceptowalny
współczynnik podobieństwa obrazu wejściowego
i reprezentanta grupy
sygnał wejściowy
dyskretny (0 lub 1)
Slide 31
Uruchamianie sieci ART
Klasyfikacja nowych obrazów:
reguła WINNER TAKES ALL
dla zwycięzcy obliczany jest współczynnik podobieństwa
do reprezentanta grupy zwycięskiego neuronu
n
v di x i
pd
i 1
n
i 1, 2, ..., k
pd
xi
i 1
jeśli wartość obliczonego współczynnika
jest mniejsza od akceptowalnej wartości
współczynnika podobieństwa
sieć „odpowiada NIE WIEM”
Slide 32
Uczenie dyskretnej sieci ART
początkowa wartość wag neuronów
(0 )
w ij
i wartości składowych obrazów typowych
dla zwycięskiego neuronu, który pomyślnie
przeszedł test podobieństwa przeprowadzamy
korektę wag i typowego obrazu:
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
i 1, 2, ..., k
1
1k
(0 )
v ij
1
Slide 33
wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1
1
v ij ( 3
10
k , v ) 0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11 00 11
34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1, v 2 ( 0 ) 0 1
,
v
1 1
5 5 5
5
1
7 7 7 7 7 7
rozmiar sieci:
(3 )
w1 0
(2
(1))
w
w11 00
(3 )
w 2( 0 ) 0
1
w1
jeden neuron (start)
ustalamy =0.6 =1
1
0
1
1 1 0 1
1 1 1 1
(jedynego neuronu)
n
v di x i
pd
i 1, 2, ..., k
pd
xi
i 1
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
0
00 11 00 0
1
test podobieństwa dla zwycięzcy
i 1
n
0
i 1, 2, ..., k
xx 00 11 1
00 111 000 110
Slide 34
wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1
1
v ij ( 3
10
k , v ) 0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11 00 11
34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1, v 2 ( 0 ) 0 1
,
v
1 1
5 5 5
5
1
7 7 7 7 7 7
rozmiar sieci:
(3 )
w1 0
(2
(1))
w
w11 00
(3 )
w 2( 0 ) 0
1
w1
jeden neuron (start)
ustalamy =0.6 =1
1
0
1
1 1 0 1
1 1 1 1
zwycięzcy
(jedynego neuronu)
n
v di x i
pd
i 1, 2, ..., k
pd
xi
i 1
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
i 1, 2, ..., k
?
0
00 11 00 0
1
test podobieństwa dla
i 1
n
0
xx 00 11 1
00 111 000 110
Slide 35
Sieć Fuzzy-ART
rozdzielenie wag od reprezentanta grupy
możliwość dynamicznej zmiany liczby neuronów
parametr ρ „próg czujności”
sygnał wejściowy x
ciągły <0,1>
wejście sieci stanowi
wektor X=[x,x c],
gdzie dla x =[x1, ..., xk]
x c =[1-x1, ..., 1-xk]
zmiany!
Slide 36
Uczenie sieci Fuzzy-ART a uczenie ART
sieć Fuzzy-ART
sieć ART
k
2k
v di x i
pd
i 1
( t 1)
vx idi x i
ii 11
xi
(t )
v di i
x
1 i
( t 1)
k
( t 1)
w di
( t 1)
v di
(t )
v dj
(t )
v
j 1 di
k
22kk
xv idi x i
i i11
x
x ij
v dj x j
(t )
2k
xi
(t )
v di i 1 x i
( t 1)
(t )
(t )
di x x i
vdi v
i
v di
i 1
pd
k
( t 1)
w di
pd
kk
pd
v di
v di x i
( t 1)
w di
(t )
(t )
di x x i
vdi v
i
v di
2k
v dj( t ) x j
( t 1)
w di
(t )
v
j 1 di
2k
xi
v dj x j
operatorj 1logicznej koniunkcji j 1
klasyczny operator rozmyty AND
(t )
Slide 37
Geometryczna interpretacja Fuzzy-ART
Slide 38
zamiast Paddingtona...
filozoficznie:
co oznacza grupowanie pojęć, danych?
Przy odrobinie wysiłku można wykazać,
że cokolwiek weźmiemy, wszystko się łączy
— egzystencja jest pełna nie kończących się
odniesień. A każda rzecz ma więcej niż jedną
definicję. Kot jest ssakiem, narcyzem,
towarzyszem, zagadką.
Martha Cooley, Archiwista, Muza 2000
formalnie:
Uczenie nienadzorowane
Dorota Cendrowska
nieformalnie:
podobne do podobnych, a niepodobne gdzie?
Slide 2
Plan wykładu
uczenie:
nadzorowane
nienadzorowane
sieć Kohonena
algorytm:
k średnich
K-centroidów
sieć ART
sieć Fuzzy-ART
Slide 3
uczenie (?)
uczenie się
wiersza na pamięć,
jako „przyswajanie” wiedzy teoretycznej,
jako rozwijanie umiejętności
wykorzystywania wiedzy posiadanej,
jako umiejętność korzystania
z doświadczenia (własnego i cudzego),
jako umiejętność wnioskowania,
jako umiejętność
dostrzegania podobieństw (+generalizacja)
Slide 4
uczenie z nadzorem (?)
inaczej uczenie z nauczyciela
informacja dotycząca oczekiwanej reakcji
znana „prawidłowa” odpowiedź
przykłady:
sieci jednokierunkowe
(zagadnienia klasyfikacji, aproksymacji)
Slide 5
uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
brak informacji zwrotnej, czy podjęta
aktywność jest prawidłową reakcją,
brak systemu „marchewka i kijek”,
który nagradza lub karze.
Slide 6
uczenie bez nadzoru (?)
inaczej uczenie bez nauczyciela
brak informacji zwrotnej, czy podjęta
aktywność jest prawidłową reakcją,
brak systemu „marchewka i kijek”,
który nagradza lub karze.
idealny przykład: małe dziecko
uczące się zwrotów „mało kulturalnych”
idealny kontrprzykład: małe dziecko,
uczące się „terroryzować” rodziców krzykiem
Slide 7
powtórka z rozrywki...
budowa:
jednowarstwowe
wielowarstwowe
...podział sieci neuronowych
przepływ sygnału:
jednokierunkowe
ze sprzężeniem zwrotnym
uczenie:
z nauczycielem (nadzorowane)
bez nauczyciela
Slide 8
„jutrzejsza” powtórka z rozrywki...
budowa:
jednowarstwowe
wielowarstwowe
...podział sieci neuronowych
przepływ sygnału:
jednokierunkowe
ze sprzężeniem zwrotnym
uczenie:
z nauczycielem (nadzorowane)
bez nauczyciela
Slide 9
uczenie nienadzorowane a sieci neuronowe
zastosowanie:
odkrywanie podobieństw w zbiorach uczących
(grupowanie danych)
problemy:
definicja podobieństwa,
ścisłe określenie algorytmu uczenia
(pomimo braku nauczyciela)
sieci neuronowe:
sieć Kohonena
sieć rezonansowa ART
sieć rezonansowa Fuzzy-ART
Slide 10
sieć Kohonena
sieć jednowarstwowa
neurony o ciągłej funkcji
aktywacji
interpretacja geometryczna wag
zdolność grupowania danych
na N grup
podobieństwo zdefiniowane jako:
„jak najmniejsze różnice
poszczególnych składowych
wejściowych w stosunku do (?)”
Slide 11
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
Slide 12
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
?
Slide 13
Uruchamianie sieci Kohonena
interpretacja wag neuronu:
„charakterystyczny”
reprezentant grupy
?
dane wejściowe zostają
zaklasyfikowane do grupy
reprezentowanej przez neuron
o największej wartości wyjścia
Jak teoria
mijała się
z prawdą
Slide 14
Wagi sieci Kohonena
wymagana jest normalizacja wag:
w i,j
^
w i,j = ||w ||
i= 1 ,2 ,..., N
x2
i
^
w
2
o
x
x
1
x
x
x1
o
^
w1
x
ˆd
x w
min
i 1, 2 , ..., N
min
i 1, 2 , ..., N
ˆi
x w
t
min
t
i 1, 2 , ..., N
t
ˆ ix 1
x x 2w
t
t
ˆ ix w
ˆ iw
ˆi
x x 2w
max
i 1, 2 , ..., N
t
ˆ ix
w
Slide 15
Uczenie sieci Kohonena
reguła WINNER TAKES ALL
korekcie wag podlega
tylko neuron „zwycięzca”
ˆ i (t ) ( x w
ˆ i (t )) i d
w
w i (t 1 )
ˆ i (t )
w
i d
ˆ i (t 1 )
w
w i (t 1 )
wi
i 1, 2 , ..., N
korekcie wag podlega nie tylko neuron „zwycięzca”,
ale również neuronów należących do sąsiedztwa
Slide 16
Sieć Kohonena, problemy
wymagana znajomość maksymalnej liczby grup
sieć „nie zna” odpowiedzi NIE WIEM
każdy z obrazów wejściowych zostanie
zaklasyfikowany do jednej z N grup
?
Slide 17
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
I
?
Slide 18
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
I
?
Slide 19
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
II
II
II
?
?
ˆd
x w
min
i 1, 2 , ..., N
min
i 1, 2 , ..., N
ˆi
x w
t
min
t
i 1, 2 , ..., N
t
ˆ ix 1
x x 2w
t
t
ˆ ix w
ˆ iw
ˆi
x x 2w
max
i 1, 2 , ..., N
t
ˆ ix
w
Slide 20
Algorytm k średnich
Grupowanie na k grup:
1. Znajdujemy k wzajemnie najdalszych punktów. Stają
się one reprezentantami k grup.
2. Każdemu z grupowanych obiektów przypisujemy
etykietę informującą o tym, do którego reprezentanta
ma „najbliżej”.
3. Uaktualniamy reprezentantów grup. Kolejne cechy
stanowią średnią arytmetyczną przynależących do
grupy obiektów.
4. Kroki 2 i 3 powtarzamy dopóki modyfikowana jest
przynajmniej jedna cecha dowolnego reprezentanta.
Slide 21
Algorytmy k-***
K-means (k-średnich):
start:
k wzajemnie najdalszych punktów.
K-centroidów:
start:
zbiór jest dzielony na k grup i wykonywany jest
3 krok algorytmu.
Slide 22
Algorytm „prawie” k-średnich (przykład)
losowo wybrane współrzędne reprezentantów grup
c1
c2
c3
Slide 23
Algorytm „prawie” k-średnich (przykład)
krok 2 algorytmu
c1
c2
c3
Slide 24
Algorytm „prawie” k-średnich (przykład)
krok 3 algorytmu
c1
c2
c3
Slide 25
Algorytm „prawie” k-średnich (przykład)
po wykonaniu kroku 3 algorytmu
c3
c1
c2
Slide 26
Algorytm „prawie” k-średnich (przykład)
c3
c1
c2
Slide 27
Algorytm „prawie” k-średnich (przykład)
krok 2 algorytmu
c3
c1
c2
Slide 28
Algorytm „prawie” k-średnich (przykład)
krok 3 algorytmu
c3
c1
c2
Slide 29
Algorytm „prawie” k-średnich (przykład)
po kroku 3 algorytmu
c3
c1
c2
Slide 30
Dyskretna sieć ART
rozdzielenie wag od reprezentanta grupy
możliwość dynamicznej zmiany liczby neuronów
parametr ρ „próg czujności” akceptowalny
współczynnik podobieństwa obrazu wejściowego
i reprezentanta grupy
sygnał wejściowy
dyskretny (0 lub 1)
Slide 31
Uruchamianie sieci ART
Klasyfikacja nowych obrazów:
reguła WINNER TAKES ALL
dla zwycięzcy obliczany jest współczynnik podobieństwa
do reprezentanta grupy zwycięskiego neuronu
n
v di x i
pd
i 1
n
i 1, 2, ..., k
pd
xi
i 1
jeśli wartość obliczonego współczynnika
jest mniejsza od akceptowalnej wartości
współczynnika podobieństwa
sieć „odpowiada NIE WIEM”
Slide 32
Uczenie dyskretnej sieci ART
początkowa wartość wag neuronów
(0 )
w ij
i wartości składowych obrazów typowych
dla zwycięskiego neuronu, który pomyślnie
przeszedł test podobieństwa przeprowadzamy
korektę wag i typowego obrazu:
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
i 1, 2, ..., k
1
1k
(0 )
v ij
1
Slide 33
wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1
1
v ij ( 3
10
k , v ) 0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11 00 11
34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1, v 2 ( 0 ) 0 1
,
v
1 1
5 5 5
5
1
7 7 7 7 7 7
rozmiar sieci:
(3 )
w1 0
(2
(1))
w
w11 00
(3 )
w 2( 0 ) 0
1
w1
jeden neuron (start)
ustalamy =0.6 =1
1
0
1
1 1 0 1
1 1 1 1
(jedynego neuronu)
n
v di x i
pd
i 1, 2, ..., k
pd
xi
i 1
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
0
00 11 00 0
1
test podobieństwa dla zwycięzcy
i 1
n
0
i 1, 2, ..., k
xx 00 11 1
00 111 000 110
Slide 34
wzór wzorem, przykład przykładem
1
(0 )
(0 )
w ij 1
1
v ij ( 3
10
k , v ) 0 1
0
0
1
1
1
1
31
31
(2
(1))
00
00 0 , , vv11 00 11
34 1 31
4
4
1
1
(3 )
1 1 1 0 1 1, v 2 ( 0 ) 0 1
,
v
1 1
5 5 5
5
1
7 7 7 7 7 7
rozmiar sieci:
(3 )
w1 0
(2
(1))
w
w11 00
(3 )
w 2( 0 ) 0
1
w1
jeden neuron (start)
ustalamy =0.6 =1
1
0
1
1 1 0 1
1 1 1 1
zwycięzcy
(jedynego neuronu)
n
v di x i
pd
i 1, 2, ..., k
pd
xi
i 1
(t 1 )
v di
(t 1 )
w di
(t )
v di x i
(t 1 )
(t )
v di x i
n
(t )
v dj x j
j 1
v di
n
(t 1 )
v dj
j 1
i 1, 2, ..., k
?
0
00 11 00 0
1
test podobieństwa dla
i 1
n
0
xx 00 11 1
00 111 000 110
Slide 35
Sieć Fuzzy-ART
rozdzielenie wag od reprezentanta grupy
możliwość dynamicznej zmiany liczby neuronów
parametr ρ „próg czujności”
sygnał wejściowy x
ciągły <0,1>
wejście sieci stanowi
wektor X=[x,x c],
gdzie dla x =[x1, ..., xk]
x c =[1-x1, ..., 1-xk]
zmiany!
Slide 36
Uczenie sieci Fuzzy-ART a uczenie ART
sieć Fuzzy-ART
sieć ART
k
2k
v di x i
pd
i 1
( t 1)
vx idi x i
ii 11
xi
(t )
v di i
x
1 i
( t 1)
k
( t 1)
w di
( t 1)
v di
(t )
v dj
(t )
v
j 1 di
k
22kk
xv idi x i
i i11
x
x ij
v dj x j
(t )
2k
xi
(t )
v di i 1 x i
( t 1)
(t )
(t )
di x x i
vdi v
i
v di
i 1
pd
k
( t 1)
w di
pd
kk
pd
v di
v di x i
( t 1)
w di
(t )
(t )
di x x i
vdi v
i
v di
2k
v dj( t ) x j
( t 1)
w di
(t )
v
j 1 di
2k
xi
v dj x j
operatorj 1logicznej koniunkcji j 1
klasyczny operator rozmyty AND
(t )
Slide 37
Geometryczna interpretacja Fuzzy-ART
Slide 38
zamiast Paddingtona...
filozoficznie:
co oznacza grupowanie pojęć, danych?
Przy odrobinie wysiłku można wykazać,
że cokolwiek weźmiemy, wszystko się łączy
— egzystencja jest pełna nie kończących się
odniesień. A każda rzecz ma więcej niż jedną
definicję. Kot jest ssakiem, narcyzem,
towarzyszem, zagadką.
Martha Cooley, Archiwista, Muza 2000