Informacja, reprezentacja. W*skie i szerokie uj
Download
Report
Transcript Informacja, reprezentacja. W*skie i szerokie uj
Dr hab. Marcin Miłkowski, prof. IFiS PAN
INFORMACJA, REPREZENTACJA.
WĄSKIE I SZEROKIE UJĘCIA
POZNANIA
Plan na dziś
Informacja: wiele miar, jedno pojęcie?
Informacja semantyczna
Reprezentacje a informacja?
Wąskie i szerokie ujęcie procesów
poznawczych – od redukcjonizmu
neuronalnego do antropologii kognitywnej
Antyreprezentacjonizm w
robotyce
Robotycy behawioralni podkreślają aktywną
naturę procesów poznawczych.
Robot, zamiast budować model świata, może
po prostu próbkować stan świata swoimi
detektorami.
Aktywna eksploracja otoczenia, podkreślana
przez enaktywistów, to temat bardzo
współcześnie eksploatowany.
Ale jak się mają informacje do reprezentacji?
Informacja strukturalna
Informacja strukturalna (logon):
istnieje nośnik fizyczny, który ma co najmniej dwa
stany (może zmieniać się na dwa sposoby, czyli
ma dwa stopnie swobody)
Minimalne pojęcie, często stosowane w
informatyce (to bity i bajty są jej
jednostkami).
Wystarczy, że istnieją różnice fizyczne.
Bardzo mało!!!
Informacja selektywna
Informacja selektywna (Shannona):
miara nieprzewidywalności informacji
strukturalnej (przesyłanej w kanale między
nadawcą a odbiorcą)
Jej jednostką też są bity, ale nie te same, o
których mówi się standardowo w informatyce
(np. przy podawaniu pojemności dysku).
Przykład: kod Morse’a
Symbole:
kreski i kropki (krótsze i dłuższe dźwięki)
Informację mierzymy jako stopień
zaskoczenia odbiorcy pewnego rodzaju
ciągiem kresek i kropek, generowanym przez
nadawcę.
Niektóre kombinacje kropek i kresek są
niepoprawne, więc ich prawdopodobieństwo jest
bardzo niskie → więcej informacji!
Model komunikacji Shannona
MODEL PROCESU KOMUNIKACJI
NADAWANIE
NADAWCA
(źródło)
KOMUNIKAT
KODOWANIE
KOMUNIKAT
KANAŁ
DEKODOWANIE
ODBIÓR
ODBIORCA
SZUM
sprzężenie zwrotne
ODBIÓR
NADAWANIE
Uwaga: jak stosować miarę
Shannona
Weźmy dowód matematyczny. On ma
prawdopodobieństwo 1.
Wydawałoby się zatem, że żaden dowód nie
niesie żadnej informacji w sensie Shannona.
Ale tylko wtedy, kiedy odbiorca (którym
może być maszyna!) zna tekst tego dowodu i
wie, że dany tekst jest dowodem.
Ilość informacji zależy od stopnia zaskoczenia
odbiorcy. Nie jest absolutna!!!
Metafora przewodu
Ujęcie Shannona miało służyć do opisu
komunikacji z punktu widzenia inżyniera, a
nie teoretyka komunikacji czy lingwisty.
Wielu teoretyków odrzuca koncepcję, że
rozumienie np. zdań w języku polskim polega na
dekodowaniu znaczeń zakodowanych drogą
fonetyczną.
Komunikacja może polegać raczej na koordynacji
działania i współdziałaniu, a nie na dekodowaniu…
Informacja metryczna
Informacja metryczna (Fishera):
miara głębi świadectw (miara jakości procedury
estymacji lub pomiaru)
Stosuje się do określania siły hipotez (stopnia,
w jakim potwierdzają ją pomiary).
Znane w statystyce wcześniej niż miary
Shannona.
Informacja algorytmiczna
Miarą informacji algorytmicznej ciągu
symboli jest długość najmniejszego programu
mogącego wygenerować C.
Przybliżenie tej miary dają uniwersalne algorytmy
kompresji, np. Lempel-Ziv lub ZIP.
Maksymalnie przypadkowe ciągi mają program
dłuższy od samego ciągu. Ciągi całkowicie
uporządkowane mają krótkie programy.
Informacja probabilistyczna
Informacja probabilistyczna (Dretskego):
Sygnał r niesie informację, że F(s) ztw P(F(s)|r ^ k)
=1
gdzie k to zmienna uwzględniająca uprzednią
wiedzę odbiorcy
Tu mamy informację opartą na prawach
przyrody, które są pewne w 100%.
Prawa przyrody i podobne prawidłowości są
informacyjne.
Pojęcie informacji
O informacji można zatem mówić, gdy
występują prawidłowości w przyrodzie
(rozumiane statystycznie), objawiające się
pojawianiem się określonych sygnałów.
Te prawidłowości można odkrywać
statystycznie przez badanie kowariacji lub
mocniejszych współzależności.
Prawdziwość
Ale pojęcia prawdziwości nie da się
sprowadzić do pojęcia kowariacji.
Aby mówić o prawdziwości (zdań) lub
weredyczności (np. postrzeżeń), trzeba coś
jeszcze dodać…
W poszukiwaniu informacji
semantycznej
Informacja semantyczna ma mieć własność
prawdziwości
ale niekoniecznie fałszywości: w ujęciu Dretskego
i Luciana Floridiego informacja nie może być
fałszywa
Wiele konkurencyjnych koncepcji…
Donald MacKay
Donald M. MacKay (1922-1987),
teoretyk informacji i neurolog,
związany z brytyjskim klubem
Ratio (Ashby, Barlow, Turing,
McCulloch…).
Koncepcja informacji
semantycznej MacKaya
Informacja jest semantyczna, kiedy ma
selekcyjną funkcję względem zespołu stanów
organizmu, które stanowią macierz
prawdopobieństw warunkowych działania.
Potocznie: znaczyć to modyfikować
gotowość do działania, a nie wywoływać
reakcję.
Koncepcja MacKaya
Tę koncepcję przejmuje w 1969 Daniel
Dennett (treść reprezentacji ma funkcję
modyfikacji gotowości do działania).
Alva Noe (później z Kevinem O’Reganem)
opracowuje koncepcję percepcji jako
działania sensomotorycznego, przy czym
działanie jest rozumiane w takich samych
gotowościowych kategoriach.
Reprezentacja a informacja
Spór antyreprezentacjonistów z
reprezentacjonistami wymaga odpowiedzi na
pytania:
czym jest informacja?
jak ma się informacja do reprezentacji?
czym jest prawdziwość?
czym różni się prawdziwość od rzetelności
informacji?
Sama informacja to nie
wszystko!
Reprezentacje umysłowe muszą być:
umysłowe,
związane z działaniem podmiotu,
mieć własności semantyczne (prawdziwość i
fałszywość),
mieć treść…
No więc można wskazać kilka niezbędnych
charakterystyk.
Mechanizmy reprezentacyjne
Mechanizmy reprezentacyjne mają przynajmniej
następujące funkcje:
posiadanie nośników modyfikujących zdolność
systemu do działania;
odnoszenie się do (ewentualnego) desygnatu;
wskazywanie cech desygnatu;
posiadanie warunków spełniania opartych na tych
cechach;
ocenianie wartości epistemicznej informacji o
desygnacie.
Mechanizmy reprezentacyjne
Mechanizmy oceniania służą do ewentualnej
korekty i świadczą o tym, że warunki
spełniania mają rolę przyczynową w systemie
poznawczym.
Te zdolności mechanizmów reprezentacyjnych
zapewniają, że pojawiają się ich dwie podstawowe
własności:
nieprzezroczystość odniesienia;
zdolność do wykrywania błędu przez system
poznawczy.
Nieprzezroczystość
odniesienia
Zenek wie, że Cyceron był świetnym retorem.
Zdanie „Cyceron był świetnym retorem” jest
prawdziwe zawsze i tylko wtedy, kiedy
prawdziwe jest zdanie „Marek Tulliusz był
świetnym retorem”.
Bo „Cyceron” i „Marek Tulliusz” to ta sama osoba.
Ale Zenek tego nie wie. Kiedy przypisujemy
mu treść, przypisujemy mu ją w sposób
nieprzezroczysty, bo ważne jak się Zenonowi
Cyceron prezentuje.
Wąskie i szerokie podejście
do poznania
Tradycyjnie zwolennicy pojęć informacji
kojarzeni są z „wąskim” podejściem do
poznania:
Liczą się procesy poznawcze zachodzące w
głowie, a nie stany otoczenia czy interakcja z
otoczeniem.
Podejście indywidualistyczne, brak odniesienia do
grupowych procesów poznawczych
Szerokie podejście do
poznania
Uwzględnianie roli:
ciała,
otoczenia, w tym afordancji,
determinant kulturowych i społecznych…
Współcześnie ucieleśnione podejścia są
bardzo popularne.
Poznanie w otoczeniu
Zewnętrzne reprezentacje ułatwiają poznanie
Poznanie rozproszone
Procesy poznawcze wymagające
poznawczego podziału pracy można określić
mianem „poznania rozproszonego”
(distributed cognition).
Praca w laboratorium badawczym
Tradycyjne metody nawigacji morskiej i lotniczej
(badania D. Hutchinsa)
Neuroantropologia
Badania łączące analizy antropologii
kulturowej, badającej określone zjawiska
kulturowe, z modelowaniem
neurobiologicznym
Praktyki kulturowe mają konsekwencje
biologiczne (neuroplastyczność)
Biologia ewolucyjna ujmuje kulturę jako
niszę człowieka.
Polecane dalsze lektury
The Π Research Network, The Philosophy of
Information: Introduction,
http://socphilinfo.org/teaching/book-pi-intro
Łukasz Afeltowicz, Modele, artefakty,
kolektywy, Toruń 2012
D. Lende i G. Downey,
The Encultered Brain,
MIT Press 2012