Informacja, reprezentacja. W*skie i szerokie uj

Download Report

Transcript Informacja, reprezentacja. W*skie i szerokie uj

Dr hab. Marcin Miłkowski, prof. IFiS PAN
INFORMACJA, REPREZENTACJA.
WĄSKIE I SZEROKIE UJĘCIA
POZNANIA
Plan na dziś
 Informacja: wiele miar, jedno pojęcie?
 Informacja semantyczna
 Reprezentacje a informacja?
 Wąskie i szerokie ujęcie procesów
poznawczych – od redukcjonizmu
neuronalnego do antropologii kognitywnej
Antyreprezentacjonizm w
robotyce
 Robotycy behawioralni podkreślają aktywną
naturę procesów poznawczych.
 Robot, zamiast budować model świata, może
po prostu próbkować stan świata swoimi
detektorami.
 Aktywna eksploracja otoczenia, podkreślana
przez enaktywistów, to temat bardzo
współcześnie eksploatowany.
 Ale jak się mają informacje do reprezentacji?
Informacja strukturalna
 Informacja strukturalna (logon):
 istnieje nośnik fizyczny, który ma co najmniej dwa
stany (może zmieniać się na dwa sposoby, czyli
ma dwa stopnie swobody)
 Minimalne pojęcie, często stosowane w
informatyce (to bity i bajty są jej
jednostkami).
 Wystarczy, że istnieją różnice fizyczne.
Bardzo mało!!!
Informacja selektywna
 Informacja selektywna (Shannona):
 miara nieprzewidywalności informacji
strukturalnej (przesyłanej w kanale między
nadawcą a odbiorcą)
 Jej jednostką też są bity, ale nie te same, o
których mówi się standardowo w informatyce
(np. przy podawaniu pojemności dysku).
Przykład: kod Morse’a
 Symbole:
 kreski i kropki (krótsze i dłuższe dźwięki)
 Informację mierzymy jako stopień
zaskoczenia odbiorcy pewnego rodzaju
ciągiem kresek i kropek, generowanym przez
nadawcę.
 Niektóre kombinacje kropek i kresek są
niepoprawne, więc ich prawdopodobieństwo jest
bardzo niskie → więcej informacji!
Model komunikacji Shannona
MODEL PROCESU KOMUNIKACJI
NADAWANIE
NADAWCA
(źródło)
KOMUNIKAT
KODOWANIE
KOMUNIKAT
KANAŁ
DEKODOWANIE
ODBIÓR
ODBIORCA
SZUM
sprzężenie zwrotne
ODBIÓR
NADAWANIE
Uwaga: jak stosować miarę
Shannona
 Weźmy dowód matematyczny. On ma
prawdopodobieństwo 1.
 Wydawałoby się zatem, że żaden dowód nie
niesie żadnej informacji w sensie Shannona.
 Ale tylko wtedy, kiedy odbiorca (którym
może być maszyna!) zna tekst tego dowodu i
wie, że dany tekst jest dowodem.
 Ilość informacji zależy od stopnia zaskoczenia
odbiorcy. Nie jest absolutna!!!
Metafora przewodu
 Ujęcie Shannona miało służyć do opisu
komunikacji z punktu widzenia inżyniera, a
nie teoretyka komunikacji czy lingwisty.
 Wielu teoretyków odrzuca koncepcję, że
rozumienie np. zdań w języku polskim polega na
dekodowaniu znaczeń zakodowanych drogą
fonetyczną.
 Komunikacja może polegać raczej na koordynacji
działania i współdziałaniu, a nie na dekodowaniu…
Informacja metryczna
 Informacja metryczna (Fishera):
 miara głębi świadectw (miara jakości procedury
estymacji lub pomiaru)
 Stosuje się do określania siły hipotez (stopnia,
w jakim potwierdzają ją pomiary).
 Znane w statystyce wcześniej niż miary
Shannona.
Informacja algorytmiczna
 Miarą informacji algorytmicznej ciągu
symboli jest długość najmniejszego programu
mogącego wygenerować C.
 Przybliżenie tej miary dają uniwersalne algorytmy
kompresji, np. Lempel-Ziv lub ZIP.
 Maksymalnie przypadkowe ciągi mają program
dłuższy od samego ciągu. Ciągi całkowicie
uporządkowane mają krótkie programy.
Informacja probabilistyczna
 Informacja probabilistyczna (Dretskego):
 Sygnał r niesie informację, że F(s) ztw P(F(s)|r ^ k)
=1
 gdzie k to zmienna uwzględniająca uprzednią
wiedzę odbiorcy
 Tu mamy informację opartą na prawach
przyrody, które są pewne w 100%.
 Prawa przyrody i podobne prawidłowości są
informacyjne.
Pojęcie informacji
 O informacji można zatem mówić, gdy
występują prawidłowości w przyrodzie
(rozumiane statystycznie), objawiające się
pojawianiem się określonych sygnałów.
 Te prawidłowości można odkrywać
statystycznie przez badanie kowariacji lub
mocniejszych współzależności.
Prawdziwość
 Ale pojęcia prawdziwości nie da się
sprowadzić do pojęcia kowariacji.
 Aby mówić o prawdziwości (zdań) lub
weredyczności (np. postrzeżeń), trzeba coś
jeszcze dodać…
W poszukiwaniu informacji
semantycznej
 Informacja semantyczna ma mieć własność
prawdziwości
 ale niekoniecznie fałszywości: w ujęciu Dretskego
i Luciana Floridiego informacja nie może być
fałszywa
 Wiele konkurencyjnych koncepcji…
Donald MacKay
 Donald M. MacKay (1922-1987),
teoretyk informacji i neurolog,
związany z brytyjskim klubem
Ratio (Ashby, Barlow, Turing,
McCulloch…).
Koncepcja informacji
semantycznej MacKaya
 Informacja jest semantyczna, kiedy ma
selekcyjną funkcję względem zespołu stanów
organizmu, które stanowią macierz
prawdopobieństw warunkowych działania.
 Potocznie: znaczyć to modyfikować
gotowość do działania, a nie wywoływać
reakcję.
Koncepcja MacKaya
 Tę koncepcję przejmuje w 1969 Daniel
Dennett (treść reprezentacji ma funkcję
modyfikacji gotowości do działania).
 Alva Noe (później z Kevinem O’Reganem)
opracowuje koncepcję percepcji jako
działania sensomotorycznego, przy czym
działanie jest rozumiane w takich samych
gotowościowych kategoriach.
Reprezentacja a informacja
 Spór antyreprezentacjonistów z
reprezentacjonistami wymaga odpowiedzi na
pytania:
 czym jest informacja?
 jak ma się informacja do reprezentacji?
 czym jest prawdziwość?
 czym różni się prawdziwość od rzetelności
informacji?
Sama informacja to nie
wszystko!
 Reprezentacje umysłowe muszą być:
 umysłowe,
 związane z działaniem podmiotu,
 mieć własności semantyczne (prawdziwość i
fałszywość),
 mieć treść…
 No więc można wskazać kilka niezbędnych
charakterystyk.
Mechanizmy reprezentacyjne
 Mechanizmy reprezentacyjne mają przynajmniej
następujące funkcje:
 posiadanie nośników modyfikujących zdolność
systemu do działania;
 odnoszenie się do (ewentualnego) desygnatu;
 wskazywanie cech desygnatu;
 posiadanie warunków spełniania opartych na tych
cechach;
 ocenianie wartości epistemicznej informacji o
desygnacie.
Mechanizmy reprezentacyjne
 Mechanizmy oceniania służą do ewentualnej
korekty i świadczą o tym, że warunki
spełniania mają rolę przyczynową w systemie
poznawczym.
 Te zdolności mechanizmów reprezentacyjnych
zapewniają, że pojawiają się ich dwie podstawowe
własności:
 nieprzezroczystość odniesienia;
 zdolność do wykrywania błędu przez system
poznawczy.
Nieprzezroczystość
odniesienia
 Zenek wie, że Cyceron był świetnym retorem.
 Zdanie „Cyceron był świetnym retorem” jest
prawdziwe zawsze i tylko wtedy, kiedy
prawdziwe jest zdanie „Marek Tulliusz był
świetnym retorem”.
 Bo „Cyceron” i „Marek Tulliusz” to ta sama osoba.
 Ale Zenek tego nie wie. Kiedy przypisujemy
mu treść, przypisujemy mu ją w sposób
nieprzezroczysty, bo ważne jak się Zenonowi
Cyceron prezentuje.
Wąskie i szerokie podejście
do poznania
 Tradycyjnie zwolennicy pojęć informacji
kojarzeni są z „wąskim” podejściem do
poznania:
 Liczą się procesy poznawcze zachodzące w
głowie, a nie stany otoczenia czy interakcja z
otoczeniem.
 Podejście indywidualistyczne, brak odniesienia do
grupowych procesów poznawczych
Szerokie podejście do
poznania
 Uwzględnianie roli:
 ciała,
 otoczenia, w tym afordancji,
 determinant kulturowych i społecznych…
 Współcześnie ucieleśnione podejścia są
bardzo popularne.
Poznanie w otoczeniu
 Zewnętrzne reprezentacje ułatwiają poznanie
Poznanie rozproszone
 Procesy poznawcze wymagające
poznawczego podziału pracy można określić
mianem „poznania rozproszonego”
(distributed cognition).
 Praca w laboratorium badawczym
 Tradycyjne metody nawigacji morskiej i lotniczej
(badania D. Hutchinsa)
Neuroantropologia
 Badania łączące analizy antropologii
kulturowej, badającej określone zjawiska
kulturowe, z modelowaniem
neurobiologicznym
 Praktyki kulturowe mają konsekwencje
biologiczne (neuroplastyczność)
 Biologia ewolucyjna ujmuje kulturę jako
niszę człowieka.
Polecane dalsze lektury
 The Π Research Network, The Philosophy of
Information: Introduction,
http://socphilinfo.org/teaching/book-pi-intro
 Łukasz Afeltowicz, Modele, artefakty,
kolektywy, Toruń 2012
 D. Lende i G. Downey,
The Encultered Brain,
MIT Press 2012