12 - Ciencia cognitiva

Download Report

Transcript 12 - Ciencia cognitiva

Ciencia cognitiva

Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES [email protected]

[email protected]

Objetivos

Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986 • Elaborar una presentación de la disciplina desde el punto de vista antropológico.

• Mostrar formas complejas de entendimiento (posible) entre antropología y otras disciplinas • Poner de manifiesto las limitaciones inherentes a las concepciones antropológicas de los conceptos cognitivos esenciales – Conocimiento, símbolo, representación, mente, aprendizaje, lógica, pensamiento, imagen, inteligencia, memoria

Agenda

• Historia de la ciencia cognitiva – Psicología cognitiva* – Inteligencia artificial, GOFAI – Inteligencia artificial, conexionismo • Antropología cognitiva • Conclusiones • Trabajos pendientes & Referencias

Definiciones

• “Cognición” – Se puede encontrar a fines del siglo XIX (Wilhelm Wundt, William James) • Ciencia cognitiva = estudio de la mente o de la inteligencia • Reemplazó a la idea de Inteligencia Artificial • Modelo de caja gris – Restitución de la mente • Investigación multidisciplinaria: psicología, neurociencia, antropología, filosofía, lingüística, computación científica, biología

La “revolución cognitiva”

• MIT, 11 de setiembre de 1956 (11 al 13) • Miller, Mágico número siete • Newell y Simon – Logic Theorist, GPS • Declinación (momentánea) de la neurociencia y auge de la lingüística • Chomsky – Tres modelos para la descripción del lenguaje – 1957:

Syntactic structures

– 1958: Review de

Verbal behavior

de Skinner 

Chomsky sobre Skinner

• Cuestionamiento de la idea de que el lenguaje se puede insuflar via entrenamiento animal – Estímulo – Refuerzo – Privación • Predecir y controlar comportamiento verbal manipulando variables de entorno. • No habría restricciones de especie.

• La contribución interna del hablante sería poco esencial.

La revolución…

• Chomsky (28 años a esa fecha) – No es viable un modelo de producción lingüística derivado de la teoría de la información de Shannon.

– Base de su concepción de lenguajes formales y sus autómatas.

– Base de los métodos formales en computación y de los compiladores de lenguajes formales.

– Primer modelo “matemático” del lenguaje.

– Segunda (o tercera) revolución lingüística.

George Miller

The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information

(1956) – Sólo se aplica a juicios o estímulos unidimensionales, no a recordar (por ejemplo) caras o lugares.

– Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se aplica a percepción, procesamiento y memoria.

– “En realidad no hay ninguna magia en relación con tantos otros 7s; sólo una perniciosa coincidencia”.

– Entre las coincidencias incluye las 7 notas de la escala musical, lo que sin duda es un error suyo.

– No está demostrado que se aplique a la memoria a corto plazo.

– Se ha convertido en una especie de mito urbano.

– Elizabeth Rice (1980) – Cultural schemata.

Anthony Wallace

• “

On being just complicated enough

”, 1964 [disp] • Aunque el tamaño y complejidad de las sociedades varía enormemente, la dimensión del sistema de términos de parentesco no lo hace • Para transformar el número de términos en una cifra que sirva para medir complejidad, computó log 2 1/L • Número de elecciones binarias necesario para producir un sistema de tamaño L

Anthony Wallace

• Todos los sistemas taxonómicos se pueden acomodar en un espacio que requiere 6 dimensiones binarias o menos

Anthony Wallace

• 2 6 = 64 • “Conjuntos contrastantes” = espacios taxonómicos, o sistemas institucionalizados de discriminación • Formas verbales en inglés, 61; 64 cuadrados en un tablero de ajedrez, menos de 64 términos numéricos básicos; menos de 64 rangos militares, etcétera

Otros hitos

• 1960 – George Sperling – Memoria icónica • 1967 – Ulric Neisser – Psicología cognitiva – Modelo computacional para memoria, razonamiento, percepción • 1969 – Modelos de la función cerebelar y de la visión de David Marr  • 1970s – Journals:

Cognitive Psychology, Cognition, Memory & Cognition

David Marr [1945-1980]

• Fundador de la neurociencia computacional • Modelos de procesamiento visual: • Fisiología +IA+psicología • Entender el cerebro presupone entender los problemas que se le plantean y las soluciones que encuentra • Tres niveles de análisis: – El problema que la visión enfrenta (computacional) – La estrategia que puede usarse (algorítmico) – Cómo se realiza de hecho la actividad neuronal (implementacional)

David Marr [1945-1980]

• Proceso visual en tres etapas: – Esbozo primitivo (primal sketch), extrayendo rasgos de componentes fundamentales de la escena (bordes, regiones, etc) – Un esbozo de 2,5 dimensiones. Se reconocen sombras, texturas, etc – Un modelo continuo en 3 dimensiones • Dinámica de aprendizaje/optimización, que anticipa los métodos de los algoritmos naturales**

David Marr [1945-1980]

• “Ley del cuadrado inverso” para la investigación científica: – El valor de un estudio varía inversamente con el cuadrado de su generalidad • Avances en investigación de visión binocular • El libro casi póstumo de Marr es reconocido como la Biblia del MIT de visión de computadora.

• Colin Ware –

Information visualization

• Mallot & Allen –

Computational vision

(2004)* (2004) • Uttal –

Computational modeling of vision

(1999)

Relaciones interdisciplinarias

Tres modelos contrapuestos

• IA “fuerte” - MIT – Artificial – Ligada a computadoras, lógica – Modelo mecánico – Deducción: cálculo de predicados – Newell-Simon, Russell/Whitehead, Frege – Atomismo, racionalismo • Conexionismo – Redes neuronales – Natural – Simulación del cerebro – (Francis Crick)

The astonishing hypothesis

– Aprendizaje, inducción – Modelo estadístico, caja negra

Tres modelos contrapuestos

• Neurociencia computacional* • Modelos computacionales del cerebro o de diversos componentes funcionales • Basado en intuiciones de Andrew Huxley, Alan Hodgkin y David Marr

GOFAI

Inteligencia artificial

• Dificultad de definir consensuadamente “Inteligencia” – Propuesta de Alan Turing  – La inteligencia como medida del IQ (G) – Howard Gardner – Teoría de las múltiples inteligencias – La curva de campana (Charles Murray, Richard Herrnstein - 1994) – Discutido por Stephen Jay Gould en

The mismeasure of man

(nueva edición, 1996) – Todavía no hay definiciones aceptadas – La polémica es hoy explosiva y la antropología no tiene gran cosa que aportar al respecto, pues carece de método comparativo y de capacidad experimental. (Cole & Gay)

La prueba de Turing

• ¿Puede una máquina ser inteligente?

• Sí, si inteligencia se define como la capacidad de engañar a un interlocutor humano.

• Es posible hacerlo durante un corto tiempo.

• Ejemplos: – “George” – Página de Simon Laven – http://www.simonlaven.com

– The Postmodern Generator, http://www.elsewhere.org/pomo • A veces se confunde la Prueba de Turing con la idea de que el cerebro funciona como una Máquina de Turing.

La prueba, Enigma, The Bombe & la Máquina

SHRDLU

• Terry Winograd, 1970

Supuestos comunes a la IA

• La cognición humana comparte características con el procesamiento de información de las computadoras.

• Ese procesamiento es secuencial y serial.

• Consiste en operaciones discretas.

• La memoria es independiente del procesador.

– Propósito general • Las operaciones se pueden describir en términos de reglas como las que caracterizan a los lenguajes de programación.

Allen Newell y Herbert Simon

• Logic Theorist, 1956 – Teoremas de Principia Mathematica • General Problem Solver, 1958 • SOAR, hasta 1990s – Arquitectura general para sistemas inteligentes, todavía activa

Inteligencia Artificial ppd

• John McCarthy, 1958 – Propuso utilizar cálculo de predicados para la representación del conocimiento.

– Los programas deberían ser declarativos, no imperativos (o procedimentales).

– También inventó el lenguaje Lisp.

• Procesamiento de listas recursivas.

– Prefiguró los Application Service Providers en 1960.

• Obviamente no prosperó.

– A principios de los 90s reconoció que se la había ido un poco la mano.

GOFAI

• John Haugeland, 1985 (

Artificial intelligence, the very idea

) – Good Old Fashioned Artificial Intelligence.

• N-S - Sistema [físico] de procesamiento de símbolos.

• Hechos y reglas.

• Modelos de programación lógica.

– Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski, 1972 – Algoritmo de resolución de Robinson • Cálculo de predicados de primer orden.

• Cuantificación universal.

Programación lógica

• PROLOG – Hechos, reglas, preguntas, hipótesis – Reglas: mortal(X) :- hombre (X).

– Hechos: hombre(socrates).

– Pregunta extensional (en consulta): mortal(X).

– Hipótesis: mortal(socrates).

– Las hipótesis tienen la misma estructura de los hechos.

– Las únicas respuestas a una hipótesis tienen que ser si o no.

Aaron

GOFAI - 2

– Sistemas expertos • Base de datos • Máquina de inferencia – Inferencia clínica • Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU • AGENI2 (Reynoso) – Limitaciones del modelo simbólico • No todo conocimiento puede representarse en términos de proposiciones o predicados • Reconocimiento de patrones • Identificación de instancias diferentes de un mismo objeto (firmas, huellas digitales) • Intolerancia a errores o destrucción parcial

Inteligencia artificial

• Aplicaciones antropológicas de IA simbólica – Sistemas expertos de diagnóstico clasificatorio – Modelos axiomáticos de la cultura • Matrimonio Kariera (Kemeny-Snell-Thompson) – Gramáticas culturales • Benjamin Colby – Cuentos Ixil • Análisis funcional del relato (Vladimir Propp) – Lógicas alternativas • Lógica temporal • Lógica no-monotónica • Logica polivalente (Lukasiewicz) • Lógica difusa (Lotfi Zadeh)

Limitaciones técnicas de GOFAI

• Sólo buena para campos conocidos de manera analítica y exhaustiva.

• Poca tolerancia a errores.

• Representación sintáctica, no realmente semántica.

• Reconocimiento de patrones prácticamente imposible.

• Carente de capacidad de recuperación ante destrucción parcial.

• No muy eficiente para implementar aprendizaje.

– El aprendizaje es mayormente inducción.

Descrédito de la IA fuerte

• Promesas no cumplidas – Invierno de la IA desde 1988 • Sistemas expertos exitosos, pero sólo útiles para tareas de diagnóstico – Varios SE embebidos en sistemas operativos • Fracaso histórico del programa japonés de máquinas de Quinta Generación – Proyección original de 5 mil millones de dólares • Prolog no puso soportar la competencia de lenguajes procedimentales, particularmente C++ • Queda como tecnología de nicho para sistemas basados en reglas, cálculos de riesgo crediticio, diagnósticos varios

Conexionismo

Problema no tratable analíticamente

• ¿Cuántos grupos de objetos hay?

Otro más

Fotografía de R. C. James, 1970s

Otro

Procesos diversos

• El cerebro trabaja en el rango de los milisegundos (10 -3 ) y las computadoras en el orden de los nanosegundos (10 -9 ).

• Sin embargo, el cerebro reconoce formas y patrones mucho más eficientemente.

• No es posible que lo haga mediante muchísimos procesos unitarios y secuenciales: no habría suficiente tiempo.

• Trabajos mucho más sencillos (calcular) le insumen tiempos comparativamente enormes.

Redes neuronales

(Presentación separada)

Conexionismo

• Redes de McCulloch – Pitts (1943) – Neuronas como puertas lógicas – Pesos: sinapsis excitativas, s. inhibitorias – Capacidad de computación universal – Máquina de lectura para ciegos, percepción gestáltica • Von Neumann, Winograd – Redundancia en redes de McC-P para tolerancia a errores • Sinapsis de Hebb (1949) – Basado en Ramón y Cajal – Modelo distribuido (hologramático) – Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950) – Reconocimiento de patrones

Conexionismo

• Perceptrones (Frank Rosenblatt) – Entrenamiento para distinción de patrones – Unidades sensoriales y motoras – Aumento o disminución de pesos (conductismo) • Seymour Papert / Marvin Minsky (1969) – Distinción entre T y C, con rotación etc – No pueden resolver XOR y funciones lógicas que requieren más alto nivel de tipificación

Modelos ulteriores

• Redes de Hopfield –

Spin glass

: Problemas de optimización, vendedor ambulante (simulación de templado, AG, etc) – Atrapadas en configuraciones metaestables • Máquinas de Boltzmann – Múltiples capas – Propagación hacia atrás – Kohonen: entrenamiento no asistido – Resolución XOR, T/C – NetTalk: lee y habla inglés – Redes amo-esclavo, filtros de Gabor – Modelos mixtos: AARON

Situación actual

• Situación incierta de IA fuerte – Sentido común: Estructuras, templates, frames, scripts, mapas cognitivos – Dreyfus:

What computers can’t do

(Flores, Heidegger) – 1996:

Deep Blue

vence a Kasparov • Divisiones en el paradigma conexionista (Pinker) – Conexionismo eliminativo: sin semántica ni nivel simbólico – Conexionismo implementacional: representación sub-simbólica – Conexionismo revisionista de procesamiento de símbolos (Escuela de San Diego)

Desarrollos ulteriores

• 1980s: Resurgimiento de la neurociencia con PDP en Escuela de San Diego • 1987: Cognición situada, modelos ecológicos • 1990: Dinámica no lineal • 1990-2000: Cognición distribuida, Modelos basados en agentes

Estado de la cuestión

• Modelo de Izhikovich, igual dimensión que el cerebro 10 10 neuronas.

• Un segundo de simulación insume 50 días en un cluster Beowulf de 27 procesadores de 3 GHz • El modelo exhibe ritmos alpha y gamma y otros fenómenos de interés.

Aplicaciones en Antropología

• Discursivas: Reflexiones de D’Andrade – Los antropólogos suelen hablar de reglas.

– Lo que hay en realidad son conductas.

– En muchos casos que se describen como seguimiento de reglas, puede no haberlas dentro del actor – Sólo redes de ciertas clases.

– También hay un paralelismo con la “respuesta automática” versus la no-automática, de carácter simbólico.

– Gran parte del aprendizaje cultural probablemente sea afin al aprendizaje coneccionista.

Aplicaciones en Antropología

• Maurice Bloch. “Language, anthropology and cognitive science”.

Man

26, 183-198 (1992) • Antropólogo cognitivo de LSE.

• Granjeros Zafimaniry de Madagascar – Decisiones complejas (p. ej. un pedazo de bosque puede ser un buen campo).

• No puede ser resultado de análisis por factores de vegetación, pendiente, entorno, hidrología, suelo, etcétera.

• El modelo folk se resuelve en segundos y no lo podemos comprender bien porque razonamos conforme al modelo de procesamiento simbólico.

• La alternativa conexionista es mejor.

Sobre Maurice Bloch

• Conocido por su enfoque marxista en sus inicios.

• Enemigo de la memética con posterioridad.

• Desarrolla su trabajo en LSE, no tanto en Francia.

• Distingue entre la antropología tradicional y el miasma difusionista (esto es, negación radical del evolucionismo, énfasis en lo individual y lo histórico).

• Después de Mead y Lévi-Strauss, la influencia de la antropología en la vida intelectual se ha esfumado.

• Cuestiona la negación irreflexiva de la naturaleza humana (postura análoga a la de Steven Pinker).

• Léase “Where did anthropology go?” (2005).

Aplicaciones en Antropología

• Modelos de análisis arqueológico de Juan Barceló (Universidad de Barcelona)

Aplicaciones en Antropología

• Damián Castro (Anthropokaos) – Redes de reconocimiento de motivos de arte rupestre

Herramientas conexionistas

Software de redes neuronales

• Java NNS • NeuroSolutions • Rosenblatt • James • Rumenhart • Modelo de Damián Castro

Conexionismo heideggeriano

Conclusiones y Recursos

Conclusiones

• Ningún bando ganó una batalla.

– GOFAI está

órdenes de magnitud

más cerca de ser un modelo aceptable de la lógica humana de lo que las redes neuronales están de ser un modelo del cerebro.

• No hay mapeado directo entre lenguaje y observación: la relación es compleja.

• Las posturas relativistas no se sostienen tan bien.

• No es buena práctica científica enunciar lo que no puede hacerse (caso Dreyfus).

– El señalamiento de lo que no puede hacerse sólo ha impulsado a que se lo haga.

Propuestas de trabajo

• No abordar cuestiones relativas a la polémica GOFAI / Conexionismo al menos que se aprenda seriamente computación avanzada.

– Con los opúsculos de Varela y las monsergas de los morinianos ya hay suficiente información espuria en circulación.

• Explorar recursos y algoritmos en IA y redes neuronales (JavaNNS, etc)

Recursos

Recursos

Recursos

Recursos

¿Preguntas?

[email protected]