Архитектура искусственной когнитивной системы, основанной на ДТИ: Учет эмоциональной компоненты

Download Report

Transcript Архитектура искусственной когнитивной системы, основанной на ДТИ: Учет эмоциональной компоненты

Архитектура искусственной
когнитивной системы
основанной на ДТИ:
учет эмоциональной компоненты
Чернавская О.Д.,
Чернавский Д.С., Карп В.П., Никитин А.П., Щепетов Д.С.
ФИАН, Москва
[email protected]
CHALLENGES =
вопросы (факты), заданные Природой
 2 полушария мозга  ЗАЧЕМ?
  мужчины и женщины  ЗАЧЕМ?

 Каждый Ч индивидуален  за счет чего?
  Эмоции  роль и механизм?
  Интуиция и логика  как они соотносятся?
  В чем конечная цель когнитивной деятельности ?
(= «в чем смысл жизни»?)

? Что есть умный человек?
«» = мы можем ответить, «» - на уровне гипотез, «?» = ???
2
Работы в рамках естественно-конструктивистского
подхода (ЕКП)





Чернавская О.Д., Никитин А.П., Чернавский Д.С. Концепция
интуитивного и логического в нейрокомпьютинге. Биофизика,
2009, т.54, № 6, с. 1103.
Чернавская О.Д., Чернавский Д.С., Карп В.П., Никитин А.П.,
Рожило Я.А.
Процесс мышления в контексте динамической
теории информации. Часть I: Основные цели и задачи
мышления. \\ СС, 2011, №6, с.
Анализ роли понятий образ и символ в моделировании
процесса мышления средствами нейрокомпьютинга. \\CC,
2012; ПНД, 2011, Т. 19, № 6, стр. 5-21
Чернавская О.Д., Чернавский Д.С., Карп В.П., Никитин А.П.,
Рожило Я.А. Калининград
Chernavskaya O.D., Chernavskii D.S., Karp V.P., Nikitin A.P.,
Shchepetov D.S. (2013). An
architecture of thinking system
within the Dynamical Theory of Information. Biologically
Inspired Cognitive Architectures, 6, 147-158.
3
Chernavskaya O.D., Chernavskii D.S., Karp V.P., Nikitin A.P.,
Shchepetov D.S. , Rozhylo Ya.A, (2015).
An architecture of the cognitive system with account for emotional
component. Biologically Inspired Cognitive Architectures, May 4-th
Замечания рецензентов (#9!!):
 О чем идет речь – искусств. система ИЛИ
человек ???
 Зачем две переменные для Э? почему нельзя
положить Z?
 Впечатление: Э  ПП
Но: известны опыты по рассечению , причем
Э проблем люди не испытывают -- ???
4
Часть 1. Архитектура искусственной
когнитивной системы, основанной на
Динамической Теории Информации (ДТИ)
Основная проблема:
КАК на основе анализа динамики одного
нейрона прийти к уровню СОЗНАНИЯ

du i
dt


(u
i
)


Замечание: Выбор математического
аппарат

i 
j
i j
u
j
Искушение: взять к-н известный аппарат и ч-н посчитать
ансамбль осцилляторов
 агентные схемы
 Перцептроны и т.д.
 (гипер)Сети


Динамические уравнения с нелинейным
взаимодействием
ВАЖНО: выбор адекватного матаппарата
зависит от ЦЕЛИ (посчитать ИЛИ понять)
NB: математика = наука о среднем (кроме дин.ур.)
что именно считать???

Основные положения ДТИ
Информация – запомненный выбор одного варианта из n
возможных и равноправных. (Quastler)
 Генерация И – свободный (случайный) выбор. Необходим
перемешивающий слой = случайный фактор
Рецепция И = предопределенный выбор (навязанный извне)
 Условная И – выбор, возникший в коллективе (обществе) в
результате договоренности (условности). Примеры – код, язык.
 Ценность И определяется ее полезностью для достижения цели
 Базовая цель мышления— сохранение, распространение и
создание (генерация) «своей» условной И.
 Определение: Мышление есть самоорганизованный процесс
записи (восприятия), запоминания (хранения), обработки,
генерации и распространения информации.
Важно: запись и сохранение ( генерация и рецепция И) дуальны
(дополнительны). Для решения этих задач необходимы

две разные подсистемы.
Роль условной информации
философское замечание
В обществе = договоренность
В одном организме = личная (индивидуальная)
картина мира = то, как данная система
восприняла внутри себя ту И, которую
получила извне = ….= когнитом =
система реализованных (обучившихся) связей
Основные положения ЕКП
(чем мы «лучше» чем другие)
 континуальное
представление нейропроцессоров =
динамическмй формалный нейон;
 разделение всей системы на две подсистемы – для
генерации и рецепции информации.
 учет случайного фактора («шума»), который
присутствует только в ПП
 неустойчивый характер процесса формирования
символа  результат оказывается непредсказуемым
 индивидуальность
 самоорганизация нейронного ансамбля вместо
детерминированной программы.
Динамический формальный нейрон
(key point #1)
Izhikevich 2007



МкКаллох-Питтс (1943) нейрон = простой сумматор
Хочкин-Хаксли (1952) = сложноя система, 4 дин. ур.
ФицХью-Нагумо (1961) упрощение до 2 диф. Дин.ур.:
Y

V – мембран. потенциал, Y – внутреняя (релаксац.)
переменная Iext – внешний сигнал; ai ,bi – параметры.
Кубичная нелинейность  разные динамические
режимы: spike, spike train, bistable
След. шаг (bi=0, ai) Hopfield (1982) ур.
V
б
Y
V
в
близко к МкП, но позволяет проследить динамику
du i
dt


(u
i
)



i 
j
i j
u
j
Нейрокомпьютинг
Динамический формальный нейрон (ДФН) =
бистабильный элемнт, имеющий активное (+1) и
пассивное (-1\0) стационарные состояния
 Процессор = пластина, населенная ДФН ;


2 типа процессоров:
Hopfield- type = линейная аддитивная ассоциативная сеть
каждый предъявленный объект  pattern активных ДФН =
образ (распределенная память)
Grossberg -type нелинейное конкурентное взаимод. 
локализация образа  символ (сжатие образной инф. )
 Информация существует в форме обученных связей
1. Функции записи (восприятия) и хранения
(запоминания) образной инф.:
два Hopfield-type процессора, обученных по-разному

Н0: пластина первичных образов
 запись
связи  между активными нейронами,
изначально слабые (“серые”), усиливаются
(«чернеют») в процессе обучения (Hebb rule)

Нtyp : пластина типичных образов
 хранение
«информативные» связи постоянны  = 0,
остальные слабеют = работает как фильтр
(оригинальная версия J. Hopfield)
Принцип “почернение связей”:
когда сила связей в образе достат.
велика (над порогом : th) образ
передается Н0Нtyp для хранения
( долговременная память)
2. Формирование символа типичного образа STI

“черный” образ передается с пластины
H typ на пластину локализации G:
 Что-то происходит  выбор
все активные нейроны должны
погаснуть, и только единственный
выживает  STI
 После обучения связей плаcтины G : тот
же образ всегда «сворачивается» в тот
же символ (причем быстро)

“Победитель получает все” =
межпластинные связи  образных
нейронов «переключаются» на
выбранный символ
Математическая модель процессора локализации G
Gi – динамич. переменная,  – параметр; Zk – «шум»
Стационарный состояния: {0} and {1}; взаимод. нелинейне
конкурентное, (знак “”)

 Обучение связей внутри-пласт. ij и меж-пласт. ik:
 Шум необходим для выбора символа  выбор случаен!
символ не должен быть “лучшим”, он индивидуален для
системы
 Специализация символа: обучение параметров k k()
 после формирования меж-пласт. связей символ выводится
из конкурентной борьбы, но получает возможность
участвовать в «кооперативных» (Hebbian) взаимодействиях
Роль символов (key point #2):
внутренняя семантическая (условная!) информация
Сжатие информации (кодирование)
 Коммуникация (язык):
слова соотносятся именно с символами
Осознание образной информации:
сам акт образования символа
означает, что система
проинтерпретировала «клубок»
связей на пластине Нtyp как
паттерн, который имеет смысл,
т.е. относится к реальным
объектам (на рис. –3)

 = семантические связи
 эффект не парных корреляций!
Символы высоких уровней иерархии
формируются после и на основе STI
Символ класса SCl
ряд образов имеющих

общие нейроны

  иерархические семантические
связи
Вынужденные (объективные) =
опосредованные общими образными
нейронами-прародителями
 параметрическое вляние на
образные нейроны Hi = внимание
i i(G+1)
Символы высоких уровней иерархии
формируются после и на основе STI
(key point #3)

Символ concept SCon = “образ-изсимолов” = “абстрактный образ” =
“символьный pattern”
(терминология не устоялась)

 noнятия: не имеют материального
(образного) содержания, но имеют смысл
coвесть, бесконечность, красота..

  абстрактные связи
спонтанные, не опосредованы образными нейронами, создаются самой
системой в процессе ее развития
(«ночь, улица, фонарь, аптека» …)
если они «того стоят» (чернеют)  S (стихи)
Элементарный акт = ячейка всей системы
= принцип «почернение связей»
Уравнения, описывающие все рассмотренные
взаимодействия (базовая модель):
Комментарии к системе уравнений

2 первых набора уравнений – для образных пластин Н0 и Нtyp

3-й набор – символьные пластины G-type
S-инфраструктура: индекс   уровень иерархии;
число не фиксировано и не лимитировано; возникают по мере необходимости
 Символы обеспечивают параметрический эффект:
 (G)  внимание
 ()  прекращение конкуренции (после того, как S сформирован)
Связи = разные типы (уровни) информации:








  образные
  конкурентные, обеспечивают выбор символа
  семантические STI
  иерархические SS (через образные нейроны-прародители)
Ф  абстрактные S S (спонтанные, создаваемые системой)
  взаимодействие подсистем (многочисленные, действуют в зависимости от
решаемой задачи) = аналог corpus callosum

Базовая модель = конкретная реализация требует уточняющих
предположений
Архитектура мыслительной системы (АМ)
Комментарии к схеме
 Система «растет»: уровни инф. разного типа формируются
последовательно – каждый следующий возникает после и на
основе предыдущего (на рис. -- голубая «пила»)



270  вид сверху на «мозг»: от зрит. коры, зоны W, к лобныv долям
Скейлинг: на каждом уровне символы, будучи
сформированы, получают возможность создавать «символьные
образы», которые в свою очередь могут формировать свой
символ (после «почернения» абстр. связей )– так формируется
абстрактная инфраструктура ( символы имеют «руки и ноги»)
Символьная (вербализованная) информация может
восприниматься извне через ЛП – так получаются
семантические знания (эпизодические формируются в ПП)
 На каждом уровне иерархии ПП

выступает в роли Учителя для
ЛП: инф. передается по принципу «почернения связей»
 reduction of Inf.:
часть инф. оказывается “утраченной” (не передается на
следующий уровень) = внутренняя (скрытая) инф.
индивидуальная для данной системы
Интерпретация

Подсознание \\ «underself», неподконтрольное системе
= образы, записанные в Н0 “серыми” связями
out of control (не связанные с к-л символом)
могут быть активированы только шумом (случайно) = insight
 Сознание = степень готовности к мышлению (все, что
происходит в системе, от …)


Интуиция \\ индивидуальное “прямое усмотрение истины (Kant) =
индивид. скрытая информация (включая “серые” образы)

 большинство действительно сосредоточено в ПП
 Логика \\ дедуктивное рациональное (“правильное ”) суждение
 имеет социальный аспект = вербализованные устойчивые
(доказанные) aбстрактные (причинно-следств.) связи
 присутствуют только в ЛП
 вся развитая абстрактная (символьная) инфраструктура
(ПП+ЛП )  мудрость (больше, чем логика)
Оставались вопросы
Каков механизм регуляции связей ППЛП и
ЛПЛП ?
 Как и от чего зависит амплитуда шума Z(t)?



Имеет ли Z(t) специфику = Zi(t) или амплитуда шума -общая во вем ПП?
Как эти факторы могут быть связаны с Э???
Часть 2
Роль и место Э в архитектуре
искусственной когнитивной
системы
ЧТО ЕСТЬ ЭМОЦИИ?

Эмоции (от лат. emoveo – потрясаю, волную) –
эмоциональный процесс средней
продолжительности, отражающий
субъективное оценочное отношение к
существующим или возможным ситуациям.

Эмоции, как и многие другие психические явления, пока слабо
изучены и понимаются разными авторами по-разному, поэтому
вышеприведенное определение нельзя считать ни точным, ни
общепринятым.

Осн. Проблема: Самооценка = уровень
сознания. Что это на «нейонном» уровне ???
Учет Э в других подходах

Концепция «активных агентов» :
 Обучение
с подкреплением
 N дискретных Э состояний участвует в мотивации
 Или «организация Э пространства»: оценка VS ???

Диф. Ур. для 2 переменных “emotio” VS “ratio” :
гомоклинические траектории. Нейрофиз. Интерпретация ???

Графы и сети : как можно встроит Э -- ???

«реинжениринг мозга»: учет роли и функций
структур «старого мозга» = гипоталамус,
ганглии, … --- наиболее близко к цели. Но:


Мат. аппарат = алгебра?
Обучение действию – понятно, другое нет
Разные подходы к формализации Э
2.1 Эволюционный взгляд
 2.2 С позиций психологии
 2.3 С позиций нейрофизиологии
 2.4 Спозиций Динамической Теории
Информации

2.1. С точки зрения эволюции

Э  более древний механизм восприятия окружения 
источник = «старый мозг»

Эмоции представляют собой синтетическую (интегральную)
реакцию, без анализа причин и источников Э побуждений.

Деление на «эмоцио» и «рацио» начинается с того момента,
когда человек приобретает язык (по крайней мере, внутренний,
т.е. развитую структуру символов)
 язык представляет собой временной ряд символов (Шумский 2013),
т.е. рациональное мышление представляет собой последовтельный


способ обработки информации (ЛП??)
естественно предположить, что эмоциональная реакция соответствует
параллельному способу. (ПП??)
Та же специализация предполагается для ЛП и ПП,
соотвественно
2.2. С точки зрения психологии
(«уровень сознания»)


Голдберг: ПП-новая И(Э-), ЛП – хорошо изв И (Э+)
Э можно разделить на прагматические и эстетические:
 ПЭ = связаны с достижением цели 
 оценка удаленности
 средств достижения (Шамис 2006)
 ЭЭ =? -- восприятие произведений искусства, явлений
природы, предпочтение цвета, …
 мода, личные ассоциации, детские впечатления, …
 ??? = «формулы любви» нет и не надо
-----------------------------------------------------------
фольклер: любая неожиданность всегда
вызывает Э (как правило, негативные)
2.3. С позиции нейрофизиологии
Э зависят уровня и состава нейромедиаторов (Н)
 стимулянты (адреналин,…) и ингибиторы (опиаты…)


Продукция Н :
 глобальная (таламус, гиппокамп)
 локальная (на уровне 1 синапса)
Основная проблема: как перейти от продукции Н в 1-м
синапсе к Э = осознанное психологическое
состояние???
 = То же: как от активности 1-го нейрона перейти к
понятию «сознание» ???

Трудно, но не невозможно
2.4. С позиций ДТИ

Разделение Э на
 Побуждающие
= для генерации И (беспокойство,
паника) –условно отрицательные (-) Э
 Закрепляющие = для рецепции И (радость,
облегчение,..) – условно положительные (+) Э

Что первично? = проблема «курица или яйцо»


Э нужны, чтобы стимулировать мыслительный процесс???
Мыслительный процесс порождает Э???
Как это может быть реализовано в мат. модели
искусственной мыслительной системы?
Концепция + гипотезы

Случайное самовозбуждение (шум) в искусственных системах
имитирует эмоциональный фон в системах живых. Свободный
случайный выбор (=генерация информации) имитирует выбор
эмоциональный.

Э = изменение амплитуды шума !?!
 Побуждающие Z/t>0 ~ «отрицат Э»


Закрепляющие: Z/t<0 ~ «положительные Э»
(t)  Z/t:
ЛППП ~ побужд. Э = активация ПП = рост шума
 ППЛП=закрепляюшие Э = передача в ЛП  сниж. шума
 Переменная производная («дрожание Z») = активный диалог
подсистем («мысли мечутся»)

33
Мат модель модель

Система уравнений
для Z(t),  (t), {ik}(t):


Z0 = уровень шума «в
покое»;
 = уровень Н
глобального действия
(возбужд.  тормоз. )
 ik = уровень Н

локального действия
(синтез в 1 синапсе)
F(Z,) = нелинейность
для нетрив. эффектов
34
Аргументы для вида уравнений
В линейном приближении должны обеспечивать
гомеостаз = стремление к стационару {Z=Z0, =0}
 0 определяется внешним воздействием
 «Когнитивная» составляющая dZ/dt :


Невязка в ЛП dZ/dt>0
каждый акт формирования k-го на -м
уровне должен сопровождаться радостью!
(t* = момент окончания формирования символа , см «эл акт»)
 Продукция локальных медиаторов {ik } = обучение
связей
 Уравнение для (t):
 dZ/dt<0:
35
Эффект стресса и шока (экспер. Парина, НН)
Измеряются специфические хар-ки ЭКГ:
 ИВ = индекс вриабельности  Z?
 ИВБ = инд вегетативного балланса   ?
 Нормальный режим: ИВ, ИВБ = колебательный
 СТРЕСС = парадоксальная Э реакция = при нарастании Э

выше некоторого порога все процессы периодически
подавляются НО: потом возврат к норм режиму

ШОК: синтезируются только опиаты+ все физиол
харак-ки стандартизированы ( «шума»- т.е. разброса
в ИВ нет!) = апатия, подавленность при вег. норме
Выход возм. ТОЛЬКО при жестком (медик.) воздействии

Уровень «ненормального» воздействия индивидуален
36
Приложение: модель стресса и шока
«Нормальный» режим =
колебания = устойчив.
фокус
 Стресс: увелич амплитуды с
заходом в глубокие ингиб. НО
послед возвращение (сливание) к
норм. Режиму
Шок : попадание в область
притяж 2-го уст. фокуса
{Z*<0, *<0}
Фиол=сепаратриса

Zmax = предельно-допустимая амплитуда
превышение = срыв
37
Прогноз+ чувство юмора

Прогноз= распознавание процесса во времени 
необходим символ процесса ( минимум 3-ий уровень)
ЧЮ = способность адаптироваться к неожиданным ситуациям и
получать от этого удовольствие
 = неверный (преждевременный)
прогноз, кот. м.б. сразу заменен на верный


анекдот (хороший!) = поток информации, который
допускает определенную трактовку вплоть до t*. Следующий
блок информации должен не опровергать предыдущую, но
выводить на другой конечный образ (тоже хорошо известный).

В терминах Z(t): смех =одновременное повышение
и понижение амплитуды (резкий скачок)
NB! Для ЧЮ необходима развитая система
символов = «умная система»

38
Обсуждение основных гипотез
 Впечатление:
Э в ПП
Не совсем так: ПП = проводниик
 Что если перепилить? -- оба приобр. Z(t) и dZ/dt
 Голдберг: ПП = Э(-), ЛП = Э(+)
Уточнение: Э(+) – возможность использовать только ЛП; Э(-) =
необходмость обращения к ПП
В
чем конечная \\ основная цель когнитивной
деятельности??? ( «смысл жизни»)
J: сжатие информации
 Сенека : стремление к более совершенному состоянию
 ДТИ (Чернавский): генерация, сохранение и
распространение своей условной И == когнитом
 Schmidhuber
Обсуждение основных гипотез (прод)
 Данная
интерпретация Э возможна только в ЕКП:
подсистемы :  = источник самоощущения
 Шум есть НЕ досадные помехи, а полноправный
участник когнитивного процесса
2
 Что

есть шум и КАК мб его отсутствие в ЛП??
Зачем две переменных = почему не Z???
Кроме
 есть {ik} – это НЕ шум
Эксперимент: ИВ
 Z ; ИВБ  
Заключение
Э
в искусственной когнитивной системе
естественно связать с характером ШУМА
 dZ/dt
 Знак!
Либо (+) либо ()
 Различные динамические режимы – сколько угодно ! =
оттенки Э

Z = мост между химией и самосознанием
 действует на каждый нейрон


ощущается как самооценка???
Элементарный акт = формирование кога – должен приводить
к радости
 Возможность
экспериментальной проверки.
 Точечную активность
выявить трудно
 Связь НЕРЕГУЛЯРНОЙ ком-ты с составом крови -- легче
Спасибо за внимание
42
Основные направления

BICA = Biologically Inspired Cognitive Architecture


(SOAR: Laird et al)
Концепция «активных агентов» (Редько)
 Учет
психологических факторов и мотивов
Искус. Интеллект (AI)= как думать ЛУЧШЕ чем Ч
 Теория графов и сетей


Усовершенствование комп. программ для решения
некоторого круга задач («кофеварка»)

«Естественно-конструктивистский подход» (мы):
 Как может думать человек?!?
задачи на сходство\различие объектов
(продолжение)



Полученный ответ верен для данной системы (индивида),
но может быть ошибочен объективно, поскольку способ
записи образной информации индивидуален.
Решение, полученное таким образом, интуитивно: оно
основано на опыте, т.е. картине мира индивида и не должно
доказываться.
вербализованное решение может быть доказано, если для
этого использовать общепринятые понятия и связи — по
сути, это и есть метод «перевода интуитивного знания в
логическое».
44
Выводы из ДТИ
Способность записывать и сохранять информацию
 дуальны (дополнительны); эти функции должны
быть разделены между двумя «подсистемами»
 Для записи (генерация информации) принципиально
необходимо наличие шума= случайного, хаотического
элемента, присутствующего в подсистеме обучения;
 для сохранения и рецепции информации шум не
нужен и даже вреден.


ПП = …+ шум  обучение (интуитивное мышление ?)
ЛП = … без шума  хранение и работа =
связное (логическое?) мышление
45
Запись и хранение образной информации:
два процессора типа Хопфилда, связи по-разному
обученные

Н0: силы связей  между
активными нейронами растут по
мере обучения (= связи «чернеют»),
остальные связи не меняются (правило
Хебба)

Нtyp :: «нужные» связи постоянны,
 = 0, лишние отмирают =
«отсечение ненужного»
(оригинальный вариант Дж. Хопфилда)
«принцип почернения связей»:
при достаточном (над-пороговом,
th) обучении пластины Н0,
образ передается прямыми
межпластинными связями на
пластину Нtyp,
46
Разные уровни «скрытости» (интуиции?)

Серые связи:  «смутные воспоминания»
(случайная инф., не переходит на уровень ТО, не запоминается и
поэтому не может ассоциироваться ни с каким символом ) 
неосознанная и неподконтрольная системе=
подсознание.? (ср. П1)
Активация: только благодаря шуму («вдруг увидеть
внутренним взором») = озарение («инсайт»)
 Черные связи = яркая «картинка» без символа
Активация: анализ, подбор нескольких внутр. символов
 Семантические связи = внутренние символы без слов
Активация: подбор нужных слов разного уровня (понятий и
уточнений).  (часто лень, но всегда возможно)
 Критерий правильности = только внутреннее удовлетворение =
эмоции (ср. И3)
47
«естественно-конструктивистский» подход к
моделированию процесса мышления :
 Нейрокомпьютинг

Теория распознавания

Динамическая теория информации (ДТИ):
Информация есть запомненный выбор одного
варианта из ряда возможных и равноправных (Кастлер)
 2 способа возникновения информации:
генерация = свободный (индивид) выбор
рецепция = выбор, воспринфтый извне
! Они дуальны (дополнительны)  нужны 2 разные подсистемы
 для генерации информации необходим
перемешивающий слой = шум
48
Система уравнений =«ход мысли»
49
Афоризмы

Живое = то, что научилось учиться (Шумский)

Человечество долго смотрело на птицу, чтобы
научиться летать. И построило самолет. Он
замечательно летает, но на птицу ну совсем не похож.
Ученые делятся на ПТИЦ и ЛЯГУШЕК: П
понимают все, кроме деталей; Л – только детали
 Измеряя напряжение на клеммах телевизионной
платы, ТРУДНО вывести уравнение Максвелла.


50
List of references
















Alexandrov Yu.I., Jarvilenhto T. et al. (1993). Activity Versus Reactivity in Psychology and
Neurophysiology. Ecological Psychology, 5, 85-103
Anokhin K.V. (2012). Cognitom: theory of realized degrees of freedom of brain. Proc 5th Int. Conf on
Cognitive Science. Kaliningrad. (in Russian).
Bishop C.M. (2007). Pattern Recognition and Machine Learning. Springer
Bongard M.M. (1970). Pattern Recognition, New York: Spartan Books.
Chernavskaya O.D., Chernavskii D.S., Nikitin A.P. (2009) The concept of intuitive and logical in
neurocomputing. Biophysics, 54, 727-735
Chernavskaya O.D., et al. (2011). On the role of concepts “image” and “symbol” in the neurocomputing
modeling the thinking system. Izvestia vuzov. Applied Nonlinear Dynamics, 19, 21-35. (in Russian).
Chernavskaya O.D. et al. (2012). The Concepts of Intuition and Logic within the Frame of Cognitive
Process Modeling. Biologically Inspired Cognitive Architectures 2012. Proceedings of the Third Annual
Meeting of the BICA Society (A. Chella, R.Pirrone, R.
Sorbello, K.R. Johannsdottir, Eds), 105-107.
Chernavskii D.S. (2000). The origin of life and thinking from the viewpoint of modern physics. PhysicsUspekhi, 43, 151-176.
Chernavskii D.S. (2004). Synergetics and Information. Dynamical Theory of Information. Moscow,
URSS (in Russian).
Chernavskii D.S., et. al. (2011). Mathematical model of image localization processor, LPI Preprints,
No.9 (in Russian)
Deacon T.W. (2011). Incomplete Nature: How Mind Emerged from Nature. New York WW Norton&Co.
Fitz Hugh R. (1961). Impulses and physiological states in theoretical models of nerve membrane.
Biophys. J., 1, 445.
Goldberg E. (2009). The new executive brain. Oxford University Press.
Grossberg S. (1982). Studies of Mind and Brain. Boston: Riedel.
Grossberg S. (1987). The adaptive brain. Elsevier.
51
Haken H. (2000). Information and Self-Organization: A macroscopic approach to complex systems.
Springer.




















Haykin S.S. (2009) Neural Networks and Learning Machines. Prentice Hall.
Hebb D. O. (1949). The organization of behavior. John Wiley & Sons.
Hodgkin A.L., Huxley A.F. (1952). A quantitative description of membrane current and its application to
conduction and excitation in nerve. The Journal of physiology, 117, 500–544.
Hopfield J.J. (1982). Neural networks and physical systems with emergent collective computational
abilities. Proceedings of the National Academy of Sciences, 79, 2554.
Izhikevich E.M. (2007). Dynamical systems in neuroscience: the geometry of excitability and bursting.
MIT Press.
Izhikevich E.M. and Edelman G.M. (2008) Large-scale model of mammalian thalamocortical systems.
In: Proceedings of the national academy of sciences, V. 105, № 9.
Kharkevich A.A. (1960). On the Value of Information. Problemy kibernitiki, 4, 53–57. (in Russian)
Kohonen T. (2001). Self-Organizing Maps. Springer.
Laird J.E. (2012). The Soar cognitive architecture. MIT Press
McCulloch W.S., Pitts W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity.
Bulletin of Mathematical Biophysics, 5, 115.
Muller B., Reinhardt J. (1990). Neural networks. Springer Verlag.
Nagumo J., Arimoto S., Yashizawa S. (1962). An active pulse transmission line simulating nerve axon.
Proc. IRE, 50, 2062.
Penrose R. (1989). Shadows of the Mind. Oxford University Press.
Quastler H. (1964). The emergence of biological organization. New Haven: Yale University Press
Red’ko V.G. (2012) Principles of functioning of autonomous agent-physicist.
Proc. of the Third Annual Meeting of the BICA Society, (A. Chella, R.Pirrone, R.
Sorbello, K.R. Johannsdottir, Eds). Springer,255-256
Samsonovich A. (2007). Bringing consciousness to cognitive neuroscience: a computational perspective.
Journal of Integrated Design and Process Science, 11, 19-30.
Shannon C. (1963). The mathematical theory of communication. Univ. of Illinois Press.
Solso R. (1998) Cognitive psychology (5th ed.). Needham Heights, MA: Allyn and Bacon.
Turing A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460.
52
Wiggins G.A. (2013). Learning and Creativity in the Global Workspace. Advances in Intelligent Systems
and Computing, 196, 57
модель «яйцо-курица»

Система уравнений для Z(t): Z0 = уровень шума «в покое»
53
Современные тенденции
Нейроинформатика -2014 (МИФИ)
 Математика, компьютеры, образование (Дубна)
 Когнитивный сдвиг:

 Нейро-компьютинг
 Формальный
нейрон МакКаллоха-Питтса
 нейро-физиология
 Реальный
– машины ЛУЧШЕ чем человек
– КАК устроен человек
нейрон, Хочкин-Хаксли, Фицхью-Нагумо
сейчас: искусственная система, способная
ДУМАТЬ как человек ,
+ динамический формальный нейрон

“Естественно-Конструктивистский подход
 Теория распознавания

Нейрокомпьютинг, но: концепция
динамического формального нейрона
 Динамическая Теория Информации (ДТИ)

(Haken, 2000, Prigogen, 1997, Chernavskii, 2000)
Свидетельства Природы

2 полушария мозга -- зачем?
ПП  интуиция, ЛП «логика; не совсем так
Goldberg, 2005: ПП  обучение, воспрнятие новой информации
LH запоминание и обработка знакомой информации
 индивидуальность (challenge)
Человек мыслит недетерминировано, часто непредсказуемо и всегда
индивидуально
Заключение

BICA  ИИ: Наща архитектура отличается от этого подхода:
мы пытаемся понять, как ИИ и АМ могут возникнуть.


ИИ м.б. соотнесено с ЛП  для ИИ не нужно 2-х подсистем
Индивидуальность обеспечивается присутствием
случайного фактора в ПП (ЛП тоже инд. поскольку порождено ПП!)
 Основное «достижение» предлагаемого подхода:
начиная с примитивного (но динамического) нейрона 
благодаря самоорганизованному нелинейному взаимодействию
нейронного ансамбля
 появляются различные типы (уровни) информации:
 семантическая (структурированная иерархически)
 абстрактная (не полученная сенсорным путем, созданнаяАМ)
 вербализованная (понятная другим «системам»)
…т.е. «система осознает себя и окружающий мир»
Вербализация: символы-слова SW


Обучение языку – рассм. ранее (матер. МИФИ- 2013)
«словотворчество» в ПП = собственные внутренние
аудио-символы
В обученной системе: слова (W) воспринимаются
непосредственно через ЛП, если есть внутренние
символы того же смысла
 Если слова относятся к образам, не знакомым данной
системе -- они смысла не имеют.
 Абстрактная информация в ЛП = «выводное»
(семантическое) знание, полученное методом
«объяснить словами»

(одно из определений логики = наука о получении выводного знания)

аргумент 1 (глобальный)

неожиданность – неверный или не сделанный
прогноз – всегда является одновременно и
источником Э , и сигналом к изменению глобальной
регуляции, т.е. необходимостью в дополнительном Э
стимуле. Иными словами, в состоянии неожиданности
возникает необходимость обращения к ПП, т.е.
активация связей ЛПЛП .

момент понимания = встраивание новой И в уже
известную = ЛП (=момент истины = момент «ага»,
Wiggins 2012) активирует обратную связь ППЛП .
58
Заключение: непонятные вопросы





Как может влияет продукция нейромедиаторов в одном
нейроне на эмоции, т.е. псих-состояние всего
организма?
Что является «супервайзером» для оценки степени
черноты связей, как внутри-пластинных, так и межпластиных, и связан ли он с Э? Если да, то как?
Что является «триггером» для начала процесса
формирования символа? Связан с Э, если да, то как?
Зачем Н так много??? (~ 4000)
Измерима ли экспериментально величина амплитуды
Z(t)? Измеримо ли ik?
Ответы на эти вопросы позволили бы действительно
понять, как эмоции могут имитироваться в
искусственной мыслительной системе.
(начать и кончить)
59