AI Lab

Open Artificial Intelligence Laboratory

Новая парадигма искусственного интеллекта (постановка задачи)

ЧЕРНОВИК ДОКЛАДА НА КОНФЕРЕНЦИЮ ПО НЕЙРОИНФОРМАТИКЕ

сокращенный текст отправлен в оргкомитет конференции по Нейроинформатике

А. Елашкина, А.Неверов, А. Нечипоренко, П. Смертин и участники обсуждений, которые посчитают, что этот текст касается их собственного направления исследования. Можно добавляться в авторы.

Открытый Проект "Модели мышления"

Скачать краткий текст тезисов (zip,rtf) - здесь представлен вариант, который ушел в оргкомитет Конефренции. Он меньше по объему примерно на треть.

Обсуждается задача создания искусственной среды, моделирующей когнитивные процессы с качеством моделирования выше, чем при современных алгоритмических подходах. Аргументируется, что алгоритмически (при любой комбинации алгоритмов и при внесении случайности любого типа) когнитивные процессы, на самом деле, вообще не моделируются. Это является причиной расходимости в бесконечность вычислительных процессов при решении таких задач как: выделение неизвестных объектов (в частности, распознавание образов), получение эффектов рефлексивности и самоорганизация системы. Выдвигаются технические требования к моделированию среды адекватной ЦНС и когнитивным процессам естественного интеллекта.

Ключевые слова: новая парадигма, модель мышления, самоорганизация, рефлексия, активность, искусственная интеллектуальная среда.

Введение

Идея новой парадигмы искусственного интеллекта (НПИИ) состоит в создании искусственной (физической) среды со свойствами, обеспечивающими специфические системные эффекты. В этой среде за счет дополнения алгоритмических методов моделирования ИИ другими методами, созданными в новой парадигме, предполагается обеспечить повышение качества решения когнитивных задач, таких как индуктивный вывод, понимание текстов на ЕЯ, самоорганизация и рефлексия системы. К существенным особенностям этой среды относятся, например, следующие:

1) Отдельные части среды (на некотором уровне масштабирования) относятся друг другу с нарушением категории часть\целое. То есть, объект А и объект В, сохраняя само-тождественность, находятся в отношении: А принадлежит В и одновременно В принадлежит А. В пределе: часть принадлежит целому, а целое содержится в части.

2) Система взаимодействующих объектов А и В больше, чем их сумма, то есть свойства объекта (АВ) не являются суммой или только объединением свойств объектов А и В.

3) Система взаимодействующих объектов представляет собой взаимодействие потоков, которое нельзя разложить по состояниям, отображаемым на машине Тьюринга (МТ).

В МТ состояния - S и переходы между состояниями – A, являются теми частями, которые образуют целое функционирования машины. В новой парадигме нарушение категории части/целое распространяется и на моделирование процессов: состояние включает переход, а переход включает состояние (S входит в A, а A входит в S).

4) Система в целом и в отдельных ее элементах может одновременно находиться в состояниях полностью противоположных, т.о. нарушается формально-логический принцип запрета противоречия. Например, реализуются одновременно противоположно направленные процессы и/или противоположные состояния, так что противоположности не разнесены ни по месту в системе, ни по времени «жизни» системы.

5) Имеется постоянный циклический процесс (своего рода «ритмическая пульсация» системы), задающий структуру и движение когнитивных актов. Мы полагаем, что мышление человека идет в определенном ритме и нарушение этого ритма уничтожает саму мысль. В когнитивных процессах этот ритм может выглядеть как постоянная смена фона и объекта. Одна мысль для другой (объекта) выступает фоном, потом та мысль, что была объектом, отступает в фон. Здесь является важным то, что процесс идет не по кадрам, а в один и тот же момент присутствуют оба момента – и прошлый и будущий, и объект и фон.

В современных компьютерах категория часть\целое полностью определяет все процессы, нарушение в них этой категории не допустимо. Поэтому в компьютерах целое всегда равно сумме своих частей и системные эффекты при работе с информацией в компьютерах отсутствуют. Когнитивные акты (с соответствующими системными эффектами) происходят в мышлении программистов, и в машину заносятся уже в преобразованном виде, в виде следов работы ЕИ: постановленных задач, алгоритмов решения, критериев эффективности решения, параметров работы, вносимых в систему извне, интерпретации результатов и т.п. Сам же механизм ЕИ (обеспечивающий понимание текстов, распознавание образов, индуктивный вывод, рефлексию и т.п.) включает в себя единство противоположностей и нарушение категории части\целое.

Попытка моделирования указанных свойств среды с помощью частично рекурсивных функций, к которым, как было показано Геделем [32], сводятся все численные методы сталкивается с достаточно серьезными затруднениями.

В настоящее время в различных дисциплинах предпринимаются попытки рассматривать и учитывать системные эффекты, подобные указанным выше. Наиболее известно такое научное направление, как синергетика [19], которая исследует математические модели динамических систем. Отметим, что теоретические результаты в синергетике получают, как правило, путем численного расчета математических моделей, подменяя расчетными моделями реальные процессы. Однако на этом пути невозможен принципиальный выход за рамки алгоритмических методов.

Мы предполагаем, что возможен принципиально иной подход, выводящий к новой парадигме. Создание булевой алгебры привело к выработке математического понятия пространства булевых функций. Цифровые компьютеры - это искусственная материальная среда, реализующая пространство булевых функций, с помощью которых пользователи компьютеров, в конечном счете, моделируют мышление. Однако реальное мышление реализует не булево пространство, а множество когнитивных актов. Таким образом, решение проблемы состоит не в том, чтобы конструировать модель мышления из математики, булевой алгебры и существующих логических исчислений, а в том, чтобы конструировать математику, логические исчисления и прочие знания из тех элементов, которые реализуют мозг, т.е. из когнитивных актов. Следовательно, нужно создать пространство когнитивных актов с некоторой структурой, которое можно реализовать в виде искусственной материальной среды (нейрокомпьютер) и которое будет не кодировать знания, а отображать их, подобно живому мозгу. Иначе говоря, пройденный ранее путь с созданием булевого пространства и пр. необходимо повторить на качественно ином уровне. [6]

Мы полагаем, что создание материальной искусственной среды подобной указанной выше, должно обеспечить большую степень соответствия ЕИ, нежели существующие попытки моделирования интеллекта на современных цифровых системах.

Модельная реализация среды с указанными свойствами может осуществляться за счет:

а) моделирования из элементов (физических и/или химических объектов) на “лабораторном столе”;

б) соединение физического моделирования с компьютерным моделированием;

в) создание нейрочипа, совместимого с компьютером.

Поясним возможность моделирования “на лабораторном столе” следующей примитивной аналогией. Свойства 1-5, на наш взгляд, будут обеспечены, если удастся совместить в системе способность одновременно, как минимум, к двум типам движений, например механическому и электромагнитному. Рассмотрим систему, способную оценивать нарушение своей целостности и восстанавливать свое целостное состояние. Пусть система состоит из колебательных контуров, поставленных на колеса, и источника энергии. Динамика системы определяется ее общим электромагнитным полем и процессами механического перемещения колебательных контуров. Определенный подбор параметров системы обеспечивает возникновение системного эффекта сохранения целостности: при попытке механически вытянуть одну из “машинок” далеко за границы системы, остальные “машинки” начинают ее “возвращать” изменением своего движения и тем самым перестройкой электромагнитного поля. Внешне эта модель может напоминать детскую игрушку с элементами активности и самоорганизации.

Обращаем внимание, что системный эффект здесь направлен не на переход к иному аттрактору в фазовом пространстве, а на динамическое сохранение и воспроизведение системой себя. При этом, по нашей гипотезе, механизмы устойчивости в подобных системах иные, чем обратные связи гомеостатов.

На примере данной аналогии видно, что в искусственной интеллектуальной среде функциональные уровни управляющий и информационный (организационный и содержательный) с одной стороны совпадают физически, а с другой, реализуется каждая из указанных функций.

1. Парадигмы ИИ

Прошлая, полностью состоявшаяся на сегодня парадигма ИИ построена а) как реализация в материальной среде операций булевой алгебры б) как реализация тезиса Черча-Тьюринга о том, что «любую интуитивно понятную задачу можно алгоритмизировать» [33, 36]. В целом эту парадигму можно назвать алгоритмической [1, 2, 12, 13, 18, 24, 29]. Объекты природы, социальные явления, операции мышления моделируются алгоритмами и при реальном обсчете на компьютере сведены к рекурсиям [32]. Использование вероятностных методов, теории игр, вычислительных методов при решении систем дифференциальных уравнений и пр. математических моделей (включая и существующие сегодня формальные нейронные сети) приводит к иллюзии, что, во-первых, удалось уйти от механистической детерминированности, а, во-вторых, с приемлемой точностью смоделировать любые реальные процессы. Идеологами и основными исследователями состоявшейся парадигмы стали А. Черч, А. Тьюринг, С. Клини, А. Марков, А. Колмогоров и многие другие [27, 36, 23, 29, 15, 16].

В данный момент мы наблюдаем сосуществование прошлой парадигмы с попытками отхода от нее в сторону цифрового моделирования динамики, самоорганизации и рефлексивности систем. Назовем это текущей парадигмой ИИ. В ней ставятся цели, выходящие за рамки предыдущей парадигмы, а также предпринимаются попытки выйти за ограниченные рамки алгоритмического подхода, используя, однако, алгоритмы как ведущее средство. Предполагается, что привнесение стохастических процессов, прежде всего случайных по времени транзакций между параллельными вычислительными процессами (подобно сети интернет) создает качественно новый системный эффект, с возможностью выхода в пространство невычислимых функций. Эта парадигма не является завершенной, исследования в ней активно ведутся на данный момент [26, 19, 22, 35, 34, 37].

Обсуждая текущую парадигму как в целом метод построения динамических систем, необходимо отличать реальную динамическую систему от формальной динамической системы. Формальная динамическая система является системой дифференциальных уравнений, удовлетворяющей условию единственности решения. Замкнутые кривые в фазовом пространстве соответствуют периодическим решениям системы дифференциальных уравнений. Качественное описание формальной динамической системы предполагает выделение притягивающих и отталкивающих точек фазового пространства. Существенными моментами поведения реальной динамической системы являются состояния соответствующие изменению качественного описания. Момент возникновения нового качества в теории формальных динамических систем называется бифуркацией, которая определяется как малое изменение параметров дифференциальных уравнений описывающих формальную динамическую систему. При этом постулируется, что этот малый скачек изменений параметров в моменты бифуркаций происходит случайно.

Иначе говоря, формальная динамическая система представляет собой множество автоматов (с непрерывным или дискретным временем). В положении равновесия формальная динамическая система описывается одним определенным автоматом. В момент бифуркации происходит случайный переход от одного автомата к другому автомату. Такой подход может быть удовлетворительным при описании и объяснении простых реальных динамических систем, но он недостаточен при моделировании таких явлений как мозг, поскольку случайность не может быть источником сложной самоорганизации и возникновения жизни (вероятность такой последовательности случайных событий практически равна нулю). Кроме этого автомат не может обеспечить реализацию процесса мышления и рефлексии. Это означает, что формальное описание реальных динамических систем не объясняет работу мозга. Поэтому моделирование формальных динамических систем на компьютере (не только на дискретном, но и на непрерывном) не может служить основой для моделирования интеллекта.

Мы считаем возможным, не дожидаясь исчерпания всего потенциала текущей синергетической парадигмы, начать переход к новой парадигме ИИ. Основа­ниями для такого решения служат результаты исследований логики ЕИ и исследование оснований алгоритмической парадигмы.

Мы полагаем, что соотношение «парадигм» реализует принцип соответствия. Т.е. алгоритмический подход должен быть выводим из новой парадигмы. Применительно к мышлению это означает: не конфигурации алгоритмов порождают когнитивные процессы, а наоборот, модель когнитивных процессов, на разработку которой претендует новая парадигма, должна быть порождающей для алгоритмов.

2. Ограничения алгоритмических методов

Ограничения методов прежней и текущей парадигм проявляются в низкой эффективности моделирования решения следующих задач.

2.1. Машинное понимание текстов.

Распознавание смысла текстов на естественном языке - одна из актуальных задач ИИ. Оценка существующих результатов в этой сфере зависит от позиции эксперта. Задачи на семантический анализ текстов различаются, но в целом близко подходят к задаче построения (или доопределения уже имеющейся) “онтологии” - модели объекта, описанного текстом и “стоящего за” словами. Это предполагает необходимость выявлять группы слов и их отношений, соответствующих разным объектам и разным процессам некоторой предметной области. Анализ ведется на многих уровнях – от морфологического до семантического, категориального и тема-рематического. Анализатора текстов, настолько хорошего, чтобы он занял место на рабочих столах массы пользователей, на сегодня нет.

Опишем кратко причины такого положения дел. Создателям анализатора текста приходится вводить в программу большое количество шаблонов, задающих “онтологию” предметной области, при этом заранее предполагается, какие смыслы вообще могут быть обнаружены. Алгоритм осуществляет поиск в тексте соответствия тому или иному шаблону. Алгоритм может быть итерационным – с возвратом, к уже полученным результатам и переопределением их; критерием сходимости считается степень (число) совпадения признаков с заложенными образцами.

Проблемой является построение качественно нового шаблона, Если новый шаблон конструировать как комбинацию имеющихся, то встает трудность получения осмысленной комбинации. Чтобы комбинация применительно к данному тексту была осмысленной, нужно уже распознать смысл текста, однако именно для такого распознания ведь и нужен был новый шаблон. Если же качественную новизну понимать как порождение шаблона, выделяющего в тексте исходно не заложенные разработчиками признаки (параметры), то такое порождение недостижимо комбинированием имеющегося, и именно оно не поддается алгоритмической реализации. Человек же, имея некоторые запасы знаний о предмете, при чтении текста способен построить совершенно новый набор аспектов понимания предметной области – получить знание, которого у него заранее не было и которое не сводится к комбинации фрагментов, признаков ранее имевшихся знаний.

То, что понимание текста представляется парадоксальным, можно пояснить следующим рассуждением. Гипотеза о смысле всего текста (конечно, опирающаяся на наличные знания) появляется уже при знакомстве с первым фрагментом текста (А). Следующий фрагмент (В) понимается на основе гипотезы (А). Но, т.к. целью является не восстановление смысла отдельных фрагментов, а целостный смысл всего текста, то фрагмент (А) должен получить новое определение на фоне (В). Но и фрагмент (В) после нового понимания тоже должен будет измениться. Т. о. возникает парадокс определения по кругу: смысл (А) определяет смысл (В), но сам, в свою очередь, определяется через (В). И так по всем фрагментам текста. У ЕИ при понимании текста определяемое становится определяющим, что и позволяет собрать целостный смысл текста и избежать бесконечных итераций.

Такое же положение дел мы можем обнаружить не только на уровне семантики, но и внутри грамматического анализа, а также и на связи семантики с грамматикой. Обычно при компьютерном анализе текстов грамматический разбор предложений используется как основа для семантического анализа. Однако для того, чтобы выделить словосочетание (например, подлежащее и сказуемое) надо знать, в какой форме стоит слово (например, в каком падеже), но, так как при одном и том же написании слово часто имеет несколько падежей, для определения его падежа надо знать в какое словосочетание оно входит; и вообще – структура предложения определяется словоформами и, наоборот, словоформы часто определяются только из уже известной структуры предложения. Налицо логический круг: словосочетание определяет падеж слова, а падеж определяет словосочетание. Сталкиваясь с ситуацией круга внутри грамматического анализа, разработчик обычно начинает привлекать семантический уровень обработки текста. Но при этом попадает в новый круг: грамматика определяет семантику, но и сама нуждается в семантике для полноценного грамматического анализа предложений текста.

При алгоритмическом моделировании физических процессов достаточно добиться схождения итерационного ряда к малой окрестности, численно сопоставимой, например, с погрешностью измерений. В случае же понимания текстов аналоги такой численно малой окрестности проблематичны: один единственный неудачно определенный признак из тысячи может обусловить совершенно неадекватное выделение смысла. В области когнитивных процессов нужна не численная близость к заданному пределу, а близость семантическая – то есть подобие форм мысли автора и формы восстановленной в понимании, – которая не характеризуется только количеством совпавших грамматических или семантических признаков.

Выделенные логическое парадоксы понимания текстов говорят о том, что и язык и когнитивные процессы устроены принципиально иначе, чем это представляется при алгоритмическом описании.

2.2. Определение (познание) неизвестного объекта

Вопрос об определении неизвестного объекта является одной из самых фундаментальных проблем ИИ, имеющей отношение ко многим прикладным задачам, таким как распознавание образов, индуктивный вывод, классификация, автоматическое понимание текстов, обеспечение рефлексии и самоорганизации в системе [18, 22, 34, 35, 37, 40, 41].

В общей постановке вопрос можно сформулировать так: в потоке неформализованных, меняющихся данных необходимо выделить объекты (хотя бы один), отличить объект от фона, от всего иного.

В основании прежней парадигмы, опирающейся на формальную логику и алгоритмический подход, лежит некритически принятое допущение: познание всегда имеет дело с готовыми отдельными объектами с определенными признаками. Когнитивные процессы моделируются, во-первых, детектированием признаков и, во-вторых, последующей обработкой полученных данных, Эта обработка заключается в сопоставлении данных от детекторов – кластеризации, классификации, типизации, на этой основе отнесение данного единичного объекта к общему классу или типу, а также идентификация объекта как единичного представителя класса или типа. В-третьих, классы или типы должны строиться самой системой ИИ за счет процедур обобщения – кластеризации, индуктивного вывода, и пр..

В попытках выйти за рамки текущей парадигмы некоторые исследователи предполагают, что динамическая система, возникающая при взаимодействии параллельных вычислительных процессов, может эмерджентно перейти в новое качество и образовать новый объект или новые признаки классификации. Принципиальным вопросом при этом является сохранение единства и целостности моделируемого когнитивного процесса. А именно, вопрос о том, как возникающее новообразование позволяет продвинуться в решении определенной задачи. Ведь для задачи важны не любые “скачки мысли”, не любые “ассоциативные связи”, не “хаотичные попытки”, а обнаружение новых существенных отношений в том предмете, который был положен с самого начала – в предмете задачи.

Построение эффективных алгоритмов указанных когнитивных процессов до сих пор является проблематичным. Эффект достигается либо сужением задачи и “настройкой” системы на определенный ограниченный вид данных, либо расширением системы ИИ за счет постоянного участия человека (в ролях постановщика задачи, эксперта, алгоритмиста), который “извне” привносит шаблоны классификации или типизации.

С логической точки зрения проблема определения неизвестного объекта состоит в парадоксе, с которым, например, столкнулся позитивизм: всякая эмпирическая процедура имеет теоретическую «нагрузку». Иными словами, чтобы эмпирически выделить общие существенные признаки, необходимо имеет дело с множеством исследуемых объектов, но очерчивание границы множества возможно, в свою очередь, только при знании общих существенных признаков объектов. Эта же проблема воспроизводится на уровне простой детекции: из фона поступающих данных нельзя выделить те, что относятся к определенному объекту, если нет соотвествующей обобщенной маски объекта, но для автоматического построения подобных масок система ИИ сама должна вырезать нужные данные из фона – потока всех данных.

В указанной проблеме есть две предпосылки. Первая состоит в допущении, что объекты заданы заранее, что они обособлены и имеют набор признаков. Но в случае, когда интеллектуальная система имеет дело с потоком быстро меняющихся и плохо формализованных данных нельзя говорить о готовых, отдельных объектах, определенных заранее заданными параметрами. Объект когнитивных операций (понимания, мышления, а также и ощущения и пр.) определен только тогда, когда он имеет свои границы, отделен от других объектов – от всего иного по отношению к нему; при этом сам когнитивный акт должен содержать и объект, и то, что ему противопоставлено. Нельзя первым тактом увидеть объект, вторым – фон, а третьим их соединить, поскольку без второго и третьего действия первое невозможно. Обе противоположности должны присутствовать в едином когнитивном акте, а не в разных. Иной механизм уводит нас в дурную бесконечность, либо требует, чтобы это соединение проделал кто-то заранее, и значит, не предполагает порождения знания внутри самой системы.

Вторая предпосылка заключается в том, что при формально логическом понимании когнитивных процессов процедура выделения свойств объекта и процедура подведения конкретного объекта под общий образец (шаблон) выступают как разные, отдельные процедуры. Парадокс же разрешим только если принять, что ЕИ в одном акте мысли соединяет обе «стрелки»: вверх – индукция, абстрагирование и обобщение, «вниз» – дедукция и подведение под образец. Человек мыслит в одном объекте противоречие, например, множественность (частные случаи) и единство (общее понятие) одномоментно, в «одном кадре». И именно наличие таких актов позволяет потом переходить к отдельным их моментам – дедуктивному и индуктивному выводу. Чтобы человек высказал суждение – «это яблоко», он должен одновременно, а не последовательно, удерживать в мысли и одно яблоко и все, потенциально бесконечное, множество яблок, принадлежащих одному роду «яблоко». А иначе никто ничего не мог бы ни помыслить, ни назвать.

Вопросы рефлексивности и самоорганизации системы ИИ также тесно связаны с рассмотренной проблемой. Рефлексия состоит в том, что система в некотором своем элементе отражает саму себя целиком, и на этой основе система производит переопределение себя. Отражается ли при этом анализирующая часть системы, которая осуществляет процедуру отражения? Если анализирующая часть анализирует все остальное, но не саму себя, то налицо не рефлексия, а анализ одной системы со стороны другой. Подобное происходит, например, при моделировании рефлексии рекурсией, поскольку в рекурсивном обращении функция в одном состоянии обращается к функции такой же по виду, но реально – в другом состоянии; фактически налицо вызывание одним алгоритмом другого алгоритма, а не самого себя. Если анализирующая часть обособлена, она оказывается вне зоны управляющего рефлексивного действия, перестраивающего систему. При этом целостность системы оказывается под вопросом. Даже если анализирующая часть характеризуется количественной малостью, в когнитивных процессах значимы структурные (качественные) различия между частями системы, преодоление которых не удается осуществить итерациями взаимных отражений. Можно видеть, что указанные трудности тесно связаны с вопросами о том, каким образом система отделяет себя от всего иного (внешних объектов, окружающей среды и пр.), как в системе обособляется анализирующая часть и как осуществляется ее возврат в целостность системы.

Для разрешения логических парадоксов, встающих при рассмотрении этих вопросов, мы вынуждены допускать одновременные, в одном когнитивном акте, объединение и различение объекта и его фона.

2.3. Границы применимости алгоритмического подхода

Неэффективность решения рассмотренных выше задач алгоритмическими методами проявляется, прежде всего, в расхождении вычислительных процедур. При попытке алгоритмического моделирования когнитивных процессов возникают многочисленные логические круги (см. п.п. 2.1., 2.2.), разрешение которых рекурсией (итерациями) приводит к экспоненциальному росту объемов вычислений.

Как это ни удивительно, но в предметной области “Искусственный Интеллект” совершенно нет теоретических обоснований того, что ИИ в принципе возможен. При этом под “Искусственным Интеллектом” в последнее время стал пониматься исключительно “Компьютерный Интеллект”. Единственным “обоснованием”, на который опирается вера в возможность создания “Компьютерного Интеллекта” является т.н. тезис Черча – Тьюринга: “любой интуитивный алгоритм может быть представлен вычислительным алгоритмом”. Из этого делается еще более смелый вывод: “Все способности мозга являются алгоритмом”. Утверждается, что этот тезис невозможно доказать или опровергнуть.

Поводы для предварительных сомнений в справедливости упомянутого тезиса содержатся уже в двух теоремах Геделя о принципиальных ограничениях формальной арифметики. Первая теорема утверждает, что если формальная арифметика непротиворечива, то в ней существует невыводимая и неопровержимая формула. Вторая теорема утверждает, что если формальная арифметика непротиворечива, то в ней невыводима некоторая формула, содержательно утверждающая непротиворечивость этой теории. Из этих теорем можно сделать вывод о невозможности полного самоописания формальной системы [15, 18, 32, 37, 38]. Анализ оснований доказательства теорем Геделя позволяет предположить, что ограниченность алгоритмического способа решения задач, с которой реально сталкивается практика компьютерного ИИ, возникает именно в случаях, когда необходима рефлексия (самоорганизация) системы и именно потому, что рефлексия подменяется рекурсией.

3. Специфика работы живой нейронной сети

Все проведенные нами рассуждения оказываются чисто логическими. Для того чтобы акцентировать их значимость и для физической реализации среды с особыми свойствами, укажем на несколько особенностей работы живой нервной системы, которых нет у искусственных нейросетей, составленных из «формальных нейронов».

Модели «формальных нейронов» игнорируют присущие живой клетке собственные реакции на раздражение, каким несомненно является вызванный постсинапсический потенциал.

Искусственные нейросети пассивны – основаны на примате «сеносоров» над «эффекторами». Однако функционирование реальной нервной ткани является сложным единством противоположностей: активности и пассивности [17, 20, 30, 34]. Центральная нервная система в целом функционирует как единство противоположных процессов: рефлекторных процессов, реакций на раздражители, и активных, "контр-рефлекторных" процессов.

Если примитивную систему из двух нейронов «аффекторный -> эффекторный» можно рассматривать как детерминированное взаимодействие, реализующее безусловный рефлекс, то встраивание интернейрона создает новое системное качество. Теперь схема выглядит так: «аффекторный нейрон -> интернейрон -> эффекторный нейрон». Вставка третьего нейрона (и больше) трансформирует жесткую связь стимула и реакции в гибкую связь, варьируя раздражители, т.е. "подбирая" к той же реакции другие раздражители. При значительном увеличении числа интернейронов становится возможным "опрокидывание" связи реакции с раздражением и превращения ее в противоположную связь "сенсоров" с "эффекторами", а это уже совсем другое качество. Система «сенсоры» -> «эффекторы» хороша как часть рефлекса. Сама же по себе, в виде пассивной нейросети, малоэффективна – для неё любые воздействия равнозначны случайным, хаотическим. Превосходство активной центральной нервной системы – во взаимодействии системы «эффекторы» -> «сенсоры», добывающей информацию среды, с системой «сенсоры» -> «эффекторы», анализирующей информацию. Развитие и усложнение взаимодействия этих систем имеет потенциал к выработке информации самостоятельно, без жесткой зависимости от взаимодействия ЦНС с организмом и средой.

Следует подчеркнуть, что на материале нейронной ткани реализуется такая функционально-динамическая система, в которой каждый элемент определяется каждым и в свою очередь определяет каждый. Возникает “голографический эффект” [20]: целое больше суммы частей и часть воспроизводит все целое. Кроме того, нарушается закон запрещения противоречия и реализуется единство противоположностей: определяющего и определяемого, активного и пассивного, актора и объекта.

Центральная нервная система - функциональная среда, существующая вся целиком. А какие-то отдельные структуры нейронов, например, рефлекторные цепочки (разомкнутые и замкнутые) - порождаются всей нервной системой. Воздействия же на ЦНС извне и самой ЦНС вовне являются только условиями для возможности реализации отдельных структур. Иначе говоря, образование и перестройку структур межнейронных связей следует рассматривать как эффект, целиком подчиняющийся логике единой нервной системы [20].

Важным является вопрос о том, как же мы можем наблюдать противоречивое состояние системы и нарушение в ней категории часть\целое. Мы наблюдаем пока только то, что человек умеет делать индуктивный вывод, вырезать объект из фона, понимает текст. При попытке восстановить за этим явлением сущность, продумать механизм мысли, которая дает такие результаты, мы приходим к выводу о том, что в механизме должен быть реализован принцип единства противоположностей.

4. От логики алгоритмов к логике когнитивных актов

Мы полагаем, что описанные особенности механизма реализации интеллектуальных операций и некоторых базовых операций нейронной сети не разрешимы рекурсивно.

В работе машины Тьюринга (МТ), которой эквивалентен любой алгоритм, четко разделены состояния ячеек ленты (операнды) и процедуры (операции), считывание информации («сенсоры») и запись информации («эффекторы»). Поэтому любые реальные процессы, моделируемые МТ (и компьютером) всегда представлены как набор дискретных состояний и переходов между ними, даже если времена переходов ничтожно малы, а колоссальное число дискретных единиц «практически» создает эффект непрерывности.

Количественная малость, отличающая характеристики цифровых моделей процессов от характеристик процессов реальных создает иллюзию о качественной близости, эквивалентности и даже тождественности модели и реальности. Однако качественное отличие остается и дает о себе знать при составлении дифференциальных уравнений в перекрестных членах, которые не могут быть рассчитаны, но отбрасываются в силу своей малости, в квантовых эффектах единства волны и частицы, в нейронных эффектах единства активности и восприятия. А также в логических парадоксах, которые были описаны выше в п. 2.

Фундаментальным основанием МТ и алгоритмического подхода является категория части\целое, согласно которой целое равно сумме частей и системный эффект – целое больше суммы частей – принципиально отсутствует. При попытках алгоритмического моделирования когнитивных процессов возникают противоречия и логические круги, описанные выше. Противоречия не могут быть разрешены именно потому, что системный эффект, которого пытаются добиться алгоритмическими средствами, не заложен в фундаменте этих средств. Более того: то, что противоречия в рассмотренных нами задачах выглядят для нас как логические круги, обусловлено тем, что когнитивные процессы мы описывали как «интуитивные алгоритмы» – в виде последовательно выполняемых действий. Мы полагали, что объекты задачи циклически определяют друг друга, но тем самым объекты мыслились нами как уже отделенные друг от друга, как некоторые самостоятельные части целого. Однако разрешение противоречий возможно только за счет изменения парадигмы нашего инженерного мышления – преодоления категории части\целое. Должен быть сделан переход в самом фундаменте – к такому когнитивному акту, в котором нарушается действие категории части\целое. В этом акте объекты существуют одновременно и в их единстве, и в их раздельности. При этом сама идея циклических процессов останется, но будет переопределена.

Поэтому в новой парадигме ИИ алгоритмы, реализованные на цифровых компьютерах, должны быть дополнены когнитивными процессами, моделируемыми материальной активной средой. При этом должна возникнуть альтернатива самому принципу работы МТ и архитектуры фон Неймана. В активной среде вместо тактов работы процессора с данными 1 и 0 должна реализовываться элементарная когнитивная единица самоорганизации, самодействия или, иначе, элементарный когнитивный акт, заключающий в себе единство противоположностей: операнда и операции, восприятия и воздействия.

Такая постановка задачи, предполагает построение и нового аппарата математики – математики системного мышления, а также инженерное создание искусственных активных сред (например, физических, физико-химических и т.п.), в которых реализуется указанный элементарный когнитивный акт.

Опытно-конструкторская реализация указанных идей может опираться на имеющие прототипы: аналоговые (в том числе квантовые) вычислительные устройства. Однако все известные до сих пор аналоговые устройства специально конструировались исключительно для воплощения алгоритмических процессов и содержат в себе все родовые недостатки алгоритмичности, о которых говорилось ранее. Планируемые нами НИОКР направлены на проверку гипотезы о том, что элементарный когнитивный акт может быть смоделирован в физической среде, элементы которой генерируют электромагнитную волну, перестраивающую, в свою очередь, возбуждающую ее электроцепь. Ансамбль элементарных когнитивных единиц, взаимодействующих между собой, должен стать основой для функциональных динамических структур, моделирующих когнитивные процессы. Этот ансамбль можно рассматривать как аналог нейронной сети, в которой волновые процессы и функциональные структуры обуславливают возникновение связей между нейронами, а структура синапсических связей и дендритных взаимодействий обуславливает функционально-полевые процессы. Указанная система должна проявлять свойство самоорганизации и самообучения и при этом быть разомкнутой на “внешнюю среду” в виде сигналов от цифровых электронных устройств и (посредством этих сигналов) от человека.

Заключение

Целью новой парадигмы ИИ является разработка систем, способных получать решения «за рамками» взаимосвязанных утверждений: «если решение существует, оно может быть алгоритмически получено», и «алгоритмически полученное решение – существует, т.е., является решением». Нужно научиться получать неполные решения (такие, которые сами по себе не являются решениями, но становятся решениями, будучи дополнены), частные решения (те, верность которых не может быть проверена иначе, чем результатами исполнения решения), комплексы решений (т.е., многосторонние решения, при взаимодействиях), и другие столь же нетривиальные виды решений.

В новой парадигме ИИ система может изменять решение задачи в процессе решения задачи. Иначе говоря, изменять постановку задачи, оценку ее решения и исполнение решения – в самом процессе решения, что означает совмещение решения задач с их постановками, с оценками и с исполнениями решений, а также совмещения решений разных задач в общем процессе.

Предполагается, что при этом удастся добиться большей эффективности решения интеллектуальных задач ИИ, чем это позволяют сегодня сделать цифровые компьютерные системы.

Литература

1. Алферова З.А. Теория алгоритмов. М, 1973;

2. Апокин И. А., Майстров Л. Е., Развитие вычислительных машин, М., 1974;

3. Богданов А.А. Тектология: Всеобщая организационная наука. В 2-х кн. М., 1989;

4. Витгенштейн Л. Философские работы. Замечания по основаниям математики. Пер.с нем. М., 1994, ч.2., кн.1;

5. Жуков Н. И. Философские основания математики. Минск, 1990;

6. Елашкин В. Н. Концептуальное описание модели нейронной сети. // Труды ВЦ СО РАН. Информатика, Новосибирск: 1994. С. 122-137.

7. Елашкина А.В. Некоторые критерии интеллектуальных систем // Философия науки, № 1(32). — Новосибирск, 2007.— С. 102-128.

8. Клайн М., Математика. Утрата определенности. Пер. с англ. М., 1984;

9. Клайн М. Математика. Поиск истины. Пер. с англ. М., 1988;

10. Клини С. К., Введение в метаматематику, пер. с англ., М., 1957;

11. Коэн П. Дж. Теория множеств и континуум-гипотеза. M., 1969. Глава 1. Основы математической логики;

12. Мальцев А. И., Алгоритмы и рекурсивные функции, М., 1965;

13. Мальцев А.И. Алгоритмы и вычислимые функции. М., 1986;

14. Манин Ю.И. Вычислимая и невычислимое. М., 1980;

15. Марков А.А., Нагорный Н.М. Теория алгорифмов. М., 1984;

16. Марков А. А., Теория алгорифмов, М., 1954;

17. Марр Д. Зрение. Информационный подход к изучению представления и обработки зрительных образов / Д. Марр; Пер. с англ. Н.Г. Гуревич. – М.: «Радио и связь», 1987.– 400с.

18. Нагель Э., Ньюмен Д.Р. Теорема Гёделя, М., 1970;

19. Новое в синергетике. Новая реальность, новые проблемы, новое поколение (Информатика). Малинецкий Г.Г. (Ред.). М.: Наука, Наука-М. 2007.

20. Прибрам К., Языки мозга, М., 1975;

21. Роджерс X., Теория рекурсивных функций и эффективная вычислимость, пер. с англ., М., 1972;

22. Сёрл Дж. Разум мозга - компьютерная программа? В мире науки. 1990. 3. С.7-13.

23. Тьюринг А., Может ли машина мыслить? М., 1960;

24. Трахтенброт Б. А., Алгоритмы и вычислительные автоматы, М., 1974;

25. Успенский В.А. Машина Поста. М. Наука, 1988;

26. Успенский В.А., Семенов Ф.Л. Теория алгоритмов: основные открытия и приложения. М., 1987;

27. Черч А. Введение в математическую логику. В 2-х т. пер, с англ.. - М.: Издательство иностранной литературы, 1960;

28. Шеннон К. Математическая теория дифференциального анализатора. В кн.: Шеннон К. Работы по теории информации и кибернетики. Пер.с англ. - М., 1963,;

29. Эббинхауз Г. Д., Якобс К., Ман Ф. К., Хермес Г., Машины Тьюринга и рекурсивные функции, пер. с нем., М., 1972;

30. Ярвилехто Т. Мозг и психика. М., 1992;

31. Fagerstr, Jagers P., Schuster P., Sthasmary E. Biologists Put on Mathematical Glasses.// Science, 1996, V.274, N 5295, p.2039;

32. Godel K. Collected works, Vol. 1 ed. S. Fereman et al. 1986. Oxford university Press;

33. Church A., An unsolvable problem of elementary number theory, "Amer. J. Math.", 1936, v. 58, No 2;

34. Kampis G. Self-Modifying Systems in Biology and Cognitive Science. Oxford, Pergamon, 1991;

35. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, pp. 112-127;

36. Тuring A., "Ргос. London Math. Soc.", 1937, v. 42, 2, p. 230-65;

37. Penrose R. The Emperor's New Mind. Oxford: Oxford University Press, 1989;

38. Penrose R. Shadows of the Mind: A Search for the Missing Science of Consciousness. - Oxford, New York, Melbourne: Oxford University Press, 1994.-457p;

39. Tamura S, Tanaka K. Note on Analog Memory Automata.// Information Sciences, 1974, 7, pp.73-80;

40. Van Rootselaar, B. On Bunge's theory of things.// Int. J. of General Systems, 1977, V.3, pp.175-180

41. Jean Matter Mandler. The Foundations of Mind. Origins of Conceptual Thought. Oxford university press, 2004

Исследования Бионика Новая парадигма искусственного интеллекта (постановка задачи)