Искусственный интеллект как эмпирическая проблема

       

Для многих людей наиболее удивительным


16.0. Введение

Для многих людей наиболее удивительным аспектом работы в сфере искусственного интеллекта является степень, в которой ИИ, да и большая часть теории вычислительных систем, оказывается эмпирической дисциплиной. Этот аспект удивителен, поскольку большинство рассматривает эти области в терминах своего математического или инженерного образования. Пунктуальным математикам свойственно желание применить к конструированию интеллектуальных устройств привычные им логические рассуждения и анализ. С точки зрения "неряшливых" инженеров, задача часто состоит лишь в создании систем, которые общество назвало бы "разумными". К несчастью, а может, и наоборот (в зависимости от точки зрения), сложность интеллектуальных программ и неопределенность, присущая их взаимодействию с миром природы и человеческой деятельности, делают невозможным анализ с чисто математической или чисто инженерной точек зрения.

Более того, если мы пытаемся довести исследования искусственного интеллекта до уровня науки и сделать их неотъемлемой частью теории интеллектуальных систем (science of intelligent systems), то в процессе конструирования, использования и анализа артефактов должны применять смесь из аналитических и эмпирических методов. С этой точки зрения каждая программа ИИ должна рассматриваться как эксперимент: он ставит вопрос перед природой, и ответ на него - это результат выполнения программы. Отклик природы на заложенные конструкторские и программные принципы формирует наше понимание формализма, закономерностей и самой сути мышления.

В отличие от многих традиционных наук, изучающих человеческое познание, разработчики разумных компьютерных систем могут исследовать внутренние механизмы своих "подопытных". Они могут останавливать выполнение программы, изучать ее внутреннее состояние и как угодно модифицировать ее структуру. Как отметили Ньюэлл и Саймон, устройство компьютеров и компьютерных программ предопределяет их потенциальное поведение, возможность всестороннего исследования, и доступность для понимания. Сила компьютеров как инструментов для изучения интеллекта проистекает из этой двойственности. Соответствующим образом запрограммированные компьютеры способны достигнуть высокой степени сложности как в семантике, так и в поведении. Такие системы естественно охарактеризовать в терминах физиологии. Кроме того, можно исследовать их внутренние состояния, что в большинстве случаев не могут осуществить ученые, занимающиеся разумными формами жизни.

К счастью для работ в сфере ИИ, равно как и для становления теории интеллектуальных систем, современные физиологические методы, в особенности относящиеся к нейрофизиологии, пролили свет на многие аспекты человеческого мышления. Например, сегодня мы знаем, что функция человеческого интеллекта не цельна и однородна. Она, скорее, является модульной и распределенной. Достоинства этого подхода проявляются в работе органов чувств, например, сетчатки глаза, которая умеет фильтровать и предварительно обрабатывать визуальную информацию. Точно так же обучение нельзя назвать однородной, гомогенной способностью. Скорее, оно является функцией множества различных систем, каждая из которых адаптирована для специфических целей. Магнитно-резонансное сканирование, позитронная эмиссионная томография и другие методы получения изображений нервной системы дают яркую и точную картину внутреннего устройства естественных интеллектуальных систем.


Теория вычислительных систем - дисциплина эмпирическая. Можно было бы назвать ее экспериментальной наукой, но, подобно астрономии, экономике и геологии, некоторые из ее оригинальных форм испытаний и наблюдений невозможно втиснуть в узкий стереотип экспериментального метода. Тем не менее это эксперименты. Конструирование каждого нового компьютера - это эксперимент. Сам факт создания машины ставит вопрос перед природой; и мы получаем ответ на него, наблюдая за машиной в действии, анализируя ее всеми доступными способами. Каждая новая программа - это эксперимент. Она ставит вопрос природе, и ее поведение дает нам ключи к разгадке. Ни машины, ни программы не являются "черными ящиками", это творения наших рук, спроектированные как аппаратно, так и программно; мы можем снять крышку и заглянуть внутрь. Мы можем соотнести их структуру с поведением и извлечь множество уроков из одного- единственного эксперимента.

- Ньюэлл (A. Newell) и Саймон (Н.А. Simon), лекция по случаю вручения премии Тьюринга, 1976

Изучение мыслящих машин дает нам больше знаний о мозге, чем самоанализ. Западный человек воплощает себя в устройствах.

- Уильям С. Берроуз (William Burroughs), Завтрак нагишом



Где то знание, что утеряно в информации? - Т. С. Элиот (T.S. Eliot), хоры из поэмы "Скала"




ИИ- это дисциплина, исследующая закономерности, лежащие в основе разумного поведения, путем построения и изучения артефактов, предопределяющих эти закономерности.

Согласно этому определению искусственный интеллект в меньшей степени представляет собой теорию закономерностей, лежащих в основе интеллекта, и в большей - эмпирическую методологию создания и исследования всевозможных моделей, на которые эта теория опирается. Этот вывод проистекает из научного метода проектирования и проведения экспериментов с целью усовершенствования текущей модели и постановки дальнейших экспериментов. Однако это определение, как и сама область ИИ, бросает вызов многовековому философскому мракобесию в вопросе природы разума. Оно дает людям, которые жаждут понимания (что, возможно, является главной характеристикой человека), альтернативу религии, суевериям, картезианскому дуализму, пустым теориям нового времени или поискам разума в каких-то не открытых еще закоулках квантовой механики [Penrose, 1989]. Если наука, исследующая искусственный интеллект, и внесла какой-то вклад в человеческие знания, то он подтверждает следующее. Разум - это не мистический эфир, пронизывающий людей и ангелов, а, скорее, проявление принципов и законов, которые можно постичь и применить в конструировании интеллектуальных машин. Необходимо отметить, что наше пересмотренное определение не касается интеллекта, оно определяет роль искусственного интеллекта в изучении природы и феномена разумности.

Исторически главенствующий подход к искусственному интеллекту включал построение формальных моделей и соответствующих им механизмов рассуждений, основанных на переборе. Ведущим принципом ранней методологии искусственного интеллекта являлась гипотеза о физической символьной системе (physical symbol system), впервые сформулированная Ньюэллом и Саймоном [Newell и Simon, 1976]. Эта гипотеза гласит следующее.

Физическая система проявляет разумное в широком смысле поведение тогда и только тогда, когда она является физической символьной системой.

Достаточность означает, что разумность может быть достигнута каждой правильно организованной физической символьной системой.



Необходимость означает, что каждый агент, проявляющий разумность в общепринятом смысле, должен являться физической символьной системой. Необходимое условие этой гипотезы требует, чтобы любой разумный агент, будь-то человек, инопланетянин или компьютер, достигал разумного поведения путем физической реализации операций над символьными структурами.

Разумное в широком смысле поведение (general intelligent action) означает действия, характерные для поведения человека. Физически ограниченная система ведет себя соответственно своим целям, приспосабливаясь к требованиям окружающей среды.

Ньюэлл и Саймон собрали аргументы в пользу необходимого и достаточного условий [Newell и Simon, 1976]; [Newell, 1981]; [Simon, 1981]. В последующие годы специалисты в области ИИ и когнитологии исследовали территорию, очерченную этой гипотезой.

Гипотеза о физической символьной системе привела к трем важнейшим принципам методологии: использованию символов и символьных систем в качестве средства для описания мира; разработке механизмов перебора, в особенности эвристического, для исследования границ потенциальных умозаключений таких систем; отвлеченности когнитивной архитектуры. Имеется в виду предположение о том, что правильно построенная символьная система может проявлять интеллект в широком смысле независимо от средств реализации. Наконец, с этой точки зрения ИИ становится эмпирической и конструктивной дисциплиной, которая изучает интеллект, строя его действующие модели.

Языковые знаки, называемые символами, используются для обозначений или ссылок на различные сторонние объекты. Как вербальные знаки в естественном языке, символы заменяют или ссылаются на конкретные вещи в мире разумного агента. Например, для этих объектно-ссылочных связей можно предложить некоторый вариант семантики (см. раздел 2.3).



С точки зрения символьных систем использование символов в ИИ уходит далеко за пределы такой семантики. Символами здесь представляются все формы знаний, опыта, понятий и причинности. Все подобные конструктивные работы опираются на тот факт, что символы вместе со своей семантикой могут использоваться для построения формальных систем. Они определяют язык представления (representation language). Эта возможность формализовать символьные модели принципиальна для моделирования интеллекта как выполняемой компьютерной программы. В этой книге было детально изучено несколько представлений, в том числе предикатное исчисление, семантические сети, сценарии, концептуальные графы, фреймы и объекты.

Математика формальных систем позволяет говорить о таких вещах, как непротиворечивость, полнота и сложность, а также обсуждать организацию знаний.

Эволюция формализмов представления позволяет установить более сложные (широкие) семантические отношения. Например, системы наследования формируют семантическую теорию таксономического знания и его роли в интеллекте. Формально определяя наследование классов, такие языки облегчают построение интеллектуальных программ и предоставляют удобно тестируемые модели организации возможных категорий интеллекта.

Схемы представления и их использование в формальных рассуждениях тесно связаны с понятием поиска. Поиск - это поочередная проверка узлов в априори семантически описанной сети представления на предмет нахождения решения задачи или подзадач, выявления симметрии задачи и тому подобного (в зависимости от рассматриваемого аспекта).

Представление и поиск связаны, поскольку соотнесение задачи с конкретным представлением определяет априорное пространство поиска. Действительно решение многих задач можно значительно усложнить, а то и вовсе сделать невозможным, неудачно выбрав язык представления. Последующее обсуждение индуктивного порога в этой главе проиллюстрирует эту точку зрения.



Выразительным и часто цитируемым примером связи между поиском и представлением, а также трудности выбора удобного представления является задача размещения костей домино на усеченной шахматной доске. Допустим, имеется шахматная доска и набор костей домино, причем каждая закрывает ровно две клетки на доске. Положим также, что у доски не хватает нескольких клеток - на рис. 16.1 отсутствуют верхний левый и нижний правый уголки.

Рис. 16.1. Усеченная шахматная доска с двумя клетками, закрытыми костью домино

Задача состоит в том, чтобы установить, можно ли разместить кости домино на доске так, чтобы все поля были закрыты, и при этом каждая кость покрывала две и только две клетки. Можно попытаться решить проблему, перебрав все варианты расположения костей. Это типичный пример решения на основе поиска, который является естественным следствием представления доски в виде простой матрицы, игнорирующим такие, казалось бы, незначительные особенности, как цвет поля. Сложность подобного поиска просто невероятна. Для эффективного решения необходимо применение эвристических методов. Например, можно отсечь частные решения, которые оставляют изолированными отдельные клетки. Можно также начать с решения задачи для досок меньшего размера, таких как 2x2, 3x3, и постараться расширить решение до ситуации 8x8.

Опираясь на более сложное представление, можно получить изящное решение. Для этого нужно учесть тот факт, что каждая кость должна одновременно покрывать белую и черную клетки. На усеченной доске 32 черные клетки, но лишь 30 белых, следовательно, требуемое размещение невозможно. Таким образом, в системах, основанных на символьных рассуждениях, возникает серьезный вопрос: существуют ли представления, позволяющие оперировать знаниями с такой степенью гибкости и творческого подхода? Как может конкретное представление изменять свою структуру по мере появления новых сведений о предметной области?

Эвристика - это третий важный компонент символьного ИИ после представления и поиска. Эвристика - это механизм организации поиска среди альтернатив, предлагаемых конкретным представлением. Эвристики разрабатываются для преодоления сложности полного перебора, являющейся непреодолимым барьером на пути получения полезных решений многих классов интересных задач. В компьютерной среде, как и в человеческом обществе, интеллект нуждается в обоснованном решении "что делать дальше". На протяжении истории развития ИИ эвристики принимали множество форм.



Такие ранние методы решения задач, как метод поиска экстремума (hill climbing) в шашечной программе (см. главу 4) или анализ целей и средств (means-ends analysis) в обобщенной системе решения задач General Problem Solver (см. главу 12), пришли в ИИ из других дисциплин, таких как исследование операций (operations research), и постепенно выросли до общеприменимых методов решения задач ИИ. Характеристики поиска, включая допустимость (admissibility), монотонность (monotonicity) и осведомленность (informedness), являются важными результатами этих ранних работ. Подобные методы часто называют слабыми (weak methods). Слабые методы были разработаны как универсальные стратегии поиска, рассчитанные на применение в целых классах предметных областей [Newell and Simon, 1972], [Ernst и Newell, 1969]. Эти методы и их характеристики рассмотрены в главах 3, 4, 5 и 12.

В главах 6, 7 и 8 представлены сильные методы (strong methods) для решения задач ИИ с использованием экспертных систем на основе продукционных правил, рассуждений с использованием моделей (model-based reasoning) и примеров (case-based reasoning), а также символьного обучения (symbol-based learning). В отличие от слабых, сильные методы фокусируют внимание на информации, специфичной для каждой предметной области, будь то медицина внутренних органов или интегральное исчисление. Сильные методы лежат в основе экспертных систем и других подходов к решению задач с активным усвоением знаний. В сильных методах особое значение придается количеству данных, необходимых для решения задачи, обучению и пополнению знаний, их синтаксическому представлению, управлению неопределенностью, а также вопросам о качестве знаний.

Почему до сих пор не существует действительно интеллектуальных символьных систем

Характеристика интеллекта как физической символьной системы вызывает немало нареканий. Большую их часть легко отвергнуть, рассмотрев вопросы семантического значения и обоснования (grounding) концепции символов и символьных систем. Вопрос "смысла", конечно, тоже бьет по идее интеллекта как поиска в предварительно интерпретированных символьных структурах. Понятие смысла в традиционном ИИ развито весьма слабо. Тем не менее искушение сдвинуться в сторону более "математизированной" семантики, например, теории возможных миров (possible worlds), представляется ошибочным. Такой метод уходит корнями к рационалистской идее подмены гибкого эволюционирующего интеллекта материализованного агента миром ясных, четко определенных идей.

Обоснование смысла - это проблема, которая всегда путала планы как приверженцев, так и критиков искусственного интеллекта, а также когнитологов. Проблема обоснования сводится к следующему: как символы могут иметь смысл? В работе [Searle, 1980] она рассматривается на примере так называемой "китайской комнаты". Автор помещает себя в комнату, предназначенную для перевода китайских предложений на английский. Ему передают набор китайских иероглифов, а он отыскивает значение иероглифов в большом каталоге и передает на выход соответствующий набор английских символов. Автор заявляет, что даже без знания китайского языка его "систему" можно рассматривать как машину - переводчик с китайского на английский.



Но здесь возникает одна проблема. Любой специалист, работающий в области машинного перевода или понимания естественных языков (см. главу 13), может возразить, что "переводчик", слепо сопоставляющий один набор символов с другим, выдает результат очень низкого качества. Более того, возможности текущего поколения интеллектуальных систем по "осмысленной" интерпретации набора символов весьма ограничены. Проблема слишком бедной опорной семантики распространяется и на вычислительно реализованные сенсорные модальности, будь то визуальные, кинестетические или вербальные.

Что касается понимания естественного языка, Лакофф и Джонсон [Lakoff и Johnson, 1999] возражают, что способность создавать, использовать, обменивать и интерпретировать осмысленные символы является следствием интеграции человека в изменяющуюся социальную среду. Благодаря ей возникли человеческие способности выживания, эволюционирования и продолжения рода. Она сделала возможными рассуждения по аналогии, юмор, музыку и искусство. Современные средства и методы искусственного интеллекта и впрямь весьма далеки от способности кодировать и использовать эквивалентные по "смыслу" системы.

Прямым следствием бедной семантики является то, что методология поиска в традиционном ИИ рассматривает лишь предварительно интерпретированные состояния и их контексты. Это означает, что создатель программы ИИ связывает с используемыми символами семантический смысл. Поэтому интеллектуальные системы, включая системы обучения и понимания естественного языка, могут строить лишь некую вычисляемую функцию в этой интерпретации. Таким образом, большая часть систем ИИ очень ограничена в возможности построения новых смысловых ассоциаций по мере изучения окружающего мира [Lewis и Luger, 2000].

Вследствие стесненных возможностей семантического моделирования наиболее значительные успехи связаны с разработкой приложений, в которых можно абстрагироваться от чересчур широкого контекста и в то же время описать основные компоненты решения задачи с помощью заранее интерпретируемых символьных систем. Большая их часть упоминалась в этой книге. Но и такие системы не поддерживают множественных интерпретаций и ограничены в способности восстанавливать работоспособность после сбоя.

На протяжении всей недолгой истории искусственного интеллекта изучались различные варианты гипотезы о физической символьной системе. Были разработаны альтернативы этому подходу. Как показано в последних главах этой книги, символьная система и поиск- не единственно возможные средства реализации интеллектуальной системы. Вычислительные модели, основанные на работе органического мозга, а также на процессах биологической эволюции, предоставляют альтернативную базу для понимания интеллекта в терминах научно познаваемых и эмпирически воспроизводимых процессов. Оставшаяся часть этого раздела посвящена обсуждению этих подходов.



16.1.2. Коннекционистские, или нейросетевые, вычислительные системы

Существенной альтернативой гипотезе о физической символьной системе являются исследования в области нейронных сетей и других, заимствованных из биологии, вычислительных моделей. Нейронные сети, например, являются физически реализуемыми вычислительными моделями познания, не основанными на предварительно интерпретированных символах, которыми точно описывается предметная область. Поскольку знания в нейронной сети распределены по всей ее структуре, зачастую сложно (а то и невозможно) соотнести конкретные понятия с отдельными узлами или весовыми коэффициентами. Фактически любая часть сети может служить для представления разных понятий. Следовательно, нейронные сети являются хорошим контрпримером, по крайней мере, условию гипотезы о физических символьных системах.

Нейронные сети и генетические алгоритмы сместили акцент исследований ИИ с проблем символьного представления и стратегий формальных рассуждений на проблемы обучения и адаптации. Нейронные сети, подобно человеческим существам и животным, умеют адаптироваться к миру. Структура нейронной сети формируется не только при ее разработке, но и при обучении. Интеллект, основанный на нейронной сети, не требует переведения мира на язык символьной модели. Скорее, сеть формируется при взаимодействии с миром, который отражается в неявной форме опыта. Этот подход внес значительный вклад в наше понимание интеллекта. Он дал правдоподобное описание механизмов, лежащих в основе физической реализации процессов мышления; более жизнеспособную модель обучения и развития; демонстрацию возможности путем простой локальной адаптации сформировать сложную систему, реагирующую на реальные явления; а также мощное орудие для когнитивной теории нейронных систем (neuroscience).

Именно благодаря своей многогранности нейронные сети помогают ответить на множество вопросов, лежащих за пределами впечатляющих возможностей символьного ИИ. Важный класс таких вопросов касается проблемы перцепции. Природа не столь щедра, чтобы представить работу нашего восприятия в виде набора точных формул предикатного исчисления. Нейронные сети обеспечивают модель выделения "осмысленных" образов из хаоса сенсорных стимулов.

Из-за своего распределенного представления нейронные сети часто более устойчивы, нежели аналогичные символьные системы. Соответствующим образом обученная нейронная сеть может эффективно классифицировать новые входные данные, проявляя подобное человеческому восприятие, основанное не на строгой логике, а на "схожести". Аналогично потеря нескольких нейронов серьезно не повлияет на производительность большой нейронной сети. Это является следствием избыточности, часто присущей сетевым моделям.



Наверное, самым притягательным аспектом коннекционистских сетей является их способность обучаться. Вместо построения подробной символьной модели мира нейронные сети благодаря гибкости своей структуры могут адаптироваться на основе опыта. Они не столько строят модель, сколько сами формируются под влиянием мира. Обучение является одним из главных аспектов интеллекта. И именно из проблемы обучения вырастают наиболее сложные вопросы, связанные с нейросетевыми вычислительными системами.

Почему мы до сих пор не создали мозг

Недавние исследования в когнитивной теории нейронных систем [Squire и Kosslyn, 1998], [Gazzaniga, 2000] представляют новый аспект в понимании когнитивной архитектуры человеческого мозга. В этом разделе мы кратко ознакомимся с некоторыми открытиями в этой области, проведя параллель между ними и искусственным интеллектом. Эти вопросы будут рассмотрены с трех позиций: на уровне, во-первых, нейрона, во-вторых, нейронной архитектуры и, в-третьих, когнитивного представления проблемы кодирования (encoding).

На уровне отдельного нейрона Шепард [Shephard, 1998] и Карлсон [Carlson, 1994] определяют множество различных типов нейронной архитектуры, построенной из клеток, каждая из которых выполняет специализированную функцию и играет свою роль в большей системе. Они выделяют клетки рецепторов наподобие клеток кожи, которые передают входную информацию другим скоплениям клеток, внутренним нейронам, основная задача которых сводится к передаче информации внутри скоплений клеток, и моторным нейронам, формирующим выход системы.

Нейронная активность имеет электрическую природу. Состояние возбуждения или покоя определяется характером ионных потоков в нейрон и из него. У типичного нейрона потенциал покоя составляет приблизительно -70 мВ. Когда клетка активна, окончание аксона выделяет определенные вещества. Эти химические вещества, называемые медиаторами (neurotransmitters), взаимодействуют с постсинаптической мембраной, обычно вливаясь в нужные рецепторы и возбуждая тем самым дальнейшие ионные токи. Потоки ионов, достигая критического уровня, около -50 мВ, формируют потенциал возбуждения (action potential) - триггерный механизм, однозначно определяющий степень возбуждения клетки. Таким образом, нейроны сообщаются, обмениваясь последовательностями двоичных кодов.



В области восприятия и внимания существует проблема связывания (binding problem). Такие исследователи, как Энн Трисмэн [Triesman, 1993, 1998], отмечают, что представление восприятия зависит от распределенных нейронных кодов, отвечающих за сопоставление частей и качеств объектов, и ставят вопрос о том, какие механизмы "связывают" информацию, относящуюся к конкретному объекту, и позволяют отличать этот объект от других.

В области визуального поиска рассматривается вопрос о том, какие нейронные механизмы обеспечивают восприятие объектов, входящих в большие, сложные сцены. Некоторые эксперименты показывают, что фильтрация информации о незначительных объектах играет важную роль в определении целей поиска [Luck, 1998]. Вопрос о том, как мы "учимся" видеть, исследуется в работе [Sagi и Таппе, 1998].

Работы [Gilbert, 1992, 1998] посвящены гибкости восприятия. Из них следует, что видимая человеком картина не отражает точные физические характеристики сцены. Она значительно зависит от процессов, с помощью которых мозг пытается интерпретировать эту картину.

В [Ivry, 1998] рассматривается вопрос о том, каким образом кора мозга кодирует и индексирует соотносящуюся во времени информацию, включая интерпретацию ощущений и двигательную активность.

Стрессовые гормоны, вырабатываемые в состояниях эмоционального возбуждения, влияют на процессы памяти [Cahill и McGaugh, 1998]. Это соотносится с проблемой обоснования (grounding): почему мысли, слова, ощущения имеют осмысленное значение для агента? В каком смысле возможна "грусть в вещах", вергилиевская lacremae reruml




Акустико- фонетические аспекты речи основаны на важных организационных принципах, связывающих исследования в области нейронных систем с когнитивными и лингвистическими теориями [Miller и др., 1998]. В [Gazzaniga, 2000] рассматривается вопрос о том, как синтаксические и семантические составляющие сочетаются в коре мозга.

Как индивидуум учится определенному языку, и какие нейрофизиологические стадии соответствуют этому процессу? Этой проблеме посвящены работы [Kuhl, 1993, 1998].

В [O'Leary и др., 1999] затрагиваются следующие вопросы. Как понимать развитие, чем определяется пластичность критических периодов и реорганизации в процессе взросления, наблюдаемых в соматосенсорных системах млекопитающих? Критичны ли фазы развития для формирования интеллекта? Эти же вопросы рассматриваются в [Karmiloff-Smith, 1992], [Gazzaniga, 2000] и подразделе 16.1.2.

Практическая работа в сфере искусственного интеллекта не требует обширных познаний в вышеперечисленных и смежных нейронных и психологических областях. Но такие знания могут помочь в разработке интеллектуальных устройств, а также в определении места исследований ИИ в контексте общей теории интеллектуальных систем. Наконец, синтез психологии, нейрофизиологии и компьютерных наук- по-настоящему увлекательная задача. Но она требует детальной проработки эпистемологами, что будет нашей следующей темой для обсуждения.

16.2.2. Вопросы эпистемологии




Если не знаешь, куда идешь, придешь не туда, куда хочешь... - приписывается Йоги Берра (Yogi Berra)

Развитие искусственного интеллекта происходило в процессе решения множества важных задач и вопросов. Понимание естественных языков, планирование, рассуждения в условиях неопределенности и машинное обучение - все это типичные проблемы, которые отражают важные аспекты разумного поведения. Интеллектуальные системы, работающие в этих предметных областях, требуют знания целей и опыта в контексте конкретной социальной ситуации. Для этого в программе, которую человек пытается наделить "разумом", необходимо обеспечить возможность формирования понятий.

Процесс формирования понятий отражает как семантику, поддерживающую использование символов, так и структуру применяемых символов. Задача состоит в том, чтобы найти и использовать инвариантности, присущие данной предметной области. Термин "инвариант" используется для описания регулярностей или значимых, пригодных для использования, аспектов сложных рабочих сред. В данном рассмотрении термины символы и символьные системы используются в широком смысле. Они включают широкий спектр понятий: от четко определенных символов Ньюэла и Саймона [Newell и Simon, 1976] до узлов и сетевой архитектуры систем связей, а также эволюционирующих структур генетики и искусственной жизни.

Хотя рассматриваемые ниже вопросы характерны для большей части работ в сфере ИИ, остановимся на проблемах машинного обучения. Это обусловлено тремя причинами.

Во-первых, довольно глубокое изучение хотя бы одной ключевой предметной области искусственного интеллекта даст читателю более полное и точное представление о последних достижениях ИИ. Во-вторых, успехи в машинном обучении, а особенно в нейронных сетях, генетических алгоритмах и других эволюционных подходах, потенциально способны совершить революцию в сфере ИИ. Наконец, обучение- это одна из наиболее увлекательных областей исследований в искусственном интеллекте.




Несмотря на прогресс, обучение остается одной из наиболее трудных проблем, встающих перед исследователями ИИ. Далее мы обсудим три вопроса, сдерживающих сегодня продвижение в этой сфере: во-первых, обобщение и переобучение (generalization and overlearning), во-вторых, роль индуктивного порога (inductive bias) в обучении, в-третьих, дилемму эмпирика (empiricist's dilemma), или понимание эволюции без ограничений. Последние две проблемы взаимосвязаны. Присущий многим алгоритмам индуктивный порог является выражением рационалистической проблемы. Порог определяется ожиданиями, т.е. то, чему мы обучаемся, зачастую зависит от того, чему хочется научиться. Есть и другая проблема. Иногда мы не располагаем априорными догадками о результате. Это, например, можно наблюдать в исследованиях, посвященных искусственной жизни. Можно ли утверждать: "Построй это, и оно будет работать, как нужно"? Если верить Йоги Берра (см. эпиграф к разделу), то, скорее всего, нет! Эти темы будут затронуты в следующем разделе.

Проблема обобщения

Примеры, использованные для представления разнообразных моделей обучения (символьных, коннекционистских и эволюционных), зачастую были слишком неестественны. Например, архитектуры связей часто содержали всего несколько узлов или один скрытый слой. Такие примеры уместны, поскольку основные законы обучения можно адекватно объяснить в контексте нескольких нейронов или слоев. Но стоит помнить, что в реальных задачах нейронные сети обычно значительно больше, и проблема масштаба здесь имеет значение. Например, для обучения с обратным распространением ошибки требуется большое количество обучающих примеров, а для решения сколько-нибудь практически интересных задач нужны большие сети. Многие исследователи ([Necht-Nielsen, 1990]; [Zurada, 1992], [Freeman и Scapura, 1991]) работали над проблемой выбора оптимального числа входных данных, соотношения между числом входных параметров и узлов в скрытом слое, определением количества проходов процесса обучения, достаточного для обеспечения сходимости. Здесь мы только констатировали, что эти проблемы сложные, важные и в большинстве случаев открытые.

Количество и качество обучающих данных важны для любого обучающего алгоритма. Без обширных исходных знаний о предметной области алгоритм обучения может не справиться с выделением образов при получении зашумленных, недостаточных или даже испорченных данных.

Смежная проблема - вопрос "достаточности" в обучении. В каких случаях алгоритмы можно назвать достаточно пригодными для выделения важных границ или инвариантов предметной области задачи? Приберечь ли запас входных данных для тестирования алгоритма? Отвечает ли количество имеющихся данных требуемому качеству обучения? Должно быть, суждение о "достаточности" является в большей степени эвристическим или даже эстетическим: мы, люди, часто рассматриваем алгоритмы как "достаточно хорошие".




Проиллюстрируем проблему обобщения на примере, используя метод обратного распространения ошибки для нахождения функции по набору заданных точек (рис. 16.2).

Линии вокруг этого набора представляют функции, найденные алгоритмом обучения. Напомним, что по завершении обучения алгоритму необходимо предоставлять новые входные данные, чтобы проверить качество обучения.

Рис. 16.2. Набор точек данных и три аппроксимирующие функции

Функция f1 представляет довольно точную аппроксимацию методом наименьших квадратов. Дальнейшее обучение системы может дать функцию f2, которая выглядит как достаточно "хорошая" аппроксимация набора данных. Но все же f2 не точно соответствует заданным точкам. Дальнейшее обучение может привести к функциям, которые точно аппроксимируют данные, но дают ужасные обобщения для новых входных данных. Это явление называют переобучением (overtraining) сети. Одной из сильных сторон обучения с обратным распространением ошибки является то, что в предметных областях многих приложений оно дает эффективные обобщения, т.е. аппроксимации функций, которые приближают обучающие данные и корректно обрабатывают новые. Тем не менее обнаружить точку, в которой сеть переходит из "недообученного" в переобученное состояние, - задача нетривиальная. Наивно думать, что можно построить сеть, или вообще какой-либо обучающий инструмент, снабдить его "сырыми" данными, а затем отойти в сторону и наблюдать за тем, как он вырабатывает самые эффективные и полезные обобщения, применимые к новым подобным проблемам.

Подведем итог, возвращая вопрос обобщения в контекст его эпистемологии. Когда решатель задач формирует и применяет обобщения в процессе решения, он создает инварианты или даже системы инвариантов в области задача-решение. Таким образом, качество и четкость таких обобщений могут быть необходимой основой для успешного осуществления проекта. Исследования в области обобщения задачи и процесса ее решения продолжаются.

Индуктивный порог: рационалистское априори



Методы автоматического обучения, рассмотренные в главах 9-11, и, следовательно, большая часть методов ИИ отражают индуктивные пороги, присущие их создателям. Проблема индуктивных порогов в том, что получаемые в результате представления и стратегии поиска дают средство кодирования в уже интерпретированном мире. Они редко могут предоставить механизмы для исследования наших интерпретаций, рождения новых взглядов или отслеживания и изменения неэффективных перспектив. Такие неявные предпосылки приводят к ловушке рационалистской эпистемологии, когда исследуемую среду можно увидеть лишь так, как мы ожидаем или научены ее видеть.

Роль индуктивного порога должна быть явной в каждом обучающем алгоритме. (Альтернативное утверждение гласит, что незнание индуктивного порога вовсе не означает того, что он не существует и не влияет критически на параметры обучения.) В символьном обучении индуктивные пороги обычно очевидны, например, использование семантической сети для концептуального обучения. В обучающем алгоритме Уинстона [Winston, 1975a] пороги включают представление в виде конъюнктивных связей и использование "попаданий близ цели" для коррекции наложенных на систему ограничений. Подобные пороги используются при реализации поиска в пространстве версий (раздел 9.1), построении деревьев решений в алгоритме ID3 (раздел 9.3) или даже правилах Meta-DENDRAL (раздел 9.5).

Как упоминалось в главах 10 и 11, многие аспекты стратегий коннекционистского и генетического обучения также предполагают наличие индуктивных порогов. Например, ограничения персептронных сетей привели к появлению скрытых слоев. Уместен вопрос о том, какой вклад вносят скрытые узлы в получение решения. Одна из функций скрытых узлов состоит в том, что они добавляют новые измерения в пространство представлений. На простом примере из подраздела 10.3.3 было видно, что данные в задаче "исключающего ИЛИ" не были линейно разделимы в двухмерном пространстве. Однако получаемые в процессе обучения весовые коэффициенты добавляют к представлению еще одно измерение. В трехмерном пространстве точки можно разделить двухмерной плоскостью. Выходной слой этой сети можно рассматривать как персептрон, находящий плоскость в трехмерном пространстве.

Стоит отметить, что многие из "различных" парадигм обучения используют (иногда неявно) общие индуктивные пороги. Примером подобной ситуации является взаимосвязь между кластеризацией в системе CLUSTER/2 (раздел 9.5), персептроном (раздел 10.2) и сетями прототипов (раздел 10.3). Было отмечено, что встречное распространение информации в дуальной сети, использующей обучение без учителя с коррекцией весов по выходу в слое Кохонена наряду с обучением с учителем в слое Гроссберга, во многом подобно обучению с обратным распространением ошибки.

Рассмотренные средства схожи во многих важных аспектах. Фактически даже задача кластеризации данных является дополнением к методу аппроксимации функций. В первом случае мы пытаемся классифицировать наборы данных; во втором строим функции, которые однозначно отделяют кластеры данных друг от друга. Это можно наблюдать, когда используемый персептроном алгоритм классификации на основе минимального расстояния находит также параметры, задающие линейное разделение.



Даже задачи обобщения или построения функций можно рассматривать с различных позиций. Например, статистические методы используются для обнаружения корреляции данных. Итеративный вариант рядов Тейлора позволяет аппроксимировать большинство функций. Алгоритмы полиномиальной аппроксимации на протяжении более столетия используются для аппроксимации функций по заданным точкам.

Итак, результат обучения (символьного, коннекционистского или эволюционного) во многом определяется принятыми предположениями о характере решения. Принимая в расчет этот синергетический эффект в процессе разработки вычислительных решателей задач, зачастую можно улучшить шансы на успех и более осмысленно интерпретировать результаты.

Дилемма эмпирика

Если в сегодняшних подходах к машинному обучению, особенно обучению с учителем, главную роль играет индуктивный порог, то обучение без учителя, которое используется во многих генетических и эволюционных подходах, сталкивается с противоположной проблемой, которую иногда называют дилеммой эмпирика. В таких подходах считается, что решения сложатся сами на основе эволюционирующих альтернатив, в процессе "выживания" наиболее подходящих особей популяции. Это мощный метод, особенно в контексте параллельных и распределенных средств поиска. Но возникает вопрос: откуда можно узнать, что система пришла к правильному решению, если мы не знали, куда идем?

Давным-давно Платон сформулировал эту проблему словами Менона из знаменитого диалога:




" Но каким же образом, Сократ, ты будешь искать вещь, не зная даже, что она такое? Какую из неизвестных тебе вещей изберешь ты предметом исследования? Или, если в лучшем случае ты даже натолкнешься на нее, откуда ты узнаешь, что она именно то, чего ты не знал?"

Несколько исследователей подтверждают слова Менона [Mitchell, 1997] и теорему "о бесплатном сыре" Вольперта и Макреди [Wolpert, Macready, 1995]. Эмпирик фактически нуждается в какой-то доле рационалистского априорного знания для придания научности своим рассуждениям.

Тем не менее продолжается множество увлекательных разработок в обучении без учителя и эволюционном обучении. Примером служит создание сетей, основанных на моделях или минимизации энергии, которые можно рассматривать в качестве аттракторов для сложных инвариантностей. Наблюдая, как данные "выстраиваются" к точкам притяжения, исследователь начинает рассматривать эти архитектуры как средства моделирования динамических явлений. Возникает вопрос: каковы ограничения этих методов?

Фактически исследователи показали [Siegelman и Sontag, 1991], что рекуррентные сети полны в смысле вычислений, т.е. эквивалентны классу машин Тьюринга. Эта эквивалентность обобщает более ранние результаты. Колмогоров [Kolmogorov, 1957] показал, что для каждой непрерывной функции существует нейронная сеть, реализующая ее вычисление. Также было показано, что сеть обратного распространения ошибки с одним скрытым слоем может аппроксимировать любую непрерывную на компакте функцию [Necht-Nielsen, 1989]. В разделе 11.3 было указано, что фон Нейман построил полные, по Тьюрингу, конечные автоматы. Таким образом, сети связей и конечные автоматы оказались еще двумя классами алгоритмов, способных аппроксимировать практически любую функцию. Кроме того, индуктивные пороги применимы к обучению без учителя, а также к эволюционным моделям; пороги представлений применимы к построению узлов, сетей и геномов, а алгоритмические пороги - к механизмам поиска, подкрепления и селекции.

Что в таком случае могут нам предложить коннекционистские, генетические или эволюционные конечные автоматы в их разнообразных формах?




Одна из наиболее привлекательных черт нейросетевого обучения - это возможность адаптации на основе входных данных или примеров. Таким образом, хотя их архитектуры точно проектируются, они обучаются на примерах, обобщая данные в конкретной предметной области. Но возникает вопрос о том, хватает ли данных и достаточно они ли "чисты", чтобы не исказить результат решения. И может ли это знать конструктор?

Генетические алгоритмы также обеспечивают мощный и гибкий механизм поиска в пространстве параметров задачи. Генетический поиск управляется как мутациями, так и специальными операторами (например, скрещивания или инверсии), которые сохраняют важные аспекты родительской информации для последующих поколений. Каким образом проектировщик программы может найти и сохранить в нужной мере компромисс между разнообразием и постоянством?

Генетические алгоритмы и коннекционистские архитектуры можно рассматривать как примеры параллельной и асинхронной обработки. Но действительно ли они обеспечивают результаты, недостижимые в последовательном программировании?

Хотя нейросетевые и социологические корни не имеют принципиального значения для многих современных практиков коннекционистского и генетического обучения, эти методы отражают многие важные стороны естественного отбора и эволюции. В главе 10 были рассмотрены модели обучения с уменьшением ошибки- персептронные сети, сети с обратным распространением ошибки и модели Хебба. В подразделе 10.3.4 описаны сети Хопфилда, предназначенные для решения задач ассоциативной памяти. Разнообразные эволюционные модели рассматривались в главе 11.

И, наконец, все методики обучения являются эмпирическими средствами. Достаточно ли мощны и выразительны эти средства, чтобы по мере выявления инвариантностей нашего мира ставить дальнейшие вопросы о природе восприятия, обучения и понимания?




В следующем разделе будет обоснован вывод о том, что конструктивистская эпистемология, объединенная с экспериментальными методами современного искусственного интеллекта, предлагает средства и технологии для дальнейшего построения и исследования теории интеллектуальных систем.

Примирение с конструктивистами

Теории, как сети: кто их закидывает, у того и улов... - Л. Виттгенштейн (L. Wittgenstein)

Конструктивисты выдвигают гипотезу о том, что всякое понимание является результатом взаимодействия между энергетическими образами мира и ментальными категориями, наложенными на мир разумным агентом [Piaget, 1954, 1970], [von Glasesfeld, 1978]. В терминах Пиаже (Piaget), мы ассимилируем (assimilate) явления внешней среды в соответствии с нашим текущим пониманием и приспосабливаем (accommodate) наше понимание к "требованиям" явления.

Конструктивисты часто используют термин схемы (schemata) для обозначения априорных структур, используемых в организации опытного знания о внешнем мире. Этот термин заимствован у британского психолога Бартлетта [Bartlett, 1932] и корнями уходит в философию Канта. С этой точки зрения наблюдение не пассивно и нейтрально, а является активным и интерпретирующим.



Воспринятая информация ( кантовское апостериорное знание) никогда не вписывается точно в заранее составленные схемы. Поэтому пороги, основанные на схемах и используемые субъектом для организации опытных знаний, должны быть модифицированы, расширены или же заменены. Необходимость приспособления, вызванная неудачными взаимодействиями с окружающей средой, служит двигателем процесса когнитивного уравновешивания. Таким образом, конструктивистская эпистемология является основой когнитивной эволюции и уточнения. Важным следствием теории конструктивизма является то, что интерпретация любой ситуации подразумевает применение понятий и категорий наблюдателя.

Когда Пиаже [Piaget, 1954, 1970] предложил конструктивистский подход к пониманию, он назвал его генетической эпистемологией (genetic epistemology). Несоответствие между схемой и реальным миром создает когнитивное противоречие, которое вынуждает пересматривать схему. Исправление схемы, приспособление приводит к непрерывному развитию понимания в сторону равновесия (equilibration).

Пересмотр схемы и движение к равновесию - это врожденная предрасположенность, а также средство приспособления к устройству общества и окружающего мира. В пересмотре схем объединяются обе эти силы, отражающие присущую нам склонность к выживанию. Модификация схем априори запрограммирована нашей генетикой и в то же время является апостериорной функцией общества и мира. Это результат нашего воплощения в пространстве и времени.

Здесь наблюдается слияние эмпирической и рационалистической традиций. Как материализованный объект человек может воспринимать не больше, чем воспринимают его органы чувств. Благодаря приспособлению он выживает, изучая общие принципы внешнего мира. Восприятие определяется нашими ожиданиями, которые, в свою очередь, формируются восприятием. Следовательно, эти функции могут быть поняты лишь в терминах друг друга.

Наконец, человек редко осознает схемы, обеспечивающие его взаимодействие с миром. Он является источником предвзятости и предубеждений в науке и в обществе. Но чаще всего человек не знает их смысла. Они формируются за счет достижения когнитивного равновесия с миром, а не в процессе сознательного мышления.



Почему конструктивистская эпистемология особенно полезна при изучении проблем искусственного интеллекта? Автор считает, что конструктивизм помогает в рассмотрении проблемы эпистемологического доступа (epistemological access). Более столетия в психологии идет борьба между двумя направлениями: позитивистами, которые предлагают исследовать феномен разума, отталкиваясь от обозримого физического поведения, и сторонниками более феноменологического подхода, который позволяет использовать описания от первых лиц. Это разногласие существует, поскольку оба подхода требуют некоторых предположений или толкований. По сравнению с физическими объектами, которые считаются непосредственно наблюдаемыми, умственные состояния и поведение субъекта четко охарактеризовать крайне сложно. Автор полагает, что противоречие между прямым подходом к физическим явлениям и непрямым к ментальным является иллюзорным. Конструктивистский анализ показывает, что никакое опытное знание о предмете не возможно без применения некоторых схем для организации этого опыта. В научных исследованиях это подразумевает, что всякий доступ к явлениям мира происходит посредством построения моделей, приближений и уточнений.

16.2.3. Внедренный исполнитель и экзистенциальный разум

Символьные рассуждения, нейросетевые вычисления и разнообразные формы эволюционных стратегий являются главенствующими подходами в современном изучении ИИ. Тем не менее, как было отмечено в предыдущем разделе, для обеспечения более высокой эффективности эти подходы должны принимать в расчет ограничения мира, согласно которым весь "интеллект" является овеществленным.

Теории внедренного и овеществленного действия утверждают, что интеллект не является результатом управления моделями, построенными разумом. Его лучше всего рассматривать в терминах действий, предпринимаемых помещенным в мир агентом. В качестве метафоры для лучшего понимания разницы между двумя подходами в работе [Suchman, 1987] предлагается сравнение между европейскими методами навигации и менее формальными методами, практикуемыми полинезийскими островитянами. Европейские навигационные методы требуют постоянного отслеживания местонахождения корабля в каждый момент путешествия. Для этого штурманы полагаются на обширные, детальные географические модели. Полинезийские навигаторы, напротив, не пользуются картами и другими средствами определения своего местонахождения. Они используют звезды, ветры и течения, чтобы продолжать движение к своей цели, импровизируя маршрут, который непосредственно зависит от обстоятельств их путешествия. Не полагаясь на модели мира, островитяне рассчитывают на свое взаимодействие с ним и достигают своей цели с помощью надежного и гибкого метода.

Теории внедренного действия утверждают, что интеллект не нужно рассматривать как процесс построения и использования моделей мира. Это, скорее, менее структурированный процесс выполнения действий в этом мире и реагирования на результат. Этот подход акцентирует внимание на способности чувственного восприятия окружающего мира, целенаправленных действиях, а также непрерывной и быстрой реакции на изменения, происходящие в нем. В этом подходе чувства, посредством которых человек внедряется в этот мир, имеют большее значение, нежели процессы рассуждения о них. Важнее способность действовать, а не способность объяснять эти действия.



Влияние такой точки зрения на сети связей и агентские подходы очевидно. Оно состоит в отказе от общих символьных методов в пользу процессов адаптации и обучения.

Работы в области искусственной жизни [Langton, 1995], должно быть, самый яркий пример исследований, выполненных под влиянием теорий внедренного действия. Эти модели разума повлияли на подход к робототехнике Родни Брукса [Brooks, 1989], Брендана Мак-Гонигла [McGonigle, 1998], Льюиса и Люгера [Lewis и Luger, 2000]. Эти исследователи утверждают, что было ошибкой начинать работы в сфере ИИ с реализации высокоуровневых процессов рассуждений в моделируемом разуме. Этот акцент на логических рассуждениях повел человечество неверной дорогой, отвлек внимание от фундаментальных процессов, которые позволяют агенту внедряться в мир и действовать в нем продуктивным образом. По мнению Брукса, нужно начинать с проектирования и исследования небольших простых роботов, созданий, действующих на уровне насекомых. Они позволят изучить процессы, лежащие в основе поведения как простых, так и сложных существ. Построив множество таких простых роботов, Брукс и его коллеги пытаются применить приобретенный опыт в конструировании более сложного робота COG, который, как надеются разработчики, достигнет способностей человека.

Несмотря на это, теория внедренного действия также повлияла на символьные подходы к ИИ. Например, работы в области реактивного планирования [Benson, 1995], [Benson и Nilsson, 1995], [Klein и др., 2000] отвергают традиционные методы планирования, предполагающие разработку полного и определенного плана, который проведет агента по всему пути, от стартовой точки и до желаемой цели. Такие планы редко срабатывают нужным образом, потому что на пути может возникнуть слишком много ошибок и непредвиденных проблем. Напротив, системы реактивного планирования работают циклами. За построением частичного плана следует его выполнение, а затем ситуации переоценивается для построения нового плана.

Конструктивистские теории и теории внедренного действия подтверждают многие идеи философии экзистенциализма. Экзистенциалисты считают, что человек проявляет себя посредством своих действий в окружающем мире. То, во что люди верят (или утверждают, что верят), куда менее важно, чем то, что они совершают в критических ситуациях. Этот акцент весьма важен в ИИ. Исследователи постепенно поняли, что интеллектуальные программы необходимо помещать прямо в предметную область, а не лелеять в лаборатории. В этом причина роста интереса к робототехнике и проблеме восприятия, а также к сети Internet. В последнее время ведутся активные работы по созданию Web-агентов, или "софтботов", - программ, которые выходят в сеть и совершают полезные интеллектуальные действия. Сеть привлекательна для разработчиков ИИ прежде всего тем, что она может предложить интеллектуальным программам мир, куда более сложный, чем построенный в лаборатории. Этот мир, сравнимый по сложности с природой и обществом, могут населять интеллектуальные агенты, не имеющие тел, но способные чувствовать и действовать, как в физическом мире.

По мнению автора, теории внедренного действия будут оказывать все возрастающее влияние на искусственный интеллект, заставляя исследователей уделять больше внимания таким вопросам, как важность овеществления и обоснования для интеллектуального агента. Важно также учитывать влияние социального, культурного и экономического факторов на обучение и на способ влияния мира на рост и эволюцию внедренного агента. [Clark, 1997], [Lakoff и Johnson, 1999].



В заключение сформулируем основные вопросы, которые как способствуют, так и препятствуют сегодняшним усилиям специалистов в построении теории интеллектуальных систем.

16.3. Искусственный интеллект: текущие задачи и будущие направления

Как геометр, напрягший все старанья,
Чтобы измерить круг, схватить умом
Искомого не может основанья,
Таков был я при новом диве том...

- Данте (Dante), Рай




Хотя использование методик ИИ для решения практических задач продемонстрировало его полезность, проблема их применения для построения полной теории интеллекта сложна, и работа над ней продолжается. В этом заключительном разделе мы вернемся к вопросам, которые привели автора к изучению проблем искусственного интеллекта и написанию этой книги: возможно ли дать формальное математическое описание процессов, формирующих интеллект?

Вычислительное описание интеллекта возникло с появлением абстрактных определений вычислительных устройств. В 1930-1950-х гг. эту проблему начали исследовать Тьюринг, Пост, Марков и Черч - все они работали над формальными системами для описания вычислений. Целью этого исследования было не просто определить, что подразумевать под вычислениями, но и установить рамки их применимости. Наиболее изученным формальным описанием является универсальная машина Тьюринга [Turing, 1950], хотя правила вывода Поста, лежащие в основе продукционных систем, тоже вносят важный вклад в развитие этой области знаний. Модель Черча [Church, 1941], основанная на частично рекурсивных функциях, привела к созданию современных высокоуровневых функциональных языков, таких как Scheme и Standard ML.

Теоретики доказали, что все эти формализмы эквивалентны по своей мощности: любая функция, вычисляемая при одном подходе, вычисляется и при остальных. На самом деле можно показать, что универсальная машина Тьюринга эквивалента любому современному вычислительному устройству. Исходя из этих фактов, был выдвинут тезис Черча-Тьюринга о том, что невозможно создать модель вычислительного устройства, более мощного, чем уже известные модели. Установив эквивалентность вычислительных моделей, мы обретаем свободу в выборе средств их технической реализации: можно строить машины на основе электронных ламп, кремния, протоплазмы или консервных банок. Автоматизированное проектирование в одной реализации можно рассматривать как эквивалент других механизмов. Это делает еще более важным эмпирический метод, поскольку исследователь может экспериментировать над системой, реализованной одними средствами, чтобы понять систему, реализованную иными.

Хотя, возможно, универсальная машина Тьюринга и Поста чересчур универсальна. Парадокс состоит в том, что для реализации интеллекта может потребоваться менее мощный вычислительный механизм с большим упором на управление. В работе [Levesque и Brachman, 1985] высказано предположение, что для реализации человеческого интеллекта могут потребоваться вычислительно более эффективные (хотя и менее впечатляющие) представления, в том числе основанные на использовании хорновских дизъюнктов для представления рассуждений и сужении фактического знания до основных литералов. Агентские и эволюционные модели интеллекта также разделяют подобную идеологию.

Еще один аспект, связанный с формальной эквивалентностью вычислительных моделей, - это вопрос дуализма, или проблема взаимоотношения мозга и тела. По крайней мере со времен Декарта (см. раздел 1.1) философы задавались вопросом взаимодействия и интеграции мозга, сознания и физического тела. Философы предлагали всевозможные объяснения, от полного материализма до отрицания материального существования, вплоть до вмешательства бога. ИИ и когнитологические исследования отвергают картезианский дуализм в пользу материальной модели разума, основанной на физической реализации, или конкретизации символов, формальном описании вычислительных операций над этими символами, эквивалентности представлений и "реализации" знаний и опыта в овеществленных моделях. Успех таких исследований свидетельствует о справедливости выбранной модели [Johnson-Laird, 1998], [Dennett, 1987], [Luger, 1994].




Тем не менее возникает множество вопросов, связанных с эпистемологическими принципами организации интеллекта как физической системы. Отметим некоторые важные проблемы.

1. Проблема представления. Ньюэлл и Саймон выдвинули гипотезу о том, что физическая символьная система и поиск являются необходимой и достаточной характеристикой интеллекта (см. раздел 16.1). Опровергают ли успехи нейронных сетей, генетических и эволюционных подходов к интеллекту гипотезу о физической символьной системе, или же они сами являются символьными системами?

Вывод о том, что физическая символьная система представляет собой достаточную модель интеллекта, привел ко многим впечатляющим и полезным результатам в современной науке о мышлении. Исследования показали, что можно реализовать физическую символьную систему, которая будет проявлять разумное поведение. Достаточность гипотезы позволяет строить и тестировать символьные модели многих аспектов поведения человека ([Pylyshyn, 1984], [Posner, 1989]). Но теория о том, что физическая символьная система и поиск необходимы для разумного поведения, остается под вопросом [Searle, 1980], [Weizenbaum, 1976], [Winograd и Flores, 1986], [Dreyfus и Dreyfus, 1985], [Penrose, 1989].

2. Роль овеществления в познании. Одним из главных предположений гипотезы о физической символьной системе является то, что физическая реализация символьной системы не влияет на ее функционирование. Значение имеет лишь формальная структура. Это ставится под сомнение многими исследователями [Searle, 1980], [Johnson, 1987], [Agre и Chapman, 1987], [Brooks, 1989], [Varela и др., 1993], которые утверждают, что разумные действия в мире требуют физического воплощения, которое позволяет агенту объединяться с миром. Архитектура сегодняшних компьютеров не допускает такой степени внедрения, ограничивая взаимодействие искусственного интеллекта с миром современными устройствами ввода-вывода. Если эти сомнения верны, то реализация машинного разума требует интерфейса, весьма отличного от предлагаемого современными компьютерами.

3. Культура и интеллект. Традиционно упор в ИИ делался на разум отдельного индивида как источник интеллекта. Предполагается, что изучение принципов работы мозга (способов кодирования и манипулирования знаниями) обеспечит полное понимание истоков интеллекта. Но можно утверждать, что знание лучше рассматривать в контексте общества, чем как отдельную структуру.




В теории интеллекта, описанной в [Edelman, 1992], общество само является носителем важных составляющих интеллекта. Возможно, понимание социального контекста знания и человеческого поведения не менее важно для теории интеллекта, чем понимание процессов отдельного разума (мозга).

4. Природа интерпретации. Большинство вычислительных моделей работают с заранее интерпретированной предметной областью, т.е. существует неявная априорная привязка разработчиков к контексту интерпретации. Из-за этой привязки система ограничена в изменении целей, контекстов, представлений по мере решения задачи. Кроме того, сегодня делается слишком мало попыток осветить процесс построения интерпретации человеком.

Позиция Тарскиана (Tarskian), который рассматривает семантическое приспособление как отображение множества символов на множество объектов, безусловно, слишком слаба и не объясняет, например, тот факт, что одна предметная область может иметь разные интерпретации в свете различных практических целей. Лингвисты пытаются устранить ограничения такой семантики, добавляя к ней теорию прагматики [Austin, 1962] (раздел 13.1). К этим вопросам в последнее время часто обращаются исследователи в области анализа связной речи, поскольку здесь важную роль играет применение символов в контексте. Однако проблема гораздо шире - она сводится к изучению преимуществ и недостатков ссылочных средств в целом [Lave, 1988], [Grosz и Sidner, 1990].

В традиции семиотики, основанной Пирсом [Peirse, 1958] и продолженной в работах [Есо, 1976], [Grice, 1975], [Seboek, 1985], принимается более радикальный подход к языку. Здесь символьные выражения рассматриваются в более широком контексте знаков и знаковых интерпретаций. Это предполагает, что значение символа может быть понято лишь в контексте его интерпретации и взаимодействия с окружающей средой.

5. Неопределенность представлений. Гипотеза Андерсона о неопределенности представлений [Anderson, 1978] гласит: принципиально невозможно определить, какая схема представления наилучшим образом аппроксимирует решение задачи человеком в контексте его опыта и навыков. Эта гипотеза основывается на том факте, что всякая схема представления неразрывно связана с большей вычислительной архитектурой и со стратегиями поиска. Детальный анализ человеческого опыта показывает, что иногда невозможно управлять процессом решения в степени, достаточной для определения представления, или же установить представление, которое бы однозначно определяло процесс. Как и принцип неопределенности в физике, где процесс измерения влияет на исследуемое явление, это соображение важно при проектировании моделей интеллекта, но оно, как будет показано ниже, не ограничивает их применимости.




Такие же замечания могут быть адресованы к самой вычислительной модели, где индуктивные пороги символов и поиска в контексте гипотезы Черча-Тьюринга все же накладывают ограничения на систему. Мысль о необходимости построения некой оптимальной схемы представления вполне может оказаться осколком мечты рационалиста, в то время как ученому нужна лишь модель, достаточно качественная для рассмотрения эмпирических вопросов. Доказательством качества модели является ее способность интерпретировать, предсказывать и адаптироваться.

6. Необходимость построения ошибочных вычислительных моделей. Поппер [Popper, 1959] и другие утверждают, что научные теории должны ошибаться. Следовательно, должны существовать обстоятельства, при которых модель не может успешно аппроксимировать явление. Это связано с тем, что для подтверждения правильности модели не достаточно никакого конечного числа подтверждающих экспериментов. Ошибки в существующих теориях стимулируют дальнейшие исследования.

Крайняя общность гипотезы о физической символьной системе, а также агентских и эволюционных моделей интеллекта может привести к тому, что их будет невозможно заставить ошибаться. Следовательно, их применимость в качестве моделей будет ограниченной. Те же замечания можно сделать по поводу предположений феноменологической традиции (п. 7). Некоторые структуры данных ИИ, такие как семантические сети, тоже настолько общи, что ими можно смоделировать практически все, что поддается описанию, или, как в универсальной машине Тьюринга, любую вычислимую функцию. Таким образом, если исследователю ИИ или когнитологу задать вопрос о том, при каких условиях его модель интеллекта не будет работать, он затруднится ответить.

7. Ограничения научного метода. Некоторые исследователи [Winograd и Flores, 1986], [Weizenbaum, 1976] утверждают, что наиболее важные аспекты интеллекта в принципе невозможно смоделировать, а в особенности с помощью символьного представления. Эти аспекты включают обучение, понимание естественного языка и речь. Эти вопросы корнями уходят глубоко в феноменологическую традицию. Например, замечания Винограда (Winograd) и Флореза (Flores) основываются на проблемах, поднятых в феноменологии [Husserl, 1970], [Heidegger, 1962].

Многие положения современной теории ИИ берут начало в работах Карнапа (Carnap), Фреге (Frege), Лейбница (Leibniz), а также Гоббса (Hobbes), Локка (Locke), Юма (Hume) и Аристотеля. В этой традиции утверждается, что интеллектуальные процессы отвечают законам природы и в принципе постижимы.



Хайдеггер (Heidegger) и его последователи представили альтернативный подход к пониманию интеллекта. Для Хайдеггера рефлексивная осведомленность свойственна миру овеществленного опыта. Приверженцы этой точки зрения, включая Винограда, Флореса и Дрейфуса (Dreyfus), говорят, что понимание личностью каких-либо аспектов основывается на их практическом "использовании" в повседневной жизни. По существу, мир представляет собой контекст социально организованных ролей и целей. Эта среда и функционирование человека в ней не объясняются соотношениями и теоремами. Это поток, который сам себя формирует и непрерывно модифицирует. В фундаментальном смысле в мире эволюционирующих норм и неявных целей человеческий опыт - это знание не объекта, а, скорее, способа действия. Человек по своей сути не способен выразить большую часть своего знания и разумного поведения в форме языка, будь то формального или естественного.

Рассмотрим эту точку зрения. Во-первых, как критика чисто рационалистской традиции, она верна. Рационализм отстаивает позицию, что всякая человеческая деятельность, интеллект и ответственность в принципе могут быть представлены, формализованы и поняты. Большинство вдумчивых людей ставят это под сомнение, отводя важную роль эмоциям, самоутверждению и обязательствам долга (наконец-то!). Сам Аристотель говорил: "Почему я не чувствую побуждения делать то, что требует ответственность?". Существует множество разновидностей человеческой деятельности, выходящих за пределы досягаемости научного метода, которые играют важную роль в сознательном взаимодействии людей. Их невозможно воспроизвести в машинах.

И все же научная традиция, состоящая в изучении данных, построении моделей, постановке экспериментов и проверке результатов с уточнением модели дальнейших экспериментов, дала человечеству высокий уровень понимания, объяснения и способности предсказывать. Научный метод - мощный инструмент для улучшения понимания человека. Тем не менее в этом подходе остается множество подводных камней.

Во-первых, ученые не должны путать модель с моделируемым явлением. Модель позволяет постепенно аппроксимировать феномен, но всегда имеется "остаток", который нельзя объяснить эмпирически. В этом смысле неоднозначность представления не является проблемой. Модель используется для исследования, объяснения и предсказания, и если она выполняет эти функции, то это - удачная модель [Kuhn, 1962]. В самом деле разные модели могут успешно пояснять разные аспекты одного явления, например, волновая и корпускулярная теории света.

Более того, когда исследователи утверждают, что некоторые аспекты интеллекта находятся за рамками методов научной традиции, само это утверждение можно проверить лишь с помощью этой традиции. Научный метод - единственный инструмент, с помощью которого можно объяснить, в каком смысле вопросы могут быть за пределами текущего понимания человека. Всякая логически последовательная точка зрения, даже точка зрения феноменологической традиции, должна соотноситься с текущими представлениями об объяснении, даже если она всего лишь устанавливает границы, в которых феномен может быть объяснен.



Эти вопросы необходимо рассматривать для сохранения логической связности и развития ИИ. Для того чтобы понять процесс решения задач, обучение и язык, необходимо осмыслить представления и знания на уровне философии. Исследователям предстоит решать аристотелевское противоречие между теорией и практикой, жить между наукой и искусством.

Ученые создают инструменты. Все наши представления, алгоритмы и языки - это инструменты для проектирования и построения механизмов, проявляющих разумное поведение. Посредством эксперимента можно исследовать как их вычислительную адекватность для решения задач, так и наше собственное понимание явления интеллекта.

Мы наследники традиции Гоббса, Лейбница, Декарта, Бэббиджа, Тьюринга и других, о чьем вкладе в науку было рассказано в главе 1. Инженерия, наука и философия; природа идей, знаний и опыта; могущество и пределы формализма и механизма - это ограничения, с которыми необходимо считаться и с учетом которых нужно продолжать исследования.

16.4. Резюме и дополнительная литература

Для получения дополнительной информации читатель может воспользоваться ссылками, приведенными в конце главы 1. К ним стоит добавить работы [Pylyshyn, 1984] и [Winograd и Flores, 1986]. Вопросы когнитологии рассматриваются в [Norman, 1983], [Newell и Simon, 1972], [Posner, 1989], [Luger, 1994], [Ballard, 1997], [Franklin, 1995], [Jeannerod, 1997], [Elman и др., 1996].




В работах [Haugeland, 1981, 1997], [Dennett, 1978], [Smith, 1996] описаны философские корни теории интеллектуальных систем. Книга [Anderson, 1990] по когнитивной психологии дает ценные примеры моделей обработки информации. В работах [Pylyshin, 1984], [Anderson, 1978] приводится детальное описание многих принципиальных вопросов когнитологии, включая рассмотрение неопределенности представлений. В [Dennett, 1991] методы когнитологии применяются для исследовании структуры сознания. Также можно порекомендовать книги по научному методу: [Popper, 1959], [Kuhn, 1962], [Bechtel, 1988], [Hempel, 1965], [Lakatos, 1976], [Quine, 1963].

Наконец, в [Lakoff и Johnson, 1999] предложены возможные ответы на вопрос обоснования. В книге [Clark, 1997] описаны важные аспекты овеществленности интеллекта. Описание модели Брукса [Brooks, 1991a] для решения задачи внедренного робота можно найти в работах [McGonigle, 1990, 1998] и [Lewis и Luger, 2000].



Содержание раздела