Программы Искусственного Интеллекта. Будущее машин по теории Норберта Винера
Современные программы ИИ обычно состоят из набора модульных компонентов (или правил поведения), которые не выполняются в жестко заданном порядке, а активизируются по мере надобности в зависимости от структуры конкретной задачи. Система обнаружения совпадений позволяет применять общие правила к целому диапазону задач. Эти системы необычайно гибки, и это позволяет относительно маленьким программам проявлять разнообразное поведение в широких пределах, реагируя на различные задачи и ситуации. Можно ли довести гибкость таких программ до уровня живых организмов? Этот вопрос все еще является предметом жарких споров. Нобелевский лауреат Герберт Саймон сказал, что своеобразие и изменчивость поведения, присущие живым существам, возникли скорее благодаря сложности окружающей их среды, чем благодаря сложностям их внутренних «программ». Саймон описывает муравья, петляющего по неровной, пересеченной поверхности: хотя путь муравья и кажется довольно сложным, цель муравья предельно проста – как можно скорее вернуться в свою колонию. Изгибы и повороты его пути вызваны встречаемыми препятствиями. Из всего этого Саймон делает следующий вывод: «Муравей, рассматриваемый в качестве проявляющей разумное поведение системы, на самом деле очень прост. Кажущаяся сложность его поведения в большей степени отражает сложность среды, в которой он существует». Эта идея, если удастся доказать ее применимость к организмам с более сложным интеллектом, составит сильный аргумент в пользу простоты и постижимости интеллектуальных систем. Интересно, что, применив эту идею к человеку, мы придем к выводу об огромной значимости культуры в формировании интеллекта. Интеллект, похоже, не взращивается во тьме, как грибы, для его развития необходимо взаимодействие с достаточно богатой окружающей средой. Культура так же необходима для создания человеческих существ, как человеческие существа необходимы для создания «мыслящих» машин. Интеллект возникает из взаимодействий индивидуальных элементов. Другой ученый, работающий в области ИИ-исследований – Норберт Винер. Доктор математических наук Винер, основатель кибернетики, написал множество книг, посвященных машинам, их использованию, их будущему и настоящему. В своих работах ученый исследует проблему искусственного интеллекта и кибернетики не только с точки зрения математики. Будучи ученым широко профиля, Винер интегрирует в своих исследованиях достижения и знания из различных областей науки. Сотрудничая с физиологами и психологами, он доказывает некоторое сходство работы «электронного мозга» с человеческим. Однако, как отмечает Винер в своей книге «Кибернетика», даже обладая определенным набором рецепторов, эффекторов и некоторым подобием центральной нервной системы, сходство поведения вычислительных машин и других современных автоматов является лишь имитацией простейших условных рефлексов живых существ. Отсюда далеко до целостного, осмысленного восприятия внешнего мира и самостоятельного, творческого мышления. Все вышесказанное полностью относится и к человекоподобным роботам – это весьма примитивные модели человека. Однако, в будущем, Винер считает возможным создание не только разумной машины, но и машины «умнее своего создателя». Не исключает он и бунта машин. Он полагает, что не только робот, но и любая стратегическая машина способна вызвать катастрофу: «…машина должна программироваться опытом. …ошибка в этом отношении может означать лишь немедленную, полную и окончательную гибель. Мы не можем рассчитывать на то, что машина будет подражать нам в тех предрассудках и эмоциональных компромиссах, благодаря которым мы позволяем себе называть разрушение победой». Таковы мнения ученых, стоящих у истоков развития науки об искусственном интеллекте, внесших огромный вклад в ее теоретическую и практическую базу. В самом конце 50-60х г.г. XX века почти все силы специалистов были направлены на поиск и составление программ, имитирующих отдельные стороны интеллектуальной деятельности человека. Однако большинство попыток оказались неудачными в том плане, что, даже обладая весомым набором информации, малейшее изменение условий их применения ставили работу программы в тупик. Первой ласточкой была система, названная ее создателями кибернетиком Аланом Ньюменом и психологом Гербертом Саймоном «Общий решитель задач». В ее основе лежит простое соображение. Пусть в распоряжении системы имеется некий набор стредств, т.е. для ЭВМ это набор программ. Пусть каждое средство заданным для ЭВМ образом меняет сложившуюся ситуацию в данный момент. Кроме того, для каждой пары ситуаций ЭВМ способна определить различие между ними и сколь это различие велико. Тогда процедура цель-средства будет реализовываться следующим образом: есть начальная ситуация и ситуация, к которой система стремится. Система проверяет, имеется ли различие между начальной и целевой ситуациями. Если оно отсутствует или меньше заданного порога, то задача решена. Если различие нельзя проигнорировать, система ищет средства для ее решения. Когда таких решений нет, то она отказывается от решения задачи, если таких решений несколько – использует то из них, которое требует наименьших затрат, либо «бросает монетку» и выбирает одно из подходящих средств случайным образом. Этот процесс продолжается до тех пор, пока либо не найдется нужное решение, либо сама система не зайдет в тупик, когда ни одно из имеющихся решений не сможет устранить различие. Можно сказать, что автоматическое доказательство теорем – одна из старейших частей искусственного интеллекта, корни которой уходят к системам Logic Theorist (логический теоретик) Ньюэлла и Саймона, и General Problem Solver (универсальный решатель задач), и так далее, к попыткам Рассела и Уайтхеда построить всю математику на основе формальных выводов теорем из изначальных аксиом. В любом случае эта ветвь принесла наиболее богатые плоды. Благодаря исследованиям в области доказательства теорем были формализованы алгоритмы поиска и разработаны языки формальных представлений, такие как исчисление предикатов и логический язык программирования PROLOG. Привлекательность автоматического доказательства теорем основана на строгости и общности логики. Разнообразные проблемы можно попытаться решить, представив описание задачи и относящуюся к ней информацию в виде логических аксиом и рассматривая различные случаи задачи как теоремы, которые нужно доказать. Этот принцип лежит в основе автоматического доказательства теорем и систем математических обоснований. К сожалению, в ранних пробах написать программу для автоматического доказательства, не удалось разработать систему, которая бы единообразно решала сложные задачи. Это было обусловлено способностью любой относительно сложной логической системы сгенерировать бесконечное количество доказуемых теорем: без мощных методик (эвристик), которые бы направляли поиск, программы доказывали большие количества не относящихся к делу теорем, пока не натыкались на нужную. Из-за этой неэффективности многие утверждают, что чисто формальные синтаксические методы управления поиском принципиально не способны справляться с такими большими пространствами, и единственная альтернатива этому – положиться на неформальные стратегии, как это делают люди. Все же, привлекательность рассуждений, основанных на формальной логике, слишком сильна, чтобы ее игнорировать. Многие важные проблемы, такие как проектирование и проверка логических цепей, проверка корректности компьютерных программ и управление сложными системами, по-видимому, поддаются такому подходу. Вдобавок исследователям автоматического доказательства удалось разработать мощные эвристики, основанные на оценке синтаксической формы логического выражения, которые в результате понижают сложность пространства поиска, не прибегая к используемым людьми методам Еще одной причиной неувядающего интереса к автоматическому доказательству теорем является понимание, что системе необязательно решать особо сложные проблемы без человеческого вмешательства. Многие современные программы доказательств работают как умные помощники, предоставляя людям разбивать задачи на подзадачи и продумывать эвристики для перебора в пространстве возможных обоснований. Бесспорно, что преимущество машины перед человеком состоит в ее большой работоспособности. Действительно, первые два компонента ЭВМ – быстродействие и объем памяти – в несметное число раз превосходят человеческие возможности. А вот в отношении третьего компонента – алгоритмов решения задач – весомых успехов пока нет. Возможно ли все-таки создать искусственный кибернетический разум, который был бы умнее своего создателя? Люди используют в своей деятельности два типа алгоритмов: 1. – алгоритмы управления (планирования). Такого рода алгоритмами в той или иной степени владеют большинство людей. 2 тип – алгоритмы поиска алгоритмов управления. Такими алгоритмами владеют немногие, в основном те, кто ведет исследовательские работы. Конечная цель любой подлинно научной работы – построение алгоритмов поиска, алгоритмов управления в какой-либо области деятельности человека. Таким образом, если удасться познать, формализовать и передать такой алгоритм поиска алгоритмов управления машине, то она найдет (в силу большего, чем у человека, быстродействия и объема памяти) алгоритм более высокого уровня, чем те, которые используют люди. Такая ЭВМ будет не только работоспособнее, но и разумнее человека. Одной из долгосрочных целей искусственного интеллекта является создание программ, способных понимать человеческий язык и строить фразы на нем. Способность применять и понимать естественный язык является фундаментальным аспектом человеческого интеллекта, а его успешная автоматизация привела бы к неизмеримой эффективности самих компьютеров. Многие усилия были затрачены на написание программ, понимающих естественный язык. Хотя такие программы и достигли успеха в ограниченных областях, системы, использующие натуральные языки с гибкостью и общностью, характерной для человеческой речи, лежат за пределами сегодняшних методологий. Понимание естественного языка включает куда больше, чем разбор предложений на индивидуальные части речи и поиск значений слов в словаре. Оно базируется на обширном фоновом знании о предмете беседы и идиомах, используемых в этой области, а так же на способности применять общее контекстуальное значение для понимания недомолвок и неясностей, присущих естественной человеческой речи. Представьте, например, как сложно будет разговаривать о футболе с человеком, который ничего не знает об игре, правилах, ее истории и игроках. Способен ли будет такой человек понять смысл фразы «в центре Иванов перехватил верхнюю передачу – мяч полетел к штрафной соперника, там за него на «втором этаже» поборолись Петров и Сидоров, после чего был сделан пас на Васина в штрафную, который из-под защитника подъемом пробил точно в дальний угол»? Хотя каждое отдельное слово в этом предложении можно понять, фраза звучит совершенной тарабарщиной для любого нефаната. Задача сбора и организации этого необходимого фонового знания, чтобы его можно было применить к осмыслению языка, составляет значительную проблему в автоматизации понимания естественного языка. Для ее решения исследователи разработали множество методов структурирования семантических значений, используемых повсеместно в искусственном интеллекте. Человеческий интеллект служит отправной точкой в создании искусственного, однако это не означает, что программы должны формироваться по образу и подобию человеческого разума. Действительно, многие программы ИИ создаются для решения определенных насущных задач без учета человеческой ментальной архитектуры. Даже экспертные системы, заимствуя большую часть своего знания у экспертов-людей, не пытаются моделировать внутренние процессы человеческого ума. Если производительность системы – это единственный критерий его качества, то нет особых оснований имитировать человеческие методы принятия решений. Программы, которые используют несвойственные людям подходы, зачастую более успешны, чем их человеческие соперники. Тем не менее конструирование систем, которые могли бы детально моделировать какой-либо аспект работы интеллекта человека, стало плодотворной областью исследований как в искусственном интеллекте, так и в психологии.
|