Лем Станислав ИСКУССТВЕННЫЙ РАЗУМ?

В одной из партий, которую сыграл Каспаров с компьютером Deep Blue, компьютер, вопреки ожиданиям партнера-человека, легкую для взятия фигуру не тронул, и это привело через достаточно большое количество ходов к победе машины. Каспаров говорил о том, что он почувствовал, по крайней мере ему так показалось, что он почувствовал, в действиях машины интеллект: затаившийся замысел в сделанном стратегическом ходе.

После победы компьютера меня многократно спрашивали о том, можно ли его (компьютер) вообще подозревать в обладании «интеллектом», на что я последовательно отвечал (спрашивающим журналистам), что нет. Чтобы получить некоторую, строго говоря, «компрессию высказывания», то есть избавить его, насколько это возможно, от того, что для самой его сути является несущественным, нужно сказать, что в обсуждение нужно уже в этом месте ввести РАЗУМ или РАЗУМНОСТЬ, потому что «интеллекта» недостаточно. Но почему собственно? Он более «безличностный», чем «разум». Сохранение артефакта (каким может быть компьютер) могло бы, в самом деле, казаться «интеллектуальным», но не обязательно одновременно и «разумным». Прежде всего потому, что и нехотя можно вести себя интеллектуально, но нехотя вести себя РАЗУМНО, скорее всего, нельзя, так как импликацией разумности является ее осознание. Правда, социальное поведение насекомых, особенно живущих общественно, таких, как пчелы или муравьи, управляется «врожденными инстинктами», однако легко можно признать, что им ближе к «интеллекту», особенно к коллективному, чем к РАЗУМУ. И ведь неслучайно масса людей бьется над добыванием из нечеловеческих устройств «интеллекта», в то время как «РАЗУМ» как будто бы никем не планируется и не проектируется. Почему?

Это очень тяжелый для решения вопрос, так как речь идет о понятиях, которые имеют «размытое поле дефиниционного значения», и более того, можно сказать, употребляя современную терминологию, что это термины из такой группы, которую мы называем «FAZZY SETS» [ «нечеткие множества». Математическая теория нечетких множеств, предложенная профессором Калифорнийского университета Лотфи А. Заде (Lotfi A. Zadeh) в 1965 году, позволяет описывать нечеткие понятия и знания, оперировать этими знаниями и делать нечеткие выводы. Основанные на этой теории методы построения компьютерных нечетких систем существенно расширяют области применения компьютеров — здесь и далее в квадратных скобках примечания переводчика]. Deep Blue мог произвести на человека-противника такое впечатление, будто «мерцает в нем», т. е. машине, искра интеллекта, потому что «он видел дальше», чем этот противник, то есть был способен предвидеть, какое дендрическое поле возможных в рамках правил шахматных ходов таит в себе будущее. Это существенно — обращение к будущим возможностям ЯВЛЯЕТСЯ одной из составляющих ума, но также может быть и только показателем чисто неразумного инстинкта, который действует в насекомых или других живых существах (каковым мы не можем приписывать разум). Управляемое инстинктом поведение роднит с «интеллектом» прежде всего то, что оно обращено с положительным результатом в будущее, что, короче говоря, оно обладают чертами ТЕЛЕОЛОГИЧЕСКИМИ. С определенной целью. Понятно, что такого рода целенаправленность (встроенную программистами) Deep Blue ДОЛЖЕН БЫЛ иметь, иначе он не играл бы таким образом, чтобы стремиться поставить Каспарову мат.

Здесь уже напрашивается следующее замечание. Deep Blue был, некоторым образом, как МОДУЛЬ (субагрегат), созданный механизированием, как бы вынутый из мозга выдающегося шахматиста-человека. Это не совсем правда, это, в лучшем случае, МОЖЕТ быть упрощенным приближением к правде, так как компьютер, о котором идет речь, обладал вычислительной производительностью (200 000 000 операций в секунду), которой ни один человек обладать не может, и ему эту недостающую производительность заменяет интуиция, на сколько таинственная, на столько и обманчивая. И уже чрезмерно растягивая это отступление, в скобках добавлю, что согласно мнению 99 % самых выдающихся математиков так называемая Великая Теорема Ферма НЕДОКАЗУЕМА; иначе говоря, интуиция ПОДВЕЛА его, когда он написал на полях книги, что доказательство есть, но на него нет места на этих полях. Короче говоря, интуиция может быть необязательно точной, и мы только по-прежнему не знаем, «как она это делает», так как действует она вне сознания и ведет себя как отличник, который подсказывает правильные ответы своему товарищу, отвечающему экзаменатору: товарищ повторяет, но то, что он повторяет, он не должен понимать… Разумный же ответ он сам своей «разумностью» ДОЛЖЕН понимать. Хотя Deep Blue и весит около полутора тонн, мы функционально можем его признать за ОДИН модуль, так как знаем, что мозг человека состоит из огромного количества модулей, большинство которых nota bene вообще функционально не занято чем-либо, что не происходит в самом организме (в теле) и за пределами организма. Большинство модулей мозга служит телу, происходящим в нем процессам обмена и изменений (тканевых, например). Но только «меньшинство» может активно проявлять «экстериоризованную разумность» [от exterior — внешний вид]. Тогда, например, все «экспертные программы», от геологических до медицинских, — это другие модули, а загвоздка в том, что это такие вместилища выборочно сформированной информации, по существу актуальной, и в этом смысле оптимальной, что они являются как бы дистиллятами современного состояния наших лучших знаний с одним, но чрезвычайно важным недостатком: они — модули «для себя» и для нашего использования, когда они как бы «призываются» для этого, но они «не понимают друг друга», и мы пока не знаем, что сделать, чтобы они соединились бы более-менее так, как это происходит в нашем мозгу. Модули мы уже можем составлять, но дать им способность самопроизвольно влиять на себя мы не умеем, и В ЭТОМ СЕЙЧАС ГЛАВНАЯ БЕДА «Artificial Intelligence» [ «Искусственный интеллект»]. Люди, увлеченные AI, как Марвин Мински [Marvin Minsky], по-прежнему уверены, что МОЖНО сконструировать искусственный интеллект, а также философы, как, например, Даниэл Деннет [Daniel Dennet], который, пожалуй, раз сто объяснил («выяснил»), на чем основывается сознание и «окончательно сорвал маску и решил» загадку сознания. Такие люди живут с ощущением, что от работающего Artificial Intelligence нас отделяет шаг или пара шагов. Однако, я опасаюсь, что это не так просто. То, что целостную работу мозга составляет общая деятельность отдельных модулей, мы сегодня знаем уже наверняка (если мы вообще что-то знаем наверняка).

Вопрос, который мы должны поставить сейчас, звучит так: ЧТО еще мы знаем, а чего НЕ ЗНАЕМ? Так, например, известно, что мы видим то, что является видимым ДЛЯ НАС, но это в значительной мере следует из ОБУЧЕНИЯ и ТРЕНИРОВКИ. Люди, слепые от рождения, которым удается через несколько лет восстановить зрение, «видят» хаос цветных пятен в движении и ничего больше, но, например, «просмотр самых лучших фотографий» людьми, которые никогда никаких изображений не видели, показывает, что и они не в состоянии автоматически преобразовывать в своем мозгу проекцию на плоскости в трехмерную стерео-проекцию. А, например, для собаки самый отчетливый и красочный образ на экране телевизора ничего не являет собой и «ничего не значит». То есть, «обработка» данных является делом особым информационно и функционально: на самом деле, уже появляются компьютерные системы, которым можно голосом диктовать на том языке, на который система запрограммирована, и даже после подготовки система может научиться писать или выстукивать, как стенотипистка, произносимый текст, что является очень хорошим достижением конструкторов, но и такая система «ничего не понимает». В последнее время появились (параллельно с шахматными матчами компьютеров и людей) очередные попытки разыграть «ТЕСТ ТЬЮРИНГА», то есть такие, чтобы компьютер имитировал в разговоре обычного человека. [ «Тьюринг в своей работе „Может ли машина думать?“ предлагает в качестве определяющего критерия „игру в имитацию“, которая заключается в том, что задаем Кому-либо произвольные вопросы и на основе ответов должны сделать вывод, является ли этот Кто-то человеком или машиной. Если не можем отличить машину от человека, следует признать, что машина ведет себя как человек, то есть имеет сознание» это и есть тест Тьюринга. Цитата взята из эссе С. Лема «Душа в машине» из сборника «Мегабитовая бомба»]. Окончились они жалким поражением: просто компьютеры, как ничего не понимали 50 лет назад, так по-прежнему ничего не понимают.

В определенном, но только в определенном, тонком смысле, связано это с тем, что А) получившие зрение (как это было сказано выше) слепые ничего не видят впоследствии, то есть не способны совершить мозговых, у нас — абсолютно автоматических и ВНЕСОЗНАТЕЛЬНО происходящих операций, которые дают нам возможность «видения»; В) подрастающие и выросшие без контактов с нормальной человеческой средой дети где-то после 7–9 лет не в состоянии научиться разговору: они остаются почти немыми и НЕ ПОНИМАЮТ того, что им говорят; и так далее. Значительная часть мозговых модулей, связанная с жизненными процессами (функциями) организма, в выше названных недостающих контактах с окружением НЕ НУЖДАЕТСЯ (мочеиспусканию и испражнению не надо учиться: мы учимся только обстоятельствам и способам, какими ЭТО следует делать, потому что в гостиной никто не спускает штаны, чтобы облегчиться). Однако же и без обучения, без тренировки мозг достичь нормально средней способности не в состоянии. Тогда было бы странным ожидать возникновения аналогичных или, по крайней мере, подобных способностей в результате соответствующего программирования компьютера, хоть бы он и должен был весить сто тонн.

Повреждения мозгового модуля видения в цвете ведет к тому, что на самом деле можно по-прежнему все прекрасно видеть, но только так, как в черно-белом кино. Это свидетельствует о «наложении» друг на друга работы повсеместно действующих систем, относящихся к оптическому радиусу действия коры мозга. И что еще хуже — бывает слепота коры, которая является осознанно подтверждаемой неспособностью видеть, и слепота коры, которая сопровождается «подкорковым зрением»: человек правдиво говорит, что ничего не видит, но брошенный ему мяч хватает на лету, что объясняет себе тем, что в мозгу, и не только на путях оптически работающих нейронов, существует целая восходящая иерархия, и такой человек одновременно «видит» и «не видит», так как «в нем» видит низшая система, почти где-то при CORPORA GUADRIGEMINA, о чем он сам не знает в том смысле, в каком мы ничего не знаем о работе наших почек, несмотря на то, что они 24 часа в сутки неустанно работают.

Повсеместно известно такое явление, как «рассеянность», которое обоснованно или необоснованно приписывается не только людям пожилого возраста, но и ученым, особенно мыслителям, погруженным в какую-то медитацию. Такой человек может совершать различные действия несколько автоматически, т. е. бессознательно. Эти действия могут, но не должны, быть каким-либо образом целенаправленными или бессмысленными (например, поношенную рубашку я кладу в морозилку вместо стиральной машины). Осознанные post factum они часто возбуждают некоторое веселье. Рассеянным может быть только существо, наделенное интеллектом! Нет «рассеянных» мух или пчел. Это следует из высшей сложности интеллектуальных способностей, но, с другой стороны, нет особенно глупых муравьев или тараканов, в то время как от глупых людей в глазах роится. В связи с этим напрашивается слабая надежда, что, прежде чем нам удастся создать искусственный интеллект, после долгих трудов нам удастся создать систему, наделенную значительной глупостью, но в этом я не совсем уверен… Nota bene как очередное отступление от темы, добавлю, что я считаю себя достаточно умным человеком, не обремененным высокой степенью способности игры в шахматы, но правила этой игры, конечно, знаю. «Рассеянность» просто основана на том, что определенное, обычно известное и совершаемое действие, подвергается автоматизации на уровне бессознательности, и, кроме того, его эффективное, т. е. реальное исполнение НЕ вводится как совершенный факт ни во временную, ни в постоянную память. Есть доказательства, что и это действие может оставить след и быть зафиксировано при особом усилии памяти и/или под влиянием «помощи», например, гипнотизера, при этом приходит осознание, что ведь это действие было совершено. (Гипнотизер nota bene совсем не обязателен: может быть достаточно свидетельства наблюдателя, как постороннего лица).

С виду все вышеизложенное выглядит болтовней, потому что, по существу, указывает, насколько далеко стоит РАЗУМ от ИНТЕЛЛЕКТА, но сегодня по-прежнему они оба отделены пропастью от машинного моделирования. Я лично считаю, что это ПЕРЕХОДНОЕ состояние. Невозможно то, что запрещают точные науки. Они, однако, искусственного разума НЕ запрещают.

Мне кажется — но я не в состоянии подкрепить то, что скажу, никаким веским аргументом или хотя бы его тенью — что в конце концов скорее будет возможна реализация ИСКУССТВЕННОГО ИНТЕЛЛЕКТА, а не ИСКУССТВЕННОГО РАЗУМА. Я думаю так, потому что интеллект мне кажется более БЕЗЛИЧНЫМ, то есть лишенным признаков индивидуальности, чем РАЗУМ. Едва ли не первым математиком, который сумел результативно и соответствующим образом использовать компьютер в творческой работе, был Станислав Улам [Stanisiaw Ulam]. (Не знаю, была ли издана на польском языке его книга на эту тему: я ее читал по-русски [речь идет о книге «Кац М., Улам С. Математика и логика. Ретроспектива и перспективы» — Москва, «Мир», 1971]). Так вот, эмоциональной жизни компьютер лишен полностью, но в работе математика это не мешает. (Добавлю, что выдающийся немецкий психолог Дитрих Дшрнер [Dietrich Dorner] больше года тому назад описывал свою компьютерную программу, которая должна была быть эмоциосозидательной, «эффективно аффективной», но выводы, опубликованные Дшрнером, не убедили меня, и, что еще хуже, нигде в научной прессе я не нашел ни слова о таком достижении). Вещью известной и не исключительной является то, что самые разнообразные, т. е. в далеких друг от друга областях творческой мысли совершаемые достижения, были некоторым образом «подсказаны» сознанию внесознанием, которое МОЖНО БЫЛО БЫ отождествлять с результатами действия интуиции. Не будучи ученым, в своей писательской области могу сказать только следующее: несколько моих романов не были в их целостной фабуле написаны мной, в том смысле, чтобы я что-то себе планировал, осмыслял, схематизировал или хотя бы ПРЕДВИДЕЛ, ЧТО У МЕНЯ, собственно, напишется. Тогда откуда «ЭТО» взялось? Ответить напрямую, с полной уверенностью, что было так и так, я не могу, так как сам не знаю, и здесь я сам отдан исключительно домыслам (предположениям), что то, что «писалось», вытекало извне сознания, конечно же, переходило в поле сознания, потому что я писал не под гипнозом или в гипногогическом состоянии, но «совершенно обычно» видя, что пишу и вместе с тем, не имея понятия, «что будет», «что произойдет», т. е. ЧТО я еще напишу. [Речь идет в том числе и о наиболее известном романе С. Лема «Солярис»]. И таким образом, только весьма релятивным (относительным) образом можно признать сознание главенствующим в умственном труде. Nota bene компьютер в ЭТОМ вопросе ТАК не отличается от работающего мозга, как бы prima facie могло показаться, потому что и он, выполняя приказы (команды) программы, не сумел бы «заранее» напечатать, какой будет финал работы: «что из этой программы» (симуляционной, например) получится. Таким образом, между ним и нами появляются функциональные «точки соприкосновения», и то, что именно так бывает, вселяет в меня некоторый оптимизм (что касается AI) относительно будущего. Но потом только, то есть после ТАКОГО достижения, может оказаться, что до «искусственно разума» дорога еще далекая. Что опять-таки связано с моим замечанием, что интеллект интеллектом, а людей глупых по статистике больше, чем интеллигентных, а разумных совсем немного…

Написано в мае 1997 г.

Загрузка...