Законы науки о человеке

The Laws of Humanics (1987)

Перевод: В. Гольдич


Три моих первых романа о роботах были в основе своей посвящены таинственным убийствам, в роли детектива выступал Илайджа Бейли. Из этих трех во втором романе – «Обнаженное солнце» – местом преступления является запертая комната, в которой находят труп и никакого оружия, хотя с самого начала ясно, что спрятать или вынести оружие было невозможно.

Мне удалось придумать вполне удовлетворительное решение, но я больше никогда не писал ничего подобного.

Четвертый роман о роботах – «Роботы и Империя» – изначально не является историей о загадочном убийстве. Илайджа Бейли умер собственной смертью в преклонном возрасте, а дальше повествование поворачивает в сторону вселенной «Основания», так что становится ясно, что обе мои известные серии – о роботах и «Основание» – сливаются вместе в единое, расширенное целое. (Нет, я сделал это не случайно. Мною двигала необходимость, возникшая после написания в 1980-х годах продолжения серий, созданных в 1940-х и 1950-х.) В «Роботах и Империи» герой-робот по имени Жискар, которого я очень люблю, рассуждает о «Законах науки о человеке», могущей, по моему мнению, впоследствии положить начало науке психоистории, играющей существенную роль в серии «Основание».

Строго говоря, Законы науки о человеке должны являться описанием (в сжатой форме) поведения человека. Естественно, такого описания в природе не существует. Даже психологи, изучающие данные проблемы с научной точки зрения (по крайней мере, я на это очень надеюсь), не могут представить никаких «законов» и отделываются лишь длинными и запутанными рассуждениями на тему о том, что люди делают, по их мнению. Когда психолог говорит, что человек реагирует определенным образом на определенный стимулятор, он имеет в виду, что так происходит с некоторыми людьми в некоторый момент. Другие в другой момент могут вести себя иначе или вовсе никак не реагировать.

Если мы будем действительно дожидаться появления неких правил поведения человека с целью создания науки психоистории, я полагаю, мы будем вынуждены ждать очень долго.

В таком случае, что нам делать с Законами науки о человеке? Думаю, нужно потихоньку начать и постепенно развивать их – если у нас, конечно, получится.

Таким образом, в «Роботах и Империи» появляется робот Жискар, который поднимает эти вопросы. Будучи роботом, он должен смотреть на все происходящее с точки зрения Трех законов роботехники, которые жестко предписывают ему, как он должен себя вести, поскольку он обязан им подчиняться и не может их нарушить.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму законам.

Мне кажется, робот не может не думать о том, что человеческим существам следует вести себя таким образом, чтобы роботам стало легче выполнять эти Три закона.

По правде говоря, я считаю, что люди, придерживающиеся этических норм, должны стараться облегчить жизнь роботам, как на их месте поступили бы роботы. Данные размышления стали темой рассказа «Двухсотлетний человек», опубликованного в 1976 году. Один герой-человек говорит:

«Раз человек имеет право отдать роботу любой приказ, лишь бы он не был во вред другому человеку, то простая порядочность не должна позволять ему отдавать роботу распоряжения во вред этому роботу, за исключением тех случаев, когда этого бесспорно требует спасение человеческой жизни. Чем больше власть, тем больше и ответственность, и если роботы подчинены Трем законам, гарантирующим безопасность людей, неужели так уж много – попросить, чтобы люди ввели закон-другой для защиты роботов?»

Например, Первый закон состоит из двух частей. Первая: «робот не может причинить вред человеку» – однозначна, и с ней ничего не нужно делать. Вторая: «или своим бездействием допустить, чтобы человеку был причинен вред», – дает нам некоторые возможности для полета фантазии. Человек может пострадать от какого-то неодушевленного предмета. На него упадет что-нибудь тяжелое, или он поскользнется и свалится в озеро, или с ним случится любой из тысяч несчастных случаев, предвидеть которые невозможно. В такой ситуации робот должен попытаться спасти человека: вытащить в безопасное место, поддержать и тому подобное. Или человеку будет угрожать какое-нибудь живое существо, например лев, и тогда робот тоже обязан прийти ему на помощь.

А что, если человеку угрожает другой человек? Здесь роботу придется принимать решение, что ему делать. Сможет ли он спасти одного человека, не причинив вред другому? Или если избежать этого невозможно, какие действия следует предпринять, чтобы вред был минимальным?

Роботам жилось бы намного легче, если бы люди так же беспокоились о благополучии других людей, как должны это делать роботы. И разумеется, любой кодекс морали потребует от человека заботиться о других и стараться сделать все, чтобы им не был причинен вред. Что, в конце концов, и является мандатом, который люди дали роботам. Получается, что Первый закон науки о человеке с точки зрения роботов должен звучать так:

1. Человек не может допустить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Если этот закон будет выполняться, роботам останется лишь оберегать людей от несчастных случаев с неодушевленными предметами и живыми существами (не людьми), что освободит их от решения этических проблем. Разумеется, робот должен оберегать человека от вреда, который может неосознанно причинить ему другое человеческое существо. Кроме того, он обязан быть готов прийти ему на помощь, если другой человек по объективным причинам не в состоянии оказать ему эту помощь достаточно быстро. Однако даже робот может неосознанно навредить человеку, и даже робот может не проявить достаточной сноровки и не успеть попасть к месту действия, да и умений ему может не хватить, чтобы предпринять необходимые меры. Ничто в нашем мире не идеально.

Таким образом, мы подходим ко Второму закону роботехники, который требует, чтобы робот повиновался всем приказам, отданным ему человеком, если они не вступают в конфликт с Первым законом. Это означает, что человек имеет право приказывать роботу все, что угодно, без ограничений, если только его желания не причинят вред другому человеку.

Но ведь человек может приказать роботу нечто невыполнимое или его воля поставит робота перед дилеммой, которая может повредить позитронный мозг. В расскаже «Лжец», опубликованном в 1940 году, человек совершенно сознательно поставил перед роботом задачу, которая сожгла его мозг, и машина перестала существовать.

Мы можем даже представить ситуацию, когда появятся достаточно разумные роботы, которые будут в состоянии избежать гибели, если их вынудят делать нечто бессмысленно сложное или злостное. Следовательно, Второй закон науки о человеке должен гласить:

2. Человек должен отдавать роботу приказы, которые не вредят существованию робота, если только эти приказы не явятся причиной вреда или неудобства для других людей.

Целью Третьего закона роботехники было защитить роботов, но с точки зрения робота он может показаться не слишком надежным. Робот должен пожертвовать собой, если того потребуют Первый и Второй законы. Когда речь идет о Первом законе, тут не может быть никаких возражений. Робот обязан забыть о собственной безопасности, если это единственный путь защитить человека или предотвратить опасность, которая ему угрожает. Если мы признаем, что любое человеческое существо важнее любого робота (по правде говоря, я признаю это не вполне охотно), то такая формулировка неизбежноа.

С другой стороны, должен ли робот жертвовать собой, выполняя какой-нибудь несущественный или даже вредоносный приказ? В «Двухсотлетнем человеке» хулиганы сознательно приказывают роботу разобрать себя на части исключительно ради собственного развлечения. Получается, что Третий закон науки о человеке должен звучать следующим образом:

3. Человек не должен причинять вреда роботу или своим бездействием допустить, чтобы роботу был причинен вред, кроме тех случаев, когда робот вынужден пожертвовать собой, чтобы спасти человека или выполнить жизненно важный приказ.

Естественно, мы не можем навязать эти законы, как в ситуации с законами роботехники. Мы не в силах запрограммировать мозг человека, как мозг робота. Однако это начало, и я искренне считаю, что, если нам предстоит управлять умными роботами, мы должны быть за них ответственны, как сказал мой герой из рассказа «Двухсотлетний человек».

Загрузка...