Глава 14 Мотив

Рот Либига широко открылся. Сперва Бейли показалось, что он собирается зарычать, но потом, к собственному удивлению, Бейли понял, что стал свидетелем одной из самых неудачных за всю его жизнь попыток улыбнуться.

- Никогда так не говорите. Никогда, - произнес роботехник.

- Почему?

- Потому что любое недоверие к роботам, пусть даже незначительное, губительно. Недоверие к роботам - болезнь человечества.

Либиг говорил таким тоном, как будто объяснял простые истины ребенку. Чувствовалось, что он принуждает себя говорить спокойно, вместо того, чтобы заорать, и что вместо попыток убедить собеседника подобру-поздорову, он предпочел бы наблюдать за его казнью.

- Вы знакомы с историей роботехники? - Спросил Либиг.

- Немного.

- Конечно, вам, землянину, это должно быть знакомо. Вы знаете о существовании комплекса Франкенштейна? Роботов всегда подозревали. Человечество боялось и не доверяло им. В результате роботехника стала чуть ли не подпольной наукой. Чтобы преодолеть недоверие, в роботов встроили три закона. Но даже так, Земля не позволила роботизированному обществу развиваться. Одной из причин, почему первые поселенцы отправились осваивать галактику, была та, что там они могли основать общества, в которых роботы избавят людей от нужды и тяжелого труда. Но даже в этом случае, искра недоверия к роботам продолжала тлеть, готовая вспыхнуть от малейшего дуновения.

- Вы сами сталкивались с недоверием к роботам? - Спросил Бейли.

- Много раз, - хмуро ответил Либиг.

- Именно поэтому вы и другие роботехники искажаете факты, чтобы, ПО возможности, избежать недоверия к роботам?

- Нет никакого искажения!

- А как же эти Три Закона, которые всеми трактуются неверно?

- Не понимаю, о чем вы.

- Могу показать, что я имею в виду. И если вы не убедите меня в том, что я не прав, я расскажу об этом всей галактике.

- Сумасшедший. Какие бы аргументы вы не придумали, они ошибочны, уверяю вас.

Можем мы это обсудить? Это не займет много времени. Предлагаю встретиться лицом к лицу.

Худое лицо Либига исказилось гримасой.

- Нет!

- До свидания, доктор Либиг. Меня выслушают другие люди.

- Подождите, о великая галактика, постойте.

- Вы согласны встретиться?

Руки Либига потянулись к лицу, но замерли на уровне подбородка. Не отдавая себе отчета, он засунул большой палец в рот, уставившись на Бейли пустым взглядом.

«Чтобы встретиться со мной, ему необходимо вернуться в детство», подумал Бейли. - последний раз он виделся с человеком, наверное, лет в пять.

- Ну так как насчет встречи? - Снова спросил Бейли.

Либиг медленно покачал головой.

- Не могу... Не могу, - простонал он. Слова звучали неразборчиво - мешал палец во рту. - Делайте все что хотите.

Бейли внимательно следил за роботехником. Либиг отвернулся к стене, спина его согнулась, трясущимися руками он закрыл лицо.

- Очень хорошо, - сказал Бейли, - я согласен на телеконтакт.

- Извините меня, я сейчас вернусь, произнес Либиг, стоя спиной к детективу.

Во время паузы Бейли отлучился по своим делам. В Ванной он тщательно осмотрел свое собственное только что вымытое лицо, отразившееся в зеркале. Начал ли он уже понимать Солярию и соляриан? Уверенности не было.

Он вздохнул и нажал контакт. Явился робот. Бейли на него даже не взглянул.

- Есть на ферме другие терминалы для видеосвязи кроме того, что сейчас использую я? - Спросил Бейли у робота.

- Есть еще три, господин.

- Тогда скажи Клариссе Канторо, своей госпоже, что я продолжу пользоваться этим вплоть до дальнейшего уведомления, и чтобы мне никто не мешал.

- Да, господин.

Бейли вернулся на то место, откуда он разговаривал с Либиком и мог видеть часть его комнаты. Пространство все еще оставалось пустым. Бейли приготовился к длительному ожиданию, но долго ждать не пришлось.

В комнату вошел Либиг, и фокус рывком переместился на него. Бейли вдруг вспомнил то огромное количество сложных и непонятных элементов управления на консоли для видеосвязи, и невольно проникся уважением к этому устройству и роботам, которые с ним управлялись.

Было очевидно, что Либиг полностью овладел собой. Волосы у него оказались зачесаны назад, одежда тоже была другой: материал поблескивал и переливался на свету. Он уселся в откидывающееся кресло, вытащив его прямо из стены.

- Ну так что там по вашему мнению не в порядке с Первым Законом? - начал Либиг.

- Нас не могут подслушивать?

- Нет, я позаботился об этом.

Бейли кивнул.

- Позвольте мне процитировать Первый Закон.

- Едва ли я нуждаюсь в этом.

- Знаю, но я все же хочу сделать это. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

- Ну и что?

- Когда я только приземлился на Солярию, меня отвезли в предназначенное для меня поместье в наземном каре. Это был специальный, закрытый кар, который должен был защищать меня от пространства снаружи. Будучи землянином, я...

- Я слышал об особенностях Землян, - нетерпеливо прервал его Либиг. - Давайте ближе к делу.

- Управлявший каром робот не знал об этой моей особенности. Я попросил открыть кар и он немедленно повиновался. Второй Закон. Роботы должны повиноваться приказам. Я почувствовал себя плохо, и едва не потерял сознание перед тем, как кар снова закрыли. Робот причинил мне вред, не так ли?

- По вашему же приказу, - сухо отрезал Либиг.

- Процитирую Второй Закон.: робот должен повиноваться приказам человека, если они не противоречат Первому Закону. Понимаете? Мой приказ должны были проигнорировать.

- Чушь. Робот не знал о...

Бейли откинулся вперед на своем кресле.

- Вот мы и добрались до сути! Давайте теперь сформулируем Первый Закон так, как он должен звучать на самом деле: робот не может сделать ничего такого, что, насколько ему известно, причинило бы вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

- Это подразумевается.

- Не думаю, что это понимает средний человек. В противном случае он бы понял, что робот может совершить убийство.

Либиг побледнел.

- Псих! Ненормальный!

Но Бейли смотрел на кончики своих пальцев.

- Полагаю, робот выполнит какое-нибудь невинное действие, которое не причинит вред человеку?

- Если получит приказ.

- Ну Разумеется. И второй робот тоже может выполнить невинное действие, которое не способно причинить вред человеку?

- Да.

- А что если два действия, каждое совершенно невинное по-отдельности, совершенно невинное, понимаете? Вместе ведут к убийству?

- Что? - Либиг мрачно нахмурился.

- Мне нужно экспертное мнение по этому делу, произнес Бейли. - я описал вам гипотетический случай. Представьте, человек говорит роботу: «Добавь немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Жидкость безвредна. Я всего лишь хочу проверить ее действие на молоко. Как только я это выясню, смесь выльют. Когда закончишь - забудь о сделанном.

Либиг, все еще нахмуренный, молчал.

Бейли сказал:

- Если я прикажу роботу налить жидкость в молоко, и затем подать человеку, Первый Закон заставит его спросить: «что это за жидкость?» и «не может ли она причинить вред?». И если будет вероятность, что жидкость может нанести вред, Первый Закон заставит робота усомниться и робот откажется подавать такое молоко. Но вместо этого ему говорят, что жидкость выльют.

- Первый Закон здесь ни при чем. Сделает ли робот то, что ему сказали?

В глазах Либига зажегся огонь.

Второй робот наливает молоко. Он не осведомлен, что молоко отравлено. Ни о чем не подозревая, он предлагает молоко человеку и человек умирает.

- Нет! - Закричал Либиг.

- Почему нет? Оба действия, каждое в отдельности, невинны. Только вместе они ведут к убийству. Вы отрицаете, что подобное возможно?

- Убийцей будет человек, который отдал приказ, - воскликнул Либиг.

- В философском смысле, да. Но исполнителями приказа, орудиями убийства, будут роботы.

- Ни один человек не отдаст таких приказов.

- Отдаст. Это уже сделано. Все так и произошло при попытке убийства Груэра. Полагаю вы слышали об этом событии?

- На Солярии слышишь обо всем, что здесь происходит, - проворчал Либиг.

- Тогда вы знаете, что Груэра отравили за обеденным столом, прямо на моих глазах и глазах мистера Олива с Авроры. Вы можете предложить другую гипотезу, как яд попал к нему в стакан? В поместье не было других людей. Будучи Солярианином, вы должны понимать, что это значит.

- Я не детектив. Теорий у меня нет.

- Тогда я предложу вам свою. Хочу проверить, имеет ли она право на существование. Я хочу знать, не могли ли два робота выполнить два независимых действия, невинные в своей основе по отдельности, но которые вместе привели к убийству. Вы - специалист, доктор Либиг. Скажите, такое возможно?

И Либиг, испуганный и припертый к стене, произнес едва слышным голосом, так что Бейли едва мог разобрать:

- Да.

- Ну что же, очень хорошо. Вот вам и Первый Закон.

Либиг не отрываясь смотрел на Бейли, его полуопущенное веко несколько раз дернулось в медленном тике. Он развел сложенные руки, но пальцы остались в таком положении, как если бы он продолжал сжимать их в кулак. В конце концов он разжал ладони и положил их к себе на колени.

Бейли наблюдал за движениями Либига без особого интереса.

- В теории да, это возможно, но только в теории. Но вам, землянин, не удастся так легко отделаться от Первого Закона. Потребуется очень тонко управлять роботом, чтобы обойти все запреты.

- Допускаю, что так оно и есть. Я всего лишь землянин и почти ничего не знаю о роботах, едва умею отдавать приказы, тогда как соляриане легко управляют роботами и делают это с большой тонкостью. Все это мне известно.

Либиг, казалось, его не слушал. Громким голосом он сказал:

- Если роботом можно манипулировать с целью причинения вреда человеку, это означает, что мы должны улучшать позитронный мозг робота, хотя на самом деле следовало бы улучшать человека. Но поскольку это не в наших силах, мы делаем более совершенной защиту робота от неправильного обращения.

Улучшения происходят постоянно. Сейчас наши роботы разнообразнее, специализированнее, они более умелые и безопасные, чем были сотню лет назад. А еще через сотню лет они станут еще лучше. Зачем роботу управлять приборами, если позитронный мозг можно встроить в сами приборы? Это и есть специализация. Но возможна и обратная ситуация, когда создается робот с заменяемыми и взаимозаменяемыми конечностями? Как вам такое? Если мы...

- Вы единственный роботехник на Солярии? - Прервал Бейли вопросом монолог Либига.

- Не говорите ерунды.

- Я всего лишь предположил. Доктор Дельмар был единственным инженером-фетологом, если не считать его помощницы.

- На Солярии более двадцати роботехников.

- И вы лучший?

- Так и есть, - сказал Либиг без малейшего самодовольства.

- Дельмар работал с вами.

- Да.

- Я знаю, он планировал разорвать ваше сотрудничество.

- Ничего подобного. С чего вы взяли?

- Он не одобрял ваше желание оставаться холостяком.

- Может и так. Он был правильный Солярианин. Тем не менее, на наших деловых отношениях это никак не сказывалось.

Давайте сменим тему. Кроме разработки новых моделей, вы также занимаетесь производством и ремонтом роботов?

- Изготовлением и ремонтом, в основном, занимаются роботы. В моем поместье есть большая фабрика и мастерская.

- А, кстати, сложно ли ремонтировать роботов?

- Нет.

Означает ли это, что наука ремонта роботов еще не слишком развита?

- Вовсе нет, - холодно возразил Либиг.

Что было с роботом, которого обнаружили на месте убийства Дельмара?

Либиг отвел глаза и нахмурился, как если бы пришедшая ему в голову мысль причинила ему боль.

- Он полностью вышел из строя.

- Действительно полностью? И не мог отвечать на вопросы?

- Ни на один. Он был абсолютно бесполезен. Позитронный мозг замкнуло накоротко, не осталось ни одной неповрежденной цепи. Вы только представьте, он стал свидетелем убийства, которое не смог предотвратить.

- Почему, кстати, он не смог этого сделать?

- Кто знает? С этим роботом проводил эксперименты сам доктор Дельмар. Я не имею представления, в каком умственном состоянии находился робот. Дельмар мог, например, приказать роботу приостановить все операции, пока он проверял какую-то одну цепь, и в этот момент появляется кто-то, в ком ни Дельмар, ни робот не видели опасности, и внезапно нападает на Дельмара. Могло пройти немало времени, чтобы потенциал первого закона смог преодолеть приказ Дельмара о заморозке операций. Этот промежуток зависит от природы атаки и формулировки приказа, отданного роботу Дельмаром. Я могу придумать еще дюжину других примеров, которые объясняли бы, почему робот не смог предотвратить убийство. Тем, что он не смог это сделать, он нарушил Первый Закон. И этого хватило, чтобы выжечь все позитронные пути в его мозгу.

- Но если робот физически не мог предотвратить убийство? Будет ли он нести ответственность? Предусматривает ли Первый Закон такую возможность?

Либиг пожал плечами.

- Первый Закон, несмотря на ваши попытки принизить его значение, защищает человечество от малейшей возможности нанесения вреда. Он не делает исключений. Если нарушается Первый Закон, робот приходит в негодность.

- Какое универсальное правило, сэр.

- Такое же универсальное, как и все роботы.

- Кое-что я уже узнал.

- Ну тогда узнайте еще то, что ваша теория убийства, согласно которой роботы должны совершить ряд действий, безобидных в отдельности, не сработает в случае смерти доктора Дельмара.

- Почему?

Причиной смерти Дельмара стал удар по голове, а не яд. Для этого потребовалась дубинка, и держала ее человеческая рука. Ни один робот не смог бы раскроить череп ударом дубинки.

- Предположим, что робот нажимает на некую кнопку и на голову Дельмара обрушивается груз, закрепленный над его головой.

Либиг кисло Улыбнулся.

- Я видел место преступления, землянин, и слышал, что по этому поводу говорят. Убийство на Солярии, знаете ли, не очень частое явление. Я точно знаю, что там не было обнаружено никаких следов подобного устройства или упавшего груза.

- Ничего похожего на дубинку там тоже не нашли, верно?

- Вы же детектив, - произнес Либиг презрительно, вы и ищите.

- Ну а если робот не причастен к убийству доктора Дельмара, то кто тогда?

- Всем известно, что его убила жена, Гладия! - Вскричал Либиг.

«По крайней мере хоть здесь полное единодушие», подумал Бейли, вслух же он сказал:

- А кто тогда стоит за роботами, которые отравили Груэра?

- Полагаю, это... - Либиг вдруг умолк.

- Вы же не думаете, что на Солярии два убийцы? Верно? Если Гладия ответственна за одно убийство, она должна также отвечать и за попытку второго.

- Да, похоже вы правы. - голос Либига обрел уверенность, никаких сомнений здесь быть не может.

- Никаких сомнений?

- Никто не мог приблизиться к доктору Дельмару достаточно близко, чтобы появилась возможность его убить. Он также как и я не терпел личного присутствия, но он делал исключение для своей жены, я же не делаю исключений ни для кого. И вот сами видите, к чему это привело, - Либиг грубо рассмеялся.

- Вы с ней знакомы? Резко спросил Бейли.

- С кем?

- Мы сегодня говорили только об одной "ней", о Гладии.

- Кто вам сказал, что я знаю Гладию лучше, чем кого-либо другого? - Требовательно спросил Либиг. Он поднес руку к горлу и слегка ослабил застежку воротника, чтобы было легче дышать.

- Сама Гладия. Она сказала, что вы вместе гуляли.

- Ну и что? Мы соседи. У соседей это принято. Она казалась мне приятной особой.

- Вы находили ее привлекательной?

Либиг пожал плечами.

- Разговаривать с ней было отдыхом для меня.

- О чем вы беседовали?

- О роботехнике, - в ответе Либига прозвучало удивление, как будто на такой вопрос мог существовать только один ответ.

Она могла поддержать беседу на эту тему?

- Она ничего не понимала в роботехнике. Абсолютно. Но она умела слушать. Ее занятие как-то связано с силовыми полями, в общем какая-то чепуха, колористика силовых полей, что ли, не помню как она это называла. Мне было неинтересно, но я тоже слушал.

- Все это происходило без личного присутствия?

На лице Либига появилось отвращение, но он промолчал. Бейли продолжил:

- Вы находили ее привлекательной?

- Что?

- Ну физически она привлекала вас?

Глаза Либига широко раскрылись, поднялось даже полуопущенное веко. Рот его перекосился:

- Грязное животное... - процедил он.

- Тогда я спрошу иначе. Когда вы перестали находить ее приятной? Вы сами использовали это слово, если помните.

- Что вы имеете в виду?

- Вы сказали, что находили ее привлекательной. Теперь вы убеждены, что она убила своего мужа, а приятным людям не свойственно убивать.

- Я в ней ошибался.

- Но вы сочли, что ошиблись в ней еще до того, как она убила своего мужа, если, конечно, это сделала она. Вы перестали гулять с ней еще до совершения убийства. Почему?

- Это так важно? - Спросил Либиг.

- Важно все, пока не будет доказано обратное.

- Послушайте, если вы хотите спрашивать меня как роботехника, делайте это. На личные вопросы я отвечать не собираюсь.

- Вы близко дружили с убитым человеком и главной подозреваемой. Не считаете ли вы, что личных вопросов в этом случае не избежать? Почему вы перестали гулять с Гладией?

- Пришло время, когда мне стало больше нечего ей сказать, - огрызнулся Либиг, - я был слишком занят, чтобы продолжать эти прогулки.

- Другими словами, вы перестали находить ее привлекательной?

- Ну пусть так.

- Почему вы перестали находить ее привлекательной?

- Да не знаю я! - заорал Либиг.

- Вы из тех, кто хорошо знает Гладию, - Бейли решил не обращать внимание на эмоциональную реакцию роботехника, - как насчет мотива убийства?

- Мотива, - удивился Либиг.

- Никто так и не сказал мне, какой мотив мог существовать для этого убийства. Не могла же она совершить убийство без причины.

- О, великая галактика! - Либиг откинул голову назад, как будто хотел захохотать, но удержался. - И никто вам не сказал? Впрочем возможно об этом никто и не знал. Но я точно знаю. Она сама говорила мне. И часто.

- Говорила о чем, доктор Либиг?

- О том, что они ссорились, жестоко ссорились. И часто. Она его ненавидела, землянин. Вам об этом никто не говорил? Она тоже не сказала?

Загрузка...