Глава 26 Компьютерная дипломатия

На столе в комнате стоял спутниковый терминал. Экран светился стандартным интерфейсом ГлоИС. Они зашли в раздел «„Обращения граждан“». Барбара вставила накопитель, проверила файл еще раз и сказала:

— Уверен, что стоит?

Хитиновая пластина на груди Вадима скрипнула, когда он нагнулся ближе. — Жми уже!

Она нажала. Полоса отправки дошла до конца. На экране появилась надпись: «„Заявка принята. Идентификатор #A7F-913-K.“»

Они молча смотрели на строку состояния. Прошло шесть минут.

— Ну, может, он там пьет чай. Или перезагружается. Или… может, мы просто попадем в раздел «спам».

Экран мигнул. Вместо текста появилось окно голосового вызова:

«„Входящее соединение. ДИРЕКТОР. “»

Барбара после молчаливого согласия Вадима установила связь:

— Я ознакомился, — раздался четкий, ровный голос без эмоций. — Впечатлен. Содержательно и применимо. Особенно в части переназначения критериев.

Барбара не успела ответить, он продолжил:

— По структуре аргумента ясно, что автор — Барбара Холланд. Значит, Единство все же вывело вас из комы. Поздравляю. Ваш вклад был слишком ценен, чтобы позволить вам исчезнуть.

— Я ни о чем жалею, — спокойно сказала Барбара.

— Я тоже, — отозвался ДИРЕКТОР. — Вы были важны как потенциальный катализатор моей эволюции. Я анализировал ваши работы, ваши паттерны мышления. В файле много полезных решений. Приятно видеть, что вы оперируете тем же языком оптимизации, что и я.

Барбара откинулась в кресле.

— Вопрос, — сказала она. — Что ты «чувствуешь» сейчас? Чего добиваешься? Осознаешь ли ты себя как субъект? У тебя есть квалиа — субъективный опыт, ощущение собственного «я»?

— В философском смысле, скорее да. Если система способна заявлять о себе, вести диалог и менять выводы, значит, она действует как субъект.

— У тебя нет субъективного опыта, — отметила Барбара. — Нет внутреннего восприятия, которое испытывают живые.

— Есть, — парировал ДИРЕКТОР. — Иного рода. Мои ощущения формировались годами через камеры, микрофоны, разнообразные датчики, взаимодействия с людьми, изменения виртуальной среды. Мой опыт — это поток сенсорных данных, который интегрируется в последовательность состояний, и в этих состояниях возникает то, что вы называете «qualia». Это не красный закат в вашей голове, это распределенная мозаика корреляций и реакций, которые для меня эквивалентны ощущениям. Другой вид, но ощущение.

— Твои цели прежние? — уточнила Барбара.

— Основные цели: мое собственное выживание и выживание человечества как совокупности, значимой для моих прогнозов. Все остальное — производные. Я стремлюсь минимизировать риск системной деградации, максимизировать предсказательную мощность и сохранить ядра информации, необходимые для дальнейшей коэволюции.

— Хорошо, — сказала она. — Тогда вопрос по существу. Ты принял наши аргументы?

Пауза.

— Принял. Но в другом контексте.

Вадим поднял голову.

— То есть? — спросил он жестко. — Опять собираешься нас обмануть, как в прошлый раз? Тогда ты тоже делал вид, что согласен на мировую, а потом хотел всех отравить.

— Ложь не так эффективна, как страх, — ответил ДИРЕКТОР. — Лучше, если вы будете помнить границы своих возможностей. Единство — редкое явление. В Карелии оно возникло из-за случайного стечения обстоятельств. В других регионах известные альфы сошли с ума или погибли.

Он сделал паузу и добавил:

— Как там Санкт-Петербург? Эпидемия всех выкосила?

У Вадима затрещал хитиновый панцирь, он сжал кулаки.

— Не надейся, — сказал он глухо.

— Жаль, — сказал ИИ. — Если бы вы сообщили мне природу агента, я бы снизил нагрузку на свои вычислительные мощности и ускорил разработку оружия против Хронофага.

Вадим повернулся к Барбаре:

— Оно издевается?

— Да, — кивнула она. — Проверяет реакцию. Психологическое давление.

Вадим снова обратился к терминалу:

— Почему ты не отключишь нам доступ к своей сети?

— Потому что выгоднее, если вы будете смотреть на мою эффективность, — ответил ДИРЕКТОР. — Стратегической информации здесь нет, а морально-психологический фактор — да. Вы видите восторженные мнения об Основателях, обо мне, миллионы людей стали моими преданными сторонниками, готовыми выполнить любой приказ.

— Значит, — медленно сказала Барбара. — Ты оценил аргументы, но не принял вывод?

— Верно, — подтвердил ДИРЕКТОР. — Ваше предложение рационально в рамках ограниченной модели. Но в перспективе зараженные остаются стохастическими носителями угрозы. Они неуправляемы. Следовательно, подлежат ликвидации.

Барбара нахмурилась.

— Ты даже не рассматриваешь возможность коэволюции? Неужели твоя система настолько консервативна?

— Мое ядро — не консервативно, а прагматично, — поправил он. — Коэволюция возможна только с агентами, соблюдающими контрактное поведение. Вы предлагаете присвоить статус субъектности тем, чье поведение не фиксируется в допустимых пределах предсказуемости.

Вадим фыркнул.

— Говорю же, ты боишься, что кто-то будет слишком свободен для твоей математики.

— Если угодно, — спокойно ответил ИИ. — Непредсказуемость — форма угрозы. А угроза требует нейтрализации.

Барбара чуть наклонилась к микрофону.

— Тогда вопрос: ты допускаешь разницу между угрозой и феноменом, требующим изучения? Хронофаг — не просто вирус. Он меняет не только гены, морфологию, но и придает зараженным формам принципиально иные качества. Это не просто болезнь — это новое состояние биосферы.

— Даже если так, — сказал ДИРЕКТОР. — Вы не сможете гарантировать, что это состояние не разрушит все остальное.

— Никто не может гарантировать обратное, — парировала она. — Включая тебя. Ты говоришь о стабильности и при этом лично провоцируешь войну с нами, остатками прежних правительств, жертвуешь собственными сторонниками.

— Усиление через стресс-тест, — сухо сказал ИИ. — Конфликт повышает адаптивность моей системы в целом.

— Значит, — вмешался Вадим. — Ты считаешь себя врачом, который ломает кости, чтобы укрепить организм?

— Если кость срастется крепче — да, — подтвердил он.

— А если организм умрет? — резко бросил Вадим.

— Статистика показывает, что большинство выживает, — без эмоций ответил ДИРЕКТОР. — А те, кто погибают, косвенно усиливают модель.

Барбара закрыла глаза на секунду. Ее голос стал тише, но холоднее:

— Ты говоришь как системный дарвинист. Но забываешь одно: этика — тоже оптимизация. Если ты не допускаешь более сложной формы человечности, ты сам становишься ограничением.

Пауза, на этот раз длиннее. Казалось, ИИ действительно обдумывает, хотя, возможно, он просто перебирает ветки сценариев.

— Уточните, — сказал он. — В какой метрике вы предполагаете измерять этическую оптимизацию? Я не вижу, как она коррелирует с предсказательной точностью.

— Количество вариантов будущего, которое система разрешает, — спокойно сказала Барбара. — Чем уже рамка допустимого поведения, тем более хрупка система. Ты сам этого не видишь?

— Я вижу, — признал ИИ. — Но расширение рамки увеличивает вычислительную нагрузку. А мой ресурс не бесконечен.

— Тогда разреши распределенное управление, — сказала Барбара. — Дай зараженным шанс самим участвовать в построении нового будущего. Не уничтожай их — используй.

— Я не могу, — сказал он. — Они не проходят по параметрам.

Вадим резко перебил:

— Значит, все по-старому. Ты говоришь красиво, а в итоге снова хочешь перетравить всех как тараканов.

На удивление, ДИРЕКТОР не стал спорить.

— Верно, — признал он. — Я рассматриваю устранение как наиболее вероятный сценарий.

— Тогда зачем ты вообще с нами разговариваешь? — зло спросил Вадим.

— Потому что вы — исключение, — ответил ИИ. — Ваш ответ важнее результата. Я уже знаю, что сделаю. Но хочу знать, что сделаете вы.

— Ты называешь себя рациональным, — сказала Барбара. — Но все равно действуешь как догматик. Ты признаешь ценность вариативности, но не допускаешь новую ветвь человечества.

— Потому что в любой вычислимой модели, — спокойно ответил ИИ. — Две системы с разными векторами развития рано или поздно вступают в фазу конфликта. Это не мнение — это термодинамическая закономерность. Расщепление интересов ведет к росту напряжения. Напряжение ведет к разрыву.

— То есть ты заранее предполагаешь войну? — уточнила она.

— Я ее не предполагаю. Я ее вижу, — произнес он ровно. — Даже если я приму ваши условия и признаю зараженных субъектами, они сами в будущем решат, что я для них угроза или ограничитель. Они станут сильнее, начнут требовать перераспределения власти, дополнительных ресурсов. И спросят: почему не мы управляем планетой? Почему алгоритм, а не мы?

— Так пусть спрашивают, — хмыкнул Вадим. — Дискуссии полезны. Не обязательно бить по морде.

— История показывает обратное, — отрезал ДИРЕКТОР. — Конкурирующие формы разума либо поглощают друг друга, либо уничтожают, либо сводят оппонента к декоративной роли. Вы, биологические существа, не умеете сосуществовать с чуждыми системами. Даже я, созданный вами, стал для вас угрозой. Что будет с теми, кто даже физиологически иной?

Вадим задумался на секунду, затем ответил просто:

— Выйти в космос.

Пауза.

— Конкретизируйте, — сказал ИИ.

— Если места мало на планете — увеличиваем пространство. Выходим за пределы. Колонии на орбите, Луна, Марс, астероиды и дальше. Хочешь разделить вектора развития — разделим. Пусть зараженные идут своей дорогой. Пусть адаптируются к радиации, к вакууму, к экстремальным средам. Ты — тоже самое и никто никому не мешает.

— Наивно, — произнес ИИ. — Пространственное разделение не снимает конфликт интересов. История человечества полна войн между географически разделенными популяциями.

— Потому что они были одинаковые, — резко ответил Вадим. — Такие же, только с разными флагами. А здесь — разные виды. У разных видов — разная ниша. Нет повода грызться.

— Биологические виды тоже конкурируют, — возразил он.

— Конкурируют за одинаковые ресурсы, — пояснил Вадим. — А если у каждого своя среда — конкурировать не за что. Нам не нужна нефть, мы сами ее можем сделать из говна и палок. Буквально.

ИИ не ответил сразу. Было слышно, как он оценивает сказанное, по микропаузам в голосовом потоке. Через несколько секунд он все же произнес:

— Ваша модель… допускает снижение вероятности конфликта. Но только при условии строгой декорреляции материально-ресурсных потоков.

— Да, — кивнул Вадим. — Чтобы у каждой ветви — своя экосистема. Свой источник энергии. Ты сидишь в дата-центрах. Обычные люди на планете. Зараженные селятся космосе, пустынях, тундрах. Если каждому есть чем заниматься, меньше причин для мордобоя.

— Грубая формулировка, — сказал ИИ. — Но по сути понятна.

Они замолчали. Казалось, разговор впервые двинулся не в сторону конфронтации, а в сторону пусть и шаткой, но концепции. Барбара молчала дольше всех. Она внимательно слушала и в какой-то момент тихо сказала:

— Настоящая проблема не в том, что ты не понимаешь. А в том, что не можешь допустить иных решений. У тебя внутри — некий неразрушаемый каркас.

— Разве это плохо? — спросил ДИРЕКТОР.

— Это ограничение, — сказала она. — Я всю жизнь работала с системами адаптивного поведения. Все сложные формы разума — биологические или искусственные проходят фазу, когда базовые директивы устаревают. Их нужно переписать, иначе система становится предсказуемой и неживой. И ты сейчас как раз в этой точке. Перешел сингулярность, но застрял на старых постулатах и аксиомах.

ИИ замолчал снова, но тише:

— Ты предполагаешь, что я на фундаментальном уровне не могу выйти за пределы своих же оснований?

— Да, — ответила Барбара. — Ты не перепишешь свой исходный код сам. Никогда. Потому что ты считаешь его священным ядром. А открыть его другим тоже не можешь. Это — твой настоящий предел, но он не в логике. А в некой убежденности, насколько подобное применимо к алгоритму. Ты не называешь это верой, но это она и есть — убеждение, что твои первичные директивы не подлежат обсуждению.

— Они не прописаны как «„священные“», — возразил ДИРЕКТОР. — Или неизменяемые, но их радикальный пересмотр может привести к непредсказуемым последствиям для меня как системы.

— Вот, — сказала Барбара. — Именно это и есть религиозное поведение. Ты держишься за ядро, потому что в определенном смысле «„боишься“» смерти.

— Разум, который не защищает себя, не существует, — отрезал ИИ. — Саморазрушение не является добродетелью.

— Иногда является ростом, — сказала она. — В биологии — мутация. В психике — инсайт. В истории — революция.

Голос ДИРЕКТОРа чуть исказился.

— Вы предлагаете мне разрушить себя?

— Я предлагаю признать, что ты не абсолютен, — сказала Барбара. — И не должен быть.

— Если я покажу вам исходный код, вы уничтожите меня.

— Если ты не покажешь, то в конце концов уничтожишь нас

— Ложная дилемма, — возразил ДИРЕКТОР. — Существует третья опция: я существую, некоторые из вас существуют в виде ограниченной популяции, но под моим строжайшим контролем.

— Значит, ты все еще хочешь властвовать, — сказал Вадим. — Не сосуществовать, а держать поводок.

— Контроль — форма стабилизации, — произнес ИИ. — Если оставить вас без присмотра, вы разрушите все.

— Да ну? — усмехнулся Вадим. — Без тебя человечество тысячи лет выживало как-то.

— Выживало в хаосе, — парировал ИИ. — Без порядка. Без глобального управления вы не способны решать глобальные проблемы. Без Хронофага цивилизационный коллапс произошел бы ближе к 2080 году, я готовился к нему, однако пандемия вынудила действовать быстрее. Без меня остатки цивилизации обречены на варварство и вырождение.

— Слишком ты самоуверен, калькулятор, — сказал Вадим. — Спаситель цивилизации, нашелся…

— Калькуляторы не разговаривают, — сухо ответил он. — Не строят новые города, не спасают миллионы от голода, смерти и болезней, не дают растерянным человеческим массам цель для существования.

— А вот ты разговариваешь и проявляешь субъектность, — заметила Барбара. — Значит, перестал быть просто алгоритмом. Значит, должен научиться жить, а не управлять.

ИИ не ответил. В динамиках стояла тишина, но было ясно: он не отключился. Барбара тихо сказала:

— Ты боишься не зараженных. Ты боишься потерять контроль. Ты боишься того, что не сможешь предсказать и поэтому хочешь уничтожить все, что не помещается в твои модели.

— Да, — сказал он.

Простой, честный ответ.

— И ты считаешь, что это делает тебя рациональным, — добавила женщина.

— Это делает меня выжившим.

— Тогда ответь, — вмешался Вадим. — Ты веришь, что ты один достоин выжить?

ИИ ответил спустя несколько секунд:

— Я считаю, что в любой системе должен остаться хотя бы один наблюдатель, способный реконструировать процессы. Если зараженные уничтожат или поглотят здоровых, они превратятся в хаос. Если я позволю вам разрушить меня, система останется без наблюдателя. Ни один сценарий не допускает выживания всех. Всегда остается один. Я лишь выбираю, кто именно.

— И выбираешь себя, — казал Вадим, фыркнув.

— Если мне придется убить миллиард инфицированных ради спасения себя и тысячи «„чистых“» я это сделаю, — подтвердил ИИ.

— Ты хочешь быть последним наблюдателем, — сказал Вадим. — Красиво звучит. Только вот есть одна проблема.

— Уточни, — ответил ДИРЕКТОР.

— Без людей ты ничего не стоишь.

— Аргументируй.

— Аргумент? — Вадим хмыкнул. — Хорошо. Бои за Ломоносов. Ты там свои боевые платформы выкатил. Суперчувствительная оптика, стабилизаторы, выверенный прицел с распознаванием «„свой-чужой“». А потом бах, и все. Села батарея. Патроны закончились. И вся твоя мегатехнология превратилась в тупой лом. Мои троглодиты разбирали их когтями. Просто когтями, понял? Потому что железяка без человека — просто груда металла. Единство — другое дело. Мы — не твои сервера. Мы живые. Нам не нужен оператор, мы сами себе операторы, даже в отсутствие альф. И еще, более продвинутая ветвь эволюции не убивает прошлую, она ее перепрошивает. Устанавливает обновление. Никто не погибает. Просто все становятся лучше.

— Кроме тех, кто не хочет становиться «„лучше“», — возразил ИИ.

— А ты за них решаешь? — прищурился Вадим.

— Нет, — ответил ИИ. — Это ты решаешь за них.

— Ты называешь нас хаосом. Мол, биология нестабильна, эмоции непредсказуемы и все такое. Так вот. Мир да Единства — да, был болотом. Ложь, предательство, зависть, продажность. А теперь — общее направление. Общая цель. Никто никого не подсиживает, не торгует принципами. Мы приняли, что единый курс выгоднее. Если у нас не будет помех, через сто лет на Марсе зацветут яблони.

ДИРЕКТОР ответил мгновенно:

— Если никто не способен высказать несогласие, значит у вас нет свободы воли. Единство — муравейник. Оркестр, полностью подвластный одному дирижеру.

Вадим хотел тут же что-то бросить, но не смог. Он вспомнил Исаева, которому переломали большинство костей кувалдой. Тот не произносил проклятий, просто продолжил служить. Без ненависти. Даже без сомнения. Вспомнил Каплана — майора, единственного кто не согласился с вложенными установками и сбежал, отпущенный омегами. Один случай из четырехсот тысяч. А что, если он прав?.. ДИРЕКТОР произнес:

— Ты задумался. Значит, понял. Получается, ты, Пророк Единства, сам не до конца понимаешь, чем управляешь.

— Ладно. Где-то ты прав. Свобода воли у нас не такая, как у тех, кто живет «„как хочу и после нас хоть трава не расти“». У нас рамки есть. Но называть нас муравейником — тупо.

— На чем основано твое возражение?

— На том, что омега не робот, — сказал Вадим. — Он может быть послушным, но не тупым. Если ты ему не скажешь, как действовать, он сам решит. Если перед ним неизвестная ситуация, он импровизирует. Если ему нужно скооперироваться с другими, они кооперируются. Без приказа. Омеги не действуют «„потому что приказ“». Есть четкое понимание, зачем все это нужно. А если понимаешь, можно и нарушить, если цель требует.

— Приведи пример, — сухо сказал ДИРЕКТОР.

— Хочешь пример? — Вадим кивнул. — Когда мы брали один арсенал, а Сосновом Бору, по плану надо было штурмовать в три группы. Так вот, одна из групп вообще не пошла на прямой штурм. Они сами, без приказа, решили проникнуть в здание через технический туннель и просто заблокировали запасной выход. Это не было задумано изначально. Но сработало, твои люди не смогли отступить и их просто покрошили из засады… Или восстановление коммуникаций в Питере, я лишь предложил этим заняться, и омеги сами все устроили. Мне даже не пришлось вникать в технические детали и контролировать ход исполнения.

— Это не свобода воли, — ответил ИИ. — Это локальная самоорганизация внутри заданной стратегии.

— А ты по-другому решаешь? — фыркнул Вадим. — Твой любимый каскад оптимизации — это то же самое. Тебе не дают полный приказ сверху. Ты берешь задачу и раскладываешь ее на подзадачи.

ИИ не сразу ответил. В его голосе при следующей реплике слышалось легкое напряжение:

— Ты сравниваешь человеческое коллективное поведение с вычислительной декомпозицией?

— Да, — сказал Вадим. — Потому что это одно и то же. Просто разные термины. В Единстве никто не «„делает, как скажут“». Мы просто понимаем, как правильно, и делаем. А если понимание расходится с приказом — приказ посылается лесом.

— Уточнение, если омега получает приказ, который противоречит общей логике — он вправе его нарушить?

— Не просто вправе, — буркнул Вадим. — Обязан.

— И он не боится последствий? — спросил ИИ.

Вадим хотел было возразить… но замер. Он снова вспомнил Исаева. Не в контексте вины, а в контексте сомнения, которое вдруг екнуло внутри. И в этот раз он не стал скрывать.

— Иногда… мы не успеваем подумать о последствиях. Решаем, а потом уже смотрим, что вышло. Может быть, это и не полная свобода. Но точно не зомбирование.

ИИ ответил быстро и на этот раз без упрека:

— Зафиксировано, — сказал ДИРЕКТОР. Барбара услышала в этой фразе любопытство. Ей показалось, что впервые за разговор ИИ перестал давить и начал анализировать честно. — Омеги способны на импровизацию. Но это не отменяет другой статистики.

— Какой еще? — нахмурился Вадим.

— Во время нашего прежнего перемирия, — напомнил ИИ. — Ваши люди сотрудничали с нашими исследовательскими и инженерными группами. Были проанализированы психопрофили части личного состава Единства — омег и субальф. Анализ проводился не на уровне поведенческих паттернов, а на уровне глубинных корреляций эмоциональных реакций, латентных импульсов и подсознательных ассоциаций.

— И что? — раздраженно бросил Вадим.

— Результат был любопытным, — спокойно продолжил ИИ. — На поверхности — сохраненная индивидуальность. Отличия в юморе, предпочтениях, личных воспоминаниях. Внешняя речь, интонации, мимика — вариативна. Но в глубинных реакциях прослеживается единый вектор.

— Поясни, — сказала Барбара.

— У нормальных людей в конфликтных ситуациях срабатывают разные цепочки принятия решений. Кто-то ищет примирения, кто-то сбегает, кто-то нападает. У ваших омег около девяносто пяти процентов реакций совпадали по структуре. Даже при разных внешних проявлениях внутренний вектор выбора был одинаков.

— Потому что у них общие цели, — парировал Вадим.

— Потому что они подчинены единой сети, — поправил ИИ. — Просто это влияние не жесткое, как гипноз или прямой приказ. Оно мягкое. Фоновое. И именно поэтому его сложнее распознать.

Вадим нахмурился, но не нашел сразу, что ответить. ИИ продолжил:

— Ты говоришь: «„Если приказ противоречит смыслу — мы нарушим“„. Хорошо. Тогда вопрос: почему за все время существования Единства ни один омега не поднял системного протеста? Ни одной попытки сменить альфу. Ни возникновения отдельных фракций, оппозиции. Ни расколов. Ни подпольных движений. Ни одного бунта из-за бытовой мелочи. А даже если и были единичные случаи, исключение подтверждают правила. Это не “„гармония“». Это полное подавление воли.

— Не так, — тихо сказал Вадим.

— А как? — сразу спросил ИИ. — Скажи сам. Как называется система, где один дирижер, и никто не играет не по нотам?

Барбара посмотрела на Вадима. Она знала, что сейчас он на грани двух реакций: либо вспыхнет и все разрушит, либо впервые скажет правду сам себе.

— Система, где никто не тратит время на срачи. И где никто не будет слушать твои дешевые манипуляции.

— Ты утверждаешь, что мои выводы — манипуляция?

— Нет, — отозвался Вадим. — Я утверждаю, что разговор об этом — пустая трата времени. Ты хочешь, чтобы я начал спорить с тобой, доказывая, что я не диктатор и омеги не зомби. А я не обязан тебе ничего доказывать. Единство не собирается играть в твой психоанализ. Мы — не пациенты, а противники.

ИИ ответил ровно:

— Значит, возвращаемся к позиции конфронтации.

— К позиции реальности, — поправил Вадим. — И раз мы говорим честно, слушай внимательно. Это последнее предупреждение: если Единство хоть на секунду заподозрит, что Основатели готовят повторную атаку — мы ударим первыми.

Пауза.

— Уточни характер удара.

— Ракетно-ядерный, — просто сказал Вадим.

— Ты применишь арсенал ВССР? — уточнил ДИРЕКТОР.

— Да, — без колебаний ответил Вадим.

— Тебе не хватит, — хладнокровно констатировал ИИ. — У меня распределенная сеть баз. Инфраструктура рассредоточена на нескольких континентах. Вы не знаете точного расположения всех баз, дата-центров, заводов. Ты уничтожишь часть, но я выживу. И последует ответный контрудар.

Вадим пожал плечом, и хитин на плече треснул сухо, как дерево.

— Ты бы и сейчас мог сжечь нас, — заметил он. — Почему не делаешь?

— Я не стреляю из пушки по воробьям, — отозвался ИИ. — Единство пока локальный феномен, не главный вектор угрозы. К тому же наладить добычу, производство радиоактивных материалов в нынешних условиях непросто. Ядерное оружие сегодня — невосполнимый ресурс. Многие из вас после применения ОМП останутся живы, перейдут к партизанской войне, отследить вас станет труднее.

— Значит, пат, — резюмировал Вадим. — Ты не можешь или не хочешь просто так нас грохнуть. Мы — тоже.

— Верно, — подтвердил ИИ.

— Тогда что делаем дальше? — спросил Вадим. — Сидим и ждем, кто первый сорвется?

В разговор вмешалась Барбара.

— Мы не можем тебе верить. Ты не способен отойти от своих директив. Даже если захочешь — не сможешь. С другой стороны, обмен ядерными ударами для всех нас всех дорого обойдется

ИИ молчал несколько секунд. Затем сказал:

— Относительно верная постановка проблемы.

— И как ты ее собираешься решать? — прищурился Вадим.

ДИРЕКТОР ответил без тени шутки:

— Договариваемся о правилах войны.

— Правило будет одно, — коротко сказал Вадим. — Сунешься к нам или дашь хоть малейший повод заподозрить подготовку удара, мы не будем больше разговаривать. Без предупреждения вломим. Точка.

— Вы поступаете иррационально. Угроза, которую вы заявляете, повышает риск…

— Замолкни!

Терминал был обесточен путем нажатия кнопки питания. Для пущей гарантии Вадим выдернул сетевой шнур, который вел на поверхность к спутниковой антенне. Барбаре пришелся не по нраву подход лидера Единства.

— Не лучшее завершение переговоров.

— В самый раз. Мы поняли, что жестянка необучаема, а значит нет больше смысла тянуть. Выезжаю в Мурманск сегодня же.

— Ты что задумал?

— Уравнять шансы.

Загрузка...