Источник: birdinflight.comСкайнет 2.0
Самым показательным случаем, когда по вине механических мозгов могла начаться третья мировая война, стал инцидент 26 сентября 1983 года в подмосковном командном пункте Серпухов-1.
В ту ночь на КП оказался подполковник Станислав Петров, согласившийся подменить сослуживца. Сирена о ракетном нападении сработала в 00:15 – тревогу подняла система раннего предупреждения о ракетном нападении «Око». Судя по данным компьютера, с Западного побережья США стартовали несколько баллистических ракет и движутся в сторону Советского Союза. В общей сложности, у руководства страны было не более 30 минут на ответные меры.
Это, кстати, очень тесно переплетается с недавними словами президента Путина о стратегической глубине обороны России. С вступлением Украины в НАТО ни о каких тридцати минутах запаса на удар возмездия речи быть не могло. Но в 1983 году ситуация была иная.
Однако подполковник Петров не оповестил вышестоящее начальство о ракетной атаке, чем, вероятнее всего, спас планету от тотальной войны. Опыт офицера подсказал, что США не нанесут упреждающий удар такими малыми силами – баллистические ракеты шли только с одной военной базы. В случае реального нападения американцы запустили бы несколько сотен боеголовок.
Именно поэтому подполковник оповестил командование о ложном срабатывании. Нужно понимать степень ответственности Петрова, который за все время службы на объекте ни разу не наблюдал сбоя системы предупреждения. Мало того, он сам участвовал в разработке этой техники и знал степень её надежности. Оставалось только ждать, чтобы радиолокаторы системы раннего предупреждения действительно не обнаружили приближающиеся ракеты. Обошлось – система «Око» восприняла за вспышки ракетных двигателей неудачно попавшие на сенсоры солнечные блики.
К чему эта история почти сорокалетней давности? К тому, что автоматизированные системы, связанные со стратегическим оружием, несовершенны и могут сбоить. История с Петровым, фактически спасшим мир от ядерной войны, наверняка далеко не единственная – режим секретности и в России, и в США не позволяет раскрывать подобные инциденты. Но если ошибку системы предупреждения о ракетном нападении еще можно как-то исправить, то вот полностью автономные оружейные системы тормозить будет некому. И американцев это очень беспокоит. Особенно в приложении к российской атомной торпеде «Посейдон».
Голубой павлин и другие
«Посейдон», которую американцы называют «подводным дроном», «ядерной торпедой» и даже «беспилотным батискафом» – это не первая разработка подобного рода. В 50-х годах прошлого столетия в Великобритании разработали ядерную мину Blue Peacock («Голубой павлин»). Масса устройства превышала 7 тонн и должна была взрываться на территориях, захваченных советскими войсками. Существовало три способа вызвать детонацию мины – через многокилометровый шнур, восьмидневный таймер и устройство запрета доступа – при попытке разобрать мину, она взрывалась.
Такая адская машинка, к счастью, не нашла практического воплощения в серии, но запомнилась одним нетривиальным решением. В качестве таймера предложено было использовать… цыплят. Несколько птенцов помещались в специальный отсек, снабженный всем необходимым для жизнедеятельности. Основная задача заключенных атомного инженерного боеприпаса заключалась в выделении естественного тепла. Как только несчастные цыплята умирали, температура падала и Blue Peacock взрывался. В среднем, на это уходило около 8–9 дней.
По умолчанию, это должно было случиться на территории, оккупированной противником. Например, можно было закопать несколько десятков таких «Павлинов» на территории ФРГ перед советской армией. От ущербной идеи отказались, и прототип мины пылится в британском оружейном музее.
Британская ядерная мина Blue Peacock включает в себя механизм самоподрыва при несанкционированном доступе. Источник: popularmechanics.com Безусловно, о подобных курьезных автоматизированных системах контроля ядерного вооружения сейчас речь не идет – в первую очередь управление предлагается отдать искусственному интеллекту. С учетом постоянного усложнения систем атаки, появления гиперзвуковых комплексов, лимита времени на ответные действия становится все меньше, и электронные алгоритмы позволят реагировать оперативнее. По мнению американцев, до такого лучше не доводить и еще на берегу договориться о запрете автономных ядерных боеприпасов. Пока это только инициатива «снизу» от исследователя Закари Калленборна из «Бюллетеня ученых-атомщиков», но идея вполне может обсуждаться на государственном уровне.
Все дело в том, что американцы отстают в этом направлении от России – по крайней мере, они так считают. Подводный аппарат «Посейдон» им видится двухмегатонной подводной ядерной бомбой, способной потопить авианосную группу или устроить на Западном побережье фатальный цунами. Страхи у американцев связаны еще и с тотальной неизвестностью о степени автономности «Посейдона» – в открытой печати они могут только обмениваться предположениями. Но Калленборн, как автор инициативы, приводит достаточно весомые аргументы против подключения ИИ к ядерной безопасности.
Во-первых, серьезный уровень секретности стратегических объектов позволяет зачастую ориентироваться только на данные спутников. Проще говоря, для уверенной работы алгоритмов ИИ не хватит объема данных. Нейронные сети, привыкшие оперировать массой информации, будут выдавать ложноположительные, либо ложноотрицательные результаты. Коррективы могут вносить и погодные условия – облачность, снег, дождь. Если с ударным беспилотником или автономным танком это может обойтись малой кровью, то в случае с ядерными ракетами последствия будут фатальными.
Кроме этого, сложности возникают и с обучением «ядерного» ИИ. На каких примерах его обучать, если испытания оружия массового поражения давно запрещены, а из реального применения только Хиросима и Нагасаки.
Второй причиной, почему Калленборн не доверяет автоматизированным системам – это возможность провокаций со стороны террористов. Представим, что некая могущественная организация решит вызвать огонь на себя и смоделирует ядерную атаку. Для этого достаточно владеть информацией о маркерах, на которые ИИ ориентируется, распознавая нападения. Электронные мозги, лишенные условного «подполковника Петрова», воспримут провокацию за чистую монету и ударят в ответ. Ядерный конфликт между державами спровоцирован – террористы довольны.
И обратный пример. Противоборствующая сторона, готовая начать мировую войну, может обойти управляющий ИИ простой маскировкой. Здесь уже в соревнования вступают два машинных интеллекта – один со стороны обороняющегося, второй со стороны нападающего. Не все готовы, чтобы в таком поединке решались судьбы мира. Обмануть ИИ, как видит Калленборн, не очень сложно – достаточно сместить в его картинке несколько пикселей и приближающийся стратегический бомбардировщик покажется не страшнее собаки.
Опасения американцев связаны еще и с возможностями систем типа «Мертвая рука», которую в Советском Союзе знали как «Периметр». Система, регламентирующая ответный ядерный удар при потере связи с вышестоящим командным центром. В Соединенных Штатах с 2019 года уже ведется работа над чем-то подобным на основе алгоритмов ИИ, и это вызывает определенную озабоченность у авторов «Бюллетеня ученых-атомщиков».
Калленборн опубликовал свою статью 1 февраля 2022 года, в которой предложил трем крупнейшим ядерным державам – России, Китаю и США сесть за стол переговоров по проблеме ИИ в ядерном сдерживании. Причем уже в текущем году. Как ни странно, но даже на фоне кризиса это не выглядит сумасшествием – в формирующейся новой картине мира именно подобные договоренности могут быть очень кстати. Только вот вести эти переговоры Россия должна с позиции силы. В конце концов, именно отечественный «Посейдон» заставил так переживать заокеанский истеблишмент.
- Автор:
- Евгений Федоров