Искусственный интеллект в военном деле

>Искусственный интеллект: герой или жертва будущей войны?

«Кризисная стабильность» или «стабильность гонки вооружений»

Последнее время в международных СМИ обсуждается тема о возможности начала Третьей мировой войны с применением ядерного оружия. Сценарии и причины приводятся разные — от вероятных до самых невероятных. Поводом для дискуссий часто становятся заявления генералов и адмиралов из блока НАТО. В противовес им выступают эксперты, которые говорят, что вероятность существует, но она достаточно низкая.

Эксперты оперируют историческими фактами, т.к. знают, что пока не нарушены основы договорённостей, достигнутых в ходе встреч (саммитов) между США и СССР, а также России и США — говорить о реальной опасности Третьей мировой войны преждевременно. Действительно, в ходе саммитов 1990-1991 гг. между Вашингтоном и Москвой были определены критерии (основы) стратегической стабильности, при которой ни одна из сторон не нанесёт первый ядерный удар.

При этом, по мнению сторон, стратегическая стабильность может существовать в двух ситуациях — либо в условиях «кризисной стабильности», либо при «стабильности гонки вооружений».

Кризисная стабильность — это условие кризиса отношений между Вашингтоном и Москвой, при котором ни одна из сторон не имеет стимулов и возможностей для нанесения первого ядерного удара. Стабильность же гонки вооружений определялась как набор стимулов, при котором стороны паритетно наращивают собственный стратегический потенциал.

На основе этих стратегических понятий произошло заключение договоров об ограничении стратегических наступательных вооружений (СНВ) — в 1991, 1993 и 2010 годах. Как известно, судьба последнего — СНВ-3, в случае непродления действия, затронет стратегическую стабильность напрямую. Если быть более точным, расторжение СНВ-3 станет финальной точкой мероприятий (программ), которые США проводят под вывеской «укрепления национальной безопасности», а на самом деле расшатывают фундамент мирового баланса сил, благодаря которому 75 лет на планете Земля не произошло ни одного глобального мирового конфликта.

Искусственный интеллект как инструмент войны

Использование искусственного интеллекта (ИИ) в военных программах вооружений приобретает всё больший размах. Начав с автоматического сбора и анализа данных в интересах командования вооружённых сил, ИИ всё чаще привлекают для разработки сценариев боевых операций. К тому же военачальники из Пентагона объявили ИИ составной частью автономных систем вооружения (АСВ), благодаря которым будет обеспечено глобальное доминирование США на планете. По их замыслу АСВ должны заменить ядерное оружие (ЯО) и высокоточное оружие (ВТО) для выполнения широкого спектра задач: от тактических до стратегических — на суше и море, в воздухе и в космосе. Именно дроны с ИИ стали ключевым видом вооружения в стратегии Third Offset (утверждена в 2017 году), цель которой — получение военного и технологического превосходства над Россией и Китаем.

«Было бы здорово, если бы мы могли заставить Россию вести себя как более нормальная страна» — заявил недавно новый глава Пентагона Марк Эспер, тем самым подтвердив ставку США на мировое доминирование, которое они связывают с ИИ — как важным технологическим прорывом в развитии военного дела, наравне с изобретением пороха и ядерного оружия.

С одной стороны, США стремятся занять лидирующие позиции в программах исследований, связанных с ИИ, а с другой, всеми силами стараются ограничить подобное развитие в странах-соперниках — России и Китае. Скандал с китайской фирмой Huawei и кибератаки на структуры государственного управления России имеют схожие причины.

При этом «охота за уязвимостями» всё более автоматизируется. В итоге это может привести к тому, что государство-гегемон с помощью технологий ИИ возьмёт под контроль все системы жизнеобеспечения страны-жертвы. За примером далеко ходить не надо — «блэкаут» в Венесуэле получился благодаря тому, что энергоснабжение этой страны было организовано под управлением автоматизированных систем управления американского производства. Неудача с кибератакой на АЭС в Бушере (Иран), которая должна была привести к катастрофе аналогичной Чернобылю, была связана с тем фактом, что не все системы автоматического контроля и управления оказались европейского и американского производства. Поэтому неудивительна политика Китая в области безопасности национального киберпространства, которая вызвала жёсткую критику со стороны ведущих мировых компаний IT-индустрии.

«Неизвестный источник из киберпространства»

Как говорят специалисты, безопасность суверенитета страны на электронном и программном уровне — вопрос всего лишь технологий и времени. Другое дело — информационная безопасность. Дело в том, что скоро ИИ научится создавать «фейковые новости» и станет незаменим в информационной войне. В мае 2019 года появилась новость о том, что исследовательской организацией OpenAI (Канада) был разработан ИИ на технологиях самообучающейся нейросети, который может самостоятельно писать тексты с сюжетными линиями и героями. Помимо этого, крупнейшие мировые СМИ уже используют ИИ для создания информационных материалов — «роботы-журналисты» пишут финансовые новости для Bloomberg и новости о землетрясениях для The Los Angeles Times.

Не удивлюсь, что обрушение котировок на биржах или панику перед стихийным бедствием скоро будут связывать с «информацией, полученной от неизвестного источника из кибер-пространства». Урон от таких «фейков» может быть определён теми же США как «кибер-нападение», что по новой ядерной доктрине станет поводом для применения ядерного оружия, а это уже серьёзно.

В принципе, механизм уже работает, фейковые новости создаются и распространяются в соцсетях целой армией состоящих на окладе спецслужб «борцов за демократию», специализирующихся на военно-политических операциях. Осталось только заменить человека на ИИ, который уже учат менять «цифровую картинку» в телепередачах, взламывать соцсети, т.е. создавать и распространять ложную информацию для влияния на сознание граждан и политиков, чтобы они принимали «правильные» решения.

Космический перехватчик

Помимо «информационных провокаций» есть и военные задачи, который ИИ будет выполнять в ближайшем будущем, например, в космосе. Проект компании Lockheed Martin — Multiple Kill Vehicle (MKV), отправленный на доработку главой Пентагона Марком Эспером, должен появиться с новым космическим перехватчиком МБР и гиперзвуковых комплексов с ИИ на борту. Модульный носитель MKV-2 будет самостоятельно оценивать степень угроз, проводить идентификацию целей и выдавать дронам-перехватчикам команды на их поражение. Сеть из сотен развёрнутых на орбите MKV-2 должна стать ударной компонентой обновлённой ПРО США после 2030 года.

Проект LRHW (Long Range Hypersonic Weapon, система гиперзвукового ракетного оружия наземного базирования) также не обойдётся без участия ИИ. Компания Dynetics Technical Solutions, создающая первую управляемую планирующую гиперзвуковую боеголовку — Common-Hypersonic Glide Body, должна разместить бортовую систему управления гиперзвуковым полётом на основе ИИ, разработанного научно-исследовательской ассоциацией американских технологических университетов, возглавляемой Sandia National Laboratories.

Стремительный рост роли беспилотных летательных аппаратов (БПЛА) и их широкое участие практически во всех боевых операциях по всему миру, дали старт обучению БПЛА автономно выполнять задачи по обнаружению и уничтожению целей, которые идут с переменным успехом. Например, американцы научили свои БПЛА и крылатые ракеты «Томагавк» находить и уничтожать стационарные объекты. Однако с динамическими объектами чаще были неудачи — вместо военной техники уничтожалась гражданская, вместо боевиков гибли мирные люди. С целью исключения таких ошибок и был выбран ИИ. Так, американская компания Boeing в феврале 2019 года показала прототип нового ударно-разведывательного БПЛА с ИИ — Boeing Airpower Teaming System (BATS). Его разработчики заявили, что помимо уничтожения целей, «BATS будет способен вести радиоэлектронную войну, проводить разведывательные и наблюдательные миссии в паре с самолётами P-8 Poseidon и E-7 Wedgetail». Успешная презентация возможностей BATS повлияла на программу создания беспилотного гиперзвукового самолёта-шпиона SR-72 (Lockheed Martin). Теперь SR-72 помимо задач разведки должен будет выполнять и ударные задачи — также под управлением ИИ. Первый SR-72 должен быть передан в эксплуатацию к 2030 году.

Ставка на «сетецентрическую войну»

В Глобальной системе оперативного управления армии США, объединений с системой интегрированного представления изображений и разведки (Global Command and Control System — Joint Integrated Imagery and Intelligence), а также нового комплекса воздушной разведки — Advanced Battle Management and Surveillance (ABMS, перспективная система боевого управления и наблюдения) под «ответственность» ИИ переведут большинство процессов сбора информации (разведки), анализа, боевого управления и применения ВТО и ЯО.

Захват одним государством монополии над ИИ в прокси-гибридной войне, которую развязали сильные мира сего против человечества, может привести к тотальному контролю за финансами, мировой торговлей, технологиями и, соответственно, за природными и человеческими ресурсами. Мало того, именно прокси-гибридную войну (ПГВ) специалисты из RAND Corporation считают предтечей войн за глобальное доминирование на планете Земля, которые будет вести армия США, руководствуясь доктриной «сетецентрической войны» (network-centric warfare), для которой ИИ является ключевым элементом.

Доктрина «сетецентрической войны» предусматривает четыре основные фазы ведения боевых действий.

  • Достижения информационного превосходства посредством опережающего уничтожения (вывода из строя, подавления) системы разведывательно-информационного обеспечения противника (средств и систем разведки, сетеобразующих узлов, центров обработки информации и управления).
  • Завоевания превосходства (господства) в воздухе путём подавления (уничтожения) системы ПВО противника.
  • Постепенное уничтожение оставленных без управления и информации средств поражения противника, в первую очередь ракетных комплексов, авиации, артиллерии, бронетехники.
  • Окончательное подавление или уничтожение очагов сопротивления противника.

По мнению американских экспертов, наличие ИИ в контурах управления, принятия решения на применения оружия при ведении «сетецентрической войны» даст бесспорное превосходство над любым противником, в том числе над Россией и Китаем.

ИИ — помощник или властелин мира?

Таким образом, ИИ в среднесрочной перспективе становится главным разрушителем мирового стратегического баланса. В связи с этим слова Президента России Владимира Путина: «Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны — тот станет властелином мира», — получают более конкретный смысл.

Естественно, Россия, как и Китай, не сидит сложа руки. Мы первые, кто применил автоматизированные системы управления войсками (АСУВ) ещё в 1981 году на учениях «Запад-81».

В последствии, в процессе совершенствования, были созданы АСУ родов и видов войск, которые возглавляет единая АСУВ — Национальный центр управления обороной (НЦУО МО РФ), заступивший на боевое дежурство 1 декабря 2014 года. В отличие от американцев, мы рассматриваем ИИ как «важного помощника» в мониторинге и анализе военно-политической, социально-экономической и общественно-политической обстановки в России и мире, формировании принятия решений на применение оружия, в том числе ядерного, в вопросах строительства национальной обороны и т.д. Эффективность НЦУО МО РФ доказана практикой, и я настоятельно не советую странам-агрессорам проверять её на прочность.

Опасность искусственного интеллекта в системах вооружения

В настоящее время идет активное обсуждение проблемы безопасности применения искусственного интеллекта (ИИ) для человека. Хотя полноценный ИИ как таковой еще не создан, но автоматизация уже давно стала частью управленческих и производственных процессов. Сегодня компьютеры способны управлять автомобилями, распознавать речь и лица, анализировать гигантские объемы данных. У искусственного интеллекта большое количество областей применения, и оборонная сфера не является исключением. Создание ИИ становится задачей номер один для обеспечения национальной безопасности. По сути, начинается мировая гонка инновационных вооружений, в которую втягиваются все ведущие державы.


Пока автоматические системы ограничены, и решения на применение оружия принимает сам человек. ИИ должен полностью отстранить человека от принятия решение и заодно сохранить жизнь и здоровье военных. Существует огромное число возможностей применения оружия с ИИ. Это и ракетные катера, и бронемашины, и беспилотники, способные самостоятельно находить и уничтожать цели. С помощью ИИ можно объединить огромное количество дронов в управляемый «рой» для осуществления массовой атаки. Это системы военной связи и глобального позиционирования с обозначением координат цели и вызовом ударных средств.

Еще больше возможностей у ИИ в космосе. Появится возможность создания группировок спутников слежения, не нуждающихся в постоянном контроле и командах из центров управления на Земле.
В связи с этим, возникают вопросы: а не нанесут ли искусственные «мозги» удар по своим же солдатам? Или что произойдет, если боевую машину с искусственным разумом взломают хакеры, выведя ее из строя и перенаправив против своих же военных и гражданских объектов?
Как поясняют разработчики, решением проблемы является дополнение к искусственному разуму простого компьютера на базе обычных процессоров, который будет контролировать и ограничивать действия искусственного интеллекта. Взломать ИИ хакерам не удастся, так как в отличие от компьютерного интеллекта, искусственный разум генерирует для себя алгоритмы поведения самостоятельно и использует мгновенно возникающие и тут же распадающиеся цепочки связей.
Важно обратить внимание, что искусственный интеллект в отличие от суперкомпьютера функционирует по абсолютно другим алгоритмам и принципам. И пока еще рассуждения о восстании машин и армии «роботов-убийц» являются областью ненаучной фантастики.
Все еще не решена основная задача — как создать тот самый искусственный разум, который будет сравним с человеческим мозгом, но при этом «не перехватит инициативу» у человека.
При этом стоит обратить внимание на проблемы технического характера, возникающие ещё до внедрения полноценного ИИ — в том числе и в гражданской сфере.
Один из примеров — катастрофа самолёта Boeing-737 MAX 8 авиакомпании «Ethiopian Airlines». Специалисты отмечают, что у этих самолётов ещё после прошлогодней катастрофы в Индонезии были выявлены проблемы с «послушностью» бортовой электроники. Система автопилотирования фактически перехватывала управления у пилотов во время полёта. Американская компания умалчивала об этой проблеме, но вторая катастрофа с самолётом одной и той же модели за несколько месяцев заставила признать, что бортовые системы часто не помогали пилоту, а действовали вопреки его «командам».
Каковы гарантии того, что ИИ в вооружениях при нынешнем уровне технологий не окажется способен «перехватить управление» у человека, — важный вопрос для тех, кто занят в этой сфере.

DARPA примется совершенствовать искусственный интеллект

Объяснить смысл и мотивацию своих поступков под силу далеко не каждому человеку, не говоря уже о программных алгоритмах, имитирующих поведение искусственного интеллекта. Возможности современного подобия искусственного интеллекта строго ограничены даже невзирая на потенциал для самостоятельного обучения и анализа ситуации, предполагающего способность адаптации под конкретные условия.

Специалисты Агентства передовых оборонных исследовательских проектов (DARPA) при Министерстве обороны США считают необходимым привить аналитическое мышление грядущим вариациям на тему ИИ. Это необходимо для того, чтобы «машина» не просто могла сделать правильный выбор, но и озвучить принципы, которыми она руководствовалась, и даже отстоять машинную «точку зрения».

В DARPA намерены сконцентрировать усилия над развитием систем, построенных на принципах идеальной модели искусственного интеллекта, с одним важным отличием от существующих в обозначенном направлении решений. Ключевой особенностью грядущего проекта DARPA значится способность цифрового кода давать пояснение выполняемым действиям. ИИ-подобный алгоритм должен будет указать, что именно побудило его принять такое решение, чем он руководствовался в процессе выбора, а также почему им были отброшены альтернативные варианты.

Специалисты DARPA уверены, что данный проект позволит вывести ИИ на качественно новый уровень и тем самым стимулировать разработчиков к совершенствованию программной составляющей. Инициатива DARPA требует серьёзных финансовых вливаний, однако выделенные правительством бюджетные средства позволят сэкономить в будущем миллиарды долларов налогоплательщиков.

Логическое мышление ИИ — ключ к решению многих проблем, в том числе и для значительного рывка вперёд всей медицины. В числе приоритетных задач DARPA и ряда частных компаний, работающих над схожими проектами, значится использование систем с ИИ для выявления ранних признаков широкого спектра заболеваний. Данный процесс должен стать полностью автоматизированным и не требующим вмешательства квалифицированного персонала. Но чтобы поставить правильный диагноз, искусственному интеллекту придётся не только учитывать целую совокупность факторов/признаков, но и давать развёрнутое пояснение врачам касательно выявленных у пациента симптомов и оптимальных вариантов избавления от недуга.

DARPA хочет научить ИИ здравому смыслу

Главная претензия исследовательского агентства Минобороны США к существующим методам машинного обучения — полное отсутствие здравого смысла. Алгоритмы показывают очень высокую производительность при работе с шаблонами и образами, на которых они обучены, но впадают в ступор, если ситуация хотя бы немного отличается от того, что заранее прописано в программном коде.

Военные хотели бы, чтобы принимающий решениях во время боевых действий ИИ в точности понимал контекст.

В DARPA приводят в пример следующую задачу: «Студент посадил два одинаковых растения в горшки, заполненные одинаковой по составу и объему почвой. Оба растения получили равные доли воды. Одно из этих растений поставили рядом с окном, а другое — в темной комнате. Растение у окна будет выделять больше: (A) кислорода, (B) углекислого газа, © воды».

Стандартные способы машинного обучения вряд ли помогут алгоритму справиться с этой задачей. Тут необходимо, чтобы ПО разобралось, как именно работает фотосинтез. Нужно изучить контекст, а только потом давать ответ, пишет Technology Review.

Этот метод обучения ИИ, похожий на приемы образования в человеческом обществе, противоположен тому, чем сейчас занимаются ИТ-корпорации. Их алгоритмы научились почти идеально выполнять специализированные задачи, но DARPA нужно больше.

Можно сказать, что военные ученые запускают программу по созданию так называемого сильного ИИ. Того самого, которого так боится Илон Маск и другие ИИ-скептики.

«Отсутствие здравого смысла не позволяет ИИ-системе понять мир, общаться с людьми естественным образом, вести себя разумно в непредвиденных ситуациях и учиться на новом опыте, — объясняет менеджер программ DARPA Дейв Ганнинг. — Его отсутствие, пожалуй, является самым главным барьером между узко ориентированными приложениями, которые мы имеем сегодня, и более общими приложениями, которые мы хотим создать в будущем».

Раньше США считались лидерами в ИИ, но огромные деньги позволяют Китаю быстро сокращать этот разрыв. По данным исследовательской фирмы Pitchbook, Китайские ИТ-гиганты уже вкладывают в разработку ИИ-систем в 10 раз больше американских.

До этого времени, когда военный искусственный интеллект (ИИ) не использовался, и на дороге взрывалась заложенная мина, то аналитикам приходилось «отматывать» записи фото-видео c разведывательных спутников и дронов, чтобы увидеть тех, кто заложил эту мину, чтобы узнать внешность боевиков, когда они это сделали, откуда пришли и куда ушли. Но, к сожалению, анализ изображений — это весьма утомительное занятие. Потому что аналитик, глядя на экран, должен считать автомобили, людей или действия, и вносить полученные данные в отчёт. А большая часть собранных фото-видео данных, вообще, просто-напросто исчезает (потому что никто и никогда их не просматривает).

С появлением в США военного «ИИ Специалист» (Project Maven) все эти манипуляции выполняются автоматически. Все личности в зоне обработки аналитического материала (фото и видео с дронов и спутников) каталогизируются, любая активность анализируется и составляется база данных, позволяющая составлять отчёты любой сложности. Можно составить карту перемещения любой техники и любого человека, все маршруты, круг общения людей, все встречи, обычные и необычные действия. Военный ИИ может составить план и указать места, наиболее ощутимые для ударов авиации и артиллерии. Например, для гибели руководителей, военных специалистов, или ключевых командиров и их семей. Больше всего применение такого ИИ обеспокоило гражданских специалистов, которые столкнулись с его применением. По мнению экспертов, именно такие методы, вместе с данными разведки, позволили американским военным спланировать гибель российского генерала Валерия Асапова в Сирии от «случайного» попадания мины. Навести замаскированные под самодельные дроны в Сирии.

Теперь о том, какие планы разрабатываются американскими военными с помощью Googlе, Microsoft, Amazon, Facebook, Palantir, Raytheon, General Dynamics (и всех их дочерних фирм и структур). Они хотят «выпустить» Project Maven в Сеть. Все записи, все фото-видео, все сообщения, во всех форумах, все емайлы, личные данные всех людей в Сети. Из всех источников (от спутников, до соцсетей, из игр, из чатов, с фото и видео-роликов на всех ресурсах, тегах, координатах, включая закрытые и разведывательные), чтобы сопоставить эти данные с картами и панорамами городов. Ведь для современного военного ИИ не представляет сложности обработать несколько триллионов объектов, фото-видео файлов, геометок и тд.

Что происходит сейчас. Гражданские специалисты требуют от указанных выше корпораций отказаться от военного применения ИИ. Последнее открытое письмо специалистов Гугл опубликовала газета The New York Times, это письмо адресовано Сундару Пичаи, вот оно

(перевод)

Дорогой Сандар,

Мы считаем, что Google не должен заниматься военным бизнесом. Поэтому мы просим, чтобы проект «Специалист» был прекращен и чтобы Google изложил, предал гласности и начал исполнять прозрачную политику, заявляя, что ни Google, ни его подрядчики никогда не будут заниматься разработкой военных технологий.

Google занимается проектом «Специалист», кастомизированной программой слежения с использованием ИИ, которая использует данные широкозонного видеонаблюдения, собранные беспилотниками правительства США для выявления средств передвижения и других объектов, слежения за ними и передачи результатов Министерству обороны.

Недавно гугловцы выразили озабоченность по поводу «Специалиста» внутри компании. Дайана Грин ответила им, заверив, что технологии не будут «оперировать беспилотниками или управлять их полетами» и не будут «использоваться для запуска средств поражения». При том, что это исключает узкий список непосредственного применения, технология создается для военных, и после ее передачи (заказчику.— “Ъ”) может легко использоваться в помощь этим задачам.

Этот план нанесет невосполнимый ущерб бренду Google и его возможности бороться за талантливых сотрудников. На фоне растущих страхов по поводу пристрастности и применения ИИ в военных целях Google уже борется за сохранение общественного доверия. Заключая этот контракт, Google вступает в ряды таких компаний, как Palantir, Raytheon и General Dynamics. Тот аргумент, что другие фирмы, такие как Microsoft и Amazon, тоже участвуют, не делает ситуацию менее рискованной для Google. Уникальная история Google, его девиз «Не будь злом» и его непосредственное проникновение в жизни миллиардов пользователей выделяют его из других.

Мы не можем передать моральную ответственность за наши технологии третьим сторонам. Заявленные ценности Google делают это очевидным: «Каждый из наших пользователей доверяет нам. Никогда не ставьте это под удар. Никогда». Этот контракт ставит репутацию Google под удар и находится в прямом противоречии с нашими базовыми ценностями. Создание технологии, помогающей правительству США осуществлять военную разведку,— с потенциально смертельным исходом — неприемлемо.

Признавая моральную и этическую ответственность Google и угрозу репутации Google, мы просим вас:

1. Немедленно прекратить проект.

2. Выработать, предать гласности и применить на практике политику, четко заявляющую, что ни Google, ни его подрядчики не будут заниматься разработкой военных технологий.