Книга: Стрелы кентавра. Кибервойна по-американски
Назад: Глава 9. Война и искусственный интеллект
Дальше: Централизация в области ИИ

Искусственный интеллект на военной службе

В текущей реформе вооруженных сил США работа с ИИ является одним из направлений Третьей стратегии возмещения, которая была запущена при министре обороны Эш Картере

На ИИ смотрят с точки зрения командования миссией, которое является формой децентрализованного управления и контроля. «На одном уровне командование миссией действительно является управлением доверия», – сказал Бен Дженсен, профессор стратегических исследований в Университете морской пехоты. Дженсен выступил в качестве члена группы по многодоменным операциям на симпозиуме Ассоциации по ИИ вооруженных сил США в ноябре 2019 г. «Мы постоянно смещаем выбор и свободу действий от человека к автоматике из-за оптимизированных алгоритмов, помогающих принятию решений. Совместимо ли это принципиально с концепцией командования миссией?»

В этом случае проблема для военных лидеров двойная: могут ли люди доверять информации и советам, которые они получают от искусственного интеллекта? И в связи с этим могут ли эти люди также верить, что любые автономные машины, которыми они руководят, преследуют цели так же, как люди?

В первую очередь Роберт Браун, директор многодоменной целевой группы Пентагона, подчеркнул, что использование инструментов искусственного интеллекта означает, что командиры доверяют этой информации своевременно.

«Команда миссии говорит: вы предоставите своим подчиненным глубину, лучшие данные, вы можете получить их, и вам понадобится ИИ, чтобы получить эти качественные данные. Но тогда это уравновешивается их собственным подходом, а затем искусством происходящего», – сказал Браун. «Мы должны быть осторожны. Вы, безусловно, можете потерять эту скорость и скорость принятия решения».

Прежде чем инструменты когда-либо попадут на поле битвы, прежде чем алгоритмы когда-либо будут ориентированы на войну, военные руководители должны убедиться, что разработанные инструменты действительно выполняют то, что нужно военнослужащим.

«Как мы создаем правильный тип средств для принятия решений, которые по-прежнему дают людям возможность совершать действия, но дают им информационный контент для более быстрого движения?» – вопрошает Тони Фрейзер, руководитель Maxar Technologies.

Интеллектуальный продукт, использующий ИИ для анализа и предоставления информации комбатантам, должен оказаться в центре внимания, предлагая действенные разведданные, не увязая в деталях получателя и не оставляя его без информации.

«Одно осталось неизменным, – сказал Браун. – Они будут ждать идеальной информации для подавления противника. Они просто ждут, ждут и ждут, и у них никогда не будет совершенной информации, а противники за это время сделают еще 10 операций. Или они будут ошеломлены и проигнорируют информацию».

По словам Брауна, третьим путем, по которому пойдут пользователи, является та самая задача, которой они хотят следовать: найти золотые иголки в восьми стогах информации, чтобы помочь им своевременно принять решение.

Однако попасть туда, где информация расширяет возможности, а не парализует или приводит в уныние, – это работа по обучению. Адаптация к будущему означает тренировку в будущей среде, а это означает знакомство новых практикующих спецов с той информацией, которую они могут ожидать на поле битвы.

«Наши противники поставят перед нами множество дилемм, и поэтому наша способность понимать эти проблемы, а затем, надеюсь, не просто реагировать, но и активно предпринимать что-то, чтобы предотвратить эти действия, абсолютно необходима», – сказал бригадный генерал Дэвид Кумаширо, директор по интеграции Объединенных сил для ВВС США. Когда в битве тысячи цепочек убийств анализ растягивается на сотни часов, людям трудно понять, что происходит. В будущем задача искусственного интеллекта будет отфильтровывать эти угрозы. Между тем, роль человека в цикле будет заключаться в том, чтобы взять эту отфильтрованную информацию и как можно лучше реагировать на угрозы, направленные против них.

«Что означает формулировать командование миссией в этой среде, что значит понимание, намерение и доверие?» – сказал Кумаширо, говоря о быстром темпе фильтрации ИИ. «Когда среда, в которой ведутся серьезные споры, нарушает эти связи, когда мы отсоединяемся от улья, командирам необходимо понимать это, чтобы наши боевые истребители в самых дальних уголках тактического края все еще могли выполнять то, что им нужно».

Планировать не только то, как эти инструменты ИИ работают в идеальных условиях, но и то, как они будут выдерживать деградацию современного поля битвы, критически важно для того, чтобы сделать технологию помощником, а не помехой силам будущего.

«Если данные исчезнут, а у вас все еще есть миссия, вы должны позаботиться о ней, – сказал Браун. – Это огромный фактор для практики. Если вы полагаетесь только на данные, вы потерпите неудачу в ухудшенном режиме».

Научный сотрудник корпорации RAND Эндрю Лон сравнивает опыт применения компьютера к шахматной игре и предполагает, что «компьютеры с поддержкой ИИ могут быть эквалайзером, помогающим неудачникам находить новые игровые опции. Тем не менее, это не единственный урок, который шахматы могут преподать нам о влиянии суперкомпьютеров с поддержкой ИИ и войны. На данный момент, хотя люди все еще доминируют над стратегией, придут времена, когда компьютер обеспечит преимущество в скорости или для избежания грубых ошибок. Однако когда компьютерное несоответствие становится значительным и очевидным, от людей следует ожидать странного поведения. В идеале люди, лишенные своих компьютерных помощников, будут отступать или переходить только к безопасным и консервативным решениям. Но правила войны не так строги, как правила шахмат. Если врагом оказывается кто-то, кому помогают безрассудные компьютеры, а не сверхчеловеческие компьютеры, которым помогают безрассудные люди, может быть, разумно ожидать более изобретательного, возможно, даже безрассудного человеческого поведения».

Если говорить об этической стороне, то военные системы ИИ могут участвовать в принятии решений о сохранении жизни и смерти. Эти системы включают в себя как смертоносные автономные системы оружия (lethal autonomous weapons systems, LAWS), которые могут выбирать и поражать цели без вмешательства человека, так и системы поддержки принятия решений (decision support systems, DSS), которые облегчают сложные процессы принятия решений, такие как оперативное и логистическое планирование. Сторонники систем ИИ часто подчеркивают, что возможности этих систем обеспечивают этическое поведение лучше, чем у людей, особенно в бою. Рональд Дж. Аркин в своей книге «Управление смертоносным поведением у автономных роботов» утверждает, что такие системы не только часто обладают большей ситуативной осведомленностью, но и не мотивированы самосохранением, страхом, гневом, местью или неуместной лояльностью, предполагая, что они будут реже нарушать соглашение о войне, чем их коллеги-люди.

Так или иначе, вопросы этики все же возникают, поскольку «моральные агенты налагают моральные последствия на моральных агентов. Возьмем, к примеру, искусственную интеллектуальную систему, которая предоставляет юридические решения в отношении нарушителей. Разумеется, возможно, что инженеры могли бы разработать машину, которая могла бы учитывать большее количество и разнообразие данных, чем бы это делал человек-судья». Кроме того, моральные вопросы применения ИИ могут послужить поводом для введения программы нераспространения ИИ с сопутствующим давлением на другие страны с требованием учредить определенные нормы.

Приложения военного ИИ также могут быть в широком смысле разделены на те, которые полезны на преимущественно оперативном или стратегическом уровне ведения войны. На оперативном уровне приложения включают автономию и робототехнику (особенно роение дронов); мультиакторное взаимодействие во время учебной тревоги и военных игр; моделирование на основе больших данных; анализ разведывательных данных для обнаружения и мониторинга мобильных ракет, подводных лодок, мин и передвижения войск. На стратегическом уровне приложения включают в себя: 1) системы разведки, наблюдения и рекогносцировки (ISR), а также командования, управления, связи и разведки (C3I) (особенно в сложных, враждебных и беспорядочных средах); 2) улучшенную противоракетную оборону с помощью технологии автоматического распознавания целей (ATR) с машинным обучением (т. е. улучшение обнаружения цели, отслеживания, систем наведения и распознавания); обычных высокоточных ракетных боеприпасов (включая, но не ограничиваясь гиперзвуковыми вариантами) которые могут поражать стратегическое оружие; 3) увеличение скорости и объема принятия решений по циклу НОРД для усиления противовоздушной обороны и радиоэлектронной борьбы (особенно в условиях противодействия и отрицания доступа к зоне [A2/AD]); 4) наступательные и оборонительные кибервозможности, улучшенные с помощью ИИ (например, методы машинного обучения для проникновения и выявления уязвимостей сети, а также для манипулирования, фальсификации и даже уничтожения этих сетей).

Вместе с этим утверждается, что «военные технологии, такие как ИИ, которые позволяют наступательным возможностям работать с более высокой скоростью, дальностью и летальностью, быстро изменят ситуацию, которая взлетит по ступеням эскалации, преодолевая пороги, которые могут привести к стратегическому уровню конфликта. Эта эскалационная динамика будет значительно усилена путем разработки и внедрения дополненных ИИ инструментов, функционирующих на скорости машины. Военный ИИ может потенциально ускорить борьбу до такой степени, что действия машин превзойдут когнитивные и физические способности людей, принимающих решения по контролю (или даже полного понимания) будущей войны. Таким образом, пока эксперты не смогут разгадать некоторые из непредсказуемых, хрупких, негибких, необъяснимых особенностей ИИ, эта технология будет продолжать опережать стратегию, а человеческая ошибка и машинная ошибка, вероятнее всего, смогут соединяться друг с другом – с непредсказуемыми и непреднамеренными последствиями».

Есть мнение, что функции ИИ могут преобразить взаимоотношения между тактическим, операционным и стратегическим уровнем войны. «Автономность и сетевое взаимодействие наряду с другими технологиями, включая нано, стелс и био, предложат сложные тактические боевые возможности на суше и на море, а также в воздухе. Рассмотрим, например, влияние, которое косяки автономных подводных роботов, чувствительных к малым искажениям в магнитном поле Земли, будут оказывать на традиционные подводные лодки. Развернутые в узких местах в океане, такие платформы могут осложнить скрытые действия подводных лодок, которые в настоящее время обеспечивают гарантированную возможность ответного удара ядерных держав. Таким образом, и другие тактические платформы оказывают стратегическое влияние. В дополнение к этим ролям на поле боя ИИ преобразит другие военные действия, включая логистику, разведку и наблюдение, и даже разработку оружия. В совокупности эти действия, в основном тактические по своему характеру, окажут преобразующее влияние на стратегию тех государств, которые их используют. Это потому, что военные, которые могут успешно развиваться и использовать их, будут испытывать резкое увеличение боевой мощи по сравнению с теми, которые не могут».

ИИ может применяться и для анализа электромагнитного спектра, поскольку разные частоты могут использоваться для разных задач. Предполагается, что «включение ИИ в процесс визуализации и понимания электромагнитной операционной среды (electromagnetic operating environment, EMOE) будет поддерживать растущую скорость совместных операций электромагнитного спектра (joint electromagnetic spectrum operations, JEMSO); однако модели ИИ, машинного обучения и глубокого обучения зависят от надежных данных, чтобы гарантировать, что обучение не будет нарушено. Зависимость от данных как по качеству, так и по количеству представляет наибольший риск для интеграции технологий ИИ и машинного обучения в процессы JEMSO». В июне 2015 г. Исследовательская лаборатория армии США провела семинар для визуализации тактического поля боя в 2050 г. и сообщила, что «роли информационных технологий будут совместно развиваться (то есть будут влиять и будут зависеть от) будущих концепций и технологий для ключевых боевых функции, в том числе видение (восприятие), понимание, коммуникации, возможности, которые участвуют в получении, сборе, организации, объединении, хранении и распространении соответствующей информации, а также возможности, связанные с функциями и процессами C2, включая обоснование, вывод, планирование, принятие решений».

Если вообразить EMOE как экосистему, то в ней ИИ и машинное обучение будут представлять центральную нервную систему, соединяя отдельные сенсорные нейроны и обрабатывая входные сигналы, получаемые от них, чтобы понять окружающую среду. В этой же экосистеме данные от этих датчиков могут быть представлены как «кровь», которая питает модели принятия решений и обучения для систем ИИ и машинного обучения. Сегодня каждая отдельная апертура изолирована, связь поддерживается только внутри собственной внутренней и ограниченной системы для определенной функции. Интегрируя процессы ИИ и машинного обучения в системы JEMSO, американские военные надеются соединить эти апертуры, или, точнее, данные, которые они воспринимают, чтобы они стали связанными с центральной нервной системой, способной перемещать и хранить информацию, отвечающую нескольким целям электромагнитного спектра одновременно.

Следовательно, ИИ представляет собой своего рода новую революцию в военном деле. И США озабочены, чтобы революционные открытия в этой области не оказались у других стран. А если они все же появятся, то нужно оказать максимально возможное противодействие.

Профессор школы перспективных военных исследований армии США М.А. Томас в связи с этим считает, что «конкуренты и противники, которые имеют доступ к ИИ, будут разрабатывать новые процессы принятия решений, режимы операций и координации, боевые возможности и оружие. Корпоративные системы в человеческих ресурсах, логистике, закупках, управлении оборудованием и техническом обслуживании, учете, сборе и анализе разведданных и отчетности также могут быть с поддержкой ИИ. Операционные и стратегические лидеры могут обратиться к системам ИИ, чтобы предложить или проверить ход действий».

Поэтому он предлагает подумать над стратегией противодействия ИИ. «Стратегия противодействия ИИ будет направлена на укрепление Соединенных Штатов в качестве цели для атак с использованием ИИ, уменьшение преимущества ИИ для противника, прогнозирование и адаптацию к изменениям в поведении, которые являются последствиями применения ИИ. Среди других мер Соединенные Штаты могли бы предпринять более агрессивные шаги по защите данных, которые могут быть использованы для обучения моделей ИИ, инвестировать в тактику противодействия ИИ и изменить то, как понимается поведение ИИ. Наконец, Соединенные Штаты должны развивать самоосведомленность об уязвимостях, созданных собственной растущей зависимостью от систем искусственного интеллекта».

Томас довольно открыто говорит об агрессивных мерах, которые выходят за рамки международного права: «Соединенные Штаты должны инвестировать в разработку методов взлома, улучшения и опережения ИИ противника, воспользовавшись ошибками и предвзятостью ИИ, неспособностью ИИ адаптироваться к новизне, и уязвимостью каналов, используемых для разработки и продвижения обновлений программного обеспечения. Эксплуатация таких недостатков будет включать в себя выявление того, где противники полагаются на ИИ и для каких целей, реинжиниринг систем ИИ, объединение вероятных решений программистов ИИ (например, путем определения вероятного источника обучающих данных или используемых алгоритмов), и с использованием генеративных состязательных сетей – программ, которые стремятся ограничить возможности классификации ИИ. Экспертиза в тактике противодействия ИИ должна быть совмещена с опытом в наступательных кибервозможностях. Для тактики противодействия ИИ могут понадобиться наступательные кибератаки, чтобы взламывать доступ для входа в системы с поддержкой ИИ, блокировать или подделывать навязанные обновления программного обеспечения, в то время как кибервозможности могут нуждаться в искусственном интеллекте, чтобы справиться с киберискусственным интеллектом противников».

Предполагается, что ИИ может эффективно применяться и в борьбе с гибридными угрозами. «В гибридной войне технология искусственного интеллекта будет двигать эволюцию, посредством которой доминирование в информации и понимании может оказаться решающим путем увеличения скорости, точности и эффективности, с которой информация передается и становится действенной. В гибридных конфликтах ИИ позволит подражать групповому поведению, влиять на него и изменять, тем самым формируя социальные и экономические последствия гибридного конфликта. Его потенциал для упрощения сложных процессов и повышения их эффективности делает ИИ ключевым приоритетом для вооруженных сил и разведывательных служб в борьбе с непредвиденными обстоятельствами гибридной войны. Например, в качестве распознавания лица, биометрии и подписи технологии распознавания подходы с ИИ станут повсеместными, и станет все труднее скрывать солдат, доверенных лиц или их оборудование. С гораздо более обширным аппаратом по сбору данных, обработке и эксплуатации на основе ИИ национальное государство может сделать многое для борьбы с гибридными повстанцами».

Назад: Глава 9. Война и искусственный интеллект
Дальше: Централизация в области ИИ