Одним из перспективных проектов с применением ИИ является Skyborg ВВС США, который уже прошел первое летное испытание в 2019 г. Идея испытаний заключалась в проверке контроля и управления «небольшого, но представительного, высокоскоростного суррогатного самолета». Конечная цель заключается в создании боеспособного автономного самолета, сопоставимого со стандартным истребителем, к концу 2023 г.
Skyborg рассматривается как робот-авиатор для других пилотов, использующих ИИ для управления самолетом, а также для решения некоторых боевых задач. По замыслу разработчиков применение Skyborg будет расширяться до более крупных испытательных платформ, чтобы в итоге приблизиться к финальной модели.
Тесты позволяют решить ключевой вопрос, лежащий в основе исследований ИИ и автономии: как военные могут обеспечить правильное «мышление» разрабатываемых ими интеллектуальных систем?
Предстоящие полеты будут сосредоточены на том, сможет ли программное обеспечение, созданное в Исследовательской лаборатории ВВС, проверить, что автономная система предлагает разумные шаги для действий. Подобно тому, как пилот-человек указывает своему самолету, что делать в бою, алгоритмы должны подсказать, как летать самолету Skyborg.
По мнению представителей ВВС США, «алгоритмы автономии можно просматривать отдельно от системы транспортного средства, подобно тому, как пилот рассматривается отдельно от самолета».
Установка более продвинутой автономии – это следующий шаг экспериментальной кампании по объявлению готовности Skyborg к работе. Его разработка также может распространиться на другие области исследований, например, на специальную команду Исследовательской лаборатории ВВС США по искусственному интеллекту, известную как ACT3, которая работает над алгоритмами воздушного боя для существующих истребителей.
«Деятельность ACT3 направлена на развитие искусственного интеллекта для выполнения тактики «воздух-воздух», – сказала Боузи. – Таким образом, ACT3 и Skyborg дополняют друг друга. Проект Skyborg планирует использовать работу с ACT3 и другими применимыми технологиями», которые были признаны полезными для военных и достаточно зрелыми, чтобы начать функционировать в ближайшие несколько лет.
ACT3 все еще решает, какое аппаратное и программное обеспечение ему нужно, чтобы начать полномасштабную разработку для своего проекта истребителя. ВВС работают и над другими инициативами «ведомого», такими как «Валькирия» компании Кратос (XQ-58A Valkyrie).
Вопрос о том, как именно ВВС будут использовать планеры, которые могут сопрягаться с другими самолетами, самостоятельно обрабатывать данные, потенциально выбирать цели и многое другое – и какую роль будут играть живые пилоты – все еще находится на рассмотрении. Даже если ИИ запрограммирован «мыслить» в рамках определенных руководящих принципов, людям еще предстоит проделать большую работу, чтобы доверять этим сторонникам. Skyborg помогает вести эти дискуссии, сказала капитан ВВС Кара Боузи.
По ее словам, одним из основных усилий является объединение экспертов из всего оборонного сообщества для обеспечения того, чтобы эти инициативы в области развития следовали текущим руководящим принципам, а также рассматривали вопрос о том, какой язык необходимо изменить, чтобы в полной мере воспользоваться преимуществами ИИ и технологий, которые помогают машинам учиться на своем опыте.
Директива Министерства обороны 2012 г. гласит, что военнослужащие должны иметь возможность «применять надлежащие уровни человеческого суждения» над автономными и полу-автономными системами оружия, хотя до сих пор остается много неизвестных относительно того, что военные могут считать «подходящим» и в каких контекстах.
«Включение совместных, объединенных в команду, автономных самолетов в ВВС потребует множества изменений в политике и регулировании, аналогично тем проблемам, которые частная промышленность пытается преодолеть с помощью автономных транспортных средств, – говорит Боузи. – Некоторые из этих проблем включают в себя интеграцию воздушного пространства, надзор, совместную связь, кибербезопасность, отказоустойчивость, планирование миссий, подотчетность и многие другие. Хотя Skyborg не пытается решить все эти проблемы, проект обеспечивает катализатор необходимых изменений».
Кроме того, повышение маневренности также связывают с ИИ. Это, в частности, программное обеспечение и датчики, которые предоставляют автономию в опасных местах. Это одна из движущих сил применения автономных систем военными. «Самым большим обещанием автономии машин является то, что это приведет к большей свободе для людей, которые командуют и сражаются вместе с роботами. Американские разработчики рассчитывают перейти от 50 солдат, поддерживающих один дрон, наземного робота или водного робота, к парадигме, когда один человек будет поддерживать 50 роботов. Доверить ИИ управлять маневрами платформ по наблюдению и разведке также означает предоставление командирам и, в конечном счете, политикам информации, несмотря на помехи и риск потери».
Предполагается что применение ИИ в ударных беспилотниках распределяется следующим образом:
– боевые алгоритмы – 3;
– видимость – 15;
– модель управления человек-машина – 24;
– автономная миссия – 25;
– роение – 26;
– автономный полет – 3 0.
ИИ также активно используется в режиме онлайн для социальных сетей, коммуникаций, а также создания контента. Отмечалось, что новые чат-боты – компьютерные программы, имитирующие реальный разговор, все чаще проходят тест Тьюринга, где машина демонстрирует поведение, неотличимое от человека. Боты могут легко общаться с людьми и друг с другом, создавая привлекательные сообщества ботов. Посмотрим, как это применяется на практике.
Практически каждый день американские СМИ пишут о «российском вмешательстве в американские выборы через Интернет». Крупные международные и специализированные издания со штаб-квартирами в США методично повторяют легенды о «русских троллях» и «хакерах из ГРУ», хотя помимо голословных обвинений не было представлено ни одного доказательства. Такие доказательства были представлены только частной компанией. А факты свидетельствовали об обратном. Так, один проект Google убедительно показывает, как за $100 можно создать иллюзию того, что некая российская компания пыталась повлиять на общественное мнение внутри США. Для этого был куплен мобильный телефон и несколько сим-карт в Панаме, выбраны типичные русские имя и фамилия, от чьего лица был зарегистрирован аккаунт на Yandex, с помощью программы NordVPN указан IP в Санкт-Петербурге. Далее была проведена регистрация в AdWords, при указании определенной юридической фирмы сделана оплата рекламы и затем в Интернет заброшен определенный политический контент, который может быть квалифицирован как провокационный. И все это делали граждане США из компании Google, о чем они, не стесняясь, отчитались. И что же мешает сделать практически то же самое сотрудникам АНБ, ЦРУ или представителям других структур, государственных или частных, знакомым с хакерскими методиками, независимо от того, принадлежат они к какой-либо политической партии?
Другой пример того, как США могут повлиять на общественное мнение, – это создание фейковой пропаганды. Эту технологию американские военные с помощью подрядчиков отработали в начале 2000-х в Ираке.
Британская неправительственная организация «Бюро журналистских расследований» утверждает, что Пентагон заплатил более $500 млн британской пиар-компании Bell Pottinger за создание поддельных видеосюжетов, на которых запечатлены различные действия боевиков и террористов. Группа сотрудников этой компании была размещена вместе с американскими военными в лагере Victory в Багдаде практически сразу же после начала оккупации в 2003 г. Также ряд контрактов был заключен между 2007 и 2011 гг. Бывший председатель данной компании лорд Тим Белл подтвердил журналистам, что компания действительно выполняла некий подряд для американцев, детали которого не разглашаются по причине секретности.
Следует напомнить, что ранее Bell Pottinger занималась продвижением имиджа Маргарет Тэтчер и помогла Консервативной партии выиграть на трех выборах.
Бывший редактор видео Мартин Уэллс, признался, что пребывание в «Кэмп Виктори» открыло ему глаза и изменило жизнь. Со стороны США этот проект курировал непосредственно генерал Дэвид Петрэус. Если же он не мог принять решения по какому-либо вопросу, то согласование проводилось в более высоких инстанциях в Вашингтоне.
Наиболее скандальным эпизодом в этой истории является создание пропагандистских роликов, сделанных британской компанией от лица террористической группировки Аль-Каи-да. Когда материал был готов и оцифрован в нужном формате, эти ролики были записаны на диски и переданы морским пехотинцам, которые во время облав и рейдов подбрасывали диски в дома иракцев. На дисках был записан код, по которому можно было отслеживать местоположение компьютера, на котором загружали этот диск для просмотра. Впоследствии было обнаружено, что поддельные клипы Аль-Каиды смотрели не только в Ираке, но также в Иране, Сирии и даже Соединенных Штатах! Возможно, трекинг и помог американским силовикам отследить распространение фейковых пропагандистских клипов. Но сколько людей стали приверженцами экстремистской идеологии благодаря этому секретному проекту Пентагона?
А поскольку за последние годы технологии значительно шагнули вперед, то теперь стали говорить и о возможности применения искусственного интеллекта для подобных проектов – будь то политическая манипуляция на выборах или дезинформационные вбросы. Недавно технологии на основе искусственного интеллекта уже были связаны с несколькими скандалами. Один из них – использование данных из профилей Facebook, которые компания Cambridge Analytica использовала для таргетирования избирателей во время выборов президента США.
Издание «Вашингтон пост» в этом отношении отмечало, что «будущие кампании будут выбирать не только проблемы и лозунги, которые может поддержать потенциальный кандидат, но и самого кандидата, который должен быть не равнодушен к этим проблемам… Приложения по базам данных с информацией по образованию, родословной и профессиональным навыкам охватывают конкретные сегменты голосования по целому ряду демографических областей и регионов. А в будущем временные тенденции для различных блоков избирателей можно сравнить с родословными, генетическими и медицинскими данными, чтобы понять изменения в политических тенденциях по региональному и поколенческому признаку, тем самым освещая методы отбора и оценки аудитории в пользу или против определенной повестки дня».
Искусственный интеллект также может использоваться как бот, заменяя человека и даже имитируя беседу. Такие алгоритмы, как Quill, Wordsmith и Heliograf, используются для преобразования таблиц с данными в текстовый документ и даже написания новостей на различную тематику. Издание «Вашингтон пост» использует Heliograf в своей работе. А боты могут применяться как с хорошими, так и с плохими намерениями.
По мнению американских военных, инструменты информационных операций на основе искусственного интеллекта могут сопереживать аудитории, что-то высказывать по мере необходимости, изменять восприятие, которое управляет этим физическим оружием. Будущие системы информационных операций смогут индивидуально контролировать и влиять на десятки тысяч людей одновременно.
Летом 2018 г. агентство DARPA запустило проект, который попытается определить, можно ли будет в ближайшее время отличить поддельное видео и аудио от реального, если оно 1) выглядит как настоящее; 2) создано при помощи искусственного интеллекта. При этом анализ таких файлов также должен проводиться при помощи искусственного интеллекта. Видео традиционно оказывает большее влияние на аудиторию, так как считается, что его труднее подделать, чем фото. И оно выглядит более убедительно, чем текст, представленный от лица политика. Однако современные технологии могут легко справиться и с этим. В апреле 2018 г. было обнародовано видео, получившее название ObamaPeele – согласно именам исполнителей. Дело в том, что на видео Барак Обама произнес довольно странную речь, но в действительности говорил этот текст актер, который не показан в кадре. А специальная программа обработала игру актера так, что мимика Обамы полностью соответствует сказанному тексту. В Вашингтонском университете специалисты по компьютерным технологиям проделали подобный эксперимент с выступлением Барака Обамы в 2017 г. и выложили результаты в открытый доступ с подробным описанием, как это работает.
В проекте DARPA применялись так называемые «глубокие фейки», – видеоизображения, в которых лицо одного человека «пришивалось» к телу другого человека. Специалисты отметили, что подобная технология уже использовалась для создания нескольких фальсифицированных порновидео со знаменитостями. Но этот метод также может быть использован для создания клипа политика, говорящего или делающего что-то возмутительное и неприемлемое.
Технологи в DARPA особенно обеспокоены относительно новой технологией искусственного интеллекта, которая может сделать такие фейки, которые практически невозможно определить автоматическим методом. Используя так называемые генеративные состязательные сети (generative adversarial networks, GAN), можно создавать потрясающе реалистичные искусственные образы. Обеспокоенность, видимо, связана с возможностью применения этой технологии кем-то другим. Так как если США потеряют монополию в создании, верификации и распространении фейков, они сами столкнутся с теми проблемами, которые готовили для других стран и народов.
И пока ученые в военных мундирах ломают голову, как опередить другие государства в такой специфической гонке информационных вооружений, их гражданские коллеги уже прозвали данную тенденцию не иначе как информационным апокалипсисом и дезинформацией на стероидах.