В 2016 г. США опубликовали Национальный стратегический план по исследованию и развитию искусственного интеллекта (National Artificial Intelligence Research and Development Strategic Plan). В 2018 г. Министерство обороны выпустило Стратегию по искусственному интеллекту (Department of Defense Artificial Intelligence Strategy), а в 2019 г. вышла ее обновленная версия.
11 февраля 2019 г. Дональд Трамп подписал указ, согласно которому федеральные агентства, занимающиеся вопросами технологий, должны практически в два раза быстрее реализовывать свои проекты в области искусственного интеллекта. Он получил название Американской инициативы по искусственному интеллекту, и этот документ содержит пять пунктов:
1. Инвестиции в исследования;
2. Запуск ресурсов, работающих на искусственном интеллекте;
3. Утверждение правительственных стандартов по искусственному интеллекту;
4. Подготовка кадров для работы с искусственным интеллектом;
5. Продвижение американских технологий на международный рынок с сохранением преимуществ для США.
Из этих тезисов уже видно желание установить монопольное лидерство для США в целом и создать условия, чтобы другие страны стали потребителями американской продукции и услуг.
Показательно, что на следующий день после выхода указа Трампа Министерство обороны США опубликовало собственную стратегию искусственного интеллекта (ИИ). Стратегия Министерства обороны США в области ИИ основана на концепции «адаптации ИИ, ориентированного на человека», подчеркивающей, что люди играют важную роль в развертывании и использовании «вдумчивого» и «ответственного» использования ИИ. Он требует быстрого развертывания «гибких, надежных и безопасных» технологий с поддержкой ИИ для «решения ключевых задач» Министерства обороны.
В предыдущих главах были рассмотрены некоторые программы, которые создавались с применением искусственного интеллекта (ИИ). Здесь мы проанализируем несколько основополагающих документов, текущую дискуссию в военном сообществе США и еще несколько ключевых программ.
Термин «искусственный интеллект» используется для описания ряда слабо связанных явлений, которые, как правило, ассоциируются с использованием компьютеров для работы с «большими данными». Как общий термин, «кибер» используется по отношению ко всему комплексу понятий и технологий, связанных с сетями – аппаратному обеспечению, программам, автоматизации, управлению в промышленности, взлому, запугиванию, войне и всякого рода социальным медиа. ИИ используется как общий термин, который может отличаться из-за его различных проявлений. Это порождает путаницу, особенно в отношении утверждений о его революционных последствиях.
Для подавляющего большинства современных приложений ИИ состоит из алгоритмов, которые составляют основу модели программного обеспечения по распознаванию. В сочетании с высокопроизводительными вычислительными мощностями ученые, работающие с данными, способны исследовать и находить смысл в сборе огромного количества данных. Нейронные сети перегружают способность алгоритмов идентифицировать и организовать закономерности в данных путем их «обучения» ассоциировать конкретные модели с желаемыми результатами. Множественные слои нейронных сетей, известные как нейронные сети глубокого обучения, делают возможными современные подходы типа «машинного обучения», «контролируемого обучения» и «усиленного обучения».
Полезно различать узкую и общую область применения ИИ. Узкая область ИИ охватывает дискретные инструменты решения проблем, предназначенные для выполнения конкретных ограниченных задач. Общая область ИИ охватывает технологии, предназначенные для имитации и воссоздания функции человеческого мозга. Разрыв между ними имеет значение. Большинство экспертов сходятся во мнении, что достижения узконаправленного ИИ, хотя и довольно значительны, все же далеки от требований сторонников общего ИИ, т. е. способности воспроизводить человеческое мышление.
ИИ – это технология, и естественно рассматривать ее как простой ресурс, который может помочь в достижении своих целей, возможно, позволяя беспилотникам летать без присмотра со стороны оператора или повысить эффективность цепочек поставок.
Есть мнение, что компьютеры могут превзойти людей в поиске оптимальных способов организации и использования ресурсов. Если это так, они могут стать способными принимать стратегические решения на высоком уровне. В конце концов, нет никаких материальных ограничений, ограничивающих интеллект алгоритмов, таких как те, которые ограничивают скорость самолетов или дальность полета ракет. Машины, более умные, чем самые умные из людей, машины с более сложной стратегической смекалкой, являются концептуальной возможностью, с которой нужно считаться. Китай, Россия и США рассматривают эту возможность по-разному. Заявления и приоритеты исследований, опубликованные основными державами, показывают, как их политики считают, что траектория развития искусственного интеллекта будет развиваться.
Некоторые думают, что «будущее ИИ связано с продвинутыми когнитивными системами, способными делать то, что не могут системы машинного обучения. Они будут разумно и свободно взаимодействовать с экспертами-людьми, предоставляя им четкие объяснения и ответы, даже на границе сети или в роботизированных устройствах. Посредством панели люди будут видеть и работать с системами, наделенными редким и ценным интеллектом».
Похоже, что круги национальной безопасности США сомневаются, что ИИ будет способен мыслить на человеческом уровне в ближайшем будущем. Во время второго президентского срока Барак Обама сказал: «По моим впечатлениям, основанным на беседах с моими главными научными советниками, мы все еще довольно далеки» от «обобщенного ИИ». О том же теоретизирует и китайская армия. Вместо этого Обама утверждал, что дальнейшее развитие «специализированного ИИ», то есть программ с одним узким использованием, было наиболее прагматичным курсом для инноваций в ближайшей перспективе. Похоже, недавно объявленная Американская Инициатива Трампа исходит из тех же предположений. В плане не предусмотрено многих конкретных мер, в основном указывается, что департаменты должны отдавать приоритет ИИ и делиться своими данными.
В опросах экспертов, проведенных между 2011 и 2013 гг., Винсент Мюллер и Ник Бостром обнаружили, что многие считали, будто мощный ИИ будет создан довольно скоро. Медианный прогноз вероятности успеха в 50 % был к 2040 г., а при оценке вероятности 90 % – к 2075 г..
В октябре 2019 г. вышел черновой вариант документа, который содержит рекомендации по этическому подходу к применению искусственного интеллекта Министерством обороны США, подготовленным Советом по оборонным инновациям (Defense Innovation Board).
Там было сказано, что ИИ включает в себя:
1) любую искусственную систему, которая выполняет задачи в изменяющихся и непредсказуемых обстоятельствах без значительного человеческого контроля, или которая может извлечь уроки из своего опыта и улучшить производительность при воздействии наборов данных;
2) искусственную систему, разработанную с помощью компьютерного программного обеспечения, физического оборудования или другом контексте, которая решает задачи, требующие человеческого восприятия, познания, планирования, обучения, общения или физического действия;
3) искусственную систему, разработанную, чтобы думать или действовать как человек, включая когнитивные архитектуры и нейронные сети;
4) набор методов, в том числе машинного обучения, который предназначен для приближения к когнитивной задаче;
5) искусственную систему, разработанную для рационального действия, включая интеллектуального программного агента или воплощенного робота, который достигает целей, используя восприятие, планирование, рассуждение, обучение, общение, принятие решений и действия.
Предполагается, что развитие ИИ приведет к жесткой конкуренции, поскольку «ИИ также отличается от многих прошлых технологий своей естественной тенденцией к монополии благодаря самоусиливающимся циклам, которые укрепляют лучшие компании: чем больше пользователей у компании, тем больше данных она может получить, что позволяет ей разрабатывать лучший продукт, который будет привлекать еще больше пользователей… Эта тенденция к монополии усугубит как внутреннее, так и международное неравенство: внутреннее – из-за роста «фирм-суперзвезд», которые, как правило, уменьшают долю рабочей силы в национальном доходе; международное – потому, что большинство талантов и ресурсов ИИ сосредоточено в Китае и США. Аудиторская фирма PricewaterhouseCoopers прогнозирует, что к 2030 г. доля ВВП в разработках искусственного интеллекта может вырасти почти на $16 трлн, из которых 70 % будет приходиться только на Соединенные Штаты и Китай». Если соперничество будет представлять естественный ход вещей, то для компаний, которые применяют ИИ для военных нужд или технологий двойного назначения, такая постановка вопроса видится вполне логичной. Это будет гонка вооружений нового типа. И она уже идет.