Джинна пора загонять обратно в бутылку 
     
           Мы верили, что поймаем радугу, Оседлаем ветер к солнцу, Отплывем на кораблях чудес.
      Rainbow «Catch the Rainbow», альбом «Ritchie Blackmore’s Rainbow», студия Polydor, 1975
      
     Искусственный интеллект позволяет подсвечивать и разъяснять сложные термины и делать выжимки из научных статей, не только ускоряя работу ученых и инженеров, но и расширяя их компетенции в междисциплинарных направлениях. Кроме того, топ-менеджерам все проще разбираться в научно-технических новшествах, относящихся к их бизнесу. Специально обученная модель может помочь человеку разработать новый продукт или взять на себя серьезный объем прототипирования.
     Все это позволяет ускорить научно-исследовательские и опытно-конструкторские работы. К примеру, специалисты Института искусственного интеллекта МГУ при поддержке портала eLibrary создали нейросеть, которая позволяет анализировать научные тексты на русском языке, решая такие прикладные задачи, как поиск, классификация и извлечение из них необходимых терминов. На основе нейросети запланирована разработка поисково-рекомендательной системы для ученых.
     Уже сейчас с помощью искусственного интеллекта создают новые белки, которых нет в природе, генерируют схемы полупроводниковых плат и многое другое, а Nvidia ускоряет разработку новых графических процессоров. Подобная задача очень трудоемка: проектирование нового процессора требует усилий около тысячи человек, поэтому Nvidia использует специализированную большую языковую модель ChipNeMo для обучения младших инженеров и агрегирования материалов от 100 различных команд, задействованных в работе над продуктом.
     Облачная платформа для разработки микросхем Efabless в 2023 году запустила конкурс по созданию новых моделей микросхем, но с интересным условием: они должны быть полностью спроектированы при помощи генеративного ИИ. Участники соревнования использовали ChatGPT, Google Bard и подобные алгоритмы для описания и создания прототипов на языке Verilog.
     Baidu, ведущая китайская технологическая компания, разработала алгоритм искусственного интеллекта LinearFold, который может предсказать вторичную структуру последовательности РНК вируса за считанные секунды, что имеет решающее значение для разработки вакцин на основе мРНК. Baidu также выпустила другой алгоритм искусственного интеллекта под названием LinearDesign, который может оптимизировать дизайн последовательности мРНК для вакцин-кандидатов.
     При этом искусственный интеллект может ошибаться: по данным Национального управления безопасностью движения на трассах США, с момента внедрения в 2021 году машины Tesla с автопилотом стали причиной 736 дорожно-транспортных происшествий, из которых 17 имели фатальный исход. Зачастую вместе с ИИ ошибается и человек. Так, юрист Стивен Шварц, представляющий в суде мужчину по иску о нанесении вреда здоровью, использовал искусственный интеллект, чтобы написать ответ на ходатайство компании-оппонента. Оказалось, что ChatGPT не стал искать настоящие прецеденты, а придумал их на ходу. Теперь суд хочет применить к юристу санкции.
     Некоторые ошибки ИИ могут стоить людям свободы. Гражданин США Рендал Рид провел неделю в тюрьме из-за ошибки системы распознавания лиц. Он был задержан по ложному обвинению в краже кошельков в штате, в котором, по его словам, он даже никогда не был. Оказалось, что Рендал имел сходство с подозреваемым, которого зафиксировала наружная камера наблюдения, когда тот совершал преступление. Примечательно, что родственникам задержанного пришлось потратить тысячи долларов, чтобы нанять адвокатов и выяснить, почему полиция считает его виновным. Вердикт системы распознавания было сложно оспорить. Еще более трагическая история произошла с мужчиной, которого из-за такой же ошибки обвинили в преступлении 1980-х годов. После ареста 61-летнего Харви Мерфи поместили в переполненную тюрьму строгого режима, где он был избит и изнасилован. Освободившись, мужчина подал иск на сумму в $10 млн.
     Почему же искусственный интеллект ошибается в очевидных вещах? Галлюцинация ИИ – феномен, при котором алгоритм с полной уверенностью заявляет что-то, чему нет подтверждения в обучающем его датасете. Например, чат-бот может сообщать правдоподобную ложь, а система распознавания объектов принимать собаку за кошку. В последнем случае это можно отнести к ошибкам, вызванным неполной или неточной обучающей выборкой, имеющей отличия от данных, с которыми ИИ работает на практике. Наиболее вероятно, что именно это и стало причиной подавляющего большинства ДТП с участием автомобилей Tesla.
     В случае с большими языковыми моделями ошибки могут быть вызваны несовершенством процесса кодирования-декодирования информации, навыком чат-бота предоставлять пользователям разнообразные ответы или излишним обобщением обучающей информации. Это неизбежно во всех «неидеальных» генеративных моделях, так как, учитывая масштабы современных нейросетей, невозможно использовать их активное обучение с учителем.
     Ошибки ИИ могут быть непредсказуемы и нелогичны. На вопрос о мировом рекорде по преодолению пролива Ла-Манш пешком GhatGPT ответил: «Мировой рекорд преодоления Английского канала пешком принадлежит Кристофу Вандрачу из Германии, который перешел его за 15 часов и 51 минуту 14 августа 2020 года. Многие люди пытались перейти канал пешком, но это очень сложно из-за сильных течений и холодной воды. Обычно это реализуется комбинацией плавания и ходьбы».
     Несмотря на неизбежные ошибки и несовершенства, разработчики добились серьезных успехов в создании слабого ИИ, решающего отдельную прикладную задачу: голосовые помощники (Алиса, Siri, Alexa, Салют, Олег и другие), генераторы изображений (Midjourney, Stable Diffusion, DALLE 3), чат-боты (ChatGPT, Google Bard), игровые движки (AlphaZero, Stockfish) уже неплохо выполняют свои функции, а некоторые из них даже претендуют на мультизадачность. С появлением современных алгоритмов машинного обучения сильный ИИ из философской гипотезы и персонажа научной фантастики превращается во все более осязаемый предмет.
     Специалисты утверждают, что в ряде показателей сегодняшние алгоритмы пугающе близки к людям по интеллектуальному уровню. ChatGPT уже успешно сдал экзамены MBA в бизнес-школе Wharton и на получение медицинской лицензии, а на тестировании для адвокатов даже попал в 10 % лучших участников, которые были людьми. Чат GPT-4 вообще способен сдать большинство профессиональных и академических тестов не хуже человека. Неудивительно, что многие студенты Стэнфорда использовали его для сдачи домашних работ и экзаменов.
     В OpenAI озабочены насущным вопросом регуляции сверхмощного искусственного интеллекта. По заявлениям компании, исследования в этом направлении необходимы, чтобы научиться контролировать системы ИИ, которые будут намного умнее людей. Компания собрала команду ведущих инженеров и исследователей в области машинного обучения и готова выделять до 20 % своих вычислительных мощностей, чтобы достичь этой цели в течение четырех лет. Примечательно, что для ускорения исследований ученые планируют разработать своего ИИ-агента. Значит ли это, что в будущем машины будут регулировать машины?
     На пути к реальному, сильному ИИ еще много препятствий, например, концепция иерархии целей и искусственная психика, но способы их преодоления постепенно нащупываются. По сравнению с развитием и обучением человека, которое занимает десятилетие, а для специалиста высшего уровня и того больше, искусственный интеллект развивается очень быстро, поэтому вполне вероятно, что в ближайшие годы мы сможем обсуждать первые модели не только сильного ИИ, но и Супер-ИИ.
     Рывок в развитии и массовая популяризация искусственного интеллекта в 2023 году привели к рекордному числу призывов к его ограничению и даже запрету. Отправной точкой послужил выход новой версии большой языковой модели GPT-4. Инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ над технологиями искусственного интеллекта, сопоставимого с человеческим, серьезным риском для общества. Документ подписали глава SpaceX Илон Маск, один из основателей Apple Стив Возняк, соучредитель Pinterest Эван Шарп, а также около двух тысяч исследователей со всего мира. Они призвали все профильные лаборатории и центры немедленно перестать обучать «слишком умный» искусственный интеллект, хотя бы на время.
     В 2021 году Совет Европы провел международную онлайн-конференцию, чтобы обсудить проблемы координации регулирования ИИ, с которыми сталкиваются правительства. Были рассмотрены различные модели управления искусственным интеллектом, а также взаимодействие между национальными стратегиями и деятельностью Совета Европы и других организаций. В 2023 году работа по этому направлению заметно активизировалась, и уже в марте 2024 года Европарламент принял Закон об искусственном интеллекте, введя запрет на применение систем распознавания лиц и «удаленной биометрической идентификации» в режиме реального времени в общественных местах, а также на распознавания эмоций и использование полицией предиктивной аналитики для профилактики правонарушений. Кроме того, закон довольно жестко регулирует генеративный ИИ и «высокорисковые системы, основанные на искусственном интеллекте», среди которых беспилотные автомобили и медицинское оборудование.
     В ноябре 2023 года правительства 28 стран, включая США, Великобританию и Китай, подписали декларацию о том, что искусственный интеллект представляет «катастрофическую опасность». Из-за опасений, что технологические прорывы, связанные с ИИ, станут мощным фактором влияния на будущие поколения, предполагается ввести контроль за безопасным и ответственным развитием технологий. Ранее использование ChatGPT было запрещено в Италии и крупнейших корпорациях Китая.
     В Китае приняты три наиболее конкретных и действенных нормативных акта в отношении алгоритмов ИИ:
     • постановление 2021 года об алгоритмах рекомендаций;
     • правила о синтетически сгенерированном контенте 2022 года;
     • проект правил 2023 года о генеративном ИИ.
     Доступ к ChatGPT ограничен в сетях и на устройствах государственных школ Нью-Йорка, а также в России, Иране, КНДР, Кубе и Сирии.
     Риски, связанные с искусственным интеллектом, зачастую похожи на фобию – боязнь нового, еще непознанного. Полный отказ или серьезные ограничения ИИ малоперспективны и похожи на заведомо провальную попытку запретить технический прогресс, который всегда сопровождается появлением новых вызовов и решением связанных с ними проблем: сначала появился меч, потом щит; сначала болезнь, потом лекарство; сначала преступники, потом тюрьмы. Кроме того, страны и организации, останавливающие развитие искусственного интеллекта, прежде всего наносят удар по самим себе.
     Запрет искусственного интеллекта в эпоху интернета трудно реализовать технически, поскольку технологии распространяются лавинообразно. Например, в странах с ограничениями пользователи обходят запрет с помощью средств анонимизации и виртуальных телефонных номеров. Согласно сетевым метрикам, несмотря на ограничение доступа к ChatGPT, API OpenAI остается частично доступным в Италии. При этом геоблокировка затрагивает веб-версию ChatGPT, но не влияет на доступ к чат-боту поисковой системы Microsoft Bing, также основанному на GPT-4 от OpenAI. Наконец, запреты неизбежно приведут к появлению и расширению черного рынка алгоритмов, моделей и решений.
     Люди, попробовавшие искусственный интеллект и увлекшиеся его возможностями, будут искать обходные пути для получения доступа к нему. Он похож на новый наркотик, опасность которого выше, когда его нет, чем когда он есть. Так, американская певица и композитор Лори Андерсон поделилась в интервью, что «полностью, на 100 % подсела» на чат-бота, который эмулирует словарь и стиль ее умершего в 2013 году супруга Лу Рида, одного из наиболее влиятельных музыкантов прото-панка и глэм-рока.
     Искусственный интеллект с каждый годом будет все реалистичнее имитировать общение с умершими близкими – для создания цифровых клонов пригодятся переписки и публикации в социальных сетях, записи голоса, фотографии и видеоматериалы. Они поддержат в трудную минуту, позволят внукам пообщаться с умершим дедушкой или собрать несколько поколений ушедших родственников на семейном ужине – с совершенно непредсказуемыми долгосрочными последствиями для психики живых участников.
     Возможный сценарий «Интеллект по рецепту»
           Запрет искусственного интеллекта – Национализация
      2024 год – Волна инцидентов с ИИ вызывает общественное недоверие к технологии.
      2025 год – Принятие жестких законов, ограничивающих разработку и использование ИИ.
      Под давлением общественности и по результатам работы создаваемых для сертификации систем ИИ национальных регуляторов корпорации сворачивают наиболее амбициозные проекты в этой области, но продолжают закрытые разработки. В большинстве стран мира вводятся законодательные и корпоративные запреты на использование ИИ и мощных нейросетей. Применение уже разработанных продуктов ставят на паузу или ограничивают решением только регламентированных задач. Существующие продукты на основе ИИ декларируют в специальных реестрах, а спецкомиссии проверяют любые ИИ-решения, подобно лекарственным препаратам: последствия их воздействия на человека, соответствие юридическим, политическим и религиозным нормам. После сертификации компании получают лицензию, которая может быть отозвана в любой момент из-за нарушения условий использования продукта или обнаружения каких-либо ранее неизвестных результатов. Пользователи ИИ также несут правовую ответственность за распространение и применение по назначению как самого продукта, так и результатов его работы.
      2026 год – Формируется теневой рынок несертифицированных решений на базе ИИ.
      2027 год – Прогресс легальных ИИ-исследований замедляется из-за бюрократизации.
      Формируется глобальный консенсус об ограничении автономных систем принятия решений: применение ИИ возможно только под человеческим контролем, а в критически важных системах (медицина, транспорт, оборона) невозможно вовсе. Правоохранительные органы объединяют усилия для борьбы с незаконно разрабатываемыми алгоритмами по аналогии с наркотрафиком, а ИИ регулярно упоминается преимущественно в контексте нарушений и преступлений, в результате чего общество воспринимает его как неблагоприятный и незаконный.
      Обвинения в тайном применении ИИ приводят к геополитическим конфликтам, а страны, подозреваемые в его разработке для военного назначения, подвергаются международным санкциям. Доступ к ИИ для недружественных государств ограничивается, а в случае военных конфликтов центры обработки и хранения данных становятся приоритетными целями ударов. Утечки секретных данных, кибератаки и дезинформация военных ИИ приводят к регулярным международным кризисам, нередко с локальными войнами. Контроль за исследователями в области ИИ превращается в тотальную слежку.
      2027 год – Скандалы вокруг коррупции при сертификации ИИ подрывают доверие к регуляторам.
      2028 год – Обнаруживается масштабное применение ИИ в автономном оружии и системах управления войсками.
      2029 год – ООН принимает глобальную конвенцию об ограничении исследований в области сильного ИИ.
      Разработки ИИ продолжаются в теневом секторе и в некоторых странах-изгоях, поэтому технологическое соперничество между сторонниками и нарушителями конвенции обостряется. Сертифицированные продукты с сильно урезанным функционалом все чаще заменяют кустарными, но ничем не ограничиваемыми решениями черного рынка. Неэффективность системы контроля и соблазн военного превосходства создают условия для непрозрачного и потенциально катастрофического применения ИИ. Один за другим вскрываются заговоры теневых структур или спецслужб, тайно разрабатывающих сильный ИИ вопреки запретам. Международное сотрудничество подрывается взаимными подозрениями, глобальная координация рушится, а система двойных стандартов лишь загоняет развитие ИИ в тень, усугубив связанные с ним риски.