Книга: Власть роботов: Как подготовиться к неизбежному
Назад: Глава 7. Китай и появление государства тотального ИИ-надзора
Дальше: Заключение. ИИ: два варианта будущего
Глава 8

Риски, сопутствующие ИИ

Начало ноября. До выборов президента Соединенных Штатов Америки остается всего два дня. Кандидат от демократов большую часть своего пути в политике посвятила борьбе за расширение гражданских прав и поддержке обособленных социальных групп. Ее достижения на этом поприще не имеют себе равных. Поэтому, когда в соцсетях всплывает и моментально становится вирусной аудиозапись ее разговора, который должен был остаться приватным, это становится потрясением. В разговоре кандидат не только высказывает откровенно расистские мысли, но и открыто — и даже со смехом — признает, что всю жизнь успешно скрывает свою нетерпимость.

Через час после обнародования этой аудиозаписи кандидатка яростно отрицает ее подлинность. Никто, знающий ее лично, не поверит, что она могла такое сказать, и десятки людей выступают в ее поддержку. Однако никто из поверивших ей не может опровергнуть очень неприятный факт: это ее голос. Практически каждый слушатель узнает в записи голос кандидатки. Характерное произношение некоторых слов и фраз, интонация — похоже, все однозначно указывает на женщину, которую большинство американцев предполагали вскоре увидеть в кресле президента.

Аудиозапись стремительно распространяется в интернете и постоянно воспроизводится по кабельному телевидению, мир соцсетей растерянно и негодующе бурлит. Прежде чем добиться выдвижения в качестве кандидата от демократов, эта политическая деятельница выстояла в жесткой борьбе во время предварительных выборов, а теперь некоторые разъяренные противники призывают ее снять свою кандидатуру.

Руководители избирательной кампании немедленно нанимают группу экспертов для независимой оценки аудиофайла. После углубленного изучения в течение целого дня эксперты заявляют, что эта запись, вероятно, является «дипфейком» — аудио, сгенерированным алгоритмами, которые были обучены на огромном множестве примеров речи кандидатки. Предупреждения об опасности дипфейков звучат не первый год, но до сих пор сфабрикованные свидетельства были редкими и легко разоблачались. Сейчас другое дело — ясно, что технология существенно усовершенствовалась. Даже группа экспертов не может с абсолютной уверенностью утверждать, что аудиофайл является фейком, а не подлинной записью.

Опираясь на решение группы экспертов, руководители избирательной кампании добиваются изъятия большинства онлайновых копий аудиофайла, но его уже услышали миллионы. В преддверии выборов встает несколько принципиальных вопросов. Все ли, прослушавшие запись, знают, что это, вероятно, фейк? Могут ли избиратели, которым сказали, что запись сфабрикована, «забыть» произнесенные с ненавистью слова, намертво въевшиеся в память, особенно если они принадлежат к упомянутой в разговоре этнической группе? Не снизит ли этот аудиоклип явку избирателей из сообществ, являющихся главной опорой Демократической партии? Если же она проиграет, не сочтут ли большинство американцев, что выборы были «украдены»? Что тогда произойдет?

Понятно, что вышеописанный сценарий выдуман, но возможность подобного события, причем в ближайшие годы, совершенно реальна. Если вы в этом сомневаетесь, вспомните, как в июле 2019 года фирма из сферы кибербезопасности Symantec рассказала, что преступники, используя аудиофейки, уже выманили у трех неназванных компаний миллионы долларов. Во всех трех случаях злоумышленники использовали сгенерированный ИИ аудиоклип, в котором голос генерального директора в сфабрикованном телефонном разговоре приказывал финансовому отделу перевести деньги на незаконный банковский счет. В случае гендиректоров компаний — как и случае кандидата в президенты из вышеприведенного выдуманного примера — обычно имеется богатый источник онлайновых аудиоданных (речей, выступлений на телевидении и т.д.), на которых можно обучать машинные алгоритмы. Поскольку эта технология пока не позволяет производить высококачественное аудио, преступники специально добавляли фоновый шум (скажем, звуки уличного движения), чтобы скрыть огрехи. Однако качество дипфейков, безусловно, резко повысится в ближайшие годы, и со временем, скорее всего, вымысел станет практически неотличимым от правды.

Использование дипфейков в неблаговидных целях — а сгенерировать можно не только аудиозапись, но и фотографии, видео и даже связный текст — лишь один из серьезных рисков, которые несет нам развитие искусственного интеллекта. Из предыдущей главы мы знаем, что технологии слежения и распознавания лиц на основе ИИ могут уничтожить саму идею неприкосновенности частной жизни и привести нас в оруэлловское будущее. В этой главе мы рассмотрим несколько других проблем, возникновения которых следует ожидать в связи с расширением возможностей ИИ.

Что реальность, а что иллюзия? Дипфейки и угрозы безопасности

Дипфейки часто создаются с помощью инновации в области глубокого обучения, так называемой генеративно-состязательной сети (generative adversarial network, GAN). GAN вовлекает две конкурирующие нейронные сети в своего рода игру, которая непрерывно побуждает систему создавать все более качественное медийную имитацию. Например, GAN, созданная с целью подделки фотографий, должна состоять из двух интегрированных глубоких нейронных сетей. Первая, «генератор», фабрикует изображения. Вторая, обученная на комплексе реальных фотографий, называется «дискриминатор». Изображения, созданные генератором, перемешиваются с настоящими фотографиями и предоставляются дискриминатору. Две сети непрерывно взаимодействуют, участвуя в состязании, где дискриминатор оценивает каждую фотографию, созданную генератором, и решает, реальная она или поддельная. Задача генератора — обмануть дискриминатор, подсунув фальшивые фотоснимки. В процессе соревнования сетей, по очереди совершающих ходы, качество изображений растет, пока наконец система не достигнет равновесия, при котором дискриминатору остается лишь гадать, является ли анализируемое изображение настоящим. Этим методом можно получить невероятно впечатляющие сфабрикованные изображения. Введите в интернете запрос «фейковые лица GAN» и получите бесчисленные примеры изображений никогда не существовавших людей в высоком разрешении. Попробуйте поставить себя на место сети-дискриминатора. Фотографии выглядят совершенно реальными, но это иллюзия — изображение, возникшее из цифрового эфира.

Генеративно-состязательные сети были изобретены аспирантом Монреальского университета Яном Гудфеллоу. Как-то вечером в 2014 году Гудфеллоу с приятелем сидел в баре и рассуждал о том, как создать систему глубокого обучения, способную генерировать высококачественные изображения. Приняв на грудь неизвестное количество кружек пива, Гудфеллоу предложил концепцию генеративно-состязательной сети, встреченную крайне скептически. Вернувшись домой, он сразу же сел писать код. Через несколько часов у него была первая работоспособная GAN. Это достижение впоследствии сделало Гудфеллоу одной из легенд в области сетей глубокого обучения. Ян Лекун, ведущий исследователь в Facebook, называет генеративно-состязательные сети «крутейшей идеей в глубоком обучении за последние 20 лет». Защитив докторскую диссертацию в Монреальском университете, Гудфеллоу работал в проекте Brain и в DeepMind компании Google и сейчас является директором Apple по машинному обучению. Он также основной автор университетского учебника по глубокому обучению.

У генеративно-состязательных сетей есть множество полезных применений. В частности, синтезированные изображения или другие медиафайлы можно использовать как обучающие данные для других систем. Например, на изображениях, созданных с помощью GAN, можно обучать глубокие нейронные сети беспилотных автомобилей. Предлагалось также использовать сгенерированные лица небелых людей для обучения систем распознавания лиц, решив таким образом проблему расовой предвзятости в случаях, когда невозможно этичным образом получить достаточное количество высококачественных фотографий реальных цветных людей. Что касается синтеза голоса, то GAN могут дать людям, утратившим дар речи, сгенерированную компьютером замену, которая звучит так же, как звучал их реальный голос. Известным примером является ныне покойный Стивен Хокинг, утративший возможность разговаривать из-за бокового амиотрофического синдрома, или болезни Лу Герига, и «говоривший» характерным синтезированным голосом. В последнее время страдающие этим заболеванием, например игрок НФЛ Тим Шоу, получили возможность говорить собственным голосом, восстановленным сетями глубокого обучения, которые были обучены на записях, сделанных до болезни.

Однако потенциал злоупотребления этой технологией существует и очень соблазнителен для многих технически подкованных индивидов. Подтверждения уже имеются, например доступные широкой аудитории фейковые видеоклипы, созданные в шутку или с образовательными целями. Можно найти множество фейковых видео с «участием» знаменитостей вроде Марка Цукерберга, которые говорят такое, что они вряд ли сказали бы, по крайней мере публично. Один из самых известных примеров создал актер и комик Джордан Пил, имитатор голоса Барака Обамы, совместно с BuzzFeed. В социальном ролике Пила, призванном рассказать общественности об опасности дипфейков, Обама говорит, например, что «президент Трамп — это полное и абсолютное дерьмо». Голос Обамы в данном случае имитирует Пил, а на реальном видео изменили артикуляцию президента Обамы так, чтобы движение его губ совпадало со словами, которые произносит Пил. Настанет момент, когда в подобных видео и голос будет фабриковаться компьютером.

Самый распространенный метод создания дипфейков заключается в цифровом переносе лица одного человека в реальную видеозапись другого. По данным стартапа Sensity (бывший Deeptrace), создающего инструменты распознавания дипфейков, в 2019 году в интернет было выложено не менее 15 000 дипфейков, что на 84% больше, чем в предыдущем году. Из них 96% представляли собой порнографические изображения знаменитостей или видео, в которых лицо звезды — почти всегда женщины — совмещено с телом порноактрисы. Главными объектами стали такие звезды, как Тейлор Свифт и Скарлетт Йоханссон, но когда-нибудь жертвой цифрового абьюза может стать практически каждый, особенно если технология усовершенствуется и инструменты создания дипфейков станут более доступными и простыми для применения.

Качество дипфейков постоянно растет, и угроза того, что сфабрикованные аудио или видео станут по-настоящему разрушительными, кажется неизбежной. Как свидетельствует вымышленный пример из начала этой главы, внушающий доверие дипфейк способен буквально изменить ход истории, а средства создания подобных подделок скоро могут оказаться в руках политтехнологов, иностранных правительств или даже подростков, любящих похулиганить. Беспокоить это должно не только политиков и знаменитостей. В эпоху вирусных видео, кампаний шельмования в соцсетях и «культуры исключения» практически каждый может стать объектом дипфейка, грозящего разрушить карьеру и жизнь. Как следствие истории расовой несправедливости в Соединенных Штатах угроза срежиссированного социального и политического взрыва здесь особенно серьезна. Мы уже знаем, что вирусные видео, запечатлевшие жестокость полиции, могут почти мгновенно вызывать массовые протесты и социальные волнения. Совершенно нельзя исключать то, что в будущем можно будет синтезировать — например, силами иностранной разведывательной службы — настолько провокационное видео, что оно станет угрозой для самого общественного устройства.

Помимо целенаправленного подрыва и разрушения открываются практически неограниченные противозаконные возможности для желающих попросту заработать. Преступники охотно будут пользоваться этой технологией для самых разных целей, от мошенничеств с финансами и страховкой до манипулирования рынком ценных бумаг. Видео, в котором генеральный директор делает ложное заявление или, например, странно себя ведет, грозит обрушить акции компании. Дипфейки создадут помехи для работы правовой системы. Сфабрикованные медийные материалы можно будет предъявлять как доказательства, вследствие чего судьи и присяжные рискуют однажды оказаться в мире, где трудно или даже невозможно понять, правда ли то, что они видят собственными глазами.

Разумеется, над решениями этих проблем работают умные люди. Например, компания Sensity поставляет программное обеспечение, по ее словам способное распознавать большинство дипфейков. Однако технология не стоит на месте, что делает неизбежной «гонку вооружений» наподобие той, что идет между создателями компьютерных вирусов и компаниями, продающими программы для защиты от них. В этой гонке у злоумышленников постоянно будет пусть минимальное, но преимущество. По словам Яна Гудфеллоу, он не смог бы определить, является ли изображение реальным или фейковым, только «рассматривая пиксели». В конечном счете нам придется полагаться на механизмы аутентификации, например киберподписи к фотографиям и видео. Может быть, когда-нибудь каждая видеокамера и каждый мобильный телефон будут добавлять цифровую подпись в каждую запись. Один стартап, Truepic, уже предлагает приложение, поддерживающее эту функцию. В число его клиентов входят крупнейшие страховые компании, которые по присылаемым клиентами фотографиям оценивают все что угодно, от зданий до ювелирных изделий и дорогих вещиц. Тем не менее, по мнению Гудфеллоу, это в конце концов не станет полноценным технологическим решением проблемы дипфейков. Нам придется каким-то образом научиться ориентироваться в новой беспрецедентной реальности, где все, что мы видим и слышим, может оказаться иллюзией.

Дипфейки призваны вводить людей в заблуждение. С этой проблемой связана другая — злонамеренное фабрикование данных, призванных обмануть или подчинить алгоритмы машинного обучения. В ходе таких «состязательных атак» специально созданная входная информация заставляет систему машинного обучения совершать ошибку, позволяя атакующему добиться желаемого результата. В случае машинного зрения в картину помещают какой-то предмет, искажающий ее интерпретацию нейросетью. Известен случай, когда исследователи брали фотографию панды, идентифицируемую системой глубокого обучения правильно с уверенностью 58%, добавляли тщательно сконструированный визуальный шум и заставляли систему с уверенностью 99% принимать ее за гиббона. В ходе особенно пугающей демонстрации обнаружилось, что добавлением к знаку «Движение без остановки запрещено» всего лишь четырех маленьких прямоугольных черно-белых наклеек можно внушить системе беспилотных автомобилей, что это знак, ограничивающий скорость 45 милями в час. Иными словами, состязательная атака может иметь смертельные последствия. В обоих приведенных примерах человек просто не обратил бы внимания на сбивающую с толку информацию и, безусловно, не был бы обманут. На мой взгляд, это самая яркая демонстрация того, насколько поверхностным и хрупким являются представления, формирующиеся в современных глубоких нейросетях.

Сообщество исследователей ИИ серьезно относится к состязательным атакам и считает их критической уязвимостью. Ян Гудфеллоу посвятил значительную часть своей исследовательской карьеры вопросам безопасности использования систем машинного обучения и созданию способов защиты. Сконструировать системы ИИ, неуязвимые для состязательных атак, непросто. В одном из подходов применяется так называемое соревновательное обучение, при котором в обучающие выборки специально включают состязательные примеры в надежде, что нейросеть сможет идентифицировать атаки. Однако, как и в случае дипфейков, здесь почти неизбежна постоянная гонка вооружений, в которой атакующие всегда будут на шаг впереди. Как отмечает Гудфеллоу: «Никто еще не создал по-настоящему мощный алгоритм защиты, способный противостоять разнообразным атакующим алгоритмам на основе состязательности».

Хотя состязательные атаки касаются исключительно систем машинного обучения, они станут очень серьезной проблемой в списке компьютерных уязвимостей, которыми смогут воспользоваться киберпреступники, хакеры или иностранные разведывательные службы. Поскольку искусственный интеллект применяется все шире, а интернет вещей усиливает взаимосвязь устройств, машин и инфраструктуры, вопросы безопасности становятся намного более значимыми с точки зрения последствий, а кибератаки наверняка участятся. Более широкое применение ИИ неизбежно вызовет появление более автономных систем с меньшим участием людей, которые станут привлекательными целями для кибератак. Представьте, например, ситуацию, когда продукты питания, лекарства и важнейшие расходные материалы доставляются беспилотными грузовиками. Атака, которая заставит эти транспортные средства остановиться или хотя бы создаст серьезные задержки в исполнении заказов, может иметь опасные для жизни последствия.

Из вышесказанного следует, что более широкая доступность и использование искусственного интеллекта будут сопряжены с системными рисками, в том числе угрозами важнейшим инфраструктурным объектам и системам, а также общественному порядку, нашей экономике и демократическим институтам. Я бы сказал, риски для безопасности — это в краткосрочной перспективе важнейшая угроза, связанная с развитием искусственного интеллекта. Поэтому абсолютно необходимо вкладывать средства в исследования, направленные на создание надежных ИИ-систем, и формировать действенную коалицию центральных властей и коммерческого сектора с целью выработки мер регулирования и защиты еще до появления критических уязвимостей.

Автономные системы летального вооружения

Сотни миниатюрных дронов роем несутся по Капитолию. Это скоординированная атака. С помощью технологии распознавания лиц дроны идентифицируют определенных людей и летят прямо к ним словно убийцы-камикадзе с миниатюрными зарядами, которые убивают так же эффективно, как пуля. В здании конгресса царит хаос. Впоследствии выясняется, что все члены конгресса, ставшие мишенями для атаки, состояли в одной политической партии.

Это лишь один из ужасающих сценариев, показанных в короткометражном фильме 2017 года «Роботы-убийцы». По замыслу авторов, этот фильм должен служить предостережением о реальной угрозе автономных систем летального вооружения. Съемочная группа сотрудничала со Стюартом Расселом, профессором компьютерных наук из Калифорнийского университета в Беркли, который в последние годы занимается проблемой неотъемлемых рисков искусственного интеллекта. Рассел убежден, что автономные системы летального вооружения — то есть системы, которые, по определению ООН, способны «обнаруживать, выбирать и уничтожать живые цели без участия человека», — необходимо признать новым типом оружия массового уничтожения. Иными словами, подобные системы вооружений на основе ИИ могут стать такими же разрушительными и вызывать такой же хаос, как химическое, биологическое и даже ядерное оружие.

Это утверждение опирается прежде всего на следующий факт: с устранением прямого контроля человека и необходимости получать разрешение на убийство масштабы разрушений, вызываемых этим оружием, можно наращивать бесконечно. Теоретически любой дрон можно использовать как оружие, и таких дронов могут быть сотни, но, если они управляются дистанционно, вам потребуются еще и сотни операторов. Если же дроны полностью автоматизированы, достаточно горстки людей, чтобы совершить массированный налет и устроить бойню немыслимых масштабов. Как сказал Рассел в нашем разговоре, «появляется возможность организовать атаку, в ходе которой пятеро парней, сидящих в центре управления, запускают 10 000 000 боевых дронов и истребляют всех мужчин от 12 до 60 лет в какой-нибудь стране. Это уже оружие массового уничтожения — оно обладает таким свойством, как масштабируемость». Поскольку алгоритмы распознавания лиц способны различать людей по этнической принадлежности, полу или одежде, легко представить ужасающие сценарии автоматизированных этнических чисток или массовых убийств политических противников, осуществляемых с немыслимыми прежде беспощадностью и скоростью.

Даже если отмахнуться от поистине антиутопических вариантов и считать, что применение этой технологии будет строго ограничено рамками законных боевых действий, автономные системы вооружений ставят принципиально важные этические вопросы. Нравственно ли давать машине возможность самостоятельно отнимать человеческую жизнь, даже если при этом повышается эффективность наведения на цель и, возможно, снижается риск сопутствующего ущерба случайным людям, оказавшимся рядом? Если отсутствует контроль со стороны человека, кто должен нести ответственность за ошибку, приведшую к ранению или гибели невиновного?

Многих исследователей искусственного интеллекта очень беспокоит, что технология, над развитием которой они работают, может быть использована в подобном оружии. Свыше 4500 человек, а также сотни компаний, организаций и университетов подписали открытые письма, где решительно отказываются заниматься автономными системами вооружений и призывают ко всеобщему запрету этой технологии. Эта инициатива осуществляется в рамках Конвенции ООН по обычным видам оружия и ставит целью объявить незаконными полностью автономные машины для убийства по аналогии с запретом химического и биологического оружия. Результаты, однако, неутешительные. По данным Campaign to Stop Killer Robots, правозащитной группы, добивающейся принятия этого запрета Организацией Объединенных Наций, к 2019 году 29 государств, по большей части небольших и развивающихся, официально призвали к полному запрещению технологии автономного оружия. Крупнейшие военные державы к ним не присоединились. Единственное исключение — Китай, подписавший это требование с оговоркой, что добивается запрета лишь реального использования такого оружия, с разрешением его разработки и производства. Поскольку и Соединенные Штаты, и Россия выступили против запрещения, вряд ли подобное оружие окажется полностью вне закона в обозримом будущем.

Лично я смотрю на эту ситуацию с пессимизмом. Мне кажется, конкуренция и взаимное недоверие ведущих держав делают как минимум разработку полностью автономных систем вооружения практически неизбежной. Действительно, военно-промышленный комплекс США, а также таких стран, как Россия, Китай, Великобритания и Южная Корея, активно конструирует дроны, способные действовать роем. Сухопутные силы США принимают на вооружение боевых роботов, напоминающих маленькие танки, а ВВС, по некоторым данным, работают над беспилотным истребителем, способным победить пилотируемый самолет в воздушном бою. Китай, Россия, Израиль и другие страны также развертывают или разрабатывают аналогичные технологии.

Пока Соединенные Штаты и другие ведущие военные державы сходятся на том, что в любой системе обязательно должен присутствовать человек и на совершение машинами атаки, которая может привести к гибели человека, должно даваться специальное разрешение. Однако факт остается фактом: полная автономность на поле боя обеспечивает огромные тактические преимущества. Человек не способен реагировать и принимать решения так же быстро, как искусственный интеллект. Стоит одной стране нарушить текущее неофициальное соглашение в отношении полной автоматизации и начать использовать эти возможности, как все соперничающие военные державы незамедлительно последуют за ней, чтобы не оказаться в крайне невыгодном положении. Боязнь оказаться отстающим, похоже, главная причина того, что США, Китай и Россия выступили против официального запрета разработки и производства автономных систем вооружения.

Чтобы составить представление о возможном развитии событий, можно взглянуть на противостояние другого рода — постоянную битву торговых систем на основе ИИ на Уолл-стрит. Сейчас алгоритмическая торговля господствует в дневных сделках, заключаемых на крупнейших фондовых биржах. В США на их долю приходится до 80% всего объема торгов. Еще в 2013 году группа физиков изучила финансовый рынок и опубликовала в журнале Nature статью, где утверждалось, что «формируется экосистема конкурирующих машин, реализующих “толпы” хищнических алгоритмов» и что алгоритмическая торговля, возможно, уже вышла из-под контроля — и даже понимания — людей, создавших эти системы. Сейчас алгоритмы включают новейшие достижения в области ИИ, их влияние на рынки резко выросло, а способы взаимодействия становятся все более непостижимыми. Например, многие алгоритмы способны напрямую подключаться к машиночитаемым новостным ресурсам таких компаний, как Bloomberg и Reuters, и осуществлять сделки, исходя из этой информации, за ничтожные доли секунды. Что касается краткосрочной поминутной торговли, то человек даже не успевает осмыслить детали происходящего, не говоря уже о попытках переиграть алгоритмы. Подозреваю, что со временем это будет относиться и к ситуации на поле боя.

Даже если технологии автономного ведения боевых действий будут использоваться исключительно сильнейшими державами, опасность очень велика. Роботизированное боестолкновение происходит быстрее, чем военные или политические лидеры способны полностью понять и разрядить ситуацию. Иначе говоря, риск втягивания в масштабную войну в результате относительно мелкого инцидента может существенно вырасти. Еще одной проблемой является то, что в мире, где роботы сражаются с роботами и непосредственная опасность угрожает очень немногим людям, воспринимаемая цена участия в войне может стать опасно низкой. Пожалуй, это уже произошло в Соединенных Штатах, где вследствие отказа от всеобщего воинского призыва и перехода к полностью контрактной армии очень немногие представители элиты отправляют своих детей служить в вооруженные силы. Вследствие этого для людей, обладающих наибольшей властью, ставки в игре очень низки — они защищены от прямых, персональных издержек военных действий. Этот разрыв кажется мне важной причиной военных вмешательств США на Ближнем Востоке на протяжении многих десятилетий. Разумеется, если бы машина могла пойти навстречу опасности и тем спасти жизнь солдата, это было бы безусловным благом. Однако нельзя допустить, чтобы кажущаяся незначительность риска стала определяющей в нашем коллективном восприятии, когда принимается решение начать войну.

Величайшей опасностью является утрата законными властями и военными контроля над уже произведенным оружием, созданным по технологии автономного летального вооружения. Если это произойдет, его начнут продавать незаконные торговцы оружием, снабжающие террористов, наемников и государства-изгои. Если автономное оружие станет общедоступным, кошмарные сценарии, представленные в фильме «Роботы-убийцы», легко могут превратиться в реальность. Даже если такие системы нельзя будет купить, барьеры для их создания намного ниже, чем в случае других видов оружия массового уничтожения. Особенно это касается дронов. Легкодоступные технологии и компоненты, предназначенные для коммерческого или развлекательного использования, могут быть применены для производства оружия. Если создание атомной бомбы является сложнейшей задачей даже для государства с его ресурсами, то сконструировать и изготовить автономные дроны для небольшого роя под силу даже кучке людей, работающих в подвале. Технология автономных систем вооружения сродни вирусу: стоит ей просочиться в мир — и будет чрезвычайно трудно защититься от нее или ограничить расползание.

Большое заблуждение — распространению которого порой способствуют СМИ — привязывать автономные системы летальных вооружений к научно-фантастическим сценариям, знакомым нам по таким фильмам, как «Терминатор». Это категориальная ошибка, опасная тем, что отвлекает наше внимание от непосредственных опасностей подобного оружия. Риск заключается не в том, что машины когда-нибудь вырвутся из-под нашего контроля и решат напасть на нас по своей собственной воле. Для этого потребовался бы универсальный искусственный интеллект, до которого, как мы убедились, еще много десятилетий. Нам следует опасаться того, что люди могут воспользоваться оружием, не более «интеллектуальным», чем iPhone, но безжалостно компетентным в идентификации, выслеживании и уничтожении живых целей. Такая опасность вовсе не умозрительная и не футуристическая. Как отмечает Стюарт Рассел в заключении к «Роботам-убийцам», в этом фильме показаны «результаты интеграции и миниатюризации технологий, которыми мы уже обладаем». Иными словами, такое оружие может появиться в ближайшие несколько лет, и, если мы хотим это предотвратить, следует помнить, что «окно возможностей закрывается быстро». С учетом того, что прямой запрет этого оружия с санкции ООН появится, вероятно, не скоро, мировое сообщество должно хотя бы не допустить попадания автономных систем вооружения в руки террористов, которые могут применить их против гражданских лиц.

Предвзятость, справедливость и прозрачность применительно к алгоритмам машинного обучения

Искусственный интеллект и машинное обучение применяются все более широко, и принципиально важно, чтобы результаты и рекомендации, выдаваемые алгоритмами, воспринимались как справедливые, а стоящая за ними логика имела адекватное объяснение. Если вы используете систему глубокого обучения для максимизации энергоэффективности промышленного оборудования, вас едва ли интересует, чем она руководствуется: вам просто нужен оптимальный результат. Если же машинное обучение применяется в таких областях, как уголовное судопроизводство, наем или обработка ипотечных заявок, — в общем, там, где решения имеют серьезные последствия и непосредственно влияют на права и благополучие людей, — то необходимо продемонстрировать, что полученные результаты беспристрастны в отношении всех демографических групп, а проведенный анализ прозрачен и объективен.

Предвзятость — частая проблема машинного обучения, в большинстве случаев возникающая из-за недостатков данных, на которых обучают алгоритмы. Как мы видели в предыдущей главе, алгоритмы распознавания лиц, созданные на Западе, часто необъективны по отношению к цветным людям, потому что в обучающих выборках слишком много фотографий представителей европеоидной расы. Проблема более общего характера заключается в том, что характер значительной части данных, используемых для обучения алгоритмов, напрямую зависит от поведения, решений и действий людей. Если люди, подбирающие данные, имеют ту или иную предвзятость, например в отношении расовой или гендерной принадлежности, то она автоматически будет встроена в обучающую выборку.

Возьмем, например, алгоритм машинного обучения, созданный для отбора резюме претендентов на вакансию в крупной компании. Такую систему нужно обучить на полных текстах всех резюме, поданных предыдущими кандидатами на аналогичные места, а также на решениях, принятых по каждому из этих резюме менеджерами. Алгоритм машинного обучения должен переработать все данные и сформировать представление о том, какие характеристики резюме нужны, чтобы пригласить кандидата на дополнительное собеседование, а какие приводят к отказу без лишних раздумий. Алгоритм, способный сделать это эффективно и составить обоснованный список самых перспективных кандидатов, сэкономит очень много времени отделу кадров, которому приходится иметь дело с сотнями или тысячами кандидатов. Поэтому подобные системы сортировки резюме приобретают популярность, особенно в крупных компаниях. Предположим, однако, что прошлые решения о найме, на которых обучается алгоритм, отражают в определенной мере явный или неосознанный расизм или сексизм кадровиков. Тогда система машинного обучения автоматически приобретет эту предвзятость в ходе нормального процесса обучения. Дело не в создателях алгоритма — предвзятость содержится в обучающих выборках. В результате получится система, сохраняющая или даже усиливающая предвзятость людей и откровенно несправедливая по отношению к цветным или женщинам.

Нечто подобное произошло в Amazon в 2018 году, когда компания остановила разработку системы машинного обучения, поскольку у нее обнаружилась предвзятость в отношении женщин при подборе кандидатов на должности технических специалистов. Оказалось, если в резюме встречалось слово «женский», например упоминались женские клубы, виды спорта или учеба в женском колледже, то система давала ему заниженный балл, ставя кандидаток-женщин в проигрышное положение. Даже после того, как разработчики из Amazon устранили обнаруженные проблемы, невозможно было гарантировать непредвзятость алгоритма, поскольку место гендерной принадлежности могли занять другие атрибуты. Важно отметить, что речь необязательно идет об откровенном сексизме в предшествующих решениях о приеме на работу. Алгоритм мог приобрести предвзятость только из-за непропорционально малой доли женщин на технических должностях. По сообщениям Amazon, этот алгоритм так и не прошел далее этапа разработки и ни разу не использовался на практике для просмотра резюме. Однако если бы он был использован, то, безусловно, усилил бы непропорциональность представительства женщин на технических должностях.

Еще выше ставки при применении систем машинного обучения в сфере уголовного судопроизводства. Подобные алгоритмы часто используются как подспорье при принятии решений об освобождении под залог, условно-досрочном освобождении или при вынесении приговора. Некоторые из них создаются по заказу руководства штата или местных властей, другие разрабатываются и продаются частными компаниями. В мае 2016 года организация Propublica опубликовала анализ алгоритма COMPAS, широко использовавшегося для оценки вероятности повторного нарушения закона человеком после освобождения. Судя по результатам анализа, афроамериканцам несправедливо присваивали более высокий уровень риска, чем белым. Этот вывод подкрепляется множеством примеров. В статье Propublica приводилась история 18-летней чернокожей, которая хотела прокатиться на чужом детском велосипеде, но бросила его после требования владельца. Иными словами, это было озорство, а не настоящая попытка совершить кражу. Тем не менее девушку арестовали, отправили в тюрьму до решения суда и применили к данным о ее проступке систему COMPAS. Алгоритм оценил риск ее превращения в рецидивистку значительно выше, чем у белого 41-летнего мужчины, ранее судимого за вооруженное ограбление и отсидевшего пять лет в тюрьме. Компания Northpoint, Inc., которая продает систему COMPAS, ставит под сомнение проведенный Propublica анализ, и вопрос о реальной степени предвзятости системы остается дискуссионным. Особое беспокойство, однако, вызывает нежелание компании раскрыть особенности работы своего алгоритма на том основании, что она считает эту информацию проприетарной. Иными словами, невозможен независимый детальный аудит системы в отношении предвзятости или точности. Хотя, казалось бы, если алгоритмы используются для принятия решений, имеющих исключительное значение для жизни человека, прозрачности и контроля должно быть больше.

Предвзятость обучающих выборок — самая распространенная, но не единственная причина несправедливости систем машинного обучения. Структура самих алгоритмов может вести к предвзятости и усиливать ее. Представьте, например, что система распознавания лиц была обучена на выборке, точно воспроизводящей демографический состав населения США. Поскольку афроамериканцы составляют лишь около 13% населения, результатом может стать система, предвзято оценивающая чернокожих. Степень необъективности, то есть насколько проблема будет усиливаться или смягчаться, зависит от технических решений, принятых при разработке алгоритма.

К счастью, необходимость сделать системы машинного обучения справедливыми и прозрачными оказалась в центре внимания исследований ИИ. Все ведущие технологические компании вкладывают в это значительные средства. Google, Facebook, Microsoft и IBM выпустили программные инструменты, помогающие разработчикам обеспечивать непредвзятость алгоритмов машинного обучения. Сделать системы глубокого обучения объяснимыми и прозрачными, позволяющими проверять результаты их применения, очень непросто, поскольку глубокие нейронные сети — своего рода черные ящики, в которых анализ и понимание входных данных распределены среди миллионов связей между искусственными нейронами. Аналогично очень сложной задачей, требующей высокого уровня технических знаний, является оценка и обеспечение справедливости выводов этих сетей. Как убедилась Amazon на примере своей системы сортировки резюме, просто настроить алгоритм так, чтобы он игнорировал такие параметры, как раса или пол, недостаточно, поскольку система может сосредоточиться на заменителях этих характеристик. Например, имя претендента может указывать на гендерную принадлежность, а домашний адрес или индекс — на расу. Очень многообещающий метод обеспечения справедливости при применении ИИ заключается в использовании альтернативных сценариев. В ходе проверки по этому методу система должна выдавать одинаковые результаты при изменении значений таких чувствительных переменных, как раса, пол или сексуальная ориентация. Однако исследования в этой области едва начаты, и предстоит еще очень многое сделать, чтобы разработать подход, устойчиво обеспечивающий подлинную беспристрастность систем машинного обучения.

Наиболее заманчивым с точки зрения использования ИИ при принятии очень ответственных решений было бы появление технологии, стабильно менее предвзятой и более точной, чем суждение людей. Хотя избавить алгоритмы от предвзятости — нелегкая задача, это почти всегда проще, чем сделать непредубежденным человека. Как сказал в разговоре со мной Джеймс Маника, председатель совета директоров McKinsey Global Institute, «с одной стороны, машинные системы способны помочь нам преодолеть собственную предвзятость и склонность к ошибкам, а с другой — им самим могут сопутствовать еще большие риски». Свести к минимуму или устранить проблему несправедливости — одна из важнейших и срочных задач в области искусственного интеллекта.

Чтобы решить ее, необходимо обеспечить разнообразие разработчиков, которые создают, тестируют и применяют алгоритмы ИИ. Поскольку искусственный интеллект неизбежно станет определяющим фактором для нашей экономики и общества, принципиально важно, чтобы эксперты, наиболее глубоко понимающие эту технологию и, следовательно, способные влиять на направление ее развития, представляли общество в целом. Однако прогресс в этом направлении до сих пор был очень скромным. Исследование 2018 года показало, что женщины составляют лишь около 12% ведущих исследователей ИИ, а представительство меньшинств еще ниже. Как говорит Фей-Фей Ли из Стэнфорда, «если вы посмотрите вокруг — неважно, на группы по исследованию ИИ в компаниях, преподавателей по ИИ в учебных заведениях, докторантов по этому направлению или докладчиков на ведущих конференциях, — то увидите: у нас нет разнообразия. Не хватает женщин, не хватает представителей меньшинств». Университеты, ведущие технологические компании и практически все руководители высшего звена в области ИИ полны решимости изменить ситуацию. Ли стала соосновательницей одной из самых многообещающих инициатив — AI4ALL. Это организация, нацеленная на привлечение молодых женщин и членов недостаточно представленных групп в сферу исследования искусственного интеллекта. Она организует летние лагеря для талантливых старшеклассников. Организация быстро растет и предлагает летние программы уже в 11 университетских кампусах Соединенных Штатов. Хотя предстоит еще многое сделать, такие программы, как AI4ALL, в сочетании с приверженностью идее инклюзивности при привлечении свежих сил, безусловно, выльются в значительное повышение разнообразия рядов исследователей ИИ в дальнейшие годы и десятилетия. Обеспечение широты взглядов напрямую ведет к появлению более эффективных и непредвзятых систем искусственного интеллекта.

Суперинтеллект и «проблема контроля» как экзистенциальная угроза

Присущий ИИ риск, который затмевает все остальное, — возможность того, что машины, обладающие сверхчеловеческим интеллектом, однажды выйдут из-под нашего контроля и станут угрозой существованию человечества. Вопросы безопасности, использования в качестве оружия и предвзятости алгоритмов — это непосредственные или ближайшие риски. Очевидно, что их необходимо решать безотлагательно, пока не стало слишком поздно. Экзистенциальная угроза, связанная с суперинтеллектом, является намного более умозрительной и почти наверняка отнесенной в будущее на десятилетия, если не на столетие или больше. Тем не менее именно этот риск завладел воображением многих известных людей и удостоился пристального внимания СМИ.

Экзистенциальный риск, присущий ИИ, стал предметом серьезной публичной дискуссии в 2014 году. В мае того года группа ученых, в том числе космолог из Кембриджского университета Стивен Хокинг, эксперт в области ИИ Стюарт Рассел и физики Макс Тегмарк и Фрэнк Вильчек, написала открытое письмо, опубликованное в британской газете Independent, где утверждалось, что появление искусственного суперинтеллекта «станет величайшим событием в истории человека» и что компьютер, обладающий сверхчеловеческими интеллектуальными возможностями, может «переиграть финансовые рынки, превзойти исследователей, перехитрить наших руководителей и изобрести оружие, которое мы даже не понимаем». Письмо предупреждало, что если мы не примем эту угрозу всерьез, то совершим «худшую ошибку в истории» человечества.

В том же году философ из Оксфордского университета Ник Бостром опубликовал книгу «Искусственный интеллект: Этапы. Угрозы. Стратегии», быстро ставшую, как это ни удивительно, бестселлером. Бостром открывает повествование мыслью о том, что люди главенствуют на нашей планете исключительно в силу интеллектуального превосходства. Многие животные быстрее и сильнее человека, и на вершину его привел именно мозг. Если появится другая сущность, радикально превосходящая нас по интеллектуальным способностям, ситуация может измениться. По словам Бострома, «как судьба горилл сейчас зависит в большей степени от людей, чем от самих горилл, так и судьба нашего вида будет зависеть от действий машинного суперинтеллекта».

Книга Бострома произвела огромное впечатление, особенно на элиту Кремниевой долины. Не прошло и месяца после ее выхода в свет, как Илон Маск уже заявил, что, «работая над искусственным интеллектом, мы вызываем демона» и что ИИ «может быть опаснее ядерного оружия». Год спустя Маск стал сооснователем OpenAI, миссия которой заключается в создании «дружественного» искусственного интеллекта. Те, кто принял аргументы Бострома близко к сердцу, стали воспринимать идею об экзистенциальной угрозе ИИ практически как бесспорный факт и как более серьезную опасность, чем изменение климата или глобальная пандемия. Как сказал нейробиолог и философ Сэм Харрис во время выступления на конференции в TED, набравшего более 5 млн просмотров, «сейчас очень трудно понять, как сделать так, чтобы [польза, которую мы получим от искусственного интеллекта] не уничтожила нас или не подтолкнула к самоуничтожению». По его мнению, нам необходимо «нечто вроде Манхэттенского проекта», нацеленного на поиск путей устранения такой опасности.

Конечно, беспокоиться будет не о чем, если нам не удастся создать в полной мере мыслящую машину с когнитивными способностями, по крайней мере эквивалентными нашим. Как говорилось в главе 5, на пути к созданию универсального искусственного интеллекта нас ждет неизвестное количество серьезных препятствий и на их преодоление потребуются десятилетия. Как вы помните, ведущие исследователи ИИ, которых я опрашивал в ходе работы над книгой «Архитекторы интеллекта», оценили среднее время ожидания до появления универсального ИИ примерно в 80 лет, то есть отнесли этот момент на конец столетия. Однако, как только ИИ человеческого уровня станет реальностью, за ним почти наверняка быстро последует суперинтеллект. Более того, любой машинный интеллект, способный учиться и мыслить на уровне человека, уже будет превосходить нас просто потому, что ему доступны все уже существующие преимущества компьютеров перед нами, включая способность проводить вычисления и обрабатывать информацию с непостижимой скоростью и напрямую взаимодействовать с другими машинами через сети.

Как предполагают большинство экспертов в области ИИ, вскоре после достижения такого уровня машинный интеллект решит направить свою интеллектуальную энергию на совершенствование собственной конструкции. Это приведет к непрерывному, рекурсивному улучшению системы. Результатом неизбежно станет «интеллектуальный взрыв» — Рэй Курцвейл и другие технооптимисты считают это событие катализатором появления сингулярности и зарей новой эпохи. Предположение, что прогресс в области ИИ однажды вызовет взрывное развитие машинного интеллекта, было высказано задолго до того, как вступил в действие закон Мура и стало появляться компьютерное оборудование, способное сделать подобное событие реальностью. В 1964 году математик Ирвинг Гуд написал научную статью «Размышления о первой сверхразумной машине», где сформулировал эту идею следующим образом:

Давайте понимать под сверхразумной такую машину, которая намного превосходит самого умного человека во всех видах интеллектуальной деятельности. Поскольку конструирование машин — один из видов интеллектуальной деятельности, сверхразумная машина сможет создавать еще более продвинутые машины. В результате этого произойдет «интеллектуальный взрыв» и интеллект человека останется далеко позади. Таким образом, первая сверхразумная машина — это последнее изобретение, которое сделает человек при условии, что машина будет достаточно послушной и сообщит нам, как держать ее под контролем.

Перспектива того, что сверхразумная машина станет последним нашим изобретением, отражает оптимизм сторонников идеи сингулярности. Оговорка о том, что машина должна оставаться достаточно послушной, чтобы ее можно было контролировать, отражает тревогу и намекает на возможность появления экзистенциальной угрозы. В сообществе исследователей ИИ эта темная сторона суперинтеллекта называется проблемой контроля или проблемой выравнивания ценностей.

В основе проблемы контроля лежит не страх перед явно враждебными машинами вроде тех, что показаны в «Терминаторе». Каждая ИИ-система создается для какой-то функции, иными словами, для конкретной описанной математически цели, которой система пытается добиться. Опасения вызывает то, что сверхразумная система, получив цель, может упорно преследовать ее с помощью средств, имеющих нежелательные или непредвиденные последствия и способных стать пагубными или даже фатальными для нашей цивилизации. В качестве иллюстрации часто используют мысленный эксперимент с «максимизатором скрепок». Представьте суперинтеллект, созданный с целью оптимизации производства скрепок. Преследуя эту цель, он может создавать новые технологии, которые позволят превратить практически все ресурсы на Земле в скрепки. Поскольку такая система будет превосходить нас по интеллектуальным способностям, она, скорее всего, сможет эффективно противодействовать попыткам выключить ее или изменить порядок действий, поскольку любое вмешательство мешает реализации целевой функции.

Это, конечно, всего лишь карикатура. Реальные сценарии, которые могут разыграться в будущем, скорее всего, будут гораздо менее очевидными, и их потенциальные последствия предвидеть несопоставимо труднее, если вообще возможно. Уже сейчас можно привести пример, безусловно, пагубного воздействия непредвиденных последствий на общественный организм. Алгоритмы машинного обучения, используемые такими компаниями, как YouTube и Facebook, обычно нацелены на максимизацию вовлечения пользователя во взаимодействие с платформой, что увеличивает прибыль от онлайновой рекламы. Однако алгоритмы, преследующие эту цель, быстро обнаружили: самый простой способ обеспечить вовлеченность людей — подсовывать им все более поляризованный в политическом отношении контент или напрямую воздействовать на эмоции, вызывая, скажем, возмущение или страх. Это, в частности, привело к возникновению пресловутой «кроличьей норы» на YouTube: после видео, излагающего умеренную позицию, следуют рекомендации все более радикального контента, что ведет к стабильной эмоционально обусловленной привязанности к этой платформе. Это, наверное, хорошо для прибылей, но, безусловно, плохо для нашей социальной или политической обстановки.

Поиск решения проблемы контроля стал темой научных исследований в университетах и особенно в специализированных организациях с частным финансированием, таких как OpenAI, Институт будущего человечества при Оксфордском университете во главе с Ником Бостромом и Институт исследования машинного интеллекта в Беркли, Калифорния. В своей книге «Совместимость: Как контролировать искусственный интеллект», впервые изданной в 2019 году, Стюарт Рассел утверждает, что лучшее решение проблемы — вообще не встраивать в продвинутые системы ИИ целевую функцию в явном виде. Задачей системы, заложенной в ее конструкцию, должно быть «максимальное удовлетворение предпочтений человека». Поскольку машинный интеллект никогда не будет со всей определенностью знать эти предпочтения или намерения, он будет вынужден формулировать задачи для себя, изучая поведение человека, с готовностью вступать в диалог с человеком и подчиняться ему. В отличие от безостановочного максимизатора скрепок, такая система разрешит выключить себя, если будет считать, что это отвечает предпочтениям человека, для оптимального удовлетворения которых она создана.

Это совершенно непохоже на сегодняшний подход к разработке систем ИИ. Рассел объясняет.

Чтобы воплотить в жизнь подобную модель, нужно очень много исследований. Нам требуются «минимально инвазивные» алгоритмы принятия решений, не позволяющие машинам касаться элементов мира, в отношении ценностей которых у них нет полной уверенности. Нужны машины, которые все больше узнают о наших истинных, принципиальных предпочтениях в отношении будущего. Затем подобные машины столкнутся со старой как мир проблемой этики: как распределять выгоды и затраты между людьми с конфликтующими интересами.

На решение этих задач может уйти десятилетие, и даже после этого потребуются законы, гарантирующие одобрение лишь доказанно безопасных систем и отклонение разработок, не отвечающих всем требованиям. Это будет непросто. Очевидно, однако, что эта модель должна появиться до того, как способности ИИ-систем превзойдут человеческие в важных областях.

Примечательно, что за исключением Стюарта Рассела, соавтора основного университетского учебника по искусственному интеллекту, почти все видные фигуры, предупреждающие об экзистенциальной угрозе разумных машин, не являются исследователями ИИ и специалистами по компьютерным наукам. Эту тревогу выражают главным образом известные интеллектуалы, например Сэм Харрис, титаны Кремниевой долины вроде Маска и ученые из других областей, скажем Хокинг или физик из МТИ Макс Тегмарк. Большинство экспертов по ИИ хранят спокойствие. Переговорив с 23 ведущими исследователями из этой сферы во время работы над книгой «Архитекторы интеллекта», я убедился, что лишь немногие из них принимают угрозу существованию человечества всерьез. Абсолютное большинство относятся к этой мысли пренебрежительно. Они сходятся на том, что суперинтеллект появится еще не скоро, а конкретные пути решения проблемы настолько неясны, что заниматься этим вопросом просто бессмысленно. По словам Эндрю Ына, возглавлявшего группы по исследованию ИИ в Google и Baidu, волноваться из-за экзистенциальной угрозы со стороны ИИ — все равно что бояться перенаселения Марса задолго до отправки на Красную планету первых астронавтов. Робототехник Родни Брукс вторит ему, когда утверждает, что суперинтеллект дело настолько далекого будущего, что «мир тогда не будет похож на нынешний, это будет нечто с искусственным сверхразумом в центре… Мы не имеем ни малейшего представления о том, как он будет выглядеть. Предсказание будущего ИИ всего лишь состязание ученых-одиночек, живущих в изоляции от реального мира. Не хочу сказать, что эти технологии не появятся, просто мы не сможем узнать, какими они будут, до самого их появления».

Сторонники серьезного отношения к экзистенциальной угрозе, связанной с ИИ, не согласны считать этот вопрос несущественным или нерешаемым лишь на том основании, что он едва ли встанет ранее, чем через несколько десятилетий. По их мнению, проблему контроля необходимо решить до того, как появится первый сверхразум, иначе будет слишком поздно. Стюарту Расселу нравится аналогия с инопланетянами. Представьте, что мы получили из космоса сигнал, сообщающий о прибытии к нам пришельцев через 50 лет. Скорее всего, сразу же начнется всемирная подготовка к этому событию. Рассел убежден, что мы точно так же должны готовиться к появлению суперинтеллекта.

На мой взгляд, экзистенциальную угрозу со стороны ИИ нужно принимать всерьез. Я очень рад, что исследователи из таких организаций, как Институт будущего человечества, реально работают над этой проблемой. Я считаю, именно так и должны распределяться ресурсы: этой проблеме в настоящий момент самое место в академических кругах. Пока очень трудно обосновать государственное финансирование программы масштабов Манхэттенского проекта. Вряд ли разумна и любая попытка встраивания этого вопроса в и без того неэффективный политический процесс. Мы действительно хотим, чтобы политики, почти или совершенно ничего не знающие об ИИ, писали твиты об опасности сверхразумных машин? С учетом очень ограниченной способности правительства США решать что-либо, хайп вокруг футуристической экзистенциальной угрозы или ее политизация лишь отвлекут от реальных, уже существующих рисков, таких как превращение ИИ в оружие и проблемы безопасности и предвзятости. Вот задачи, в решение которых мы должны немедленно начать вкладывать существенные ресурсы.

Острая необходимость регулирования

Из знакомства с рисками, представленными в этой главе, следует лишь одно — важность государственного регулирования в сфере ИИ продолжает возрастать и становится всеобъемлющей. Я, однако, считаю большой ошибкой чрезмерное регулирование или ограничение исследований искусственного интеллекта. Скорее всего, это будет неэффективно в глобальном масштабе, поскольку исследования ведутся повсюду. В частности, Китай активно конкурирует с Соединенными Штатами и другими западными странами, расширяя границы возможного для ИИ. Ограничения на фундаментальные исследования, очевидно, поставят нас в невыгодное положение, а мы не можем себе позволить отстать от Китая в борьбе за место на переднем крае развития этой технологии, оказывающей огромное влияние на нашу жизнь.

Правильнее было бы регулирование конкретных сфер применения искусственного интеллекта. В отношении беспилотных автомобилей и средств медицинской диагностики на основе ИИ правила уже выработаны, поскольку эти сферы и без того регулируются. А вот в областях распознавания лиц и использования алгоритмов в системе уголовного судопроизводства нет практически никаких гарантий эффективного и справедливого применения технологии.

С учетом темпов развития искусственного интеллекта и сложности затронутых вопросов я считаю нереалистичным ожидать, что Конгресс США, да и любой другой парламентский орган, своевременно разработает необходимые нормы и воплотит их в жизнь. Похоже, что лучше всего было бы создать независимое государственное ведомство с полномочиями регулятора специально для сферы искусственного интеллекта — что-то вроде Администрации по контролю за продуктами питания и лекарствами, Федерального управления гражданской авиации или Комиссии по ценным бумагам и биржам. Любое из этих управлений — как и их аналоги во всем мире, например Европейское агентство по лекарственным средствам, — имеет собственный штат экспертов, позволяющий решать вопросы в пределах их компетенции. То же самое следует сделать и в сфере искусственного интеллекта. Орган, регулирующий создание и использование ИИ, должен получить от конгресса широкие полномочия и финансирование и иметь право разрабатывать конкретные нормы, причем намного быстрее и эффективнее, чем законодательный орган.

Скорее всего, сторонники либертарианских взглядов станут возражать и обоснованно указывать, что подобный государственный орган будет таким же неэффективным, как и весь существующий регуляторный аппарат. Агентство по контролю ИИ, безусловно, будет поддерживать тесные связи с крупными технологическими компаниями, и мы почти наверняка столкнемся с пресловутой практикой «вращающихся дверей», когда чиновники, уходящие с госслужбы, находят теплые места в подконтрольном частном секторе. Велик и риск «приватизации регулирующего органа» и злоупотребления влиянием со стороны технологической отрасли. Это небеспочвенные опасения, тем не менее для меня совершенно очевидно, что подобное ведомство — оптимальное решение. Альтернативой будет бездействие, что, безусловно, худший выбор. Тесные отношения между регулирующим органом и компаниями, разрабатывающими и использующими технологии ИИ, это, как всегда, палка о двух концах. Поскольку правительство не может конкурировать за ведущих специалистов в области ИИ, предлагая им зарплаты и условия, характерные для хай-тека, сотрудничество ведомства с частным сектором, пожалуй, единственная возможность идти в ногу с достижениями в этой сфере. Идеального решения не существует, но возможен плодотворный союз частного сектора, научных кругов и властей, в центре которого стоит регулирующий орган, достаточно компетентный, чтобы направлять развитие в нужную сторону. Это значительно приблизило бы нас к гарантиям безопасного, инклюзивного и справедливого применения ИИ.

Назад: Глава 7. Китай и появление государства тотального ИИ-надзора
Дальше: Заключение. ИИ: два варианта будущего