Что касается угроз со стороны биотехнологий, мы по-прежнему рискуем оказаться в центре глобальной эпидемии, как в случае с болезнью COVID-19, которая к 2023 году унесла жизни 7 миллионов человек55. Однако уже разрабатываются методы, позволяющие быстро расшифровать геном вируса и создать лекарство, способное предотвратить катастрофу планетарного масштаба. В области нанотехнологий пока не было зафиксировано воплощения угроз, подобных «серой слизи», а у нас уже имеется теоретический план действий даже на случай продуманной двухэтапной атаки. Но самая серьезная опасность – по сути, фундаментальная угроза – исходит от сверхмощного искусственного интеллекта. Это связано с тем, что, когда ИИ станет умнее своих создателей, он теоретически сможет обойти любые предусмотренные нами защитные меры. Невозможно заранее предложить общую стратегию, которая гарантировала бы нам успех в борьбе с этой угрозой.
Существуют три основные категории причин, по которым мощный ИИ может демонстрировать нежелательное поведение. Их тщательное изучение поможет по крайней мере снизить уровень грозящей нам опасности. Первая категория – злоупотребление. Это ситуация, когда ИИ действует в строгом соответствии с желаниями операторов, но сами операторы намеренно причиняют вред другим людям56. Например, террористы могут воспользоваться ИИ для создания вируса, способного вызвать разрушительную эпидемию.
Второй проблемой может стать так называемое «внешнее рассогласование» – несоответствие реальных намерений программистов задачам, которые они ставят перед ИИ в надежде достичь своих целей57. Это классическая проблема, описанная в сказках о джиннах. Очень сложно объяснить, чего вы хотите, тому, кто воспринимает ваши слова буквально. Представьте, что программисты дадут команду ИИ создать вирус, который уничтожит все клетки с определенной онкогенной мутацией в ДНК. Они надеются таким образом излечить людей от рака. Однако они не учли, что мутация может затронуть и множество здоровых клеток, так что вирус просто убьет зараженных пациентов.
Наконец, «внутреннее рассогласование» возникает, когда методы, которые ИИ использует для достижения поставленных целей, приводят к нежелательным результатам, по крайней мере в отдельных случаях58. Например, если нейросеть обучают выявлять генетические изменения, характерные для раковых клеток, она может обнаружить структуры, которые присутствуют в тренировочной выборке, но не встречаются в реальном мире. Так может случиться, к примеру, если клетки из обучающего набора долго хранились при пониженной температуре и нейросеть научилась распознавать связанные с этим небольшие генетические изменения. Если на основе этой информации создать вирус, уничтожающий клетки, он не сможет вылечить пациентов. Это лишь один из простых примеров, но по мере роста сложности задач, с которыми сталкивается ИИ, нам будет все труднее избегать рассогласования.
В наши дни идут активные исследования, чтобы найти пути предотвращения обоих типов рассогласования. Хотя многое еще предстоит выяснить, уже существуют многообещающие теоретические разработки. В одном из подходов, называемом «имитационным обобщением», предполагается обучать ИИ подражать человеческим рассуждениям в надежде таким образом сделать его поведение в незнакомых ситуациях более предсказуемым и безопасным59. Метод «обучения через дебаты» строится на том, что конкурирующие системы ИИ будут указывать друг другу на недостатки в рассуждениях. По вопросам, которые слишком сложны для их самостоятельной оценки, арбитрами будут выступать люди60. При «итерационном развитии» более простые системы ИИ будут помогать людям создавать хорошо согласованные системы мощного ИИ. Повторяя этот процесс, можно будет создать ИИ, чье поведение будет намного более согласованным, чем если бы его тренировали только люди61.
Хотя задача создания дружественного ИИ очень сложна62, мы не останемся с ней один на один: при грамотном подходе мы сможем использовать сам ИИ для расширения наших возможностей по его нравственному обучению. То же самое касается проектирования систем ИИ, которые не допустят злоупотребления. В примере из области биоинженерии, рассмотренном ранее, правильно откалиброванный ИИ распознает вредоносный запрос и откажется его выполнять. Однако нам все равно необходимо установить этические рамки для использования ИИ. Для этого нужно принять строгие международные законы, которые будут регламентировать безопасное и добросовестное развертывание систем ИИ.
За последние десять лет ИИ стал настолько мощным, что предотвращение его неправомерного использования стало приоритетной задачей международного сообщества. В последние годы наблюдаем скоординированные усилия по разработке этического кодекса в этой области. В 2017 году я посетил Асиломарскую конференцию по дружественному ИИ, которая была организована в том же месте, где четыре десятилетия назад были приняты важные положения по безопасному использованию биотехнологий63. На этом симпозиуме был утвержден ряд полезных принципов, и я с радостью поставил свою подпись под этим решением. Однако даже если большая часть мира будет придерживаться этих принципов, несложно представить, что организации со взглядами, далекими от демократических, отрицающие идеи свободного самовыражения, все равно могут попытаться использовать ИИ в своих целях. Структуры, обладающие огромным военным потенциалом, не стали подписывать это соглашение, при том что в прошлом они неоднократно становились первопроходцами в разработке и внедрении передовых технологий. К слову, появлением интернета мы обязаны Агентству передовых оборонных исследовательских проектов (DARPA)64.
Тем не менее асиломарские принципы положили начало эпохе ответственной разработки ИИ, задав верное направление для отрасли. В шести из двадцати трех статей принятого документа упоминаются «гуманитарные ценности». Например, в статье 10 под названием «Учет ценностей» говорится: «Высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы в течение всего периода работы их цели и поведение гарантированно соответствовали гуманитарным ценностям»65.
Другой важный документ, известный как «Обязательство по автономным системам летального вооружения», следует аналогичной идее: «Мы, нижеподписавшиеся, убеждены, что право принимать решение о лишении жизни никогда не должно быть предоставлено машине. Это основополагающее требование нашей морали – не допускать, чтобы машина принимала решения, ведущие к гибели людей, при том что ответственность за эту гибель понесут другие люди либо вовсе никто»66. Несмотря на то что этот документ, содержащий требование запретить создание автономных летальных вооружений, подписали такие известные личности, как Стивен Хокинг, Илон Маск, Мартин Рис и Ноам Хомский, первые лица военных ведомств некоторых стран, включая США, Россию, Великобританию, Францию и Израиль, отказались поставить подпись.
Военные США не придерживаются указанных принципов, но у них есть собственная директива, согласно которой системы вооружений, нацеленные на людей, должны работать под управлением людей67. В 2012 году Пентагон выпустил распоряжение, в котором говорится, что «автономные и полуавтономные системы вооружений должны быть разработаны таким образом, чтобы у командира или оператора был должный уровень контроля над применением силы»68. В 2016 году заместитель министра обороны США Роберт Уорк заявил, что армия США «не будет передавать машинам полномочия по принятию решения об открытии огня на поражение»69. Он, однако, допустил, что в будущем эта политика может быть пересмотрена, если возникнет необходимость конкурировать с другим государством, «готовым передать машине больше полномочий, чем военные США»70. Я участвовал в обсуждениях, связанных с разработкой этой политики, а также в работе группы экспертов по противодействию биологическим опасностям.
В начале 2023 года по итогам международной конференции, в ходе которой состоялся конструктивный диалог с Китаем, Соединенные Штаты опубликовали политическую декларацию об ответственном использовании искусственного интеллекта и автономных систем в военных целях. В этом документе США призвали другие страны придерживаться разумных правил, которые, в частности, гарантируют сохранение контроля над ядерным оружием за человеком71. Однако само понятие «человеческий контроль» вызывает некоторые вопросы. Если в будущем человек отдаст приказ ИИ «остановить ожидаемый ядерный удар», какой уровень свободы он должен предоставить системе? Заметим, что ИИ, достаточно продвинутый для выполнения такой задачи, может быть с успехом использован и для нападения.
Поэтому нам, так или иначе, придется признать, что ИИ – технология принципиально двойного назначения. Это касается даже существующих систем. Например, такой же беспилотник, который используется для доставки медикаментов в больницу, куда невозможно добраться наземным транспортом во время сезона дождей, может сбросить на эту больницу бомбу. Следует помнить, что военные уже на протяжении десяти лет используют беспилотные устройства настолько точные, что они могут направить ракету в нужное окно дома буквально с другой стороны земного шара72.
Нам также стоит задуматься, действительно ли мы хотим соблюдать запрет на смертельное автономное оружие, если противник не придерживается подобных ограничений. Что, если враждебно настроенное государство отправит армию боевых машин под управлением ИИ, чтобы захватить нас? Разве вы не захотели бы иметь на своей стороне еще более продвинутые машины, которые могут победить врага и защитить вас? Это главная причина, по которой кампания «Остановите роботов-убийц» не получила широкого признания73. По состоянию на 2023 год все ведущие военные державы отказались присоединиться к ней, за исключением Китая, который поддержал идею в 2018 году, но позже разъяснил, что поддерживает запрет на применение, но не на разработку74. Хотя даже Китай, вероятно, руководствовался стратегическими и политическими, а не моральными соображениями, поскольку автономные системы, стоящие на вооружении США и их союзников, превосходят китайские. Я считаю, что если мы можем подвергнуться нападению с использованием такого оружия, то у нас должна быть возможность дать отпор. Это, в свою очередь, неизбежно приведет к нарушению озвученных принципов.
Кроме того, что будет означать выражение «под контролем человека», если уже в 2030-х годах люди будут в процессе принятия решения полагаться на небиологическое расширение своего разума через интерфейс мозг-компьютер? Доля цифровых компонентов в мыслительном процессе будет стремительно расти, в то время как биологическая основа разума останется прежней. Так что к концу 2030-х годов наше мышление будет во многом определяться цифровыми процессами. Возникает вопрос: какое решение можно считать по-настоящему человеческим, если даже наш разум будет во многом подобен компьютерному?
Некоторые из асиломарских принципов также содержат нерешенные вопросы. Например, положение 7, «Прослеживаемость ошибок», гласит: «Если система на основе ИИ нанесла ущерб, должна быть возможность точно установить, по какой причине это произошло». А статья 8, «Прозрачность судебных решений», призывает: «Любое участие автономной системы в процессе принятия судебного решения должно сопровождаться исчерпывающими пояснениями, которые могут быть проверены компетентным экспертом».
Эти попытки внести ясность в принципы принятия решений искусственным интеллектом очень важны. Однако главная сложность заключается в том, что мы сможем понять логику сверхмощного разума, какое бы объяснение тот ни привел. Если программа, которая играет в го намного лучше самых выдающихся игроков, объяснит свои стратегические ходы, не факт, что даже самый умелый игрок в мире (не имеющий кибернетических модификаций) до конца в них разберется75. Одним из перспективных подходов к снижению рисков, связанных с непрозрачностью ИИ, является принцип «выявления скрытого знания»76. Работающие в этом ключе исследователи стараются разработать методику, как заставить ИИ в ответ на запрос предоставлять всю известную ему релевантную информацию, а не только то, что, по его мнению, мы хотим знать – это как раз по мере роста способностей ИИ будет нести все больше рисков.
В принятых положениях также настоятельно рекомендуется отказаться от соперничества при разработке ИИ. В частности, в положении 18, озаглавленном «Гонка вооружений в сфере ИИ», недвусмысленно сказано: «Необходимо избегать гонки вооружений при создании автономного смертоносного оружия». А статья 23, озаглавленная «Общее благо», призывает к разработке сверхинтеллекта с учетом этических идеалов, разделяемых всем мировым сообществом, и на благо всего человечества, а не в интересах отдельных государств или организаций. Однако, учитывая, что мощный искусственный интеллект может стать решающим инструментом в военных операциях и принести невиданную экономическую выгоду, военные ведомства с большой вероятностью будут стремиться овладеть им77. Это не только повышает риски злоупотреблений, но и увеличивает шансы, что мерами предосторожности при проектировании его поведения будут пренебрегать.
Мы уже обращали внимание на пункт 10, который касается соответствия ИИ гуманитарным ценностям. В следующей статье, озаглавленной «Гуманитарные ценности», поясняется, какие именно принципы следует соблюдать: «Системы ИИ должны быть спроектированы и использованы таким образом, чтобы их поведение соответствовало идеалам человеческого достоинства, гражданских прав и свобод, а также культурного разнообразия».
Однако просто поставить перед собой такую цель недостаточно, необходимо еще ее достичь. И в этом заключается главная проблема с искусственным интеллектом. Сверхмощный искусственный разум, который стремится причинить вред, без труда найдет оправдание для своих действий, объяснив, что совершить их пришлось ради более высокой цели. И даже сможет сформулировать свое обоснование в терминах философии, которую мы все разделяем.
Эффективно ограничить развитие какого-либо фундаментального качества ИИ весьма сложно, особенно учитывая широкое значение, которое вкладывается в понятие «интеллект». К счастью, когда эта книга готовилась к печати, появились обнадеживающие признаки того, что правительства развитых стран проявляют к этой теме повышенное внимание. В частности, стоит отметить подписание Декларации Блетчли на саммите по проблемам безопасности в сфере ИИ, который состоялся в 2023 году в Великобритании78. Однако многое будет зависеть от того, насколько эффективно странами будут выполняться взятые на себя обязательства. Весомый повод для оптимизма дает принцип рыночной свободы: на каждом этапе своего развития мощный ИИ должен найти свое место в экономике. Иными словами, ИИ создается людьми ради решения проблем других людей, что дает разработчикам мощный стимул сделать его полезным. Поскольку ИИ формируется в условиях развитой экономической инфраструктуры, его применение будет отражать наши ценности, ведь в каком-то смысле мы будем неразделимы. Мы уже стали цивилизацией людей и машин. В этой связи самое важное, что мы можем сделать для обеспечения безопасности использования ИИ, это продолжать защищать и развивать наши принципы управления и гражданские институты. Лучший способ избежать разрушительных конфликтов в будущем – это сохранять высокие нравственные идеалы. Благодаря им нам уже удалось значительно снизить уровень насилия в последние века и особенно в последние десятилетия79.
Также я убежден, что мы должны всерьез озаботиться современным движением «неолуддитов», которые, упорствуя в своих заблуждениях, призывают повсеместно отказаться от технического прогресса, чтобы избежать опасностей, исходящих от генетики, нанотехнологий и робототехники80. Из-за их взглядов возникают задержки в оказании помощи тем, кто в ней нуждается. Например, в некоторых странах Африки голод становится все более острым из-за нежелания принимать гуманитарную помощь в виде продуктов питания, которые могут содержать генетически модифицированные организмы81.
В нынешнюю эпоху, когда технологии позволяют все активнее вмешиваться в наше тело и разум, возникает новый тип сопротивления техническому прогрессу. Его сторонники выступают за «принципиальную человечность», отрицая любые изменения в природе человека82. Неодобрение вызывают технологии модификации генома, влияние на свертывание белков и другие шаги на пути к радикальному продлению жизни. Такие взгляды не будут широко распространены, потому что спрос на методы терапии, избавляющие от боли, немощи и смерти – обязательных атрибутов нашего жизненного пути в теле природной версии, – быстро станет массовым.
Когда люди слышат о перспективах радикального продления жизни, у них возникают два основных возражения. Во-первых, это вопрос истощения материальных ресурсов при неограниченном росте населения. Мы часто слышим о том, что ископаемые источники энергии, чистая вода, жилье, земля и другие ресурсы, необходимые для поддержания растущего числа жителей, находятся на исходе. Кажется, что, если смертность начнет резко падать, эта проблема только усугубится. Однако, как я уже подробно описывал в главе 4, когда мы начнем рационально использовать земные ресурсы, мы поймем, что их запасы в тысячи раз превышают наши потребности. Например, солнечный свет способен дать в 10 000 раз больше энергии, чем необходимо, чтобы удовлетворить все наши нужды83.
Второй аргумент заключается в том, что нам будет невыносимо скучно заниматься одними и теми же вещами на протяжении многих веков. Однако уже в 2020-х годах мы начнем пользоваться компактными устройствами виртуальной и дополненной реальности. А в 2030-х эти технологии будут интегрированы непосредственно в нашу нервную систему с помощью нанороботов, которые будут передавать сигналы нашим органам чувств. Таким образом, в дополнение к продлению срока жизни мы получим феноменальное расширение жизненного опыта. Мы сможем путешествовать по обширным просторам виртуальной и дополненной реальности, ограниченным только нашим воображением, которое, в свою очередь, значительно расширится. Даже прожив сотни лет, мы не успеем исчерпать всех возможностей для получения знаний и культурного опыта.
Искусственный интеллект – это революционная технология, которая поможет нам решить множество насущных проблем, в том числе победить болезни, бедность, остановить разрушение окружающей среды, преодолеть все наши человеческие несовершенства. На нас лежит моральная обязанность воспользоваться благами новых технологий, избежав при этом вреда от них. И у нас уже есть подобный опыт. В начале этой главы я упоминал, как, будучи мальчишкой, участвовал в учениях по гражданской обороне, готовясь к ядерной войне. Когда я рос, большинство людей вокруг меня считало ядерный конфликт почти неизбежным. Тот факт, что мы как цивилизация нашли в себе силы и разум воздержаться от применения этого ужасающего оружия, вселяет уверенность, что в наших силах столь же ответственно подойти к использованию биотехнологий, нанотехнологий и сверхмощного искусственного интеллекта. Мы вовсе не обречены на неудачу.
В целом у нас есть повод для осторожного оптимизма. Конечно, искусственный интеллект принесет с собой новые угрозы, но он также значительно расширит наши возможности в борьбе с ними. Что касается злоупотреблений, то новые технологии способны улучшить интеллект всех людей, независимо от их моральных убеждений. Это открывает двери для использования их как во благо, так и во вред84. Наша задача – построить мир, в котором способности искусственного интеллекта будут доступны каждому, чтобы результаты его применения отражали ценности всего человечества.