Книга: 2062: время машин
Назад: Скрепки повсюду
Дальше: Не принимать в расчет будущее

Безразличие

Пятый вариант – это возможное безразличие ИИ к нам, подобное нашему безразличию к менее разумным формам жизни. При строительстве нового завода никто особенно не интересуется судьбой колонии муравьев, которая располагается на этом месте. Мы не стали бы изо всех сил стараться извести муравьев, но так вышло, что они живут там, где должна быть построена фабрика. Точно так же сверхинтеллект может не интересоваться нашим существованием. Если вдруг мы окажемся у него на пути, он просто нас устранит. Он ничего не имеет против нас – мы всего лишь сопутствующий ущерб.

Опасность такого безразличия возможна при условии, что ИИ не будет от нас зависеть. Мы можем уничтожить колонию муравьев не задумываясь, потому что, скорее всего, это не будет иметь никаких серьезных последствий. Однако уничтожение человечества вполне может привести к таким побочным эффектам, которые не очень выгодны для самого ИИ. Кто поддерживает инфраструктуру, которой он пользуется? Кто обеспечивает работу облачных серверов? Функционирование интернета, соединяющего серверы? Если выполнение этих задач все еще останется за нами, то ИИ не будет к нам безразличен.

Точно так же безразличие сверхинтеллекта к людям исключает возможность того, что он будет покровительствовать нам. Вообще говоря, «покровительствовать» – не самое удачное слово. С одной стороны, с позиции превосходящего интеллекта он может относиться к нам как к детям, которых необходимо опекать. С другой стороны, мы ведь будем его «родителями», которых также нужно опекать в качестве благодарности за то, что мы подарили ему жизнь. Обе стороны этой медали – причины, по которым ИИ вряд ли будет к нам безразличен.

Стоит ли нам волноваться?

Все эти экзистенциальные риски основываются отчасти на том, что сверхинтеллект будет очень быстро развиваться. В этом случае у нас останется мало шансов распознать угрозу заранее и предотвратить ее. Однако, как мы убедились, есть множество причин верить, что технологическая сингулярность никогда не случится. Если всё действительно так, то ИИ будет развиваться медленно. Мы начнем постепенно создавать все более продвинутые системы. Большинство моих коллег уверены, что до появления сверхинтеллекта у нас еще есть десятки лет, если не века; если они правы, то нам хватит времени подготовиться.

Кроме того, вас может успокоить тот факт, что за последнее десятилетие был создан исследовательский комитет, посвященный проблеме безопасности в сфере ИИ. Частично основанные благодаря гранту Илона Маска размером в десять миллионов долларов, в США, Великобритании и других странах работают группы специалистов, которые ищут технические способы избежать тех рисков, о которых я рассказал выше. В свете этих исследований я убежден, в ближайшее время нам не грозит уничтожение от рук ИИ.

Тем не менее мы не можем полностью исключать экзистенциальной угрозы, которую несет появление сверхинтеллекта. Однако разумнее было бы, вероятно, сосредоточиться на тех угрозах нашему виду, которые имеют более реальный характер, а также на более насущных (но менее опасных) проблемах, связанных с искусственным интеллектом. Вам необязательно верить мне на слово, когда я утверждаю, что ИИ – не самая страшная экзистенциальная угроза человечеству. Опрос пятидесяти нобелевских лауреатов, проведенный журналом Times Higher Education в 2017 году, показал, что искусственный интеллект проигрывает в этой борьбе климату, росту населения, атомной войне, болезням, эгоизму, невежеству, терроризму, фундаментализму и Дональду Трампу.

«Пари Паскаля»

Представим ненадолго, что сверхинтеллект все же появится. Даже если это произойдет спустя столетие или больше, люди вроде Илона Маска и Ника Бострома утверждают, что нам стоит об этом беспокоиться. Они боятся, что ИИ станет еще большей угрозой для человечества, чем ядерная война, глобальное потепление и другие актуальные проблемы планеты. Их страх – потерять контроль над машинами, что приведет к намеренному или ненамеренному уничтожению нашего вида.

Мне кажется, что их мнение в некотором смысле подчинено философскому аргументу, придуманному Блезом Паскалем. Паскаль, который родился в 1623 году, а умер в 1662-м, был французским философом, математиком и физиком. В своих посмертно опубликованных «Мыслях» он выдвинул аргумент о необходимости веры в Бога, получивший известность как «пари Паскаля».

Условия выглядят следующим образом. Бог либо существует, либо нет, а вам нужно решить, что из этого верно. Так или иначе вам приходится выбирать, ведь от этого зависит ваша судьба. Даже если вы не будете делать ничего, вы окажетесь на одной из двух сторон.

Если Бог существует и вы в него верите, то вам обеспечена прекрасная вечная жизнь. Если Бога нет, а вы в него верите, то ваша потеря конечна: ваши действия в этой жизни будут продиктованы верой в Бога, которого не существует. Если же Бог существует, но вы в него не верите, то ваши потери не закончатся со смертью: вы упускаете счастье вечной жизни. Наконец, если вы не верите в Бога и его не существует, то вы просто сэкономите усилия, которые потратили бы на религиозные практики.

Рассуждения Паскаля были одним из первых примеров «теории принятия решений», области логики, которая занимается поиском наилучших решений. (В наши дни ИИ находится на передовой процесса интеграции теории принятия решений в компьютеры. Факт, что те же теоретические идеи вводят людей в заблуждение относительно реальных экзистенциальных угроз для нашей планеты, кажется несколько ироничным.)

Теория принятия решений говорит нам о том, что верить в Бога выгоднее, чем не верить. Мы рискуем конечной суммой для того, чтобы потенциально приобрести бесконечную. Такого рода возможностью любой банкир или игрок должен пользоваться без лишних размышлений. «Пари Паскаля» логически убеждает поверить в Бога, так как это может принести вам максимум отдачи.

Однако исключительно логика и теория вероятности не могут определять, верить ли нам в Бога. Люди, которые переживают по поводу сверхинтеллекта, попадаются в похожую ловушку. В нашей ситуации этот аргумент выглядит следующим образом. Исчезновение человечества может быть концом всей жизни во Вселенной, которая превратится в пустое и безжизненное место. Это лишит миллиарды или даже триллионы людей, которые могли бы быть после нас, возможности быть счастливыми. Кроме того, многие поборники теории технологической сингулярности – трансгуманисты, верящие в то, что однажды мы победим смерть. В таком случае уничтожение человеческой расы лишит их возможных потомков еще большего счастья.

Исчезновение нашего вида – настолько серьезная угроза, что она перевешивает все остальные, даже учитывая тот факт, что риск ее реального появления совсем невелик. Она оказывается важнее мирового финансового кризиса. Важнее климатических изменений. Важнее коллапса нашей политической или экономической системы. Важнее даже Трампа. Раз это такая страшная угроза, мы просто обязаны поставить ее выше всего остального – прямо как в «пари Паскаля», где вечное счастье и его потеря ставят риск неверия в Бога выше всего остального. В обоих случаях мы должны игнорировать все остальные проблемы.

Назад: Скрепки повсюду
Дальше: Не принимать в расчет будущее