Если разумные машины все же обретут свободу воли, то нам следует задуматься об их ценностях. Используют ли они эту свободу, чтобы творить зло? Даже при отсутствии у них свободы воли мы будем ждать от них этичного поведения.
Проблема состоит не только в том, насколько умны машины. Даже не очень развитый ИИ должен вести себя этично. Например, этот вопрос поднимается в контексте разговора об автономных автомобилях. Они пока не слишком умны, но мы уже доверяем им жизненно важные функции.
В плане этичности поведения у сознательных машин будет некоторое преимущество над бессознательными. Это может отразиться на их действиях – как в прошлом, так и в настоящем и будущем. Это может отразиться и на тех, кто каким-то образом будет зависеть от этих действий. Сложно представить себе создание робота, который правильно ведет себя без исполнительного слоя, подобного в каком-то смысле человеческому сознанию.
Что же должно составить этот слой, управляющий действиями робота? Может, стоит запрограммировать туда законы робототехники, придуманные Азимовым? Эти три положения писатель предложил в 1942 году:
• Первый закон. Робот не может причинить вред человеку или, вследствие своего бездействия, допустить причинение человеку вреда.
• Второй закон. Робот должен выполнять все приказы человека за исключением тех, которые противоречат Первому закону.
• Третий закон. Робот должен защищать свою жизнь за исключением тех случаев, когда это противоречит Первому или Второму законам.
Азимов утверждал, что эти законы взяты из пятьдесят шестого издания «Справочника по робототехнике», опубликованного в 2058 году. Я уверен, что к 2058 году Азимов окажется прав и у нас будут четкие этические инструкции для создания роботов. Однако рассказы писателя демонстрируют ограниченность этих трех законов. Что делать в случае, когда действие навредит одному человеку, а бездействие – другому? Что делать, если два человека отдают роботу приказы, противоречащие друг другу?
Проблема вагонетки – классический пример моральной дилеммы, которая ставит под вопрос законы Азимова. Предположим, вы сидите в вашей «тесле», которая движется автономно. Вдруг двое детей выбегают на дорогу за мячом. Собьет ли «тесла» этих детей или повернет и врежется в припаркованную рядом машину? У компьютера есть миллисекунды на принятие решения. Так или иначе, дело закончится травмой или смертью. Времени на то, чтобы отдать управление в ваши руки, нет. Если не делать ничего – погибнут дети. Если свернуть в припаркованную машину – погибнете вы. Законы Азимова не помогают «тесле» принять решение.
Ограниченность этих законов подчеркивается тем, что позднее Азимову пришлось добавить к ним четвертый:
• Нулевой закон. Робот не может причинить вред человечеству или своим бездействием допустить причинение вреда человечеству.
Закон назван нулевым потому, что он первостепенен по отношению к предыдущим трем законам. Закон включает в себя ситуации, в которых причинение вреда человеку может быть правильным решением для робота. Однако это все еще не объясняет, как решить проблему вагонетки/«теслы».
Нулевой закон Азимова, вообще говоря, создает новые проблемы. На основании чего робот может понять, что нечто способно навредить человеку? И что вообще значит слово «вред»? Как, например, определить, что важнее: благополучие тех людей, которые живут на планете, или тех, которые еще не родились?
Я предполагаю, что у нас может не получиться запрограммировать вручную этику для наших ИИ. Возможно, нам придется позволить им научиться этому самостоятельно. Этот подход тоже не вполне однозначен. Люди часто ведут себя не совсем в соответствии с собственными моральными стандартами. Поэтому машинам будет трудно научиться этичному поведению у нас.
Вообще-то, нам стоило бы, наверное, задать для машин более высокие этические стандарты, чем те, которых придерживаемся мы сами. Они не подвержены человеческим слабостям. Автономный автомобиль можно запрограммировать так, чтобы он никогда не превышал скорость. Вооруженный дрон можно запрограммировать так, чтобы он соблюдал международное гуманитарное право. Робота-адвоката можно запрограммировать так, чтобы он никогда не прятал найденные улики. Это занимательный вопрос, который остается открытым: как им выучить такие нормы сверхэтики?
Наше сознание напрямую зависит от того, живы ли мы. Судя по тому, что известно современной науке, наше сознание умирает вместе с нами. Это дает нам повод поговорить о проблеме смерти. И придем мы к ней через разговор о трансгуманизме.
ИИ в наши дни стал своеобразным мейнстримом. Двадцать лет назад, когда я говорил людям о том, что занимаюсь искусственным интеллектом, они смеялись и шутили о том, насколько глупы компьютеры. Теперь же, когда ИИ проник во многие сферы нашей жизни, а некоторые даже улучшил, люди обычно говорят: «Вы занимаетесь ИИ? Здорово!». Общий искусственный интеллект тем не менее остается периферийной целью. Если начать подробно интересоваться этой периферией, она может вывести вас к проблеме трансгуманизма. Ею обычно занимаются люди, которые видят в ИИ способ обмануть смерть.
Интересный факт состоит в том, что большинство тех, кто видит в ИИ экзистенциальную угрозу, являются трансгуманистами. Разумеется, это не слишком удивительно. Раз уж вы готовите себя к вечной жизни, то вам однозначно есть что терять, в случае если ИИ соберется стереть человечество с лица земли. Еще более забавно наблюдать за теми, кто с нетерпением ждет появления ИИ, который, по их мнению, поможет им осуществить трансгуманистические мечты, но в то же время боится последствий его создания.
Как же искусственный интеллект может помочь преодолеть смерть? Наши биологические оболочки – не самая надежная вещь. Вирусы и бактериальные инфекции проникают сквозь естественную человеческую защиту. Наша иммунная система сбоит, дает раку завладеть организмом, одержать победу и убить нас. Механизмы восстановления перестают работать, позволяя нам стареть и изнашиваться. После шестидесяти-семидесяти лет мы уже начинаем свой путь на кладбище. Кремний стал бы для нашего разума более достойной оболочкой. Он быстрее, вместительнее и практически не разлагается. К тому же, учитывая, что цифровую информацию можно легко скопировать, мы всегда можем загрузить себя в новую идеальную оболочку.
Выходит, что в 2062 году мы просто загрузим наш мозг в облако и продолжим виртуальное существование? Учитывая преимущества цифрового субстрата, homo digitalis будут полностью цифровыми? Или останутся наполовину физическими, наполовину цифровыми? Ответы на эти вопросы зависят от природы сознания. Если оно представляет собой биологический феномен, то, загрузив себя в облако, мы потеряем нечто важное. Наш субститут может быть похож на нас. Он будет знать то же, что и мы. Он будет говорить то, что мы обычно говорим. Но он не будет нами. С другой стороны, если ИИ станут сознательными, то, вероятно, цифровая версия нас сможет унаследовать сознание, близкое к нашему естественному. Все, однако, не так просто.
К счастью, технические ограничения могут спасти нас от этической дилеммы. Возможно, сделать цифровую копию нашего биологического разума просто-напросто невыполнимая или непрактичная задача. Человеческий мозг с его миллиардами нейронов и триллионами синапсов – самая сложная система из известных нам в этой Вселенной. Кроме того, ее создание может оказаться возможным, но деструктивным. Мы сумеем прочитать содержимое мозга, но в результате будет уничтожен оригинал. В таком случае нам удастся создать искусственную копию, но мы потеряем естественный мозг. Это избавит нас от некоторых сложных этических и моральных вопросов, связанных с нашей идентичностью.