Книга: Наука сознания. Современная теория субъективного опыта
Назад: Глава 7. Трудная проблема и другие точки зрения на сознание
Дальше: Глава 9. Перенос личности на искусственные носители
Глава
8

Машины, обладающие сознанием

Великий физик и математик сэр Исаак Ньютон пробовал себя и в занятиях алхимией. Судя по тому, сколько он извел бумаги для заметок, он вложил больше сил в провальные попытки получить золото, нежели в успешную попытку открыть закон всемирного тяготения. В одном из рецептов Ньютона значатся Огненный Дракон, Голуби Дианы и Орлы Меркурия: это экзотические названия реально существующих ингредиентов. Так и вижу, как сэр Исаак вместе с другими алхимиками склоняется над пергаментами с неразборчиво записанными рецептами, смешивает и нагревает компоненты, напряженно ждет результата — только чтобы снова разочароваться. Теорий им хватало с запасом, но алхимические теории основывались скорее на аналогиях и мифах, а не на логических построениях. Практикующие адепты не могли сказать: “С учетом того, что нам известно о свойствах материалов, при смешении А и Б должно получиться золото”. Лучшее, что было в распоряжении честолюбивого алхимика, — метод проб и ошибок.

Но я не хочу издеваться над алхимиками. Их ремесленнические пробы и ошибки во многом положили начало современной химии. А современная наука в результате все-таки раскрыла великий алхимический секрет.

Вот вам рецепт, может быть, захотите попробовать сами. Возьмите элемент тяжелее золота, раскрошите его в ускорителе частиц — и получите несколько атомов драгоценного желтого металла. Или облучите более легкий элемент нуклонами — и постепенно частицы слипнутся и образуют ядро золота. Не знаю, пробовал ли кто-нибудь так делать, но подход этот физически обоснован, а значит, он сработает. Ученые получали элементы и намного тяжелее золота, и более редкие. Выгода от моего способа была бы невелика: на получение каждого атома этого благородного металла уходили бы миллионы долларов, но главное здесь — работающий принцип.

Конструирование машины, обладающей сознанием, как раз и напоминает мне алхимию. Множество научных трудов о сознании полны туманных аналогий и даже мифов. Если насыпать достаточное количество сложности, или обратной связи, или масштабных связей, или таламо-кортикального резонанса и перемешать все это на огне бунзеновской горелки — проснется ли в машине сознание? Изречет ли она: “У меня есть сознательный опыт и красного, и холодного, и себя самой”?

Теория схемы внимания представляется мне инженерным ответом на алхимическую загадку сознания. Если, руководствуясь этой теорией, построить машину, вложить в нее нужные внутренние модели и дать ей когнитивный и лингвистический доступ к ним, то машина будет обладать потенциальными возможностями, которые вы для нее “наинженерили”. Вам не придется надеяться, что сознание возникнет от алхимического сплавления компонентов. Машина будет считать, что у нее есть сознание, утверждать, что у нее есть сознание, и говорить о своем сознании — потому что вы встроили в нее конструкт сознания.

Гонка создания машин, обладающих сознанием, начиналась на низких скоростях. Были какие-то пробные попытки, основанные на различных теориях, но не возникло ничего, действительно напоминающего сознание. Энтузиазм мог угасать и от того, что теории сознания чаще сосредоточиваются на метафизическом ощущении, а не на прикладной пользе от сознания. Если вы специалист по информатике и вас интересуют практичные, востребованные продукты — зачем тратить время на метафизику? Теория схемы внимания как раз предлагает некоторые прикладные выгоды. Согласно ей, мозг сформировал конструкт сознания потому, что тот давал два существенных преимущества: во-первых, улучшал внутреннюю регуляцию, а во-вторых, служил основой социального познания.

У нас есть конкретная теория и конкретные практические выгоды — теперь искусственное сознание готово к взлету. В каком-то виде оно может появиться уже лет через десять. Первые эксперименты по искусственному сознанию, скорее всего, будут крайне ограниченны. Разумные андроиды вроде Дейты из “Звездного пути” или C-3PO из “Звездных войн”, которые обладают не только сознанием, но и безграничными способностями и блестящим умением поддержать разговор, — дело далекого будущего. Они тоже возможны, но технологии еще не дошли до этого уровня.

Однако, прежде чем пуститься в поэтические рассуждения о грядущем, в котором нас будут сопровождать разумные искусственные компаньоны, мне придется начать с более существенного вопроса. Если мы построим машину, которую станем считать сознающей, — как узнать, что у нее на самом деле есть сознание? Возможно ли удостовериться в его наличии?

В 1950 г. уже упоминавшийся математик Алан Тьюринг предложил способ проверить, способна ли машина мыслить. В придуманном им игровом тесте участвуют три человека: один говорит правду, другой обманывает, третий угадывает, кто из них кто. Они сидят по разным комнатам и общаются только письменно, чтобы не допустить непреднамеренных подсказок.

В начале угадывающий ничего не знает о двух других участниках, кроме того, что один из них — мужчина, а другой — женщина. Задача того, кто говорит правду, — передать угадывающему правильный ответ. Задача обманщика — запутать угадывающего и передать ему неверный ответ. Все трое оказываются вовлечены в сложную информационную войну. Поскольку разрешены любые вопросы и любые ответы, разговор может соскользнуть на социальные двусмысленности и тонкие психологические манипуляции. В конце игры угадывающий должен сделать выбор. Если он угадывает верно, побеждает тот, кто говорил правду. Если он ошибается, побеждает тот, кто обманывал. Я никогда не играл в эту игру и не знаю никого, кто играл бы, поэтому трудно назвать средние показатели успеха обманщика или правдивого участника. Предположу, что у правдивого есть преимущество: когда вы говорите правду, вас невозможно поймать на противоречии. В любом случае, если бы в эту игру сыграли много раз, можно было бы подсчитать приблизительный уровень успеха разных игроков.

Следующий шаг — заменить обманщика-человека обманщиком-машиной. Если машина сможет выигрывать в эту игру с той же частотой, что и человек, — значит, она может думать, как человек. В этом и заключается изначальный тест Тьюринга.

На первый взгляд его способ кажется слишком усложненным. И уж точно не слишком практичным — чтобы собрать статистику, в игру нужно сыграть много раз. Но, если рассмотреть тест поближе, становится ясно, что это блестящая находка, опередившая свое время. Чтобы хорошо играть, машине нужна модель психического состояния других людей. Более того, ей придется успешно пройти тест ложных убеждений. Машина должна понимать, что другие люди, другие сознания могут содержать в себе ложные убеждения о мире, и ей необходимо постоянно быть в курсе, кто во что верит. Это тест социального познания с очень высоким проходным баллом.

Тест Тьюринга можно считать ранней версией задачи Салли-Энн, которую психологи впервые предложили в 1980-х гг. Я описывал эту задачу в пятой главе, но кратко напомню здесь. В стандартной версии психолог, проверяющий ваше социальное познание, рассказывает вам историю о том, как Энн обманула Салли. Салли положила бутерброд в корзину А и ушла в туалет. Пока ее не было, Энн переложила бутерброд в корзину Б. Когда Салли вернется — в какой корзине она будет искать свой бутерброд? Если вы способны понять, что у Салли есть сознание, что в этом сознании хранятся убеждения и что ее убеждения могут противоречить реальности, — то вы сможете решить эту задачу. Салли сначала будет искать в корзине А — той, куда она и убрала бутерброд. Какой бы тривиальной ни казалась эта задача взрослым людям с многолетним социальным опытом, дети младше пяти лет — как я уже говорил — с ней не справляются, а кроме людей решить ее могут очень немногие биологические виды.

Задача Салли-Энн со всеми ее ментальными моделями и отслеживанием ложных убеждений — на самом деле упрощенная версия теста Тьюринга. Возможно, Тьюринг и думал, что пишет о вычислительных технологиях, но он был также хорошим социальным психологом, на 30 лет опередившим свое время. Чтобы проверить, может ли машина мыслить, я скорее воспользуюсь сложным тестом Тьюринга, нежели поверхностной задачкой Салли-Энн. Тест ставит машину перед более сложной проблемой. Чтобы действовать, как человек, машина должна обладать блестящими языковыми умениями, актуальным знанием повседневной жизни и великолепными способностями логически размышлять об убеждениях других.

Тьюринг никогда не утверждал, что его игра в угадайку — тест на наличие сознания. Он никогда не обсуждал связь этой игры с субъективным опытом, осознанием, квалиа, внутренним ощущением, приходящим вместе с обработкой информации, или любыми другими способами разговора о сознании. Если машина изначальный тест Тьюринга проходит, мы можем быть уверены, что это удивительно сложно устроенный компьютер. У него должно быть что-то вроде нормального содержания человеческого сознания, иначе он не смог бы поддерживать разговор, — но не факт, что у него есть собственные сознаваемые переживания.

За годы, прошедшие с исходной публикации Тьюринга, его тест присвоили и переиначили толпы фанатов искусственного интеллекта. Знаменитый тест Тьюринга, о котором все слышали в наше время, довольно заметно отличается от оригинала. И от задачи Салли-Энн тоже отличается. Современная версия сосредоточена не на социальном познании, а на сознании. Чтобы понять, есть ли у машины сознание, достаточно с ней поговорить. Если вы не можете определить, с машиной разговариваете или с человеком, — машина прошла испытание. Новый тест усовершенствован по сравнению с предшествующим — теперь его легко провести с настоящими компьютерами, и это проделывали множество раз. Люди организуют целые конференции, чтобы прогонять машины через осовремененный тест Тьюринга; самая известная из них — это ежегодное соревнование компьютерных программ за премию Лёбнера (и все же до сих пор ни одна машина не смогла повсеместно убедить ученых, что у нее есть сознание).

Но даже если бы какая-то машина прошла этот современный тест Тьюринга, мы по-прежнему не смогли бы определить, есть ли у нее внутренний опыт. Тест способностей к разговору нелогично применять в качестве теста на наличие сознания. Учитывая, сколь легко убедить некоторых в том, что сознание есть у рек и деревьев, может оказаться совсем нетрудным одурачить хотя бы несколько человек и заставить их считать обладающей сознанием машину, у которой на самом деле сознания нет. Если бы мы построили машину, которая действительно обладает сознанием, даже она могла бы провалить тест Тьюринга. Сознание не всегда означает способность вести светскую беседу. О чем говорить — да трехлетний ребенок не прошел бы этот тест! Как и некоторые взрослые. Как и домашние собаки, хотя львиная доля человечества вполне уверена, что у собак есть осознаваемый опыт. Просто тест не очень работает. Но сама идея теста Тьюринга настолько вросла в нашу культуру, мы так с ней сроднились, что будто бы приняли ее в качестве работающего решения проблемы. Обоснование этого обычно звучит примерно так: “Я знаю, что у меня есть сознание, поскольку имею непосредственный опыт переживания своего собственного разума. Но я не могу знать, сознательны ли другие люди. Как бы мне ни хотелось в это верить и как бы я ни любил своих детей, жену и кошку, я никогда не смогу напрямую испытать опыт их сознания. Это невозможно. Придется удовлетвориться лучшим из того, что мне доступно, — я условно допущу наличие у них сознания, поскольку они ведут себя так, будто оно у них есть. Аналогичным образом я не могу доказать наличие сознания у машины. Это недоказуемо. Но с тестом Тьюринга я могу сделать лучшее из возможного — проверить, принадлежит ли машина к той же категории, что мои жена, дети и домашние животные. Я смогу определить, способна ли машина вести себя настолько убедительно, что уподобится сознающему существу, — тогда мне придется условно допустить, что она действительно обладает сознанием”.

Так выглядит типичное рассуждение. Но я бы хотел развеять таинственный ореол вокруг теста Тьюринга. Исходя из теории схемы внимания, мы можем выяснить с объективной достоверностью, обладает ли машина тем же типом сознания, что и люди. Причем прямой личный опыт — не единственный способ (это вообще не слишком хороший способ) выяснить что-то о собственном сознании.

Конечно, у меня есть сознание! Я точно знаю это — у меня есть непосредственный опыт его переживания”.

Если это не круговая логическая ловушка, то что же? Сознание является непосредственным опытом. Следовательно, данное утверждение эквивалентно такому: “Я знаю, что у меня есть сознание, потому что у меня есть сознание”. Как я уже говорил, машина — заложник содержащейся в ней информации. Определенная внутренняя модель сообщает машине, что у нее есть сознание, и получается, будто она “знает”, что у нее есть сознание. Внутренняя модель сообщает машине, что ее сознание не имеет физического носителя и является сугубо частным опытом, — получается, машина “знает”, что ее сознание не может подтвердить никто другой.

Но внутренняя модель — это информация, а информацию можно объективно измерить. Нам нет нужды полагаться на личные утверждения. В теории схемы внимания, чтобы определить наличие сознания у машины, нам нужно “ощупать ее внутренности” и понять, содержит ли она схему внимания, а затем прочесть информацию в этой схеме внимания. Тогда мы с объективной достоверностью выясним, может ли эта машина, подобно нам, полагать, что у нее есть осознаваемый субъективный опыт. Если в ее внутренней модели есть соответствующая информация, то да. Если нет — то нет. Все это, в принципе, можно измерить и подтвердить.

Измерить имеющуюся в человеческом мозге информацию сложно, но не невозможно. В ограниченных масштабах ученые уже этим занимаются. Хороший набор электродов на вашей голове поможет исследователям предсказать, куда вы собираетесь двинуть рукой — вправо или влево. По качественной магнитно-резонансной томограмме зрительной коры ученые могут определить, смотрите вы на лицо или на дом. Считывать более сложную информацию пока невозможно, но это решается усовершенствованием технологий. Уверен, что технологии считывания данных из мозга в действительно высоком разрешении разовьются со временем (и это внушает тревогу). Возможность измерять информацию в человеческой схеме внимания должна существовать в принципе, пусть даже извлечение таких сложных сведений из мозга — дело далекого будущего. Главное здесь то, что в теории схемы внимания сознание не обречено навеки оставаться исключительно частным и личным опытом. “Я знаю, что у меня есть сознание, но никогда не смогу узнать, есть ли оно у тебя” — это неправда. Узнать, считает ли чей-то мозг, что у него есть сознание, такое же как у меня, — это вопрос развития технологий для считывания из него информации.

Если вместо биологического мозга перед нами искусственный интеллект, то должно быть намного проще “заглянуть под капот” и измерить сознание. Инженерам нужна будет возможность подключиться к сделанной человеком машине и измерить ее информационное содержание — раз уж у нас есть для этого инструменты много лучшие, чем для подключения к мозгу (да к тому же у кого-нибудь наверняка найдутся чертежи этой машины).

Путаница начинается, когда люди спрашивают: “Я понимаю, что вы можете измерить информацию, но как вы определите, есть ли у машины то самое внутреннее чувство? Только машина может переживать опыт своего сознания, а раз так, кто, кроме машины, может о нем знать?” Такой вопрос возникает, когда ваше мышление спрашивает совета у вашей же схемы внимания. Она говорит вам, что вы обладаете личным, глубоко индивидуальным, нематериальным ощущением, доступ к которому есть только у вас. Но наша гипотетическая машина содержит все те же элементы, что и вы, — в том числе схему внимания, содержащую подобную информацию. Посоветовавшись со своей схемой внимания, машина тоже “поймет”, что у нее есть глубоко индивидуальное, личное, нематериальное ощущение. И вы, и машина созданы одинаковым образом и попадаетесь в одну и ту же логическую ловушку. Вы знаете лишь то, что знаете, и можете сообщать лишь ту информацию, что содержится в вас, — но эту информацию теоретически может считывать и кто-то другой.

Я хочу сказать, что на вопрос, не имеющий, казалось бы, ответа, — как мы можем понять, есть ли у машины сознание? — в принципе, может найтись достоверный ответ, когда у нас будет правильное оборудование для добычи информации. Нам нет нужды полагаться на тест Тьюринга, который в лучшем случае действует не напрямую, а в худшем — вообще не имеет отношения к проблеме сознания.

В оставшейся части этой главы я рассмотрю практические соображения постройки обладающей сознанием машины с использованием теории схемы внимания в качестве руководства. Нам нужны четыре составляющие. Во-первых, у машины должно быть искусственное внимание — способность сосредоточивать свои ресурсы и переключаться, глубоко обрабатывая сначала один предмет, затем следующий. Во-вторых, машине требуется схема внимания — внутренняя модель, которая в общих чертах описывает внимание и таким образом сообщает машине о наличии субъективного сознания. В-третьих, машине необходим адекватный диапазон информационного содержания. У нас может быть машина, которая осознает, например, только зрительную информацию (скорее всего, первая попытка будет именно такой), но со столь ограниченным диапазоном эта машина вряд ли сможет сойти за человека. В идеале она должна располагать намного более обширным содержанием. В-четвертых, машине нужна сложно устроенная поисковая система, которая умеет обращаться к внутренним моделям и беседовать о них, — чтобы мы могли поговорить с машиной и она была бы в состоянии сообщить нам о своем сознании. Если мы сможем выстроить эти четыре компонента, у нас будет машина, обладающая чем-то вроде человеческого сознания.

Давайте коротко рассмотрим эти компоненты по очереди и выясним, насколько они реализуемы на сегодняшний день.

Первый компонент — внимание. Машина должна уметь сосредоточивать ресурсы обработки информации и переключаться с предмета на предмет — с яблока на пончик, с него — на человека в углу комнаты, а с того — на внутреннее явление, например всплывшее воспоминание.

В каком-то виде искусственные устройства уже обладают вниманием. Планомерное управление ресурсами — стандартное свойство любого современного компьютера. К тому же многие исследователи описали или построили вычислительные модели — компьютерные симуляции, — которые воспроизводят различные аспекты внимания, подобного человеческому.

Но чтобы сделать сознающую машину, нам потребуется особый вид внимания — однако этого еще никто не достиг. Человеческое внимание обладает специфическими свойствами. Будучи сосредоточенным на предмете, оно позволяет подробно обработать этот предмет и извлечь из него глубинное значение. Использование внимания помогает вам определить аффордансы предмета: можно ли его схватить, пнуть, укусить? Внимание предоставляет и возможность действовать, а именно — принимать решения о том, что делать с предметом. Оно позволяет сохранить его в памяти и вернуться к нему позже. Динамика внимания означает, что более громкие и яркие стимулы умеют перехватывать фокус обработки информации, но в то же время внимание не полностью подчинено капризам среды — оно подчиняется и вам, причем так, что внутреннее указание может перенести внимание с предмета на предмет. А главное, внимание способно легко переключаться между разными модальностями информации. К примеру, оно может направляться на определенные места в пространстве (это основное свойство внимания, воплощенное в искусственных системах на данный момент), либо же сосредоточиваться на цвете, движении, вкусе, осязании давления или даже на чем-то внутреннем — воспоминании или мысли.

В мире искусственного интеллекта я до сих пор не встречал ничего подобного такой сложности внимания. Одна из причин в том, что искусственный интеллект, как правило, сосредоточен на одной модальности. Возьмем, например, систему искусственного распознавания лиц: это важная функция, которую можно применять различными способами, но в основном она обходит вопрос внимания стороной. Направить камеру на лицо, которое вы хотите идентифицировать, умеет и простая версия пространственного внимания, а затем свою работу делает уже алгоритм распознавания. Данной специфической машине в принципе не требуется переключать фокус внимания между различными модальностями информации — с лиц на звуки, со звуков на мысли: она работает исключительно в границах сферы распознавания лиц. В сущности, эта система не имеет отношения к вниманию, разве что в самом тривиальном, очевидном смысле наведения взгляда на цель. Искусственное внимание технически возможно, и многие специалисты работают над ним, но до сих пор оно не обрело межмодальной связности, подобной той, что присуща человеческому вниманию. Первый компонент сознающей машины не стоит на месте, но ему предстоит еще развиваться и развиваться.

Второй компонент, необходимый для машины, — схема внимания, ключевая внутренняя модель, которая в общих чертах описывает внимание и таким образом сообщает машине о наличии сознания.

Один мой коллега как-то сказал, что у любого стационарного компьютера давно уже имеется что-то вроде схемы внимания — комплекс информации, который отслеживает распределение ресурсов обработки. Получается, что, согласно моей теории, любой компьютер уже обладает сознанием. Другой коллега пообещал запросто запрограммировать всю мою теорию за полдня. Он мог бы состряпать искусственную версию зрительного внимания, подсоединить ее к модулю, который отслеживает его изменения, — и вуаля, если я прав, устройство должно начать осознавать себя. Группа коллег и в самом деле создала устройство искусственного внимания со схемой внимания, которая помогала этому устройству отслеживать внимание и управлять им. Как и ожидалось, внутренняя модель поспособствовала тому, чтобы сделать управление вниманием более эффективным, — но стала ли машина осознавать себя?

Я практически уверен, что нет. Ни один из приведенных примеров не свидетельствует о наличии сознания. Схема внимания — не магический талисман, который можно засунуть в компьютер, чтобы оно возникло. Это пакет информации. Если пакет несет простое сообщение вроде: “Переменная А — в допустимых пределах” и если машина может вербализовать эту информацию — она не скажет вам: “Я переживаю сознательный опыт!”, она расскажет только о переменной А. Во взаимоотношениях схемы внимания с сознанием нет никакой магии. Если схема внимания сообщит машине о наличии сознания, то машина получит информацию о том, что у нее есть сознание.

Человеческая схема внимания формировалась сотни миллионов лет в ходе эволюции, и ее содержание — довольно странное, биологически неоднородное, “комковатое”. Она описывает внимание как незримое свойство, как разум, который может переживать или вбирать в себя объекты, как силу, которая позволяет человеку действовать и помнить, как нечто не имеющее собственного физического воплощения, но существующее внутри человека в виде его личного опыта. Схема внимания — не просто указатель на предмет, не просто пара строк кода. Она рисует глубокую картину внимания и его предсказуемых последствий. Постройте машину, обладающую схемой внимания такого же типа, содержащую странные, биологически беспорядочные “комки”, как у настоящей, — и получите машину, которая подобным человеку образом сможет утверждать, что обладает сознанием. Для построения искусственной схемы внимания нет принципиальных технологических препятствий. Вероятно, это самый простой (и уж точно самый подробно описанный) из всех необходимых в машине компонентов.

В качестве следующего компонента сознающей машине понадобится содержание. Пожалуй, конструирование богатого и разнообразного содержания сознания — самая сложная задача, поскольку она не имеет конечного решения. Ирония состоит в том, что описанная выше пресловутая трудная проблема (сделать так, чтобы машина хоть что-то осознавала), скорее всего, окажется самой простой, а простая проблема (дать машине широкий диапазон материала для осознания) может оказаться самой трудной. Думаю, что усилия, направленные на создание искусственного сознания, начнутся с обработки сенсорной информации, особенно зрительной, — поскольку мы очень много знаем о работе сенсорных систем в мозге и об их взаимодействии с вниманием. Но мне кажется, что все мы отнесемся с некоторым скепсисом к машине, которая сможет осознавать черную точку на экране и ничего больше. Это будет полезным лабораторным тестом, но мы не станем считать такую машину функционально сознающей.

Даже если нам удастся заставить машину осознавать широкий диапазон сенсорной информации, в конечном итоге она должна суметь выйти за границы чувств и включить в свое сознание абстрактное мышление. И здесь инженерные проблемы усугубляются. Мы не очень много знаем о том, как абстрактное мышление взаимодействует с механизмами внимания и осознания. Мы знаем, что человек может обращать внимание на определенную мысль, удерживать ее в уме и сосредоточивать на ней ресурсы за счет других возможных мыслей — и даже оттягивать на нее внимание от обработки сенсорной информации. Нам всем случалось так задумываться, что мы переставали замечать происходящее вокруг нас, во внешнем мире. Но наука о мозге еще не разобралась, как внимание к абстрактным мыслям работает на механическом уровне. Может быть, только через десятки лет мы сможем придумать, как построить машину, обладающую такими способностями.

Но подозреваю, что самым крепким орешком окажутся эмоции. Эту область информации в мозге мы понимаем хуже всего. Самое большее, что можно о ней сказать, — это что мы определили местоположение некоторых связанных с эмоциями мозговых структур. Иногда люди называют их эмоциональной сетью, или эмоциональной кругом, но детальное понимание функционирования этой системы отсутствует.

Одна из важнейших в этом смысле областей мозга — гипоталамус, структура размером с лесной орех в основании мозга. Более ста лет назад швейцарский психолог Вальтер Гесс открыл, что, если ввести в гипоталамус электрод и для активации нейронов пустить по нему очень слабый ток, можно вызвать то, что для стороннего наблюдателя выглядит как определенные эмоциональные состояния. Его эксперименты воспроизводились множество раз. Страх, гнев, похоть, голод — всех этих состояний удается добиться, стимулируя различные точки в гипоталамусе.

Еще один центральный процессор эмоций в мозге — миндалина, структура размером с ядро этого ореха. Их две, по одной в каждом полушарии мозга, и они активируются, когда мы переживаем эмоции, особенно когда определенная эмоция ассоциируется с конкретной ситуацией или зрительным образом. Когда вы злитесь, глядя на ненавистного политика, это именно миндалина связывает зрительное восприятие с эмоциональным переживанием. Еще одна область мозга, играющая важную роль в эмоциональном опыте, — орбитофронтальная кора, это самая нижняя часть префронтальной коры, расположенная за костью глазниц. Она участвует в принятии решений, основанных на эмоциональном содержании. Все эти факты нейронауки удивительны, но очень мало говорят нам о том, как построить искусственные эмоции или как их встроить в механизмы внимания и осознания.

Подсказку можно найти в опыте, который есть у любого человека, — переживании эмоций вне сознания. Мы обычно не рассматриваем их как нечто, существующее отдельно от сознания, но такое все же возможно. Вот пример из повседневной жизни — вы ощущаете, скажем, напряжение, возбуждение, стресс или гнев, но не слишком сильные, и не осознаете их. И только когда друг скажет вам: “Ну и состояньице у тебя сегодня!”, вы перенаправите свое внимание — и осознание — и поймете: “Ничего себе, а я и правда напряжен”. Кто-то осознает свои эмоции лучше, кто-то — хуже, но всем случается генерировать их, не осознавая того. Любая теория эмоционального опыта должна учитывать такое расхождение между эмоциональным состоянием и осознаваемым переживанием опыта.

Нейробиолог Джозеф Леду, основываясь на своих новаторских изысканиях, касающихся обработки эмоций в мозге, сформулировал элегантное представление об их осознании. Эмоциональные состояния организованы вне сознания, в структурах в глубине мозга, ниже коры — в только что упомянутых гипоталамусе и миндалине. Для осознания своего эмоционального состояния нам необходимо, чтобы данные из этих глубинных структур достигли корковых систем, в которых они интегрируются с когнитивной информацией о сознании. Согласно этой гипотезе, осознание эмоций состоит из двух частей: данных, определяющих эмоциональное состояние, и данных, определяющих сознание. Мозг может обработать сложный комплекс информации “я осознаю свою эмоцию” точно так же, как “я осознаю яблоко”.

Но, даже пользуясь этим представлением, проектирующий нашу машину инженер не сможет ответить на вопрос: “Какая информация определяет эмоции?” Ответа и впрямь не знает никто.

Но и здесь есть подсказка. Ее можно обнаружить в знаменитой теории эмоций, которую предложили психологи XIX в. Уильям Джеймс и Карл Ланге. Согласно теории Джеймса — Ланге, эмоция начинается с телесного ощущения. Сердцебиение ускоряется, желудок выделяет кислоту, кожа покрывается холодным потом — и тогда, заметив эти телесные изменения и изучив контекст, мозг создает сюжет: “Я встревожен” или “Я взволнован”. Одна из лучших демонстраций этого эффекта — известный эксперимент, проведенный в 1970-х гг. на мостах в канадском Ванкувере. В данном исследовании женщина обращалась к пешеходам-мужчинам с просьбой ответить на несколько вопросов. Некоторых мужчин останавливали прямо в середине шаткого подвесного моста над глубоким каньоном. Других — на небольшом и устойчивом деревянном мосту. Потом испытуемых спрашивали, насколько привлекательной им показалась женщина-интервьюер. Мужчины, которых останавливали на опасном мосту, оценивали женщину как более привлекательную, а те, что отвечали, стоя на надежной конструкции, — как менее. Предположительно, подвесной мост вызывал ускорение сердцебиения и холодный пот — и эти изменения ошибочно приписывались сексуальному возбуждению.

Современная психология отчасти признает теорию Джеймса — Ланге. Некоторые составляющие эмоций коренятся в физических ощущениях тела, но другие связаны со сложными высокоуровневыми репрезентациями, и эти компоненты взаимодействуют замысловатым и плохо изученным образом. Хотя упомянутая теория не полностью соответствует действительности, она поднимает ряд любопытных вопросов об эмоциях машин. Понадобятся ли андроиду желудок, потовые железы и сердце, чтобы переживать эмоции подобно человеку? Могут ли возникать настоящие эмоции у машины, если она никогда не узнает вкус пищи и не прочувствует пищеварение, а в ее теле ни разу не поднимется адреналиновая волна, заставляющая бороться или убегать? Лично я подозреваю, что в машине могут происходить процессы очень похожего характера, пусть и не полностью идентичные человеческим эмоциям. Возможно, чтобы дать эмоциям машины физический субстрат, придется оснастить ее сенсорами по всему телу.

В первых опытах искусственного сознания, скорее всего, убедительных эмоций ждать не придется. Может быть, машинам удастся воспроизвести эмоциональную окраску голоса, но им потребуется еще немало времени, чтобы освоить более глубокий уровень эмоций и способы их отображения в человеческом мозге. А пока что нас ждут гораздо более простые задачи. Голливудский стереотип безэмоционального андроида еще на какое-то время останется верным.

Четвертый и последний компонент, без которого не обойтись сознающей машине, — говорящая поисковая система. Мы хотим создать такое устройство, которое сможет болтать с нами о своем сознательном опыте. Строго говоря, способность разговаривать не является необходимой для сознания, но, мне кажется, большинство людей полагают, что цель искусственного сознания — машина, подобная человеку по своей способности говорить и понимать. Мы хотим, чтобы она могла поддержать беседу.

Представляется, что эта часть проблемы уже решена — у нас есть цифровые помощники, например Сири и Алекса. Они могут понять произнесенный вслух вопрос, порыться в базе данных и ответить. Разве этого недостаточно, когда мы хотим, чтобы машина вела разговоры о своих внутренних состояниях? Но проблема наша обманчива и каверзна. Сири в основном действует в языковой сфере. Вы скармливаете ей слова, она ищет в интернете другие слова и в ответ выдает опять же слова. Но вы не получите ответа на вопрос, где ближайший ресторан — Сири не знает, что такое ресторан, кроме как в составе статистической группировки слов. А человеческий мозг может переводить речь в невербальную информацию и обратно. Если кто-то спросит вас: “Каков вкус лимона по сравнению с апельсином?” — вы ответите не так, как интернет-поисковик. Ваш ответ будет основан не на словесных ассоциациях. Вы переведете речь во вкусовую информацию, вспомните два вкуса, сравните их и переведете ответ обратно в слова. Такой банальный для нас перевод туда-обратно между речью и другими сферами информации невероятно трудно воспроизвести искусственно. Насколько мне известно, для этой задачи еще не нашли общего или системного решения. Гугл способен до некоторой степени переводить информацию из зрительных образов в слова, но нашей сознающей машине придется сопоставлять информацию из всех возможных сфер.

Все это звучит весьма многообещающе, но путь очень сложен — так насколько же близко мы подошли к сознающим машинам на самом деле?

Первые образчики машин, обладающих сознательным восприятием зрительной информации, — в которых есть и внимание, и схема внимания, причем оба элемента направлены на визуальную информацию, — могут быть построены уже в ближайшие десять лет. Думаю, что для создания машин, содержащих столь же обширный диапазон разнообразной информации, как в человеческом сознании, потребуется больше времени. Изготовление устройства, которое способно видеть, слышать, осязать, чувствовать вкус, мыслить абстрактно и производить эмоции, которое умеет координировать эти сферы между собой и внутри каждой из них при помощи единого интегрированного фокуса внимания и которое может говорить обо всем этом диапазоне содержаний, — весьма долговременный проект. Буду удивлен, если мы получим что-то хотя бы приближающееся к этому в течение следующих 30 лет (мой прогноз — это займет порядка 50 лет). Но мне и раньше случалось удивляться, а технологии развиваются с ошеломляющей скоростью.

Люди мечтали о разумных роботах с тех пор, как появились механические технологии. В “Илиаде” Гомера, написанной почти 3000 лет назад, упоминаются самодвижущиеся треножники, которые изобрел бог Гефест. Пятьсот лет назад Леонардо да Винчи разработал и, возможно, построил механических роботов для развлечения своих покровителей. Сегодня всем нам знакомы HAL 9000 Стэнли Кубрика из фильма “2001: Космическая одиссея” и C-3PO Джорджа Лукаса из “Звездных войн”. Относительно недавний фильм Алекса Гарленда “Из машины” целиком посвящен тому, как люди могли бы взаимодействовать с разумными роботами. Обладающие сознанием машины так долго занимали умы людей, что, если увидеть, сколь близко мы подошли к их появлению в нашей жизни, становится жутковато. Вспоминается поговорка: “Будь осторожен в своих желаниях”.

Пока в нашем распоряжении нет готовой культурной модели того, как нас могут изменить сознающие машины. Научная фантастика зачастую предвосхищает технические приспособления будущего, но предсказать их социальные последствия оказывается несколько сложнее. Например, никто не мог предвидеть, какой переворот в обществе произведут сотовые телефоны. Вначале мы думали, что они просто заметно облегчат нам жизнь — подобно микроволновым печам, но постепенно они превратились в третье полушарие человеческого мозга. Смартфоны перестроили наш политический, экономический и социальный мир. Поэтому вот единственный прогноз, который я могу сделать с абсолютной уверенностью, — никому не удастся столь же уверенно предсказать социальные последствия появления машин, обладающих сознанием.

Наша научная фантастика пытается нарисовать картину будущего с искусственным сознанием, но сомневаюсь, что эта картина окажется сильно приближена к реальной. В “Звездных войнах” сознающие машины, похоже, не добавляют обществу слоя этических проблем. Они всего-навсего второсортные граждане, обслуживающий персонал, покорные и умелые рабы, милые, но легко заменимые — с ними обычно обращаются даже менее уважительно, чем с домашними животными. Следует ли относиться к разумным машинам именно так — или же им полагаются моральные права? Эту проблему и затрагивает знаменитая повесть Айзека Азимова “Двухсотлетний человек”. Раз разумные машины создаем мы, есть ли у нас право управлять ими и убивать их? Тот же этический вопрос поднимается в фильме “Бегущий по лезвию”, снятом по рассказу Филипа Дика. Писатели, режиссеры, ученые и философы ломают головы над этими вопросами, не находя ответов. Чтобы разработать прикладные этические правила, нам, возможно, придется дождаться постройки поистине человекоподобного искусственного сознания. Проблемы, скорее всего, будут выглядеть не так, как их описывает научная фантастика — в ней обычно замаскированы размышления о трудностях, стоящих перед нами сегодня. Трудности завтрашнего дня могут оказаться неузнаваемо другими.

Пожалуй, главная грозная неопределенность состоит не в том, хорошо или плохо мы будем обращаться с сознающими роботами, — а в том, как будут обращаться с нами они. Обладающие сознанием роботы стали типичными для апокалиптических сценариев. В “Терминаторе” Скайнет пытается всех нас убить. В “Матрице” машины порабощают нас. Но опять же — это все научная фантастика, не реальность.

Может быть, из-за того, что мы переели научно-фантастических историй, мало кто понимает идею сознающей машины правильно. Большинство предполагает, что сознание будет включаться в машине по щелчку тумблера: машина внезапно пробудится, начнет осознавать себя как независимого деятеля, отдельного от остального мира, и немедленно устремится к удовлетворению своих собственных интересов. Она может начать убивать людей, потому что они конкурируют с ней за ресурсы. Машины с такими способностями привели бы к трагедии для человечества. Но плохая новость на самом деле вот в чем. Сверхразумные, автономные, активные машины, которые принимают решения и учитывают свои интересы, уже здесь (по крайней мере, их первые представители), и они стремительно умнеют с каждым днем. Им не нужно сознание, чтобы прийти к выводу, что люди — препятствия на их пути, и поубивать нас. Беспилотный грузовик, имеющий собственную программу действий, может переехать вас — и вы будете в любом случае мертвы независимо от того, получит ли грузовик субъективный опыт хлюпающего звука под его шинами.

Для меня как исследователя сознания вопрос стоит так: что произойдет, если мы добавим дополнительный элемент — модель себя, которая сообщит машине, что подобно тому, как у нее есть субъективный опыт, у других он тоже может быть? Как это изменит социальный баланс? Думаю, что после этого будущее с разумными машинами станет более обнадеживающим.

Люди — всецело социальные животные. Это определяет нас как биологический вид. Но у человека не может быть социальной компетентности без понимания того, что такое сознание, и без способности интуитивно приписывать его другим людям. Способность эта позволяет нам признавать разумность других, понимать мысли и чувства друг друга, тщательно подбирать верные реакции. Это объединяющий людей социальный клей, корневая система социума и сотрудничества.

Представьте себе мир, в котором люди утратили это глубинное, основанное на моделях знание о сознании. Вместо него в нас встроили альтернативную схему. Мы не впали в безразличие подобно людям с тяжелыми повреждениями мозга. Мы все так же в состоянии действовать как автономные существа, учиться, учитывать свои интересы и принимать разумные решения, но все это мы делаем без малейшего понятия о сознании. Мы становимся независимыми сущностями, у каждой из которых есть собственные интересы, а с другими людьми обращаемся как с объектами. Нам не удается по-настоящему сотрудничать, хотя и хватает ума догадаться, что сотрудничество дает преимущества, — но мы больше не способны понимать, что у других людей есть сознание, а значит, и не можем угадывать психические состояния друг друга или координировать наши мысли, цели и действия. Убийство становится столь же обыденным, как отодвигание с дороги препятствия, потому что теперь мы неспособны понять ценность чужого сознания. Мы превращаемся в цивилизацию умных, целеустремленных монстров.

Так выглядит мир несознающих, но умных машин, и этот мир мы создаем прямо сейчас. Я бы предпочел жить в мире машин, которые знают, что такое сознание, и могут приписать его и мне, и другим людям, — равно как сегодня я благодарен за то, что живу в мире, где сознание могут приписывать друг другу люди.

Я не утверждаю, что сознание — чудотворный компонент, и стоит только добавить его в машину, как она станет вести себя этично. Всем известно, что среди нас есть и люди-человеконенавистники, социопаты и агрессоры. Все они обладают сознанием и, наверное, знают, что те, кому они причиняют боль, тоже сознательны. Но это потерянные кусочки огромной мозаики. Они всегда в меньшинстве, поскольку человечество по сути своей — просоциальный биологический вид. Каждый раз, входя в супермаркет, я полагаюсь на то, что окружающие будут более-менее соответствовать социальной матрице. Эволюция дала нам несовершенное, но статистически довольно неплохое решение проблемы социальной слаженности. Именно наше гиперсоциальное мышление удерживает человечество на плаву и отличает нас от менее сговорчивых и более враждебных биологических видов. У этой способности, скорее всего, много разных источников, но она была бы невозможна без внутренней модели, сообщающей нам, что сознание есть и у нас, и у других.

Раз уж мир гонится за созданием машин, подобных человеку разумом и автономностью, а то и превосходящих его по этим параметрам, мне кажется, нам стоило бы дать этим машинам и какие-нибудь очеловечивающие их черты, чтобы у них был шанс интегрироваться с нами. Почему бы не попробовать то же решение проблемы социального сотрудничества, которое эволюция нашла для нас? Если теория схемы внимания верна, то создание искусственного сознания — один из самых полезных шагов, которые мы можем сделать, чтобы снизить технологические риски, грозящие нам в будущем.

Назад: Глава 7. Трудная проблема и другие точки зрения на сознание
Дальше: Глава 9. Перенос личности на искусственные носители

waycle
davidson county health department ventolin hfa 90 mcg inhaler cost without insurance list inhalers for asthma ventolin hfa inhaler side effects