Проведем мысленный эксперимент. Наша цель — продумать, как построить машину, которая, увидев яблоко, сможет осознать, чтó она видит. У этого упражнения два возможных практических применения. Во-первых, оно окажется чем-то вроде учебника теории схемы внимания и, в частности, поможет в простейшей форме описать логические основания теории. Во-вторых, это упражнение укажет инженерам общий план действий в направлении искусственного сознания — на что я очень надеюсь.
Я часто привожу яблоко в пример: оно обладает понятными видимыми чертами — простой формой и ярко выраженным цветом. Оснастим нашу машину глазом-камерой и мозгом-компьютером и попробуем узнать, что такого нужно встроить в ее искусственный мозг, чтобы он заявил о наличии субъективного осознанного опыта яблока. У мысленного эксперимента есть ограничение: все, что мы добавляем к гипотетической машине, должно быть доступно для постройки. Некоторые элементы, вероятно, уже имеются в продаже. Другие еще не разработаны, но если они выглядят правдоподобно при современном состоянии технологий, то можно включить и их.
Я представлю три различных версии машины, каждая будет чуть более продвинутой, чем предыдущая, а при описании последней версии приведу доводы о том, что машина обладает, в сущности, таким же сознанием, как человек. Я не имею в виду, что машина живет богатой внутренней жизнью. У нее не будет осознания себя, не будет эмоций, воображения или целей. Она сможет осознавать лишь одно: яблоко. Но даже этот крошечный шаг сам по себе укажет направление работы для создания сознания с расширенным содержанием.
На рис. А.1 наш робот смотрит на яблоко. Ячейка над головой робота отображает информацию, имеющуюся в устройстве, и на этой первой схеме в ячейке содержится только один элемент: зрительная информация о яблоке.
Зрительная обработка данных — одна из самых изучаемых областей нейробиологии. На сегодняшний день зрительная система человека в общих чертах обрисована, хотя и остается множество невыясненных загадочных подробностей. Все, что нам требуется знать для проекта “создай мозг”, — это что уже были прецеденты постройки искусственных зрительных систем, пусть и ограниченных и упрощенных по сравнению с той, которая действует в человеческом мозге. Давайте наделим нашего робота способностью вобрать зрительный образ через глаз-камеру и составить обширный, подробный комплекс информации о яблоке. Искусственная зрительная система сводит воедино данные о цвете, форме, размере и расположении яблока, создавая нечто вроде досье — комплекса информации, который постоянно меняется по мере поступления новых сигналов. Этот пакет данных иногда называют внутренней моделью. Можно представить ее себе как имитацию яблока.
В реальном, биологическом мозге эти имитации не очень достоверны. Если бы мозг строил подробные, научно точные описания яблок, это было бы пустой тратой энергии и вычислительных ресурсов. Скажем, цвет яблока отчасти достраивается мозгом. В действительности яблоко обладает не цветом, а спектром отражения. Глаза и мозг упрощают этот спектр и присваивают яблоку цвет. Но это, скорее, карикатура на цвет — для простоты и быстроты обработки. Для выживания важна оперативность. Вы явно не захотите заниматься настолько тщательным моделированием, что не сумеете вовремя среагировать на мир.
Все, что я описал выше, не нарушает ограничения, упомянутого в начале раздела. Раз у нас есть камера и компьютер, нам удастся построить систему, изображенную на рис. А.1. Но сможет ли наш робот осознать яблоко?
В каком-то смысле, да. Как я уже говорил, исследователи сознания иногда пользуются термином “объективное осознание” для обозначения того, что информация попала внутрь и обрабатывается. Да, машина с рис. А.1 объективно осознает яблоко. В ней есть эта информация.
Но осознает ли она его субъективно? Есть ли у нее субъективное переживание круглости, красноты и блеска — такое, какое было бы у вас, рассматривай яблоко вы? Некоторые ученые будут утверждать, что да — сознание это ощущение, возникающее при обработке информации. Поскольку машина обрабатывает яблоко, она по определению осознает его субъективно. Я называю такие теории “сопряженными с информацией”: сознание — неизбежный побочный эффект обработки данных подобно тому, как тепло — побочный эффект электрических сетей. Исходя из этой точки зрения, если построить вычислительную машину, то обязательно возникнет сознание. Если это так, у нас все готово. Мы успешно спроектировали сознающую машину, хотя сознание так и осталось необъясненным.
Но мне не кажется, что машина готова. Чтобы доказать это, давайте спросим самого робота. Раз уже мы проводим мысленный эксперимент по конструированию мозга, то кто нам мешает встроить в него и лингвистический интерфейс, поисковик вроде Сири (на рис. А.1 он обозначен как когнитивно-лингвистический интерфейс). Он получает вопросы, ищет ответы по доступной внутри машины базе данных и сообщает результат поиска. Поскольку такой интерфейс вполне реально создать на основе сегодняшних технологий, нам “позволено” включить и его в нашу машину, хотя это новое для него применение.
Мы спрашиваем машину: “Что это?”
Машина: “Яблоко”.
Мы: “Какие у яблока свойства?”
Машина: “Оно круглое, красное, блестящее, сверху вмятина, лежит там-то”.
Робот может ответить на эти простые вопросы, поскольку содержит нужную информацию. Более того, его ответы насыщенны и гибки, потому что его знание о яблоке основано на модели, а модель, к которой он обращается, — обширное, если не полное, описание яблока. И вот у нас есть машина, которая в состоянии взглянуть на яблоко, обработать данные о нем и сделать конкретные касающиеся его утверждения. Такую машину еще вполне возможно построить в сегодняшних реалиях.
И тем не менее в качестве теории сознания рис. А.1 чего-то не хватает. Чтобы доказать это, зададим машине очевидный последний вопрос: “А ты осознаешь это яблоко?”
Поисковая система обращается к внутренней модели, но не находит ответа. Она находит кучу информации о яблоке и никаких данных об осознании — что это такое и есть ли у машины это загадочное свойство. У машины попросту нет данных о себе самой. Мы ведь ее спросили: “Осознаешь ли ты яблоко?”, а ей не хватает информации о том, что такое это “ты”. Наш вопрос не имеет для машины смысла. В лучшем случае она ответит: “Ошибка вычислений”. С тем же успехом мы можем спрашивать цифровую камеру, осознает ли она фотографию, которую только что сделала. Ничто из того, что мы уже вложили в машину, не приведет ее к утверждению о наличии сознания.
Я принимаю это как постулат базовой логики: машина для обработки данных не может сделать утверждение — не может выдать информацию, — если в ней не содержится информация, которую она утверждает. Машина на рис. А.1 не содержит информации о том, что такое сознание, и уж подавно о том, что она что-то осознает. Нельзя наивно надеяться, что, вложив в машину сложность, мы получим от нее утверждение о сознании. Имея лишь те компоненты, из которых мы ее построили, машина не может содержать информацию о, скажем, зебрах, и поэтому не способна взять и заговорить о зебрах. С инженерной точки зрения лелеять надежду, что машина проснется и заявит: “Я сознаю” — это нарушение логики. Нам придется вложить в машину больше данных, чтобы расширить диапазон возможных ответов.
На рис. А.2 изображена следующая версия нашего проекта “создай мозг”. Сюда я добавил вторую внутреннюю модель: модель себя. Она тоже состоит из данных, которые собираются в мозге. Эта информация может описывать физическую форму и структуру тела — уже упоминавшуюся схему тела. Она способна включать в себя и автобиографические воспоминания, которые играют важную роль в любой психологической модели себя. Нам известно, что человеческий мозг содержит что-то вроде модели себя — скорее всего, очень сложной и распределенной по многим его областям. Мы имеем право дать нашему роботу модель его самого, поскольку техническая возможность предоставить ему некий произвольный комплект информации вполне доступна.
Теперь спросим улучшенную машину: “Кто ты? Расскажи о себе”.
Со своей новой внутренней моделью робот располагает необходимой для ответа информацией. Он скажет: “Я металлическая личность ростом 1 м 80 см, мои руки сгибаются в локтях и плечах, я родился в лаборатории, пять дней назад у меня был день рождения…” Поисковая система умеет обращаться к информации во внутренней модели себя и выдавать ее наружу. Некоторые данные могут касаться самой машины, а другие — описывать события в прошлом, которые помогают определить ее.
Появилось ли у этого робота сознание? Кто-то скажет, что да. Во многих теориях сознание приравнивается к знанию о себе. Некоторые ученые, разделяющие подобные взгляды, сосредоточивают внимание на схеме тела. С их точки зрения, базовое, примитивное сознание — это знание о физическом “я” и его движениях. Я знаю, что мои части тела принадлежат мне, они часть меня и принципиально отличаются от других предметов вокруг меня. Я знаю свое расположение в пространстве: я существую здесь. Я знаю свою точку зрения: я вижу, слышу и понимаю мир со своей физической колокольни. Другие исследователи обращаются к абстрактному, психологическому знанию о себе. Исходя из их позиции, я обладаю сознанием, поскольку знаю свой жизненный путь, знаю свои интересы и мотивы. Я могу составить последовательное изложение, объясняющее, кто я такой и почему делаю то, что делаю.
Машина, изображенная на рис. А.2, многое знает о себе. Технически ничто не препятствует вложить в нее сколько угодно этого знания, и я, бесспорно, соглашусь, что оно важно для сознания. Но опять же мне кажется, что и эта схема неполноценна. Чтобы доказать это, спросим машину: “А каковы мысленные взаимоотношения между тобой и яблоком?”
И тут машина залипнет. Поисковая система отправит запросы обеим внутренним моделям, получит гору информации о машинном “я”, отдельно от этого — не меньшую гору о яблоке, но никаких данных не получит о мысленных взаимоотношениях между ними и даже о том, что такое эти мысленные взаимоотношения. Поисковик в принципе не сумеет понять вопрос. С той оснасткой, которую мы ему выдали, робот на этот вопрос ответить не в состоянии. Он не может утверждать, что осознает яблоко, сознание к нему вообще не применимо.
Преимущество внутренних моделей заключается в том, что они отслеживают и предсказывают важные явления в мире. Мир нашего робота содержит два очевидных явления: яблоко и его самогó. Вот мы и дали роботу две внутренних модели: модель яблока и модель себя. Но мы упустили третье, неочевидное явление из его мира: вычислительные взаимоотношения робота и яблока. Чтобы у робота было полноценное описание его мира, нужно встроить в него третью внутреннюю модель — модель его собственных процессов зрительного внимания.
Человеку зрительное внимание необходимо, поскольку перед ним, как правило, оказывается слишком много предметов — это могут быть яблоко, тарелка, стул, стол, сотни других: невозможно обработать их все с достаточной глубиной. Мозг вынужден расставлять приоритеты и в одно время сосредоточивать ресурсы только на небольшой выборке. В этот конкретный момент лишь несколько предметов побеждают в соревновании: их внутренние модели орали достаточно громко, чтобы повлиять на системы по всему мозгу. Объекты, оставшиеся без внимания, по сути, не обрабатываются — мы даже не замечаем их присутствия, зато то, на что внимание было обращено, обрабатывается как следует. Мозг умеет извлекать подробности и смыслы из этого избранного и решать, как ему реагировать.
Иногда люди пользуются словом “внимание” в разговорном смысле, имея в виду единственный предмет, на котором сосредоточен их интерес. Например, мой интерес может быть сосредоточен на разговоре, которому я посвящаю основную часть мысленных ресурсов, а яблоко, которое я одновременно с этим ем, не имеет для меня особого значения. Но этот термин в научном смысле более широк. Исходя из него, в приведенном примере внимание уделяется и яблоку, и разговору. Их репрезентации в мозге получают достаточно поддержки, чтобы подвергнуться глубокой обработке. В это же время мы не обращаем внимания на сотни других предметов, мыслей и сенсорных сигналов — мы даже не знаем об их существовании. Когда я говорю о внимании, я имею в виду более широкие взаимоотношения мозга и предметов, на которых он сосредоточивает свои ресурсы.
Зрительное внимание уже конструировалось искусственно, хотя получившиеся искусственные системы оказались намного проще своего биологического, человеческого прототипа. Поскольку машина со зрительным вниманием — это уже существующая и доступная технология, мы можем включить и эту функцию в проект “создай мозг”.
На рис. А.3 изображена третья и последняя версия робота. Здесь он направляет зрительное внимание на яблоко. Прошу вас заметить, что теперь у него три внутренние модели, обеспечивающие его полным описанием трех основных составляющих его мира. Первая модель относится к яблоку, вторая описывает его самого, а третья — тот самый незримый элемент, взаимоотношения внимания между “я” и яблоком. Эта модель внимания обозначается как “схема внимания” по аналогии со схемой тела, описывающей тело.
У нас есть довольно точное представление о том, какие данные должны быть в модели яблока и в модели себя. Но каким данным следует содержаться в модели внимания? Как она должна описать внимание, чтобы это можно было использовать?
Ее описание не может быть примитивным, на уровне: “Яблоко — это то, чему я уделяю внимание”, иначе модель окажется пустой, не более чем пунктирной линией между двумя другими моделями. Схеме внимания нужна информация о самом внимании — о том, что такое сосредоточивать его. Но, как и упрощенная внутренняя модель яблока, хорошая схема внимания не будет зря тратить ресурсы на данные о неважных для нее технических деталях. Для внимания настоящего мозга эти технические мелочи включают в себя нейроны, синапсы и соревнование между электрохимическими сигналами. В случае робота это провода, чипы и кремниевые логические вентили. То есть составные части механизма, о которых системе знать необязательно. Нашей машине нужно поверхностное, лишенное деталей, описание внимания, уделяемого ею яблоку. Она может описывать его как мысленное удерживание предмета, как способ захвата информации, познания ее и глубокого ее понимания. Или же как нечто, происходящее где-то внутри. Может она описать и некоторые предсказуемые последствия: внимание предоставляет способность реагировать, запоминать, принимать решения.
Теперь спросим машину, изображенную на рис. А.3: “Каковы мысленные взаимоотношения между тобой и яблоком?”
Поисковая система обратится к внутренним моделям и ответит на основе имеющейся информации. Она скажет: “Я мысленно удерживаю яблоко”.
Многообещающий ответ, но мы можем копнуть еще глубже. “Расскажи нам еще об этом мысленном удерживании. Какие у него физические свойства?” Чтобы удостовериться, что машина понимает вопрос, уточним: “Ты знаешь, что такое физические свойства?”
У машины есть схема тела, которая описывает ее физическое тело, и есть внутренняя модель яблока, которая описывает физический объект. Так что машина может сказать: “Да, я знаю, что такое физические свойства. Плотность, вес, импульс, прозрачность — это свойства предметов”. Но, основываясь на доступных ей данных, она возможно, поведает нам (при достаточном словарном запасе): “Мое мысленное удерживание яблока, мысленное удерживание как таковое — не имеет свойств, которые можно описать физически. Оно существует, но у него нет плотности, веса, импульса или прозрачности. Удерживание не существует в этих измерениях. Это нефизическая сущность. В каком-то смысле — метафизическая. Однако оно действительно имеет физическое местоположение — существует где-то внутри меня. Это часть меня — метафизическая часть, которая позволяет мне вбирать что-то умом. Я не просто обрабатываю информацию, что это яблоко красное: у меня есть мысленное удерживание красноты”.
Добавив схему внимания, мы создали машину, которая утверждает о наличии у нее сознания, подозрительно похожего на то, о наличии которого утверждает человек.
Мы сами построили робота и знаем, как он работает, поэтому все еще смотрим на это скептически. Устроим ему дополнительную проверку: “Спасибо за объяснение, но ты все-таки только машина — и конечно, будешь извергать подобную информацию. Ты просто обращаешься к внутренней модели, своей схеме внимания, и выдаешь информацию из нее. Мы, конечно, впечатлены, что твои основанные на модели знания позволяют тебе давать такие гибкие и богатые ответы на вопросы. Но ты же всего-навсего передаешь информацию, которая содержится в тебе”.
Услышав нашу претензию, поисковая система вновь обратится к внутренним моделям и не найдет ничего, подходящего под только что сделанное описание. Вспомните, эти внутренние модели слишком упрощены, чтобы четко сообщить нам, как в действительности работает машина. Поскольку ей доступна лишь ограниченная информация, то она отвечает: “Я ничего не знаю о внутренних моделях, информации или ее обработке. Вот что я знаю: яблоко здесь, я здесь и я владею осознанием яблока. Осознание само по себе — не физическое явление. И не вычисление, и не модель, чем бы они ни были. Это нефизическое свойство внутри меня, благодаря которому яблоко делается ярким, присутствующим для меня, и я могу на него реагировать”.
Машина не только утверждает, что у нее есть сознание, — она, как и большинство людей, отвергает механистическое его объяснение и верит в метафизическую теорию. Она так устроена, она в ловушке своих собственных внутренних данных. Полагаясь на интроспекцию (под этим я понимаю именно когнитивную поисковую систему, обращающуюся к внутренним моделям машины), она неизбежно будет приходить к тому же метафизическому самоописанию.
О зрительном восприятии машин известно, пожалуй, достаточно, чтобы построить примерно такую несложную систему с использованием сегодняшних технологий. Пока они не продвинутся вперед, выйти за пределы зрения будет сложно, но в принципе ту же самую логику уместно применить к любому явлению, с которым столкнется робот. Теоретически можно заменить яблоко звуком, прикосновением, воспоминанием, эмоцией или мыслью, что дважды два четыре. Можно схематически выстроить мысль: “Я осознаю себя”, или даже: “Я осознаю, что сознаю”. Осознание яблока — только начало.