Книга: Мозг: Ваша личная история
Назад: Требует ли сознание материальной основы?
Дальше: Сознание как эмергентное свойство

Может ли компьютер мыслить?

Можно ли компьютер запрограммировать таким образом, чтобы он обладал сознанием, разумом? В 1980-х гг. философ Джон Серл предложил мысленный эксперимент, который обращается к самой сути этого вопроса. Серл назвал его «Китайская комната».

Эксперимент устроен следующим образом. Я сижу в запертой комнате. Через узкую щель мне передают листки с вопросами на китайском языке. Я не знаю китайского. Я понятия не имею, что написано на этих листках бумаги. Но в комнате у меня есть библиотека с пошаговыми инструкциями, которые подробно объясняют, что делать с полученными символами. Я смотрю на символы и просто выполняю инструкцию из книги, в которой объясняется, из каких китайских иероглифов должен состоять ответ. Я записываю их и просовываю листок в щель.



В мысленном эксперименте «Китайская комната» человек в каморке манипулирует символами. Это вводит в заблуждение носителя языка, который думает, что человек в каморке знает китайский.





Когда человек, знающий китайский язык, получает мой ответ, записка кажется ему осмысленной. Создается впечатление, что тот, кто находится в комнате, должен понимать по-китайски – ведь он дает правильные ответы. Я обманул носителя языка, поскольку только выполнял инструкции, на самом деле не понимая, что происходит. Имея в своем распоряжении достаточно времени и достаточный набор инструкций, я могу ответить почти на все вопросы на китайском языке. Но я не понимаю китайского языка, а только манипулирую символами, не имея ни малейшего представления, что они означают.

Серл утверждал, что именно это и происходит внутри компьютера. Независимо от сложности программы, например, как у iCub, она лишь выполняет набор инструкций, чтобы выдать нужный ответ, – манипулирует символами, не понимая смысла своих действий.

Примером реализации этого принципа может служить Google. Когда вы отправляете запрос, поисковая система не понимает ни вашего вопроса, ни своего ответа: она просто пропускает нули и единицы через логический фильтр и возвращает вам нули и единицы. С помощью такой потрясающей программы, как Google Translate, я могу ввести фразу на суахили и получить перевод на венгерский. Но все это делает алгоритм. Он манипулирует символами, как человек в «Китайской комнате». Google Translate не понимает предложение, которое переводит; оно для него не имеет смысла.

Эксперимент «Китайская комната» показывает, что создаваемые нами компьютеры, которые имитируют человеческий интеллект, на самом деле не понимают, о чем идет речь; все их действия лишены смысла. Серл использовал этот мысленный эксперимент для доказательства того, что в мозгу человека есть нечто такое, что невозможно объяснить посредством аналогии с цифровым компьютером. Между бессмысленными символами и нашим сознательным восприятием пролегает глубокая пропасть.

Споры по поводу интерпретации «Китайской комнаты» продолжаются, но в любом случае этот аргумент подчеркивает удивительную загадку: каким образом физические элементы складываются в наше ощущение себя как живого существа в этом мире. При любой попытке симулировать или создать разум, подобный человеческому, мы сталкиваемся с главным из неразрешенных вопросов нейробиологии: как такое богатое и глубоко субъективное явление, как сознание – укол боли, краснота красного, вкус грейпфрута, – возникает из миллиардов маленьких клеток мозга, выполняющих простейшие операции? Сама по себе клетка может немногое. Каким образом миллиарды этих действий складываются в субъективное восприятие собственной личности?

Больше чем сумма

В 1714 г. Готфрид Вильгельм Лейбниц заявил, что одна лишь материя не может произвести разум. Немецкий философ и математик Лейбниц был человеком энциклопедических знаний; иногда его называли «последним человеком, который знает все». Он считал, что мозговая ткань не может иметь внутренней жизни. Ученый предложил мысленный эксперимент, известный как «мельница Лейбница». Представьте себе большую мельницу. Войдя внутрь, вы увидите движущиеся шестерни и рычаги, но было бы нелепым предположить, что мельница обладает мыслями, чувствами или восприятием. Разве может мельница влюбиться или любоваться закатом? Это всего лишь механизм. То же самое относится к мозгу, утверждал Лейбниц. Если увеличить мозг до размеров мельницы и обойти его изнутри, вы увидите только элементы, из которых он состоит. Ничего такого, что соответствовало бы восприятию. Просто все части взаимодействуют друг с другом. Зарегистрировав каждое взаимодействие, вы не смогли бы показать вместилище чувств, мыслей и восприятия.





Мельница состоит из механических деталей, взаимодействующих друг с другом, но никому не придет в голову заявить, что мельница мыслит. Что же такого необычного происходит в мозгу, который тоже состоит из множества элементов?





Заглянув внутрь мозга, мы обнаружим там нейроны, синапсы, химические трансмиттеры, электрические сигналы. Мы увидим миллиарды активных, взаимодействующих между собой клеток. А где же там мы? Где наши мысли? Наши чувства? Где радость или восприятие синего цвета? Неужели наша личность состоит просто из вещества? Лейбниц считал, что разум нельзя объяснить с помощью механики.

Но может быть, в рассуждения Лейбница вкралась ошибка? Может, он пропустил нечто важное, когда представлял устройство мозга? Может, аналогия с прогулкой внутри мельницы не годится для решения вопроса о сознании?

Назад: Требует ли сознание материальной основы?
Дальше: Сознание как эмергентное свойство