Книга: Наука Плоского мира. Книга 2. Глобус
Назад: Глава 17 Свобода информации
Дальше: Глава 19 Письмо из Ланкра

Глава 18
Бит из бытия

Семафор представляет собой пример простой и проверенной временем цифровой системы передачи информации. Он кодирует письма с помощью азбуки положений флагов, света или чего-нибудь еще более простого. В 1795 году Джордж Мюррей изобрел вариант семафора, наиболее приближенный к используемому в Плоском мире – набор из шести открывающихся и закрывающихся заслонок, тем самым составляющих 64 различных «кода», чего более чем достаточно для всех букв алфавита, цифр от 0 до 10 и некоторых «специальных» символов. Система получила дальнейшее развитие, но утратила статус передовой технологии с появлением электрического телеграфа, ознаменовавшим начало эпохи проводов. Семафоры Плоского мира («клики») были гораздо совершеннее: массивные магистральные башни с многочисленными рядами заслонок, в темноте освещаемые фонарями и рассылающие сообщения в двух направлениях по всему материку. Такая «эволюция» технологии вполне похожа на правду: если бы нам не удалось обуздать пар и электричество, мы бы сейчас тоже использовали нечто в этом роде…
Мощность этой системы позволяет передавать даже изображения. Серьезно. Представьте себе картинку в виде сетки размером 64×64, состоящей из маленьких квадратиков, которые могут быть белыми, черными или какого-либо из четырех оттенков серого, а затем прочитайте сетку слева направо и сверху вниз, как книгу. Теперь нужна лишь информация, пара клерков, которые разработают алгоритм сжатия, и человек с неглубокой коробочкой, содержащей 4096 деревянных блоков, каждая сторона которых окрашена в какой-либо из шести цветов – черный, белый или один из четырех оттенков серого. Выкладывание картинки займет у них некоторое время, зато работа клерков обойдется недорого.
В цифровых сообщениях лежит вся суть информационного века, который мы так назвали, будучи убежденными, что знаем гораздо больше всех, кто прозябал в другие века. Плоский мир гордо живет в век семафоров, или век кликов. Но что конкретно мы называем информацией?
Отправляя сообщение, вы, очевидно, должны заплатить – иначе тот, кто будет осуществлять его передачу, будет иметь право выразить вам свое недовольство. Именно это свойство сообщений и взволновало Чудакулли, который никак не мог отвыкнуть от мысли, что академики должны путешествовать бесплатно.
Цена – это лишь одна из мер измерения, но она зависит от сложных рыночных условий. Например, какой она будет, если откроется распродажа? Для науки понятие меры информации – это объем отправляемых сообщений. В человеческом понимании, похоже, сложился универсальный принцип, согласно которому средние или длинные сообщения обходятся дороже, чем короткие. А значит, в глубине людского разума таится глубокое убеждение, что сообщения могут измеряться – они имеют размер, который показывает, какое количество информации оно содержит.
Неужели «информация» и «история» – это одно и то же? Нет. Истории передают информацию, но это, пожалуй, наименее интересное, что о них можно сказать. Бо́льшая часть информации не составляет собой историй. Возьмем для примера телефонный справочник: в нем содержится много информации, он имеет определенную форму, но весьма слаб в повествовании. А для истории важен смысл, и в этом она здорово расходится с понятием информации.
Мы гордимся тем, что живем в информационный век. И это плохо. Если мы когда-нибудь доживем до века смыслового, но сумеем наконец понять, в каком месте сбились с пути.
Информация – это не материальная вещь, а понятие. Однако из-за людской привычки материализовывать понятия ученые воспринимают информацию, будто она и в самом деле реальна. Некоторые физики даже начинают задумываться, не состоит ли наша вселенная из информации?
Как же возникла эта точка зрения и насколько справедливой ее можно считать?

 

Человечество приобрело способность измерять информацию в 1948 году, когда математик и инженер Клод Шеннон нашел метод определения количества информации, содержащейся в сообщении, – сам он предпочитал термин «сигнал», – передаваемом в виде определенного кода. Под сигналом он подразумевал ряд двоичных чисел («битов», 0 или 1), который сегодня повсеместно используется как в современных компьютерах и устройствах связи, так и в семафоре Мюррея. Кодом Шеннон называл особую процедуру, преобразующую исходный сигнал в нечто иное. Простейший код банально оставляет все «как было», а более сложные применяются для обнаружения или даже коррекции ошибок, допущенных при передаче. В инженерных приложениях коды занимают центральное место, но для наших целей достаточно их опустить, предположив, что сообщения передаются в открытом виде.
Мера информации Шеннона численно выражает степень, на которую снижается неопределенность относительно бит, составляющих сигнал, в результате получения сообщения. Вот простейший пример, в котором сообщение представляет собой ряд нулей и единиц, и каждый из них одинаково вероятен, а количество информации в сообщении совершенно определено и равняется общему количеству двоичных чисел. Каждое число, получаемое нами, снижает нашу неопределенность относительно значения конкретно этого числа (это 0 или 1?) до определенности (скажем, 1), но ничего не говорит нам об остальных числах, то есть мы получаем только один бит информации. Проделайте то же самое тысячу раз и получите тысячу бит информации. Ничего сложного.
Предположим, нас сейчас интересует не смысл сигнала, а его побитное наполнение – такое восприятие близко инженерам связи. Итак, сообщение 111111111111111 содержит 15 бит информации, равно как и 111001101101011. Но понятие Шеннона об информации – не единственное. Позднее Грегори Хайтин отметил, что содержание шаблонов в сигнале может быть выражено количественно. Для этого нужно смотреть на размер не сообщения, а компьютерной программы, или алгоритма, который она может сгенерировать. Например, первое из вышеуказанных сообщений представляет алгоритм «каждое число равно 1». Но второе сообщение нельзя охарактеризовать столь же просто – его можно лишь побитно переписать. Таким образом, эти два сообщения имеют одинаковое содержание согласно Шеннону, но с точки зрения Хайтина второе сообщение содержит гораздо более «алгоритмическую информацию», чем первое.
Иными словами, понятие Хайтина рассматривает степень, до которой сообщение способно «сжиматься». Если короткая программа сгенерирует длинное сообщение, то мы можем передать программу вместо сообщения, сохранив время и деньги. А программа при этом «сжимает» сообщение. Когда компьютер получает большой графический файл – например, фотографию – и превращает ее в меньший, в формате JPEG, он использует стандартный алгоритм для сжатия информации, содержащейся в исходном файле. Это возможно благодаря тому, что в фотографиях содержится множество шаблонов: к примеру, повторяющиеся голубые пиксели, из которых состоит небо. Чем менее сжимаемым является сигнал, чем больше информации, согласно Хайтину, он содержит. А чтобы его сжать, нужно описать шаблоны, которые в нем содержатся. Отсюда следует, что несжимаемые сигналы случайны, не имеют шаблонов и при этом содержат максимальный объем информации. С одной стороны, это логично: когда каждый следующий бит максимально непредсказуем, вы получаете больше информации, когда узнаёте его значение. Если в сигнале содержится 111111111111111, то маловероятно, что следующий бит тоже окажется 1; но если в сигнале содержится 111001101101011 (для того чтобы получить это значение, мы пятнадцать раз подбросили монету), то очевидной возможности угадать следующий бит у нас нет.
Оба способа измерения информации могут оказаться полезными при разработке электронных технологий. Информация Шеннона определяет время, необходимое для передачи сигнала, в то время как информация Хайтина сообщает о наличии подходящего метода сжатия информации, чтобы передать ее в коротком виде. По крайней мере, так было бы, если ее подлежала расчету, но одна из особенностей теории Хайтина заключается как раз в невозможности расчета количества алгоритмической информации в сообщении – и он сумел это доказать. Волшебники наверняка оценили бы его прием.
Таким образом, «информацию» стоит считать полезным понятием, хотя и странно, что «Быть или не быть?», согласно Шеннону, содержит столько же информации, сколько «чнЙПКдакнг?в%ыл0ц». А все потому, что информация и смысл – это разные вещи. Что ничуть не удивительно. Для людей в сообщении важно не количество бит, а его смысл, но математики не умеют выражать его в количественном виде. Пока что.
Сообщения, несущие в себе смысл, возвращают нас к историям. Суть в том, что мы не должны путать истории с «информацией». Эльфы дали людям истории, но не информацию. И вообще, в историях, придуманных людьми, присутствует то, чего даже не существует в Круглом мире, – например оборотни. В них не содержится никакой информации – кроме разве что той, которая может рассказать вам о человеческом воображении.

 

Большинство людей – особенно ученые – приходят в восторг, когда у них получается представить понятие в виде числа. Все остальное кажется им слишком размытым, чтобы принести какую-либо пользу. «Информация» – это число, поэтому она кажется нам такой точной, что мы не замечаем того, что она может оказаться ложной. По этому скользкому пути довольно далеко зашли две науки – биология и физика.
С открытием «линейной» структуры молекулы ДНК в эволюционной биологии появилась притягательная метафора, касающаяся сложности организмов и их эволюции, а именно: геном организма содержит информацию, необходимую для его построения. Эта метафора родилась после того, как Фрэнсис Крик и Джеймс Уотсон совершили грандиозное открытие, что ДНК организма состоит из «кодовых слов», которые выражаются четырьмя «буквами» – А, Ц, Т и Г, соответствующими, как вы помните, четырем «основаниям». Вследствие этого было выдвинуто неизбежное предположение, что геном содержит информацию о соответствующем организме. И в самом деле, геном часто называют «содержащим всю информацию, которая необходима для создания этого организма».
В этом определении легче всего оспорить слово «всю». Существует бесчисленное множество причин, по которым ДНК развивающегося организма не определяет сам организм. Все эти негеномные влияния на развитие называются «эпигенетическими» и варьируются от еле уловимых химических отметок в ДНК до вклада заботливых родителей. Более трудная мишень – слово «информация». Разумеется, геном содержит информацию некоторого рода: в настоящее время ученые из разных стран мира трудятся над составлением списка всей информации, заключенной в геноме человека, а также других организмов – риса, дрожжей и круглого червя Caenorhabditis elegans. Оцените естественность нашего высокомерия – ведь слово «информация» здесь ссылается на человеческий разум как на приемник, а не как на развивающийся организм. Проект «Геном человека» снабжает информацией нас, а не организмы.
Эта несовершенная метафора ведет к столь же несовершенному заключению, что геном объясняет сложность организма относительно количества информации в коде ДНК. Люди так сложны потому, что в их длинном геноме содержится много информации; круглые черви менее сложны потому, что их геном короче. Однако эта притягательная идея не может соответствовать действительности. Так, шенноновская информация, содержащаяся в геноме человека, на несколько порядков меньше, чем количество информации, необходимой для описания связи между нейронами в человеческом мозгу. Как мы можем быть сложнее, чем информация, которая нас описывает? К тому же у некоторых амеб геном длиннее, чем у нас, – и этот факт опускает нас на несколько ступеней и подвергает еще большему сомнению то, что ДНК можно рассматривать как информацию.
В основе широко распространенного убеждения, будто сложность ДНК объясняет сложность организма (даже несмотря на его очевидную ошибочность), лежат два предположения, две научные истории, которые мы сами себе рассказываем. Первая называется «ДНК – это чертеж», и в ней геном рассматривается не только в контексте своего значения в управлении биологическим развитием, но и в качестве носителя информации, необходимой для определения организма. Вторая история называется «ДНК – это сообщение» и представляет собой метафору «Книги жизни».
Обе истории чрезмерно упрощают сложную систему взаимодействия. В первой утверждается, что геном – это молекулярная «карта» организма. А «ДНК – это сообщение» – это история о том, что организм может передавать эту карту следующему поколению, «отправляя» соответствующую информацию.
Но ни одна из них не соответствует действительности. С другой стороны, их можно назвать неплохими примерами научной фантастики – или как минимум плохой, но интересной научной фантастикой с хорошими спецэффектами.
Если у «сообщения» ДНК и есть получатель, то это не организм следующего поколения, который даже не существует во время «отправки» «сообщения», а рибосома, то есть молекулярная машина, превращающая цепочки ДНК (в гене, кодирующем белок) в белки. Рибосома является неотъемлемой частью системы кодирования; она выполняет функцию «переходника», изменяя информацию, содержащуюся в цепочке, на ту, что заключена в последовательности аминокислот в белках. Каждая клетка содержит много рибосом, но мы говорим о них в единственном числе потому, что все они идентичны. Метафора ДНК как информации стала практически универсальной, хотя на самом деле никто никогда не выдвигал предположения, что рибосома может быть крупным вместилищем информации. Сейчас структура рибосомы известна в мельчайших деталях, и никаких признаков того, что она является «носителем информации», как ДНК, нет. Похоже, что рибосома – это всего лишь жестко закрепленная «машина». Так куда же девалась информация? А никуда. Просто это некорректный вопрос.
Корень данного недоразумения заключается в недостаточном внимании к контексту. Наука серьезно относится к контексту, но имеет привычку игнорировать «внешние» ограничения изучаемой системы. А контекст – это важное, но недооцененное свойство информации. Слишком легко зациклиться на комбинаторной ясности сообщения, упустив из виду сложные и запутанные процессы, производимые получателем при декодировании сообщения. Контекст имеет определяющее значение при толковании сообщений, то есть его смысла. Тор Норретрандерс в своей «Иллюзии пользователя» ввел термин «эксформация», определяющий роль контекста, а Дуглас Хофштадтер нашел с ним общую точку в книге «Гёдель, Эшер, Бах». Обратите внимание, как в следующей главе, казалось бы, нечитаемое сообщение «ТИОРСИЯ» становится понятным, как только в расчет принимается его контекст.
Вместо того чтобы рассуждать о ДНК как о «чертеже», в котором закодирован организм, легче порассуждать о компакт-диске с записанной на нем музыкой. Биологическое развитие напоминает компакт-диск, содержащий инструкции по сборке нового проигрывателя. Если у вас нет рабочего проигрывателя, их нельзя «прочитать». Если смысл не зависит от контекста, то код на компакт-диске должен содержать неизменяемый смысл, не зависящий от проигрывателя. Но действительно ли это так?
Сравним две крайности: «стандартный» проигрыватель, преобразующий цифровой код на диске в музыку так, как заложили его разработчики, и музыкальный автомат. В случае с последним единственное посылаемое вами сообщение – это деньги и нажатие кнопки, но он распознает их в своем контексте как несколько минут музыки. Любой номерной код, по идее, может «означать» любую музыку, которую вы желаете услышать; это зависит лишь от настроек автомата, то есть эксформации, сопряженной с его дизайном. А теперь представьте себе автомат, который распознает диски, не проигрывая закодированные на нем мелодии как последовательные биты, а переводя этот код в число и потом проигрывая какой-нибудь другой диск, соответствующий этому номеру. К примеру, допустим, что Пятая симфония Бетховена в цифровой форме начинается с 11001. Это число 25 в двоичной системе. Итак, автомат считывает ее как «25» и ищет диск под 25-м номером, который, допустим, оказывается, записью джазмена Чарли Паркера. С другой стороны, там же в автомате находится диск под номером 973, на котором записана Пятая симфония Бетховена. В таком случае диск с Бетховеном может быть «прочтен» двумя совершенно разными способами: как «указатель» на Чарли Паркера или на саму Пятую симфонию (запущенную любым другим диском, код которого начинается с числа 973, записанного в двоичной системе). Два контекста, две интерпретации, два смысла, два результата.
Каким бы ни было сообщение, оно в любом случае зависит от контекста: отправитель и получатель должны согласовать между собой условия преобразования смысла в символы и обратно. Без этих условий семафор представлял бы собой просто несколько кусков древесины, колыхающихся на ветру. Ветки деревьев – это тоже куски древесины, колыхающиеся на ветру, но никто не пытается расшифровать в них сообщения, передаваемые деревом. Зато кольца деревьев, то есть годичные кольца, которые можно увидеть на спиле ствола, – совсем другое дело. Мы научились «расшифровывать» их «сообщения», содержащие информацию, например о том, какой климат был году в 1066-м. Если кольцо толстое, значит, в том году дерево хорошо подросло – год выдался теплым и влажным; тонкое же кольцо указывает на неблагоприятный год, скорее всего, холодный и сухой. Но последовательность годичных колец стала сообщением, заключающим в себе информацию, только когда мы узнали зависимость между климатом и ростом деревьев. Само же дерево не отправляло нам никаких сообщений.
В биологическом развитии условиями, наполняющими смыслом сообщение ДНК, являются физические и химические законы. В них-то и заключается эксформация. Однако едва ли ее можно представить в количественном виде. Сложность организма определяется не количеством оснований в последовательности ДНК, а сложностью процессов, инициированных этими основаниями в контексте биологического развития. То есть смыслом «сообщения» ДНК, получаемого слаженной и рабочей биохимической машиной. Здесь мы оставляем амеб далеко позади. Развитие эмбриона с маленькими отростками, а затем ребенка с тоненькими ручками включает в себя ряд процессов, при которых образуется скелет, мышцы, кожа и так далее. Каждый этап зависит от текущего состояния других этапов, и все они обусловлены контекстом физических, биологических, химических и культурных процессов.

 

Центральное понятие в теории информации Шеннона занимает некая энтропия, что в данном контексте означает степень, с которой статистические шаблоны в источнике сообщений влияют на количество передаваемой в них информации. Если одни шаблоны бит оказываются вероятнее других, то они передают меньше информации, так как неопределенность уменьшается на меньшее ее количество. Например, в английском языке буква E встречается гораздо чаще, чем Q. Если бы вам пришлось выбирать между E и Q, вы бы поставили на E. Когда ваш прогноз не сбывается, вы получаете больше информации. Энтропия Шеннона выравнивает это статистическое неравновесие и позволяет «честно» измерять объем информации.
Сейчас, по прошествии лет, кажется досадным, что он выбрал слово «энтропия», поскольку одноименное понятие устоялось в физике, где под ним обычно понимается «беспорядок». Противоположный ей «порядок», как правило, отождествляется со сложностью. Контекст в данном случае лежит в разделе физики, известном как термодинамика, изучающем отдельно взятую упрощенную модель газа. Молекулы газа в термодинамике представляют собой «твердые сферы», микроскопические бильярдные шары. Они периодически сталкиваются и отскакивают друг от друга, будто обладают идеальной эластичностью. Законы термодинамики указывают на то, что большое скопление таких сфер подчиняется определенным статистическим закономерностям. Первый закон гласит, что общая энергия системы постоянна. Тепловую энергия можно преобразовать в механическую, как, скажем, в паровом двигателе; и, наоборот, механическую можно преобразовать в тепловую. Но сумма их всегда остается неизменной. Второй закон при помощи более точных понятий (которые мы вскоре это поясним) определяет, что тепло не может передаваться от более холодного тела более теплому. В третьем же законе говорится о том, что температура газа не может опускаться ниже температуры «абсолютного нуля», составляющего приблизительно –273 °C.
Самый трудный (и интересный) из этих законов – второй. Он детальнее рассматривает величину, называемую энтропией, под которой обычно подразумевается «беспорядок». К примеру, если газ сконцентрирован в одном углу комнаты, то это будет более упорядоченное (то есть менее беспорядочное) состояние, чем то, при котором он равномерно распространяется по комнате. Следовательно, при равномерном распространении газа его энтропия выше, чем при условии, если он весь скапливается в углу. Одна из формулировок второго закона звучит так: количество энтропии во вселенной постоянно возрастает с течением времени. Иными словами, с течением времени вселенная постоянно становится все менее упорядоченной или столь же менее сложной. Согласно этой интерпретации, чрезвычайно сложный мир живых существ неизбежно будет становиться менее сложным до тех пор, пока вселенная не выйдет из берегов и превратится в густой, еле теплый бульон.
На этом свойстве основано одно из объяснений «стрелы времени». Это любопытное явление выражается в том, что яйцо легко взболтать, но вернуть его после этого в исходное состояние невозможно. Время течет в направлении возрастающей энтропии. То есть в результате взбалтывания яйцо становится более беспорядочным – иными словами, его энтропия возрастает – что согласуется со вторым законом. Возвращение яйца в исходное состояние делает его менее беспорядочным и уменьшает энергию – а это закону противоречит. Заметьте, яйцо – это не газ, но законы термодинамики также могут распространяться на жидкие и твердые тела.
Здесь мы сталкиваемся с одним из величайших парадоксов в физике, ставшим причиной серьезной неразберихи, которая продлилась около века. Еще одна система физических законов, законы механики Ньютона, предписывает, что взбалтывание и обратное взбалтывание яйца являются равновероятными физическими явлениями. Точнее, если любое динамическое действие, отвечающее требованием законов Ньютона, совершается в обратном порядке во времени, то его результат также будет отвечать законам Ньютона. Короче говоря, законы Ньютона «обратимы во времени».
Однако на самом деле термодинамический газ представляет собой лишь механическую систему, сложенную из множества крошечных сфер. В этой модели тепловая энергия – это лишь особый тип механической энергии, в которой сферы колеблются, но не двигаются целым скопом. Таким образом, мы имеем возможность сравнить законы Ньютона с законами термодинамики. Первый закон термодинамики – это просто иначе сформулированный закон сохранения энергии в ньютоновской механике, следовательно, первый закон не противоречит законам Ньютона. То же и с третьим законом: абсолютный нуль – это просто температура, при которой сферы перестают колебаться. Скорость колебаний не может быть меньше нуля.
Но второй закон термодинамики, к сожалению, ведет себя совершенно иначе. Он противоречит законам Ньютона. А именно свойству обратимости во времени. Наша вселенная имеет определенное направление своей «стрелы времени», но вселенная, подчиняющаяся законам Ньютона, имеет две разные стрелы времени, противоположные друг другу. В нашей вселенной взболтать яйцо легко, а вернуть его в исходное состояние – невозможно. Следовательно, согласно законам Ньютона, в обратной во времени нашей вселенной легко придавать яйцу исходный вид и невозможно взбалтывать. Но эти законы одинаковы в обоих вселенных, а значит, не могут задавать направление для стрелы времени.
Для решения этого несоответствия было выдвинуто множество предположений. Лучшее из них, математическое, состоит в том, что термодинамика – это приближение, увеличивающее «зернистость» вселенной, при котором слишком мелкие детали сглаживаются и пренебрегаются. На самом же деле вселенная делится на крошечные блоки, каждый из которых, скажем, содержит несколько тысяч молекул газа. Детализированные движения внутри блока игнорируются, и в расчет берется усредненное состояние содержащихся в нем молекул.
Это во многом напоминает изображение на экране монитора. Если посмотреть на него издалека, можно увидеть коров, деревья и прочие объекты. Но если вглядеться в дерево с близкого расстояния, будут видны зеленые квадратики, или пиксели. В настоящем дереве при таком увеличении тоже можно рассмотреть структуру – например, листья и ветки, – но на картинке все детали сглаживаются в однородный оттенок зеленого.
Как только «порядок» исчезает ниже уровня зернистости при таком приближении, он может никогда больше не вернуться. После того как пиксель сглаживается, его нельзя выпилить обратно. Впрочем, в реальной вселенной этого иногда можно добиться, поскольку в ней происходят детализированные движения внутри блоков, а сглаженные усредненные значения игнорируют эти детали. Таким образом, модель разнится с реальностью. Более того, это предположение несимметрично рассматривает обычное и обратное течения времени. При обычном молекула попадает в блок и уже не может его покинуть. При обратном же она спокойно покидает блок и уже не попадет в него, если не находилась там с самого начала.
Это объяснение свидетельствует о том, что второй закон термодинамики – не истинное свойство вселенной, а лишь свойство приближенной математической формулировки. Неважно, насколько полезно это приближение, поскольку оно зависит от контекста, к которому привязано, а не от контекста второго закона термодинамики. При приближении сходит на нет всякое отношение к законам Ньютона, неразрывно связанным с мелкими деталями.
Так вот, как нами было сказано выше, Шеннон использовал то же слово «энтропия» для обозначения меры структуры, представленной статистическими шаблонами в источнике информации. Он поступил так потому, что математическая формула энтропии Шеннона выглядит в точности как формула термодинамической энтропии. Только со знаком «минус». То есть термодинамическая энтропия равна отрицательной энтропии Шеннона – а это значит, что ее можно представить как «утраченную информацию». Это отношение использовалось при написании многих статей и книг – к примеру, для привязки стрелы времени к постепенной потере информации во вселенной. Ведь заменяя все мелкие детали внутри блока сглаженной усредненной величиной, вы утрачиваете информацию о них. А потеряв, ее уже нельзя вернуть. И вот оно: время течет в направлении утечки информации.
Как бы то ни было, это предположение надуманно. Да, формулы выглядят одинаково, но… они относятся к совершенно разным и не связанным между собой контекстам. В знаменитой формуле Эйнштейна, связывающей массу и энергию, c означает скорость света. В теореме Пифагора эта же буква означает гипотенузу прямоугольного треугольника. Буквы одни и те же, но никому ведь не кажется резонным отожествлять гипотенузу со скоростью света. Хотя предполагаемая связь между термодинамической энтропией и отрицательной информацией не настолько нелепа. Не настолько.
Мы уже упоминали, что науку нельзя считать собранием фактов, не подлежащих изменению, и в ней случаются разногласия. Связь между энтропией Шеннона и термодинамической энтропией – одно из них. Наличие смысла в восприятии термодинамической энтропии как отрицательной информации стала предметом многолетней полемики. Научные споры не стихают по сей день, и публикующиеся, рецензируемые компетентными учеными статьи все так же категорично противоречат друг другу.
Судя по всему, здесь имеет место путаница между формальным математическим выражением, устанавливающим «законы» информации и энтропии, интуитивными, эвристическими толкованиями этих понятий с точки зрения физики, а также слабое понимание роли контекста. Важную роль сыграло и сходство между формулами энтропии в теории информации и термодинамике, но контексту, к которому эти формулы относятся, уделялось слишком мало внимания. Эта привычка привела к небрежному восприятию некоторых весьма значительных для физики тем.
Важное различие между этими понятиями заключается в том, что в термодинамике энтропия количественно зависит от состояния газа, тогда как согласно теории информации она определяется как источник информации – система, генерирующая все возможные состояния («сообщения»). Грубо говоря, источник является фазовым пространством последовательных бит информации, а сообщение – траекторией, дорожкой в этом фазовом пространстве. В то же время термодинамическое положение молекул – это точка в фазовом пространстве. Определенное положение молекул газа обладает термодинамической энтропией, но определенное сообщение не обладает энтропией Шеннона. Один только этот факт должен служить предупреждением. И даже в теории информации содержащаяся «в» сообщении информация не является отрицательной информационной энтропией. Энтропия источника на самом деле остается неизменной вне зависимости от количества генерируемых ей сообщений.

 

Существует и еще одна головоломка, касающаяся энтропии нашей вселенной. Второй закон термодинамики слабо увязывается и с астрономическими наблюдениями. В космологических масштабах вселенная с течением времени, похоже, стала более сложной. Материя, образовавшаяся в результате Большого взрыва, сначала распространялась очень равномерно и со временем становилась все более комковатой – то есть все более сложной. Значит, энтропия вселенной уменьшилась, а не возросла. Сейчас материя разделилась в огромном диапазоне масштабов на скалы, астероиды, планеты, звезды, галактики, скопления, сверхскопления галактик и так далее. Если применить эту же аналогию к термодинамике, распространение материи во вселенной покажется все более упорядоченным. Это вызывает недоумение, поскольку второй закон твердит нам, что термодинамическая система должна становиться более беспорядочной.
Причина этой скомканности, пожалуй, хорошо известна – это гравитация. И тут возникает второй парадокс обратимости во времени. Уравнения поля гравитационных систем, выведенные Эйнштейном, обратимы во времени. Это значит, что, если решение уравнений Эйнштейна обращено во времени, оно становится верным и при привычном течении времени. Наша вселенная – посмотрим на это с обратной стороны – становится гравитационной системой, которая с течением времени делается менее скомканной. То есть с точки зрения физики уменьшение скомканности так же вероятно, как и его увеличение. Однако в нашей вселенной она только увеличивается.
Пол Девис полагает, что «как и в случае со стрелами времени, существует загадка о том, откуда берется асимметрия… Так или иначе асимметрию необходимо отследить до начальных условий». Здесь имеется в виду, что даже при действии законов обратимости во времени можно получить другое поведение системы, запустив ее другим способом. Если вы возьмете яйцо и размешаете его вилкой, оно взболтается. Если возьмете взболтанное яйцо и тщательно переместите каждую его частицу по обратной траектории – оно взболтается обратно. Отличие заключается в начальном положении, а не в законах. Заметьте: «перемешивание вилкой» – это слишком обобщенное начальное положение, ведь существует множество способов перемешивания, влекущих за собой взбалтывание яйца. А начальное положение обратного взбалтывания – наоборот, должно быть предельно точным и подробным.
В этом смысле такая возможность довольно привлекательна. Наша скомкивающаяся вселенная напоминает яйцо в процессе «обратного взбалтывания»: ее возрастающая сложность – это последствие особых исходных условий. Большинство «обычных» исходных условий привело бы к нескомканной вселенной – как и любое нормальное перемешивание приводит к образованию взболтанного яйца. Наблюдения строго указывает на то, что вселенная в момент Большого взрыва имела предельно гладкие исходные условия, тогда как любое «обычное» состояние гравитационной системы, по-видимому, должно быть скомканным. И, опираясь на этот вывод, можно подумать, что в нашей вселенной они были весьма особенными – данное предположение привлекательно для тех, кто верит в исключительную необыкновенность ее самой и нашего места в ней.
От второго закона до Бога один шаг.
Роджер Пенроуз даже подсчитал, насколько особенным было это исходное состояние, сравнив термодинамическую энтропию исходного состояния и гипотетического, но правдоподобного конечного, при котором вселенная превращается в систему черных дыр. Последнее характеризуется крайней степенью скомканности – хотя и не самую предельную, при которой вселенная стала бы единой гигантской черной дырой. В результате энтропия исходного состояния оказалась примерно в 1030 раз меньше энтропии конечного, что говорит о ее чрезвычайной особенности. Столь чрезвычайной, что Пенроуз ввел новый закон временной асимметрии, присуждающий ранней вселенной исключительную гладкость.
О, как же наши собственные истории сбивают нас с пути… Есть и другое, более разумное объяснение. Секрет прост: гравитация сильно отличается от термодинамики. Для газа, состоящего из движущихся молекул, однородное состояние – равномерная плотность – является стабильным. Заключите весь газ в небольшое пространство, а потом отпустите – и он мгновенно вернется в свое однородное состояние. Гравитация ведет себя противоположным образом: однородные системы гравитационных тел нестабильны. Со временем различия, незаметные на любом уровне зернистости, не только могут раздуться до макроскопических масштабов, но и действительно раздуваются.
Вот в чем так разительно расходятся гравитация и термодинамика. В термодинамической модели, наиболее подходящей для нашей вселенной, с течением времени различия рассеиваются, исчезая ниже уровня зернистости. В гравитационной модели, наиболее подходящей для нашей вселенной, с течением времени они растут, раздуваясь от уровня зернистости. Отношение этих двух областей науки к зернистости при одинаковом направлении стрелы времени диаметрально противоположно.
Теперь мы можем дать совершенно другое и еще более разумное объяснение «провалу энтропии» между ранней и поздней вселенными, обнаруженному Пенроузом и приписанному им удивительно маловероятным исходным условиям. На самом деле это просто артефакт зернистости. Гравитационная скомканность раздувается от уровня зернистости до уровня, на котором энтропия по определению не учитывается. Таким образом, фактически любое начальное распределение материи во вселенной приводит к скомканности. И ничего чрезвычайного и особенного для этого не требуется.
Физические различия между гравитационными и термодинамическими системами довольно просты: гравитация – дальнодействующая сила притяжения, в то время как упругие столкновения действуют на малых расстояниях и приводят к отталкиванию. Учитывая столь значительные различия в законах сил, несходство в их поведении также не удивительно. Или же представьте себе системы, в которых «гравитация» действует на таких малых расстояниях, что оказывает эффект лишь при столкновении частиц, но когда вступает в силу, они сцепляются насовсем. При таких законах сил возрастание скомканности очевидно.
Для реальной вселенной характерны как гравитация, так и термодинамика. В одном контексте более приемлема гравитационная модель, в другом – термодинамическая. Но есть и другие: в молекулярной химии участвуют силы разных типов. Ошибочно приписывать все естественные феномены термодинамическому или гравитационному приближению. И тем более не стоит ожидать, что и термодинамические, и гравитационные приближения будут действовать в одном контексте при своем диаметрально противоположном отношении к зернистости.
Видите? Все просто. И никакой магии…
Пожалуй, стоит подвести кое-какие итоги наших размышлений.
«Законы» термодинамики, особенно знаменитый второй закон, представляют собой статистически правильные модели природы при определенной системе контекстов. Как показывает скомканность вселенной под действием гравитации, они не всегда верны в ее отношении. Вероятно, когда-нибудь будет найдена подходящая мера измерения сложности гравитации – наподобие термодинамической энтропии, но другая. Скажем, она будет называться «гравитропией». Тогда мы сумеем математически вывести «второй закон гравитации», который бы установил, что гравитропия гравитационной системы возрастает с течением времени. Возможно, гравитропия станет фрактальным измерением («степенью запутанности») системы.
Несмотря на то что зернистость действует для обеих систем в разных направлениях, оба «вторых закона» – термодинамический и гравитационный – достаточно хорошо соотносятся с нашей вселенной. А все потому, что они сформулированы так, чтобы отвечать тому, что мы реально наблюдаем в этой вселенной. Тем не менее вопреки этой кажущейся согласованности два закона относятся к принципиально отличающимся друг от друга физическим системам: одна к газам, а вторая – к системам частиц, движущихся под действием гравитации.

 

Рассмотрев эти два случая неправильного применения принципа теории информации и соответствующего ему принципа термодинамики, мы готовы обратиться к любопытному предположению о том, что вселенная состоит из информации.
Чудакулли подозревал, что Думминг Тупс использовал «квант», чтобы описывать все странные явления, например исчезновение людей с Раковинных куч. Мир кванта действительно странен, а его чары всегда обольстительны. Пытаясь осмыслить квантовую вселенную, некоторые физики предположили, что весь феномен кванта (то есть вообще всё) основывается на понятии информации. Джон Арчибальд Уилер выразил эту мысль емкой фразой: «бытие из бита». Коротко говоря, любой квантовый объект характеризуется конечным числом состояний. Вращение электрона, к примеру, может происходить по направлению вверх или вниз – то есть предполагая двоичный выбор. Состояние вселенной, таким образом, представляет собой огромный список из стрелочек, указывающий вверх и вниз, а также более сложных величин, – то есть очень длинное сообщение в двоичном виде.
На данный момент это самый разумный и (как оказалось) полезный способ представить мир кванта в математическом виде. Но следующий шаг более противоречив. Единственное, что имеет реальное значение, – это само сообщение, список битов. А что такое сообщение? Это информация. И как итог: настоящий материал вселенной – это необработанная информация. Все остальное сделано из нее же в соответствии с признаками кванта. Думминг с этим наверняка согласился бы.
То есть информация занимает свое место в небольшом пантеоне похожих понятий – скорости, энергии, импульса, – перешедших из близких математических абстракций в реальность. Физики любят превращать свои самые полезные математические понятия в реальные вещи – они, как в Плоском мире, материализуют абстрактное. Такое «проецирование» математики на вселенную не причиняет физического вреда, но причиняет вред философский, если воспринимать его результаты буквально. Например, из-за аналогичного процесса совершенно адекватные физики сегодня настаивают на том, что наша вселенная – лишь одна из триллионов, сосуществующих в квантовой суперпозиции. В одной из них вы этим утром вышли из дома, и на вас свалился метеорит; в другой вы сейчас читаете книгу, и никакой метеорит на вас не падал. «Ну, да, – твердят они, – все эти другие вселенные реально существуют. Мы можем провести эксперименты, чтобы это доказать».
Как бы не так.
Подтверждение на основе результатов экспериментов – это еще не доказательство, и оно вовсе не говорит о справедливости объяснения. Многомировая интерпретация, как ее называют, объясняет эти эксперименты в пределах своего поля. Но результаты каждого из них подлежат различным трактовкам, не каждая из которых объясняет, «как это на самом деле происходит во вселенной». К примеру, любой эксперимент можно трактовать как «это случается по воле Божьей», но те же физики не согласятся с тем, что их эксперименты доказывают существование Бога. Тут они будут правы: это лишь одна из трактовок. То же касается и триллиона сосуществующих вселенных.
Квантовые состояния наслаиваются друг на друга. Как, возможно, и квантовые вселенные. Но делить их на классические миры, в которых реальные люди делают реальные вещи, а потом говорить, будто они наслаиваются, – это нонсенс. Нет такого квантового физика, который сумел бы составить описание человека с точки зрения квантовой механики. И как в таком случае они могут утверждать, что их эксперименты (обычно проводимые с парой электронов или фотонов) «доказывают», что в параллельной вселенной на альтернативного вас свалился метеорит?
Первоначально «информация» являлась понятием, придуманным человеком, чтобы описывать определенные коммуникативные процессы. Это был «бит из бытия», абстракция метафоры реального мира, а не «бытие из бита», преобразование реальности в метафору. С тех пор метафора информации распространилась далеко за свои изначальные пределы, что не всегда было обоснованно. Овеществление информации как основного материала вселенной, пожалуй, еще менее резонно. С позиции математики в этом нет ничего страшного, но помните, что «материализация вредит вашей философии».
Назад: Глава 17 Свобода информации
Дальше: Глава 19 Письмо из Ланкра