В течение 75 лет компьютеры работали в рамках, обозначенных Аланом Тьюрингом. Эти рамки могли ограничивать возможности умственного развития искусственного интеллекта. Однако сейчас началась работа по исполнению пророчества Тьюринга о создании машины, способной решить неразрешимое. Такую модель Тьюринг называл «оракулом». В своей диссертации 1938 года Тьюринг не уточнил, какую форму она может принять. Возможно, это было вполне логичным: к своим 26 годам он и так сумел стать катализатором революции. Мы были настолько заняты исследованием его богатого, разностороннего наследия и преобразованием нашего мира с помощью машин и основанных на них приложений, что могли упустить из вида оракула. Тьюринг доказал своей универсальной машиной, что любой обычный компьютер имеет ряд неизбежных ограничений. И оракул позволил бы их обойти.
За свою короткую жизнь Тьюринг так ни разу и не попытался его создать. Возможно, на то была веская причина: большинство компьютерных ученых полагает, что машина-оракул смогла бы пошатнуть все фундаментальные ограничения информационных и энергетических потоков во Вселенной. Вы никогда не сможете этого достичь.
Два исследователя из лаборатории в Спрингфилде, штат Миссури, пытаются доказать, что скептики не правы. Опираясь на теоретические и экспериментальные достижения последних двух десятилетий, Эммет Редд и Стивен Янгер из Университета штата Миссури пришли к выводу о том, что создание компьютера superTuring может оказаться вполне реальным. С его помощью, как надеются исследователи, мы получим представление не только о границах вычислений, но и о самом интригующем и мощном компьютере из всех известных во Вселенной – человеческом мозге.
Компьютеры в привычном нам виде оказываются очень способными, точными и эффективными средствами визуализации того, что мы, люди, смогли бы сделать, если бы обладали точными инструкциями, высоким порогом скуки, а также неиссякаемым запасом бумаги и карандашей. Они преуспевают в последовательных сложениях, умножениях и логических решениях из разряда «если…, то…». Универсальная вычислительная машина, часто называемая просто машиной Тьюринга, делает то же самое, только без скуки. Сам Тьюринг в руководстве программиста для компьютера Mark II Манчестерского университета в 1950 году писал следующее: «Электронные компьютеры предназначены для выполнения любого универсального процесса, который был бы под силу оператору-человеку, работающему организовано, но бездумно».
Следовательно, компьютеры, как и мы, имеют собственные слепые зоны. Вне зависимости от того, насколько дисциплинированными, хорошо обученными или терпеливыми мы можем быть, есть ряд вопросов, которые никак не поддаются логическому объяснению. Что есть истинность выражения «Это утверждение ложно»? В 1931 году математик Курт Гёдель продемонстрировал универсальность данной проблемы своими печально известными теоремами неполноты. В теоремах говорилось о том, что любая система логических аксиом всегда будет содержать ряд недоказуемых утверждений.
Точно так же, как было предсказано Тьюрингом, универсальный компьютер, основанный на одной лишь логике, всегда будет сталкиваться с «неразрешимыми» проблемами, которые никогда не дадут прямых ответов, вне зависимости от заложенной процессорной мощности. Согласно гипотезе Тьюринга, оракул – это черный ящик, чье неопределенное содержимое может решать неразрешимые проблемы. Он предположил, что содержимое черного ящика позволит машине-оракулу выйти за пределы обычной человеческой логики и превзойти возможности любого из когда-либо созданных компьютеров. Все это произошло в 1938 году. 50 лет спустя Хава Зигельманн случайно придумала модель компьютеров для сверхтьюринговых вычислений. В начале 1990-х годов она работала над диссертацией по нейронным сетям в Ратгерском университете в Пискатавэй, штат Нью-Джерси. Этот университет располагался всего в 40 минутах езды от Принстона, в котором Тьюринг представлял свою работу. Изначально Зигельманн пыталась теоретически доказать пределы нейронных сетей. Она хотела продемонстрировать, что при всей своей гибкости нейронные сети никогда не смогут использовать все возможности логики традиционной машины Тьюринга. Раз за разом ее ждал провал. В конце концов Зигельманн доказала обратное. Одним из отличительных признаков машины Тьюринга является то, что она не способна создать истинную случайность. Сравнивая сеть с бесконечными неповторяющимися числовыми строками, составленными из иррациональных чисел (например, число π), Зигельманн доказала, что теоретически такую сеть можно превратить в сверхтьюринговую модель. В 1993 году она даже показала, как такая сеть могла бы решить проблему остановки.
Ее коллеги – ученые в области компьютерных наук встретили идею весьма прохладно, а некоторые даже враждебно. Выдвигались различные гипотезы о гиперкомпьютерах, которые с помощью нетрадиционной физики могли бы стать сверхтьюринговыми. Однако все эти задумки были либо неправдоподобными, либо сводились к откровенному абсурду. В 1995 году Зигельманн опубликовала собственное доказательство, а затем и вовсе потеряла интерес к теме. «Я была уверена в том, что решение проблемы сводилось к одной лишь математике, тогда как мне хотелось заняться чем-то более практичным, – рассказала она. – Я отказалась от дальнейших обсуждений сверхтьюринговых вычислений».
Редд и Янгер были знакомы с работой Зигельманн целое десятилетие, прежде чем поняли, что их собственные исследования двигались в том же направлении. В 2010 году они проектировали нейронные сети с использованием аналоговых входов, которые, в отличие от традиционного цифрового кода 0 и 1, могли принимать потенциально бесконечный диапазон значений. Это было куда больше, чем отголоски бесконечных иррациональных чисел Зигельманн.
В 2011 году Редд и Янгер обратились к Зигельманн, которая в то время была директором Лаборатории биологических нейронных и динамических систем Массачусетского университета в Амхерсте, с предложением о сотрудничестве. Зигельманн ответила согласием. К тому моменту она вновь вернулась к размышлениям о проблеме сверхтьюринговых вычислений и пришла к выводу, что взвешивание иррациональных чисел было не единственным проектом, заслуживающим внимания. Здесь могло пригодиться все, что добавило бы некий элемент случайности или непредсказуемости.
Трио ученых избрало путь хаоса. У хаотической системы чувствительность к небольшим изменениям своих начальных условий крайне высока. При правильном подключении аналоговой нейронной сети малейшие градации выходных значений можно было бы использовать для создания больших изменений на входе, которые затем вновь добавлялись бы в систему, вызывая большие или меньшие изменения, после чего процесс повторяется снова. По сути, такая система управляется непредсказуемым и плавно регулируемым искажением.
Исследователи работают над двумя небольшими прототипами хаотических машин. Один из них – это нейронная сеть, основанная на стандартных электронных компонентах. Она состоит из трех «нейронов», представленных в виде интегральных микросхем, и 11 синаптических соединений на печатной плате, размером чуть больше, чем книга в твердом переплете. Другой прототип состоит из 11 нейронов и порядка 3600 синапсов. Он использует лазеры, зеркала, линзы и фотонные детекторы для кодирования своей информации в свете.
Команда ученых считала, что таких прототипов должно хватить для того, чтобы выйти за пределы тьюринговых вычислений, пусть и в малом масштабе. Это заявление спровоцировало волну скептицизма. Основная проблема возникала, когда математические модели, включающие в себя любого рода бесконечности, сталкивались с реальностью. Дело здесь вовсе не в математике, а в спорности существования истинной случайности и управления ею.
Такой вопрос однозначно возникал и у Тьюринга. Он часто размышлял о связи между внутренней случайностью и происхождением творческого интеллекта. В 1947 году Тьюринг пошел еще дальше и предложил своему изумленному руководству из Национальной физической лаборатории Великобритании близ Лондона добавить радиоактивный радий в созданное им автоматическое вычислительное устройство в надежде на то, что его якобы случайные распады придадут входным значениям желаемую непредсказуемость. «Я не думаю, что Тьюринг хотел создать машину-оракула, – говорит Зигельман. – Скорее, он намеревался построить нечто более похожее на мозг».
С тех пор неизменной целью ученых стало создание компьютера с мозгоподобными качествами. И последняя крупномасштабная инициатива на данном поприще стала частью проекта Human Brain Project, базирующегося в Федеральной политехнической школе Лозанны в Швейцарии. Однако все усилия сводились к созданию копий нейронов с помощью стандартной цифровой технологии машины Тьюринга. Янгер и Редд знают обо всех трудностях, однако все еще верят, что использование менее жесткого подхода в хаотических нейронных сетях может принести свои плоды.
Интервью. Почему ИИ – это опасная мечта
Ноэль Шарки – почетный профессор искусственного интеллекта и робототехники в Шеффилдском университете, соучредитель Международного комитета по контролю за роботизированными вооружениями, а также активист кампании против роботов-убийц. В интервью 2009 года для New Scientist он объясняет, почему считает ИИ опасной мечтой, ведущей к антиутопическому будущему неразумных и бесчувственных робокаров и солдат.
– Что для вас означает искусственный интеллект?
– Мне нравится, как описал искусственный интеллект пионер отрасли Марвин Минский. Он сказал, что искусственный интеллект – это наука о том, как заставить машины выполнять задачи, требующие от человека разумности. В то же время есть масса интеллектуальных человеческих задач, которые выполняются машинами весьма глупыми способами. Люди обладают ограниченной памятью. Поэтому для нас шахматы становятся сложной проблемой распознавания образов, требующей недюжинного интеллекта. Компьютер Deep Blue побеждает грубой силой, быстро просчитывая исходы миллионов ходов. Это как заниматься армреслингом с экскаватором. Я бы немного переработал определение Минского и назвал бы ИИ наукой о создании машин, которые заставят нас поверить в их собственную разумность.
– Способны ли машины к разумности?
– Если говорить об интеллекте с точки зрения животных, то я бы сказал, что нет. Для меня ИИ – это область выдающихся инженерных достижений, которые помогают нам моделировать живые системы, а не заменять их. Именно человек, а не машина, разрабатывает алгоритмы и программирует их «разумность».
– Близки ли мы к созданию машины, которую можно будет по праву назвать разумной?
– Я придерживаюсь принципов эмпиризма и не вижу никаких доказательств проявления сознания у искусственных машин. Довольно часто люди забывают о том, что концепция вычислительной природы сознания или мозга – это не более чем предположение, которое нельзя считать истиной. Всякий раз, когда я указываю на этот факт приверженцам вычислительной теории сознания, мне парируют чуть ли не религиозными аргументами. Многие говорят: «А что же еще там может быть? Неужели вы верите в то, что разум обладает сверхъестественной природой?» Но если допустить, что сознание является физической сущностью, то это также ничего не скажет о природе этой сущности. Вполне возможно, что сознание окажется физической системой, которую просто невозможно будет воссоздать с помощью компьютера.
– Тогда почему же так популярны прогнозы о захвате мира роботами?
– Страх перед новыми технологиями был всегда. Он основан на том, что людям трудно осознать быстрое развитие чего-либо. Мне нравится научная фантастика, я нахожу ее очень вдохновляющей. И все же не стоит забывать, что это выдумка. Технические объекты не обладают собственной волей или желаниями. Так почему же они вдруг «захотят» захватить наш мир? Айзек Азимов сказал, что, когда начал писать о роботах, то единственное, о чем все могли думать, – это идея о захвате ими нашего мира. Никто не хотел слышать ничего другого. Когда мне звонили с вопросами журналисты, я отвечал, что не верю в захват мира ИИ или роботами, и меня вежливо благодарили, вешали трубку и никогда не публиковали моих комментариев.
– Вы описываете ИИ как науку об иллюзии.
– Я уверен, что ИИ, в частности робототехника, использует естественный зооморфизм человека. Мы хотим, чтобы роботы выглядели как люди или животные. Этому желанию способствуют культурные мифы об искусственном интеллекте и наша добровольная вера в невероятное. Древние создатели автоматических устройств, начиная с Герона Александрийского, который придумал первого программируемого робота в 60-м году н. э., видели в своей работе некую естественную магию. Они пользовались различными трюками и иллюзиями, чтобы заставить нас поверить в то, что их машины были живыми. Данная традиция сохранилась и в современной робототехнике с ее машинами, распознающими эмоции и изменяющими выражения своих силиконовых лиц, демонстрируя участливость. Чат-боты умеют подбирать подходящие для разговора предложения. Если бы те, кто создает ИИ, приняли на себя роль шулеров и были бы честны о своей работе, то мы бы достигли больших успехов намного быстрее.
– Такие взгляды резко контрастируют с мнениями многих ваших коллег в области робототехники.
– Да. Робототехник Ханс Моравек считает, что со временем компьютерная обработка превысит скорость человеческого мозга, и это превратит роботов в наших хозяев. Изобретатель Рэй Курцвейл говорит, что к 2045 году люди «сольются» с машинами и будут жить вечно. Для меня это просто сказки. Я не вижу никаких признаков того, что это может произойти в реальности. Данные идеи основаны на предположении о вычислительной природе сознания. Возможно, это и так. Но, возможно, и нет. Вероятность одинакова. Моя работа концентрируется вокруг актуальных проблем ИИ. И нет никаких доказательств того, что когда-либо машины обойдут нас или обретут сознание.
– Существуют ли, по вашему мнению, какие-либо опасности, если мы решим поверить в мифы об ИИ?
– Вполне возможно, такая вера ускорит наш переход к антиутопическому миру, в котором военные действия, охрана правопорядка и забота о слабых будут осуществляться искусственными сущностями, не способными к сочувствию, состраданию и пониманию.
– Как вы отнеслись бы к роботу, ухаживающему за вами в старости?
– Развитие отрасли гериатрических роботов в Японии стремительно набирает обороты. Они могут стать отличной альтернативой, позволяющей не оказаться в доме престарелых. Роботы могут взять на себя множество рутинных обязанностей и помогать в задачах, выполнение которых осложнено провалами в памяти. Но это палка о двух концах. Больше всего я обеспокоен тем, что после испытания и тестирования роботов может возникнуть соблазн переложить на них всю заботу о престарелых. Пожилые люди, как и все мы, нуждаются в любви и человеческом контакте. И довольно часто это исходит только от тех, кто за ними ухаживает. Лично мне кажется, что робот-компаньон не сможет удовлетворить эту потребность.
– У вас также есть опасения по поводу военных роботов.
– Многотысячная армия роботов в воздухе и на земле дает существенное военное преимущество. Никто не станет отрицать пользу роботов при обезвреживании бомб или наружном наблюдении для обеспечения безопасности солдат. Мои опасения связаны с использованием вооруженных роботов. Атаки беспилотников зачастую зависят от достоверности разведывательной информации. Взять, к примеру, Вьетнам. Тогда США начали нападать на людей с карточными долгами осведомителям. Чрезмерное использование технологий в данном случае привело к смерти многих невинных людей. Американские документы по планированию четко указывают на стремление США к разработке автономных машин для убийств. Однако ИИ не в состоянии отличить участника военных действий от мирного жителя. Утверждения о скором появлении таких систем голословны и необоснованны.
– Вы именно поэтому призываете людей к соблюдению этических норм и законов, регулирующих использование роботов?
– Я потратил много времени на изучение мирового законодательства по описанным мною областям этики использования роботов (уход за детьми, охрана правопорядка, уход за престарелыми, военная служба, медицина). И нахожу действующее законодательство неподходящим. Мне кажется, что существует острая необходимость обсуждения данного вопроса между различными профессиональными организациями, гражданами и политиками. Им следует принять решение, пока еще позволяет время. Развитие роботов способно произойти внезапно, как бум Интернета, и мы окажемся к нему не готовы. Я боюсь, что как только «искусственный джин» выйдет из бутылки, будет уже слишком поздно, чтобы вернуть его обратно.