Сообщается, что после обсуждений возможного ИИ-апокалипсиса с Демисом Хассабисом из DeepMind Стивен Хокинг, не обладающий должным объемом специальных знаний по ИИ, смягчил свои прогнозы. Но опасения, выражаемые рядом авторитетных лидеров мнений, включая Хокинга и Билла Гейтса, вращаются вокруг идеи сингулярности. Сингулярность пророчит, что Землю заселят более разумные виды. Мы можем проследить эволюцию данной идеи до нескольких мыслителей, включая Джона фон Неймана (одного из основателей вычислительной техники) и Вернора Винджа (писателя-фантаста).
Идея сингулярности существует столько же, сколько и сам ИИ. В 1958 году математик Станислав Улам написал посвящение недавно умершему фон Нейману, в котором говорилось следующее: «Один разговор был посвящен все более ускоряющемуся технологическому прогрессу и тем изменениями в образе жизни людей, которые указывают на приближение неизбежной сингулярности… за пределами которой человек больше не сможет вести дела в привычном для него виде».
Существует несколько причин для страха перед машинами с интеллектом, превосходящим наш. По сути люди стали доминирующим видом на планете только благодаря интеллекту. Многие животные крупнее, быстрее и сильнее нас. Но мы использовали наш интеллект для создания инструментов, сельского хозяйства и многих удивительных технологий, включая паро- и электродвигатели, а также смартфоны. Все это изменило наши жизни и позволило нам занять главенствующую роль на планете. Поэтому неудивительно, что машины, которые мыслят – и могут мыслить лучше нас, – способны свергнуть нас с пьедестала. И тогда наше собственное существование будет зависеть от решений превосходящих нас по интеллекту машин. Подобно тому, как жизни слонов, дельфинов и панд подчинены нашей доброй воле.
Идея интеллектуального взрыва, при котором машины начинают рекурсивно совершенствовать собственный интеллект и стремительно превосходят возможности человеческого разума, больше не кажется такой уж бредовой. Область машинных вычислений лишь выиграет от таких экспоненциальных тенденций. Поэтому не исключено, что сфера ИИ также продемонстрирует экспоненциальный рост.
Но есть несколько веских причин, указывающих на несбыточность сингулярности.
Если сравнить человеческий мозг и кремний, то последний будет обладать значительным преимуществом по части скорости. И по закону Мура это преимущество удваивается в среднем каждые два года. Вот только скорость никак не сказывается на улучшении интеллекта. Даже если я научу собаку думать быстрее, вряд ли она сможет играть в шахматы. У собаки отсутствуют необходимые умственные конструкции, язык и абстракции. Стивен Пинкер красноречиво выразился о проблеме: «Чистая вычислительная мощность – это не пыльца фей, которая волшебным образом решит все наши проблемы».
Быть разумным означает куда большее, чем уметь думать о чем-то быстрее или дольше других. Конечно, закон Мура помог ИИ. Теперь мы учимся быстрее и на больших наборах данных. Шустрые компьютеры, безусловно, помогут нам в создании искусственного разума. Но, например, у людей интеллект зависит от многих других вещей, включая многолетний опыт и обучение. Совсем не ясно, получится ли «уместить» все это в кремнии, увеличив тактовую частоту или добавив больше памяти.
Сингулярность предполагает, что человеческий разум – это некий промежуточный этап, своего рода переломный момент. Если в истории науки и есть что-то, чему мы должны были научиться, – так это то, что мы не такие особенные, как нам хотелось бы думать. Коперник рассказал нам, что Вселенная не вращается вокруг Земли. Дарвин показал, что мы ничем не отличаемся от других обезьян. Уотсон, Крик и Франклин открыли, что мы с простейшими амебами используем для жизни один и тот же код ДНК. А искусственный интеллект гарантированно докажет нам, что сам по себе человеческий разум не представляет собой ничего особенного. Нет никаких оснований полагать, будто человеческий интеллект окажется тем самым переломным моментом, достижение которого обеспечит стремительный рост разумности.
Конечно, интеллект человека – это нечто особенное, потому как, насколько нам известно, человеческий род уникален своей способностью к созданию материальных объектов, усиливающих наши интеллектуальные способности. Мы единственные существа на планете, обладающие достаточными умственными способностями для разработки нового интеллекта. И этот новый интеллект не будет ограничиваться медленным процессом эволюции и репродукции человека. Однако мы все еще далеки от переломного момента, некой точки рекурсивного самосовершенствования. У нас нет аргументов в пользу того, что разума человека будет достаточно для создания того самого искусственного интеллекта с соответствующим уровнем умственного развития, который и станет отправной точкой для технологической сингулярности.
Даже если наши умственные возможности позволят создать сверхчеловеческий искусственный интеллект, полученного результата может оказаться недостаточно для приближения сингулярности. Ведь совершенствовать интеллект куда труднее, чем быть просто разумным.
Идея сингулярности предполагает, что улучшение интеллекта будет происходить за счет относительно постоянного множителя, и каждое поколение получит большую долю, чем предыдущее. В то же время работа большинства наших систем искусственного интеллекта до сих пор сводилась к закону снижения отдачи. Сначала многие вещи легкодостижимы, но затем в поиске улучшений мы сталкивались с рядом трудностей. Это и объясняет чрезмерный оптимизм заявлений многих ранних исследователей ИИ.
Система ИИ может бесконечно улучшать себя, однако развитие интеллекта весьма ограничено. Например, если каждое поколение алгоритма будет улучшаться на половину от предыдущей модификации, то такая система не сможет выйти за пределы удвоения своего общего интеллекта.
Во Вселенной есть множество фундаментальных ограничений. Часть из них – физическая. Например, вы не можете разогнаться до скорости света, знать одновременно точное положение и импульс или условия распада радиоактивного атома. Любая созданная нами разумная машина будет ограничена законами физики. Конечно же, если сама эта машина окажется электронной или квантовой, то физические ограничения выйдут за биологические и химические пределы человеческого мозга.
Тем не менее ИИ может отлично работать даже в условиях некоторых фундаментальных ограничений. Ряд ограничений обусловлен свойственной природе неопределенностью. Вне зависимости от того, насколько усердно мы размышляем о проблеме, качество принятых нами решений, скорее всего, окажется весьма ограниченным. Даже сверхразум не сможет предсказать победителя лотереи EuroMillions лучше нас самих.
И, наконец, в информатике уже есть собственная теория о сложности решения различных проблем. Существует множество вычислительных проблем, для практического решения которых даже экспоненциальных улучшений оказывается недостаточно. Компьютер не может анализировать код и точно знать момент остановки. Это называется «проблемой остановки».
Как известно, Алан Тьюринг доказал, что такая проблема вообще не поддается вычислению, вне зависимости от того, насколько быстрым или умным мы сделаем компьютер, анализирующий код. Здесь поможет переход на другие типы устройств (например, квантовые компьютеры). Но они, по сравнению с классическими компьютерами, будут предлагать только экспоненциальные улучшения, которых окажется недостаточно для решения таких задач, как проблема остановки. А гипотетическое появление гиперкомпьютеров, способных прорваться сквозь вычислительные барьеры, остается весьма спорным.