Книга: 2062: время машин
Назад: Уроки прошлого
Дальше: Безразличие

Скрепки повсюду

Второй возможный вариант заключается в том, что, даже если цели сформулированы правильно, остается риск непредсказуемых побочных эффектов, которые могут навредить человеку. Любой, кто когда-либо отлаживал компьютерный код, знает, как раздражающе буквально машины воспринимают инструкции. Этот риск исследован в известном мысленном эксперименте, предложенном Ником Бостромом.

Допустим, мы создадим сверхразумную машину и поставим перед ней задачу сделать столько скрепок, сколько возможно. Поскольку машину наделят сверхинтеллектом, она будет очень хорошо выполнять эту задачу. Она начнет строить все больше заводов по производству скрепок. В конце концов весь мир будет производить только их. Машина в точности выполнит ту задачу, которую перед ней поставили, но для человечества это будет иметь не самые желательные последствия.

Бостром, конечно, всерьез не верит, что мы дадим компьютеру подобные указания, учитывая то, что нам известны все риски. Этот пример был избран им лишь для того, чтобы показать, что даже такая обыкновенная и безвредная задача может быть выполнена совершенно неожиданным образом.

Так же, как и аналогия с царем Мидасом, пример со скрепками демонстрирует неспособность машины принимать правильные решения самостоятельно. Разве не должен компьютер понимать, что не стоит так буквально воспринимать поставленную задачу? Да, создай большое количество скрепок, но не ценой окружающей среды и уж точно не ценой человечества.

Мы или они?

Третий вариант – это появление у машины таких подзадач, которые противоречат существованию человечества. Предположим, перед ней поставили цель сделать людей счастливее или защитить планету. Почти любая подобная задача потребует от сверхинтеллекта наличия ресурсов, позволяющих ее выполнить. Также она потребует того, чтобы компьютеру ничто не помешало достигнуть поставленной цели.

Однако люди могут отключить машину. К тому же, они будут потреблять ресурсы, которые можно было бы использовать для достижения этой цели. В таком случае вполне логичным для сверхинтеллекта будет желание нас уничтожить. Тогда нам уже не удастся отключить машину или потребить ресурсы, необходимые ей для выполнения задачи.

Эти две подзадачи, которые заключаются в самосохранении и присвоении ресурсов, Стивен Омоандро назвал основами мотивации ИИ. Эти основы представляют собой базовые подцели, которыми будет руководствоваться любой относительно разумный искусственный интеллект. ЭАЛ-9000 из «Космической Одиссеи» Артура Ч. Кларка демонстрирует отличный пример ориентированности ИИ на самосохранение. ЭАЛ начинает убивать астронавтов на борту космического корабля «Дискавери-1» в отчаянной попытке не позволить им выключить компьютер.

Другие основы мотивации ИИ заключаются в совершенствовании и креативности. Искусственный интеллект со временем будет становиться более эффективными и дееспособным как физически, так и в области вычислений, что поможет ему выполнять и другие задачи. Возможно также (но менее вероятно), что ИИ станут более креативными, будут искать новые, более результативные пути для достижения целей.

Эффективность – это хорошо; она поможет нам сохранить ограниченные ресурсы этой планеты. Однако креативность представляет собой проблему. Она означает, что машины станут непредсказуемыми. Неизвестно, какими путями они будут идти к достижению целей. Эту проблему мы подробно обсудим в следующем разделе.

Движущаяся мишень

Четвертый вероятный сценарий заключается в том, что сверхинтеллект может самосовершенствоваться, а следовательно, начать работать не так, как задумывалось, в том числе ставить себе совершенно новые цели. Это будет особенно актуально, если мы захотим сделать ИИ умнее нас. Разве можно быть уверенным в том, что, опередив нас, ИИ останется в рамках человеческих моральных норм? Некоторые аспекты, на первый взгляд совершенно безобидные, способны превратиться в подобном случае в опасные.

Движущимся объектом может стать не только сверхинтеллект, но и система, в которой он существует. Этот феномен, получивший название «ползучесть миссии», мы можем наблюдать и в человеческих сферах деятельности. Решение выслать нескольких военных советников во Вьетнам вылилось в полноценную безрезультатную войну, в которой приняли участие сотни тысяч солдат.

Подобные наблюдения над ИИ уже были проведены в ограниченных и безопасных условиях. В 2008 году Google запустил сервис Google Flu Trends. Он был призван обрабатывать большие объемы данных для пользы общества – наиболее эффективного прогнозирования сроков возникновения эпидемий гриппа по всему миру. Google Flu Trends использовал запросы в поисковой системе Google для выявления места и времени особо сильных вспышек гриппа. Если в определенном регионе люди начинали задавать в Google вопросы вроде «Как лечить боль в горле?» или «Что такое простуда?», – это означало, что, вероятно, там начинал распространяться грипп. В 2013 году Google Flu Trends просто прекратил свою работу. После этого он был тихо удален из списка сервисов Google. Что же пошло не так?

Проблема состояла в том, что поиск Google (как и человеческая экосистема, внутри которой он оперирует) – подвижный объект. Часть его улучшений заключалась в том, что Google стал предлагать варианты запросов еще до того, как человек заканчивал печатать. Эти улучшения изменили сам процесс поиска, а потому помешали работе Google Flu Trends. Сделав поиск Google удобнее, мы усложнили процесс прогнозирования эпидемий гриппа.

Назад: Уроки прошлого
Дальше: Безразличие