Книга: Принцип апокалипсиса: сценарии конца света
Назад: Глава 12 Восстание интеллектуальных машин
Дальше: Террористический Интернет

Интервью Хокинга

Полезный искусственный интеллект мог бы сосуществовать с людьми и увеличивать наши возможности. Но искусственный интеллект, вышедший из-под контроля, может оказаться трудно остановить. При разработке искусственного интеллекта необходимо обеспечить соблюдение требований этики и мер безопасности…
Появление полноценного искусственного интеллекта может стать концом человеческой расы.
Из интервью С. Хокинга Л. Кингу (RT America)
Недавно, беседуя с легендарным американским журналистом Ларри Кингом, Хокинг сделал необычное заявление. По его словам, классические законы робототехники, введенные 75 лет назад Айзеком Азимовым, безнадежно устарели. В первую очередь это связано с военными проектами искинов-терминаторов, массово создаваемыми Пентагоном с помощью одиозного американского Агентства по перспективным оборонным научно-исследовательским разработкам (DARPA).
Надо сказать, что некоторую ограниченность трех законов робототехники прекрасно понимал и сам Азимов. Об этом говорит «нулевой закон», сформулированный в одном из его романов, входящих в цикл «Основание», который рассказывает об очень далеком будущем галактической расы землян. В книге «Основание и роботы» (1985 год) говорится: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».
Сегодня американские военные, бредящие возрождением рейгановских «звездных войн», пытаются всячески переформулировать этику законов робототехники, подстраивая ее под образ «великой американской мечты господства над всем миром». Так возникают чудовищные проекты «звезд смерти», населенных искинами и следящих за соблюдением «базовых принципов либеральной демократии» на нашей планете. Ну а если электронный мозг «звезды смерти» решит, что где-то на Земле нарушаются «принципы свободы и демократии» в понимании Белого дома, туда немедленно ударят все испепеляющие лучи гайзеров (рентгеновских лазеров). Варианты этого страшного оружия с «ядерной накачкой» были созданы еще в эпоху параноидальной рейгановской СОИ (Стратегической оборонной инициативы)…
Стивен Хокинг отмечал, что примитивные формы искусственного интеллекта, уже существующие на сегодняшний день, доказали свою полезность, но он опасался, что человечество создаст что-то такое, что превзойдет своего создателя.
Ученый предполагает, что такой разум очень быстро возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. А если учесть, что возможности людей ограничены слишком медленной эволюцией, мы никак не сможем соревноваться со скоростью «мышления» машин.
Хокингу возражает молодой разработчик веб-приложения Cleverbot Ролло Карпентер, который доказывает, что мы еще долго останемся хозяевами даже самых продвинутых искинов, которые, в свою очередь, могут помочь нам решить многие мировые проблемы.
Для подобных высказываний у Карпентера есть весомые основания, ведь Cleverbot хорошо зарекомендовало себя в так называемом тесте Тьюринга. Суть его заключается в том, сможет ли экзаменатор при анонимном общении по ряду ответов на его вопросы уверенно определить, кто перед ним – человек или машина. При этом главная задача разработчика образа искина – так «настроить» его на человеческую логику, чтобы его было невозможно распознать.
Карпентер считает, что мы не можем с уверенностью сказать, что произойдет, когда машины превзойдут нас интеллектом. Следовательно, мы не можем предсказать, как они поведут себя: станут ли они нам помогать, нас игнорировать или же рано или поздно нас уничтожат.
С другой стороны, Хокинга всячески поддерживает американский инженер, предприниматель и миллиардер Илон Маек. Он основал известные компании: – аэрокосмический стартап SpaceX и автомобильный концерн Tesla. Маек уверен, что успех создания искусственного интеллекта станет самым значительным событием нашего времени, но это же станет, к сожалению, и последним событием для существования человечества. Этот яркий и выдающийся бизнесмен, автор многих амбициозных высокотехнологичных проектов, предостерегает, что уже через 5-10 лет в недрах искинов появится нечто действительно очень опасное. Маек сравнивает создание «нейрокибернетических искинов» буквально с «вызовом демона-разрушителя» и уверен, что необходимо срочно создать некий международный комитет по надзору за ИИ-технологиями.
Назад: Глава 12 Восстание интеллектуальных машин
Дальше: Террористический Интернет