Книга: Принцип апокалипсиса: сценарии конца света
Назад: Интервью Хокинга
Дальше: Глава 13 Электронный апокалипсис по принципу домино

Террористический Интернет

Я из тех, кто считает, что суперинтеллект может угрожать человечеству. Сначала машины будут выполнять за нас работу и не будут обладать суперинтеллектом. Хорошо, если мы правильно будем этим управлять. Через несколько десятилетий машины поумнеют настолько, что это может стать для нас проблемой. Здесь я согласен с Илоном Маском и другими и не понимаю, почему многих людей это не волнует.
Б. Гейтс, основатель корпорации Microsoft
Уже сейчас, как уверен профессор Хокинг, есть серьезные проблемы с интернетом. Свои опасения он подкрепляет словами директора Британского Центра по контролю за коммуникациями GCHQ Роберта Ханнигана, который недавно предупредил, что интернет становится командным центром для террористических организаций.
Свои опасения высказывает и основатель корпорации Microsoft Билл Гейтс, который, в частности, считает, что ИИ в самом скором времени может превратиться в источник постоянных проблем, связанных с непонятной даже его создателям логикой поведения.
В общем, тему своего заявления Хокинг выбрал неслучайно. Высокотехнологичный сектор робототехники относится к одной из самых динамичных и быстроразвивающихся отраслей современной индустрии. Передовые технологии с примитивными формами ИИ были созданы еще в конце прошлого века и сегодня активно применяются в различных отраслях: атомной, нефтегазовой, медицине и фармацевтике.
Хорошим примером «скрытой угрозы искинов» являются проекты создания интеллектуального электромобиля без водителя. Так, несколько лет назад первые 40 машин, оснащенные 22 сенсорами, панорамными камерами и «умной» программой управления, начали передвигаться в тестовом режиме со скоростью 30 км/ч по улицам городов Британии. Ведущие же мировые производители интеллектуальной робототехники – США, Южная Корея, Япония – по оценкам экспертов, вообще уже стоят на пороге новых революционных открытий в плане создания «сверхинтеллектуальных» искинов.
Вместе с тем развитие с такой степенью интенсивности принципиально нового технологического феномена – «коммуникации естественного и искусственного разума» – требует совершенно иного подхода к искинам в глобальном масштабе. Так, по мнению ряда ученых, вполне назрела необходимость выработки согласованных международных подходов по целому ряду щекотливых вопросов и явных, уже сейчас очевидных правовых ловушек, связанных с развитием и адаптацией ИИ в обществе.
Но вот что настораживает: пока ученые спорят о перспективах развития искусственного интеллекта, это направление высоких технологий продолжает активно развиваться в военных целях. Мало кто из западных стран, а особенно США, хотят ограничивать создание систем искусственного интеллекта, которые уже сейчас активно используются для отслеживания глобального информационного пространства. Иными словами, речь идет еще об одной сфере развития человечества, где может быть предпринята попытка создания условий для глобального доминирования. Может быть, имеет смысл прислушаться к мнению ученых и подумать над правовым регулированием в рамках ООН. Или хотя бы начать обсуждать эту тему в ЮНЕСКО. Иначе клонирование и зачатие ребенка от трех родителей, на что получено разрешение в той же Великобритании, покажется детской шалостью.
Назад: Интервью Хокинга
Дальше: Глава 13 Электронный апокалипсис по принципу домино