100. Может ли искусственный интеллект использоваться в качестве оружия?
К сожалению, ответ на данный вопрос утвердительный.
Давайте рассмотрим некоторые инструменты, применявшиеся в нашей истории. Во многих случаях изначально целью их создания было помочь людям выполнять задачи лучше или быстрее, однако потом эти инструменты были адаптированы под использование их в военных целях.
По мере развития технологий искусственного интеллекта и робототехники, военные организации, скорее всего, найдут способы использования данных технологий для достижения своих целей.
В августе 2017 года Илон Маск и еще 116 директоров компаний и исследователей в области технологий искусственного интеллекта из 26 стран подписали открытое письмо с требованием к ООН запретить использование вооружений с искусственным интеллектом.
С содержанием данного письма, а также именами подписантов, вы можете ознакомиться по ссылке: https://futureoflife.org/autonomous-weapons-open-letter-2017.
Ниже приведен один из самых важных абзацев данного письма, в котором говорится следующее:
Такое [смертоносное автономное] оружие позволит вооруженному конфликту разворачиваться в большом масштабе. Это может быть настолько сокрушительная и быстрая война, что человек не может этого себе представить. Как только ящик Пандоры откроется, закрыть его будет практически невозможно. Именно поэтому мы призываем договаривающиеся стороны найти способ защитить нас всех от этой опасности.
Я надеюсь, что поддержка от лидеров в области робототехники и искусственного интеллекта вдохновит других представителей данной отрасли на то, чтобы последовать примеру этих лидеров.
Похожее открытое письмо, опубликованное Тоби Уолшем, предостерегает страны от использования технологий искусственного интеллекта в гонке вооружений. Это письмо подписали 3105 исследователей в области технологий искусственного интеллекта и робототехники, а также 17 701 человек. С данным письмом вы можете ознакомиться и подписаться под ним по ссылке: https://futureoflife.org/open-letter-autonomous-weapons.
Макс Тегмарк, основатель Института будущего жизни, предупреждает о том, что нам нужно хорошо подготовиться к будущему, чтобы изначально правильно воспринимать продвинутые технологии искусственного интеллекта. По словам Тегмарка, если с другими изобретениями и открытиями, такими как огонь, люди имели возможность совершать ошибки и учиться на них, то с развитым искусственным суперинтеллектом у нас такой привилегии нет.
Во всем, что касается развитого искусственного суперинтеллекта, даже небольшие ошибки в планировании могут привести к большим проблемам в будущем. Чтобы не дать этому произойти, Тегмарк подталкивает всех, кто участвует в создании таких технологий, заняться «конструированием безопасности». Ключевыми примерами этого подхода могут быть запрет автономного смертоносного оружия и обеспечение уверенности в распространении преимуществ технологий искусственного интеллекта на все слои общества.
Кроме того, если вы заинтересованы в получении свежих новостей и дополнительной информации о данных проблемах, я рекомендую вам стать участником Института будущего жизни (Future of Life Institute). Сделать это можно по ссылке: https://futureoflife.org/get-involved/.