Кажется, пришло время сформировать этику и нормы поведения «человекоподобных роботов».
На конференции «Benificial AI 2017», проходившей с 5 по 8 января 2017 г., представители промышленности и научно-исследовательских учреждений, связанных с развитием искусственного интеллекта, сформулировали «Двадцать три принципа» функционирования ИИ. При нормальном развитии науки каждый сможет получить выгоду от новых технологий. Двадцать три принципа разделены на три части: проблемы исследований, этические ценности и долгосрочные перспективы.
Основная исследовательская проблема заключается в том, чтобы создать полезный инструмент и не позволить ему развиваться спонтанно по примеру эволюции жизни. Помимо инвестиций, ИИ нуждается в строгом контроле разработок. Исследования должны двигаться в направлении создания искусственного интеллекта, который принесет пользу человечеству, и решать проблемы в области компьютерных наук, экономики, права, этики и социальных исследований. Нам необходимо акцентировать внимание на надежности, чтобы мы могли делать все, что хотим, без боязни сбоя или взлома. Как достичь процветания с помощью автоматизации, не нарушая баланс между ресурсами и целью? Как обновить правовую систему, чтобы добиться большей справедливости и эффективности? Как идти в ногу с развитием ИИ? Как управлять рисками, связанными с искусственным интеллектом? Какие ценности должны быть свойственны ИИ и каким должен быть его правовой статус и нормы морали?
Другие исследовательские вопросы касаются сотрудничества ученых и политиков. Необходимо сконцентрироваться на развитии культуры взаимодействия, выработке доверия, обеспечении прозрачности. И не допустить нездоровой конкуренции и снижения стандартов безопасности.
Часть принципов по вопросам этики представляет собой целый ряд положений, касающихся безопасности систем искусственного интеллекта, выявления причин ошибок, прозрачности. Любое действие робота в отношении принятия судебных решений должно быть доступно для проверки компетентными органами по правам человека. Разработчики и пользователи несут ответственность за этичность принятия решений и должны гарантировать, что цели и поведение высокотехнологичных систем соответствуют общепризнанным человеческим ценностям и не нарушают права, свободы человека. Чтобы обеспечить защиту частной жизни, люди должны иметь доступ к данным, собираемым и анализируемым машинами – контролировать производимые ими данные и разумно ограничивать их возможности. Искусственный интеллект должен быть универсальным. Его польза должна распространяться на всех членов общества. Сила ИИ должна быть направлена на улучшение социальных условий и совершенствование процессов, необходимых для здорового развития общества, а не на подрыв этих процессов и очередную гонку вооружений в сфере высоких технологий.
В долгосрочной перспективе рекомендуется избегать принятия решений, ограничивающих возможности ИИ, без консенсуса. Управлять машинами, обеспечивая надлежащий уход и необходимое количество ресурсов. А также своевременно справляться с рисками. В отношении систем с функциями искусственного интеллекта, которые быстро растут и развиваются, должны быть приняты соответствующие меры обеспечения безопасности.
И последний пункт, отражающий «общие интересы»: сверхразум должен признавать только широко распространенные этические нормы и развиваться на благо человечества, а не отдельной страны или организации.
«Двадцать три принципа» не напомнили «Военный устав», хотя такая вероятность была. Они больше похожи на абстрактные обращения. Здесь скорее ставятся вопросы, чем даются решения. Это скорее желания, чем реальные возможности. «Принципы» содержат множество положений, касающихся соответствия человеческим ценностям, что вполне естественно. Но остается три вопроса. Во-первых, основа ценностей – необходимость использования инструментов (машин) без ущерба для интересов человека. Но даже сейчас мы не следуем этому пункту, например при использовании оружия. Но это действительно важно: ограничить инструмент настолько, насколько это возможно. В случае с оружием договором о взаимном разоружении или ненападении.
Во-вторых, люди серьезнее относятся к искусственному интеллекту, потому что понимают его серьезное отличие от инструментов прошлого. У последних не было жизни, сознания, и они полностью подчинялись человеческой воле. Но если у роботов появится сознание, как к ним относиться? Очевидно, это проблему в «Принципах» обошли стороной. Люди отказались от рабства и запретили использовать человека в качестве инструмента. А что насчет роботов? Если наша цель – сделать роботов инструментами, не сочтут ли машины ее жестокой?
В-третьих, в человеческих ценностях нет единства. Составители «Принципов» по большей части находятся в Кремниевой долине, они уже выступали против правительства Трампа в 2016 году, выражая недовольство выбранным курсом. Сформулированные правила кажутся прекрасными, но в действительности могут не соответствовать ценностям других людей.
Двадцать третий принцип – своего рода аналог политкорректности, который сформулирован по отношению к роботам. Но мы должны понимать, что такая «политкорректность» не формируется за одну ночь. Поставить коллективную подпись на документе – это одно дело. А вот взяться за реализацию – другое. Ценности не статичны и рождаются в процессе. Они не могут существовать изолированно только в одной группе. В будущем ИИ присоединится к процессу формирования ценностей. И только тогда возможно создать нечто действительно значимое и для человечества, и для машин. Нам необходимо постоянно следить за развитием ИИ и человека. «Двадцать три принципа» станут маяком.