Книга: Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин
Назад: Научиться видеть и слышать
Дальше: 4. Вопросы жизни и смерти

Ораторские приемы: ИИ учится спорить

В романе Дугласа Адамса «Детективное агентство Дирка Джентли» компьютерная программа Reason могла задним числом обосновать любое решение, предоставляя неопровержимые доказательства его правильности. Она была настолько эффективной, что была полностью выкуплена Пентагоном, как раз незадолго до увеличения общественной поддержки военных расходов.



Мы пока что не дошли до подобной стадии. Машины побеждают нас в логических играх (го) и играх с блефом и случайностями (покер). Но ни один компьютер так и не приблизился к тому, чтобы победить людей в чем-то важном – в споре.

Первую волну искусственного интеллекта, способную обрабатывать огромные объемы информации и максимально эффективно обнаруживать взаимосвязи, дали нам такие поисковые системы, как Google. Машина, способная сформулировать аргумент – не просто найти информацию в Интернете, а синтезировать ее в более или менее убедительные выводы, – выведет поисковую систему на принципиально новый уровень. Такое «исследовательское устройство» поможет принимать решения в различных областях от права до медицины и политики. С учетом огромного количества текущих проектов, стремящихся добавить нотку скандальности в ИИ, остается лишь вопросом времени, когда мы сможем испытать собственный темперамент на кремнии ИИ.

Споры – это то, в чем люди особенно хороши. От учтивых разногласий по поводу обеденных блюд до громогласных разборок на тему парковочных мест или политических гонок; обмен противоположными мнениями – это как раз то, чем мы обычно занимаемся. Бывают и такие споры, в которых не участвует ни один аргумент. Желание спорить заложено у человека в крови. По мере усложнения окружающего наших предков мира, люди, ставящие под сомнение истинность высказываний друг друга, получали более мощное эволюционное преимущество. Аргументированность являлась источником рационального мышления: наша способность к оценке плюсов и минусов ситуации возникла на задворках древних споров.

И это факт

Социальные корни человеческой аргументации осложняют жизнь ИИ. Даже когда Watson от IBM нанес сокрушительное поражение двум чемпионам-людям в телевикторине Jeopardy!, он лишь продемонстрировал выдающуюся способность отвечать на реальные вопросы.

В беспорядочном реальном мире такие методы вам мало пригодятся. «Многие вопросы, с которыми мы сталкиваемся в жизни, не основываются на фактах, – рассказывает Ноам Слоним из исследовательской лаборатории IBM в Хайфе, Израиль. – Это вопросы, на которые нет однозначного ответа».

После успеха на Jeopardy! Слоним плотно сотрудничал с командой Watson, пытаясь понять, сможет ли машина перейти от фактов к доводам. Если бы вы, например, спросили ее, стоит ли продавать жестокие видеоигры детям, она бы не просто выдала ссылки на мнения других людей, а синтезировала бы факты и аргументы «за» и «против».

Пользователям придется самостоятельно решать, какие аргументы заслуживают доверия. Точно так же мы решаем, каким ссылкам из поисковых систем можно доверять. Но в мире, где нас попросту заваливают данными, программное средство аргументации позволит юристам перестать копаться в бескрайних архивах информации в поисках юридических прецедентов – ведь они смогут получить неоспоримые доводы по простому нажатию кнопки. Доктора будут добавлять в систему симптомы и получать достоверные рекомендации из историй болезни пациентов. Компании привлекут машины к продумыванию доводов в пользу покупки собственных товаров. Политики смогут тайно проверить действенность своих манифестов. Быть может, мы даже начнем консультироваться со средствами аргументации до того, как пойти на выборы.

Все это указывает на то, что в своей работе Слоним больше не одинок. Он уже собрал команду из более чем 40 человек. Кроме того, по всему миру начинают появляться и другие исследовательские группы.

Призыв к здравому смыслу

Первый вопрос, который должна была решить команда Слонима, – что с логической точки зрения может считаться аргументом. Грубым определением этого является утверждение, подкрепленное доказательствами. Но тогда необходимо будет уточнить определение слова «утверждение». Создавать элементарное в обращении руководство для ИИ – задача на удивление сложная.

Для обучения Watson команда Слонима обратилась к Википедии, предположив, что статьи в онлайн-энциклопедии окажутся богатым источником утверждений и контрутверждений. Это оказалось невероятно сложной задачей, сравнимой даже не с поиском иголки в стоге сена, а с выискиванием в этом стоге определенной разновидности сена. «В Википедии содержится порядка 500 миллионов предложений, – рассказывает Слоним. – А утверждение – это не предложение. Оно обычно скрывается внутри предложения».

Началась работа по выявлению ключевых особенностей, отличающих утверждения от общих высказываний. Например, в утверждениях чаще упоминается конкретное время и место, а также такие эмоциональные слова, как «исключительный» или «сильный». В дальнейшем команда надеется сместить акцент на выявление доказательств, подтверждающих утверждения, и обучение системы различию между неофициальными данными и заключениями экспертов. Исследователи также планируют узнать, какой вес придается различным формам доказательств.

Конечно же, все это хорошо в случаях, когда нам требуется логичная и беспристрастная оценка фактов. Но сухие факты редко убеждают людей. В основном логические дискуссии вытесняются тем, что мы чувствуем.

Кое-что о чувствах

Всякий искусственный интеллект, стремящийся стать не просто исследовательской машиной, а полноправной «машиной аргументов», которая не просто спорит, но спорит с человеческой хитростью, должен отлично владеть способами аргументирования. Но зачем нам такая машина?

Франческа Тони, исследователь ИИ в Имперском колледже Лондона, утверждает, что аргументация – это способ разрешения конфликта. Машины, способные на аргументирование, позволят нам лучше и легче оценить конфликты, избежав при этом ошибок. Крис Рид, исследователь ИИ в Университете Данди, Великобритания, считает, что сама идея несколько утопична. Тем не менее он согласен с тем, что машины аргументов помогут повысить уровень публичных обсуждений.

В течение последних нескольких лет команда Рида занималась поиском достойных аргументов, а затем разбирала и переделывала их в форму, которая подошла бы для обучения ИИ навыкам ведения спора на человеческом уровне. Эти поиски привели исследователей к неожиданным открытиям. Например, бурные дебаты в парламенте Великобритании не являются хорошим справочным материалом. В них слишком много напускного важничества, перебивания друг друга и отсылок к предыдущим дебатам. «Качественных аргументов здесь гораздо меньше, чем мы ждали и надеялись», – говорит Рид. С другой стороны, некоторые онлайн-форумы, несмотря на несдержанность участников, содержат на удивление хорошо структурированные аргументы.

Любимый источник Рида – радиошоу Moral Maze на BBC, в котором участники дискуссии обсуждают этические аспекты повестки дня. Эта полулегальная полемика, взывающая к нашим эмоциям, – как раз то, из чего можно создать общий фундамент человеческой аргументации. Анализируя и классифицируя разновидности используемых аргументов и их взаимосвязи друг с другом, команда Рида стремилась создать инструмент, который подошел бы для обучения ИИ.

В июле 2012 года исследователи провели первый анализ аргументов в режиме реального времени на примере эпизода Moral Maze, в котором подробно обсуждались нюансы британского колониального права в Кении. Утверждения и контрутверждения с их взаимосвязями представлялись на гигантском сенсорном экране в форме, подходящей для загрузки в ИИ. С тех пор команда Рида повторяла данную процедуру множество раз, разбирая эпизоды Moral Maze, другие радиопередачи и печатные источники, а также некоторые сообщения на форумах, и превращая их в общедоступный банк данных с картами аргументов.

Изменение мнения

Команда Рида приступила к сотрудничеству с IBM, пытаясь познакомить Watson с сетью человеческих рассуждений. В это же время проект, запущенный Иваном Хаберналом и Ириной Гуревич в Дармштадском техническом университете в Германии, собирался пойти еще дальше и анализировать не только используемые аргументы, но и наиболее эффективные из них. В 2016 году они попросили 4000 человек выбрать, какой из двух аргументов, несущих один и тот же смысл, но в разной форме, они сочтут более убедительным, и объяснить почему. После 80 000 полученных ответов исследователи получили базу данных, которую можно было бы использоваться для обучения вычислительных систем оценке аргументов, благодаря чему спор будет более убедительным.

– В моем понимании целью исследования являлось изменение чьего-либо мнения, переубеждение собеседника, – рассказывает Хабернал. Поверим ли мы в это? Полноценная машина аргументов звучит столь же неправдоподобно, как выдуманное Дугласом Адамсом приложение Reason. Кажется маловероятным то, что кто-то доверится машине, которая будет говорить ему, за кого голосовать, как относиться к определенной проблеме и т. д. Если бы два десятилетия назад кто-то сказал нам, что мы доверим ИИ подбор и оценку источников информации в сети, этому бы поверили лишь единицы.

Назад: Научиться видеть и слышать
Дальше: 4. Вопросы жизни и смерти