Глава 7. Прогнозирование суждения
В числе прочих Waymo (проект Google) успешно тестирует автоматизированные способы транспортировки людей между двумя пунктами назначения. Но это только часть создания беспилотных транспортных средств. Вождение влияет еще и на пассажиров, что гораздо труднее отслеживать. Человек за рулем учитывает наличие других людей в автомобиле. Один из первых навыков, осваиваемых водителем, – плавное торможение, комфортное для пассажиров. Машины Waymo учат избегать резкой остановки.
В процессе вождения принимаются тысячи решений. Людям нецелесообразно программировать суждение для всех возможных ситуаций. Системы автономного вождения обучают на примерах, чтобы они умели прогнозировать человеческое суждение: «Как в этой ситуации поступил бы человек?» И вождение не единственный пример. В любой обстановке, где люди многократно принимают решения и способны запоминать информацию о полученных данных и сделанном на их основе выборе, мы сможем автоматизировать принятие решений, вознаграждая прогностические машины за прогноз действий человека.
Важнейший вопрос, по крайней мере для людей, заключается в том, сможет ли ИИ использовать свои прогностические возможности для вынесения человеческих суждений и таким образом вообще устранить потребность в людях.
Взломать человека
Многие решения сложны и базируются на суждении, которое невозможно запрограммировать. Однако это не гарантирует, что основная ответственность за принятие таких решений сохранится за человеком. Напротив, машина, как и беспилотные автомобили, может научиться прогнозировать человеческое суждение на примерах. Прогностическая задача формулируется так: «Что сделал бы человек с учетом входных данных?»
Компания Grammarly уже создала прецедент. Ее основали в 2009 году Алекс Шевченко и Макс Литвин и первыми использовали машинное обучение для проверки письменных текстов. Программа исправляет грамматические и орфографические ошибки. Например, если проверить оригинал предыдущего предложения на английском языке (It’s main focus is on improving grammer and spelling in sentences), Grammarly сообщит, что вместо it’s должно быть its, а grammer написано с ошибкой (нужно исправить на grammar). И добавит, что слово main чаще всего бывает лишним.
Grammarly сделала такой вывод на основе массы изученных документов, проверенных компетентными редакторами, и обратной связи от пользователей, которые принимали или отвергали предложенные исправления. В обоих случаях программа прогнозирует, как поступил бы профессиональный редактор. Она выходит за пределы механического применения грамматических правил и анализирует, предпочтительны ли отклонения от них для пользователей.
Обучение ИИ человеком осуществляется и в других сферах. В стартапе Lola для автоматизации бронирования гостиниц ИИ подбирает подходящие гостиницы. Но, как писала New York Times:
«Он не достигает уровня, например, квалифицированного агента в бронировании семейной поездки в Диснейуорлд. Человек более находчив – скажем, зная, что семья хочет сфотографироваться с детьми на фоне замка Золушки, посоветует забронировать столик для завтрака до открытия ворот парка».
Из приведенного примера очевидно, что машине проще применить измеримое суждение (то есть наличие свободных номеров и цену), чем понять неявные предпочтения. Однако Lola может научиться прогнозировать действия опытных агентов. Вопрос в том, сколько прогностической машине требуется получить обратной связи от людей, бронирующих отпуск в Орландо, чтобы узнать достаточное количество соответствующих критериев. И хотя не все из них подвластны ИИ, Lola выяснила решения агентов, которые они не могли бы описать заранее, такие как предпочтение отелей современного типа или, например, расположенных на перекрестке центральных дорог.
Люди, обучающие ИИ, помогают ему совершенствоваться, и постепенно необходимость участия человека во многих аспектах задачи отпадает. Это особенно важно в автоматизации процессов, где ошибки недопустимы. Человек исправляет их, отслеживая действия ИИ. Но со временем ИИ научится на своих ошибках, и человек ему больше не понадобится.
Еще один пример – стартап , электронный помощник для составления рабочего расписания и занесения планируемых встреч в календарь. Он («Эми» или «Эндрю» – на ваш выбор) взаимодействует с пользователем и всеми, с кем тот желает встретиться, по электронной почте. Например, можно отправить письмо Эндрю, чтобы он организовал встречу с мистером Х в следующий четверг. проверяет ваш служебный календарь и отправляет мистеру Х письмо. Мистер Х, скорее всего, не догадается, что Эндрю – не человек. Таким образом, вы освобождены от задачи договариваться с мистером Х или его ассистентом (который теоретически тоже может оказаться Эми или Эндрю).
Конечно, если в расписании случатся накладки или цифровой ассистент ненароком обидит приглашенного, это грозит катастрофой. Несколько лет обучением занимались люди, они проверяли и утверждали письма ИИ. Каждый раз, когда ошибку исправляли, ИИ учился. Роль человека сводилась не только к обучению цифрового ассистента вежливости. Ему приходилось иметь дело с попытками других людей сбить его с толку. Что касается переписки, вопрос, насколько возможно автоматизировать прогнозирование суждения, пока остается открытым.
Возможно ли вытеснение человека?
Если машины научатся прогнозировать поведение людей, вытеснят ли они собой человека полностью? С учетом нынешней тенденции развития прогностических машин – вряд ли. Согласно элементарным правилам экономики, люди в качестве ресурса будут вносить какой-то вклад в любой вид деятельности. Вопрос скорее в том, низкой или высокой ценностью он будет обладать и насколько станет интересным. Чем должны заниматься сотрудники вашей организации? На какие качества обращать внимание при наборе нового персонала?
Прогноз основывается на данных, поэтому у людей два преимущества перед машинами. Нам известно кое-что, чего машины не знают (пока), и, что еще важнее, мы умеем лучше принимать решения при ограниченном объеме данных.
Люди обладают тремя типами данных, которых нет у машин. Во-первых, органы чувств: глаза, уши, нос и кожа по многим показателям пока еще превосходят машинные датчики. Во-вторых, люди определяют свои предпочтения самостоятельно. Данные о потребителях представляют огромную ценность, потому что необходимы машинам для выяснения этих предпочтений. Супермаркеты делают скидку по карте постоянного покупателя, чтобы собрать данные о пожеланиях клиентов. Магазины платят деньги за опросы. Google, Facebook и другие компании предоставляют бесплатные услуги в обмен на данные, которые можно использовать для целенаправленной рекламы. И, в-третьих, соблюдение конфиденциальности требует ограничить доступные машинам данные. Пока люди сохраняют в тайне свою частную жизнь, материальное положение, психические отклонения и крамольные мысли, у прогностических машин не будет достаточно данных для прогнозирования поведения. При отсутствии качественных данных наше восприятие других людей обеспечит востребованность умения судить и оценивать, недоступное машинам.
Прогноз с недостаточными данными
Прогностическим машинам не хватает данных по нечасто происходящим событиям. Если у машин недостаточно примеров человеческих решений, они не могут предусмотреть суждение, лежащее в их основе.
В мы обсуждали «известные неизвестные» – редко встречающиеся события, которые cложно прогнозировать из-за недостатка данных, такие как президентские выборы или землетрясения. В некоторых случаях люди дают качественный прогноз таких событий: например, мы узнаем человека в лицо, даже если он постареет. Там же мы обсуждали «неизвестные неизвестные», которые по определению не поддаются прогнозированию, и непонятно, как на них реагировать. ИИ не может прогнозировать действия человека, если тот никогда не попадал в похожую ситуацию. Поэтому ИИ не способен дать прогноз стратегического направления компании в свете появления новых технологий, таких как интернет, биоинженерия или собственно ИИ. А люди умеют проводить аналогии или обнаруживать полезное сходство в самых различных контекстах.
Когда-нибудь прогностические машины продвинутся в аналогиях. Но пока они не способны прогнозировать редко происходящие события. В обозримом будущем прогнозированием и суждением в нестандартных ситуациях будут заниматься люди.
В мы отдельно подчеркнули «неизвестные известные». Это, к примеру, трудности в принятии решения о том, рекомендовать ли данную книгу друзьям, даже если вы достигнете невообразимых успехов в управлении ИИ. Сложность заключается в отсутствии данных о том, что произошло бы, если бы вы ее не прочитали. Если хотите разобраться, что именно служит причиной чего бы то ни было, необходимо знать развитие событий вследствие иных действий.
У людей есть два решения этой проблемы: эксперименты и моделирование. Если ситуация возникает достаточно часто, можно провести рандомизированное контролируемое испытание. Наберите людей в экспериментальную группу (заставьте прочитать книгу или хотя бы раздайте всем и затем проэкзаменуйте на знание материала) и контрольную (не разрешайте читать книгу или просто не рекламируйте). Через некоторое время проверьте, как они применяют ИИ в своей работе. Сравните результаты двух групп. Разница между экспериментальной и контрольной группами и станет результатом прочтения всей книги.
Такие эксперименты весьма эффективны. Без них не одобряют новые лекарственные препараты. Благодаря им принимают решения работающие с данными компании, от Google до Capital One. Машины тоже могут проводить эксперименты. При достаточной частоте событий способность экспериментировать присуща не только людям.
Машины экспериментируют и учатся причинно-следственной связи на примерах, как и люди. Это основная причина, по которой машины обыгрывают человека в видеоиграх.
Моделирование – альтернатива экспериментам – заключается в глубоком понимании ситуации и процессов, генерирующих имеющиеся данные. Оно особенно пригодится, когда эксперименты невозможны из-за недостаточной частоты ситуации или высоких издержек.
Решение ZipRecruiter по ценообразованию, описанное нами ранее, состоит из двух частей. Первая – это определение «оптимальной» цены: краткосрочный доход или долгосрочные перспективы? Больше соискателей и рекламодателей или высокие цены? Вторая – выбор конкретной цены. Для решения этой задачи использовали эксперимент. Его придумали квалифицированные специалисты, но теоретически с развитием ИИ и при достаточном количестве рекламодателей и времени такие эксперименты можно автоматизировать.
Гораздо сложнее автоматизировать определение значения «оптимальный». Поскольку число соискателей зависит от количества объявлений о вакансиях и наоборот, результат наблюдений рынка только один. Если ошибиться, ZipRecruiter может обанкротиться и не получить второй шанс. Поэтому она использовала бизнес-моделирование: изучила последствия увеличения краткосрочной выгоды и сравнила с альтернативной моделью, целью которой было увеличение выгоды за долгий срок. При отсутствии данных моделирование исходов и разработка функции вознаграждения осуществляются людьми, пусть даже только самыми компетентными.
Моделирование помогло странам – союзникам СССР проводить воздушные атаки во время Второй мировой войны. Инженеры придумали, как лучше оснастить бомбардировщики, увеличив грузоподъемность самолетов без потери летных качеств. Вопрос заключался в том, какие части самолетов требуется защитить. Эксперименты были возможны, но ценой крупных издержек. Они стоили бы пилотам жизни.
Инженеры осматривали каждый бомбардировщик, вернувшийся с воздушной атаки на Германию. Данными для них служили пулевые отверстия. Но там ли следовало укреплять обшивку?
За оценкой проблемы обратились к статистику Абрахаму Вальду. После размышлений и подробных расчетов он порекомендовал установить защиту на те части обшивки самолетов, куда пули не попадали. Может быть, Вальд что-то перепутал? Его совет противоречил здравому смыслу. Возможно, он имел в виду «на места, куда пули попали»? Нет. Он смоделировал процесс генерации данных. Зная, что некоторые самолеты были подбиты, он предположил, что смертоносные пули должны были попасть в другие части обшивки, ведь уцелевшим самолетам они не нанесли существенного урона. С учетом этого авиационные инженеры укрепили обшивку, и бомбардировщики теперь защищены лучше.
Концепция Вальда об отсутствующих данных требует понимания, откуда они поступают; поскольку такой проблемы раньше не возникало, у инженеров не было примеров, из которых они могли бы исходить. В обозримом будущем такие расчеты не будут доступны прогностическим машинам.
Решение такой сложнейшей проблемы удалось не машине, а человеку, лучшему статистику в истории XX века. Абрахам Вальд хорошо разбирался в математической статистике и обладал гибким умом, что позволило ему понять процесс генерации данных.
Человека можно обучить навыкам моделирования. Это одна из главных дисциплин программ аспирантуры по экономике и МБА (в том числе разработанного нами курса для Университета Торонто). Такие навыки необходимы для работы с прогностическими машинами, иначе легко угодить в ловушку неизвестных известных. Прогнозы, где перепутаны причина и следствие, вводят в заблуждение.
Как и прекрасная модель процесса генерации данных о пулевых отверстиях Вальда, качественная модель поведения человека поможет повысить качество прогнозов, когда данные генерируются человеческими решениями. В ближайшем будущем нам необходимо разработать такие модели и определить прогностические параметры поведения. Прогностические машины не смогут выполнять свои задачи при отсутствии данных, потому что поведение изменчиво. Для этого им необходимо понимать людей.
Похожие проблемы возникают в принятии решений на основе вопроса «Что будет, если сделать так?», если вы раньше никогда этого не делали. Добавить ли новый продукт в линейку? Сливаться ли с конкурентом? Покупать ли новый стартап или торгового партнера? Если после изменений люди ведут себя по-другому, то поведение в прошлом ничего не говорит о будущем. У прогностических машин соответствующих данных не будет. Для редко происходящих событий они малоприменимы. Следовательно, такие события ставят важные ограничения способности машин прогнозировать человеческое суждение.
Выводы
• Машины могут научиться прогнозировать человеческое суждение, примером тому служит вождение автомобиля. Человеку практически нецелесообразно программировать суждение о действиях во всех возможных ситуациях. Мы обучаем системы автономного вождения на примерах и вознаграждаем их за прогнозирование человеческого суждения: «Как поступил бы в этой ситуации человек?»
• Машины способны прогнозировать человеческое суждение только до определенных пределов. Ограничения связаны с недостатком данных. Люди обладают некоторыми данными, недоступными машинам, такими как предпочтения. Эти данные представляют ценность, и компании платят за доступ к ним дисконтными картами и бесплатными онлайн-услугами, такими как Google и Facebook.
• Машины плохо прогнозируют редко происходящие события. Руководители принимают решения о слиянии, инновациях и партнерстве, не имея данных о похожих событиях в их компании в прошлом. Для принятия решений в нестандартных ситуациях люди используют аналогии и модели. Машины не могут прогнозировать суждение, если ситуация не повторялась многократно.