Книга: Искусственный интеллект на службе бизнеса
Назад: Глава 3. Данные – это новая нефть
Дальше: Часть II. Принятие решений

Глава 4. Новое разделение труда

Каждое изменение в электронном документе можно зафиксировать. Для большинства людей это просто более удобный способ отслеживать правки, но Рон Глозман увидел в нем возможность применять ИИ к данным для прогнозирования редактирования. В 2015 году Глозман запустил стартап Chisel, и его первый продукт прогнозировал конфиденциальную информацию в юридических документах. Продукт представляет ценность для юридических компаний, потому что при разглашении документов они обязаны скрывать информацию такого рода. Раньше редактировали вручную, люди вычитывали и исправляли тексты документов. Предложение Глозмана позволяло сэкономить время и силы.
Машинное редактирование работало, но не идеально. Бывало, что машина по ошибке скрывала информацию, подлежащую разглашению, или пропускала конфиденциальную. Для соответствия юридическим стандартам требовалась проверка исправленного текста человеком. На тестовом этапе Chisel предлагала фрагменты для редактирования, и человек подтверждал или опровергал предложение. На практике такая совместная работа экономила много времени, а ошибок оказывалось меньше, чем если бы редактирование осуществлялось только человеком.
Разделение труда между человеком и компьютером оказалось эффективным, потому что устранило недостатки работы читающего – низкую скорость и недостаточную внимательность – и ошибки машинной интерпретации текста.
Ошибаются и люди, и машины. Не зная типичных неточностей, мы не понимаем, как объединить их для прогнозирования. Зачем? Согласно идее разделения труда, существующей еще с XVIII века, со времен экономики Адама Смита, – роли распределяются в соответствии со способностями. В нашем случае с целью прогнозирования разделение труда должно произойти между человеком и машиной. Для этого необходимо разобраться, какие обязанности лучше выполняют люди, а какие – компьютеры. Таким образом мы определим отдельные роли.

Слабые стороны человека в прогнозировании

В известном психологическом эксперименте испытуемому показывали случайную последовательность Х и О и просили ее продолжить. Например, такую:
OXXOXOXOXOXXOOXXOXOXXXOXX
Почти все сразу замечают, что Х здесь больше, чем О, – если подсчитать, получится 60 % Х и 40 % О. Поэтому чаще выбирают Х и иногда разбавляют О. Однако для повышения шансов на точный прогноз нужно всегда выбирать Х. Тогда ответ окажется верным в 60 % случаев. Если рандомизировать 60/40 (как это делают большинство испытуемых), прогноз окажется верным только в 52 % случаев. И это немногим лучше, чем выбирать, вообще не задумываясь о соотношении Х и О, а просто угадывать (с вероятностью 50/50).
Из подобных экспериментов напрашивается вывод, что из людей получаются плохие статистики даже в ситуации, когда они способны оценить вероятности. Такую ошибку не сделала бы ни одна прогностическая машина. Но люди, вероятно, не относятся к подобным задачам ответственно, для них это просто игра. Допускали бы они такие ошибки, если последствия были бы серьезнее, чем в игре?
Ответ на этот вопрос подтвержден психологами Дэниелом Канеманом и Амосом Тверски в многочисленных экспериментах: несомненно «да». Они предлагали людям решить задачу про две больницы: если в одной рождается 45 младенцев в день, а в другой 15, то в какой из них будет больше дней, когда 60 % новорожденных или более окажутся мальчиками? Верный ответ давали очень немногие – в маленькой. Он правильный, потому что чем больше количество событий (в данном случае рождений), тем выше вероятность, что итог каждого дня будет ближе к среднему (в данном случае к 50 %). Попробуем понять почему: представьте, что вы подбрасываете монетку. Вероятность выпадения нескольких орлов подряд выше, если подбросить монетку пять, а не пятьдесят раз. Таким образом, в маленькой больнице – потому что там рождается меньше младенцев – вероятность отклонений от среднего значения выше.
О подобных эвристических опытах и отклонениях написано немало книг. Большинство людей не умеют составлять прогноз на основе статистических правил, поэтому нанимают специалистов. Но и те, к сожалению, не всегда могут избежать таких же отклонений и сложностей со статистикой во время принятия решений. Отклонениями заражены разнообразные сферы, такие как медицина, право, спорт и бизнес. Тверски вместе с исследователями Гарвардской школы медицины описывал медикам два вида лечения рака легких: лучевую терапию и операцию. На основании показателей выживаемости за пять лет он рекомендовал операцию. Для двух групп участников информацию о краткосрочной выживаемости после операции – более рискованного варианта, чем лучевая терапия, – сформулировали по-разному. Исходя из формулировки «в течение месяца выжили 90 % пациентов», операцию предпочли 84 % врачей, а когда данные перефразировали: «в первый месяц смертность составляет 10 %» – уже всего 50 %. Суть обоих вариантов одна и та же, а на решение влияла исключительно формулировка. Машина не учитывала бы ее.
Дэниел Канеман обнаружил множество ситуаций, когда специалисты не способны дать качественный прогноз на основе сложной информации. Опытные рентгенологи в оценке снимков в одном случае из пяти противоречили сами себе. Аудиторы, врачи клинической лабораторной диагностики, психологи и менеджеры демонстрировали такую же непоследовательность.
Канеман пришел к выводу: если для прогноза вместо человека возможно использовать формулу, так и следует поступать.
Низкое качество экспертных прогнозов стало темой книги Майкла Льюиса Moneyball. Бейсбольная команда Oakland Athletics оказалась в затруднении после ухода трех лучших игроков, поскольку не располагала средствами приобрести новых. Ее менеджер Билли Бин (в фильме «Человек, который изменил всё» роль Бина исполнил Брэд Питт) для прогноза эффективности игроков использует статистическую систему Билла Джеймса. Билли и его аналитики махнули рукой на рекомендации скаутов и собрали собственную команду с помощью саберметрики. Несмотря на скромный бюджет, команда обошла соперников и дошла до игр Мировой серии 2002 года. Суть новой системы заключалась в смене приоритетных критериев – вместо таких показателей, как кражи базы, средний уровень, баттинг, учитывались другие, в том числе эффективность на базе и процент сильных ударов. Заодно удалось исключить иногда совершенно непостижимую логику скаутов. Один из них в фильме обронил: «Его подружка – уродина. Значит, у него низкая самооценка». В свете подобных алгоритмов принятия решений неудивительно, что основанные на данных прогнозы в бейсболе взяли верх над человеческими.
Новые показатели учитывали вклад игрока в эффективность команды в целом. Прогностическая машина позволила подобрать в Oakland Athletics игроков с более низкими показателями по традиционной шкале оценки и, следовательно, более высокой ценностью из расчета отношения стоимости к повышению продуктивности команды. Без прогностики на их качества никто не обратил бы внимания. Oakland Athletics сыграли на отклонениях в свою пользу.
Явственное представление о проблемах с прогнозами, которые делают люди, даже если это опытные и маститые специалисты, дает исследование решений о выдаче под залог в судах США. Ежегодно там принимается 10 млн таких решений – с последствиями для семьи, работы и других сфер жизни, не говоря уже о государственных расходах на тюремное содержание. Судья в своем решении должен исходить из того, не сбежит ли обвиняемый и не совершит ли другие преступления, будучи отпущенным под залог, а не из вероятности признания его виновным. Критерии ясные и четко описаны.
В исследовании использовали машинное обучение для разработки алгоритмов, прогнозирующих вероятность того, что данный обвиняемый совершит побег или снова нарушит закон, если его выпустить под залог. Обучающих данных было предостаточно: 750 тыс. человек, отпущенных под залог в Нью-Йорке с 2008 по 2013 год. В алгоритмы также включили список предыдущих правонарушений, предъявленные обвинения и демографические сведения.
Машинный прогноз оказался точнее человеческого. Например, согласно прогнозу, из 1 % обвиняемых, причисленных машиной к самым опасным, 62 % совершат преступление, будучи отпущенными под залог. Судьи же (у которых не было доступа к прогнозам машины) выпустили почти половину из них. Прогноз оказался почти идеальным – 63 % обвиняемых действительно совершили повторные преступления, а половина из них не явилась на следующее заседание суда. Из них 5 % совершили изнасилования и убийства.
Если бы судьи последовали рекомендациям машины, то могли бы отпустить то же количество обвиняемых и снизить показатель преступности среди выпущенных под залог на 75 %. Или сохранить показатели преступности и посадить за решетку вдвое меньше обвиняемых.
В чем же дело? Почему прогноз судей так заметно расходится с машинным? Одна из причин, возможно, в том, что судьи пользуются недоступной алгоритмам информацией, скажем, внешностью и поведением обвиняемых в суде. Она бывает полезной, но может и вводить в заблуждение. С учетом высоких показателей совершения преступлений выпущенными под залог разумно заключить, что последнее более вероятно; прогнозы судей никуда не годятся. В исследовании достаточно и других подтверждений данного неутешительного вывода.
Прогностика в такой ситуации представляет сложность для человека из-за неоднозначных факторов, влияющих на показатели преступности. Прогностические машины гораздо лучше людей определяют факторы сложных взаимодействий отдельных показателей.
Получается, когда вы уверены, что прошлые преступления обвиняемого повышают риск побега, машина подсчитывает, что это произойдет только в случае, скажем, если он не сможет найти работу в течение определенного периода. Иными словами, эффект взаимодействия может быть важнее, а поскольку многоплановость таких взаимодействий возрастает, способность человека к составлению точных прогнозов снижается.
Отклонения не просто проявляются время от времени в медицине, бейсболе и суде, это неотъемлемая часть любой профессиональной деятельности. Специалисты обнаружили, что и менеджеры, и рабочие прогнозируют часто – причем с полной уверенностью, – не догадываясь, что их предположения несостоятельны. Занимаясь исследованием 15 агентств по найму неквалифицированных рабочих, экономисты Митчелл Хоффман, Лиза Кан и Даниэль Ли обнаружили: когда решения по найму принимались на основании объективного проверяемого теста и обычного собеседования, стаж работы на следующем месте был выше на 15 %, чем в результате одного только собеседования. А перед менеджерами при этом стояла задача по увеличению стажа.
Достаточно объемный тест включал вопросы на проверку когнитивных способностей и соответствие обязанностям. А после того как свободу действий менеджеров ограничили – запретили аннулировать баллы при неудовлетворительных результатах теста, – стаж дополнительно вырос и доля увольнений по собственному желанию снизилась. Итак, даже с учетом поставленной задачи по увеличению продолжительности стажа и при наличии весьма точных машинных прогнозов менеджеры все же умудрялись делать неверные предположения.

Слабые стороны машин в прогнозировании

Бывший министр обороны Дональд Рамсфелд однажды сказал:
«Есть известные известные – вещи, в знании которых мы уверены. Еще есть известные неизвестные – когда мы знаем, что есть кое-что, чего мы не знаем. Но есть еще и неизвестные неизвестные – мы их не знаем и не подозреваем об их существовании. Если посмотреть на историю нашей страны и других свободных государств, самой сложной является последняя категория».
Это обеспечивает удобную структуру понимания условий, на которых «спотыкаются» прогностические машины. Первое: «известные известные» – это наличие большого объема данных, когда есть уверенность в правильности прогноза. Второе: «известные неизвестные» – когда данных мало и очевидно, что сделать прогноз будет сложно. Третье: «неизвестные неизвестные» – события, не знакомые по опыту или не имеющиеся в данных и тем не менее вероятные, поэтому прогнозировать их трудно, хотя мы можем об этом не подозревать. И наконец, не упомянутая Рамсфелдом категория – «неизвестные известные»: когда подтвержденный в прошлом опыт представляет собой результат неизвестного или ненаблюдаемого фактора, изменяющегося со временем, из-за чего прогноз становится ненадежным. Прогностические машины ошибаются именно в тех случаях, когда не могут исходить из хорошо известных рамок статистики.

Известные известные

С достаточным объемом данных машинный прогноз чаще всего верен. Машине известна ситуация, она выдает качественный прогноз, и мы убеждаемся в этом. Вот что составляет зону комфорта нынешнего поколения машинного интеллекта: выявление мошенничества, медицинская диагностика, бейсбол и решения по выпуску осужденных под залог – все попадает в эту категорию.

Известные неизвестные

Даже лучшие на сегодня (и ближайшее будущее) прогностические модели требуют огромного количества данных. Следовательно, в случаях, когда их не хватает, точность прогноза соответственно понизится. Мы знаем, чего мы не знаем: известные неизвестные.
Недостаток данных обычно сопутствует достаточно редко происходящим событиям, поэтому их прогнозировать сложно. Президентские выборы в США проводятся только раз в четыре года, а кандидаты и политическая обстановка всегда разные. Предугадать итоги президентских выборов на несколько лет вперед практически невозможно. Как показали выборы 2016 года, трудно предположить итоги даже недели или хотя бы одного дня. Крупные землетрясения тоже достаточно редки (к счастью), и прогнозировать, когда они произойдут, где и с какой интенсивностью, пока нереально (но сейсмологи работают над этим).
В отличие от машин, людям иногда отлично удаются прогнозы на основе ограниченного объема данных. Мы опознаём лица, даже если видели их лишь пару раз и в другом ракурсе. Сорок лет спустя мы узнаём одноклассника, с которым учились в четвертом классе, как бы он ни изменился внешне. С ранних лет мы угадываем траекторию полета мяча (даже если у нас еще недостаточно развита координация, чтобы его поймать). Мы легко проводим аналогии, усмотрев схожие с прошлым опытом обстоятельства в новой ситуации. Например, ученые в течение нескольких десятилетий представляли атом как миниатюрную солнечную систему, и во многих школах его до сих пор так и описывают.
IT-специалисты стараются снизить потребность машин в данных и разрабатывают такие методы, как «обучение на одном примере», в которых машины учатся прогнозировать объекты, увидев их единожды, но полный успех пока не достигнут. Поскольку люди пока лучше умеют прогнозировать на основе известных неизвестных, можно запрограммировать машины так, чтобы в подобных ситуациях они призывали человека на помощь.

Неизвестные неизвестные

Чтобы машина выдала прогноз, ей необходимо указать, что именно следует прогнозировать. Если какое-то событие не происходило никогда, машина не сможет с ним работать (во всяком случае, без предоставления человеком сформулированного суждения с адекватной аналогией, позволяющей сделать прогноз с использованием информации о других событиях).
В книге «Черный лебедь» Нассим Николас Талеб подчеркивает значение неизвестных неизвестных. Он утверждает, что мы не можем на основе прошлого опыта прогнозировать то, чего в нем не было. Название книги навеяно открытием в Австралии нового вида лебедей, совершенным европейцами. В XVIII веке в Европе считалось, что лебеди бывают только белыми. Прибыв в Австралию, европейцы увидели нечто совершенно новое и неожиданное: черных лебедей. Никто их раньше не видел и поэтому не имел оснований предполагать, что они существуют.
Талеб считает, что появление неизвестных неизвестных приводит к серьезным последствиям – в отличие от черных лебедей, которые не повлияли на общество Европы и Австралии.
Возьмем, к примеру, расцвет музыкальной индустрии в 1990-х. Продажи компакт-дисков увеличивались, доход стабильно рос. Будущее выглядело оптимистично. Но в 1999 году восемнадцатилетний Шон Фэннинг придумал Napster – программу, позволяющую людям бесплатно обмениваться музыкальными файлами в интернете. Вскоре были загружены миллионы таких файлов, и доходы от продажи дисков начали снижаться. Индустрия до сих пор не оправилась от этого краха.
Фэннинг стал неизвестной неизвестной, машины не смогли бы прогнозировать его появление. Стоит согласиться с мнением Талеба и многих других – людям тоже плохо дается прогноз неизвестных неизвестных. Перед ними пасуют и люди, и машины.

Неизвестные известные

Возможно, самый большой недостаток прогностических машин заключается в неверных прогнозах, причем обоснованных. Как мы уже обсудили, в случае известных неизвестных люди предполагают неточности в прогнозе: он выдается с доверительным интервалом, из чего следует вероятность погрешностей. О неизвестных неизвестных люди ничего не знают. При наличии же неизвестных известных прогностическая машина выдает точный прогноз, но он может быть очень далек от истины.
Почему так получается? Дело в следующем: хотя решения и выносят исходя из данных, но и данные иногда получают посредством решений. Если машина не понимает процесса принятия решений для получения данных, то ее прогноз неточен. К примеру, вы хотите прогнозировать, будете ли использовать прогностическую машину в своей организации. Считайте, что она у вас уже есть. Если вы читаете эту книгу, то почти наверняка обзаведетесь прогностической машиной.
Вы так поступите по меньшей мере по трем причинам. Первая и самая непосредственная – изложенные в книге идеи покажутся многообещающими: читая, вы больше узнаете о прогностических машинах и, следовательно, захотите повысить с их помощью эффективность своего бизнеса.
Вторая причина называется «обратной причинностью». Вы читаете эту книгу потому, что у вас уже есть прогностическая машина или вы собираетесь в скором времени приобрести ее. Не книга привела к применению технологий, а применение технологий (в настоящее время), наоборот, привело к чтению книги.
Третья причина называется «пропущенной переменной». Вы интересуетесь техническими новинками и занимаете руководящую позицию, поэтому решили прочитать книгу. В работе вы применяете новые технологии, в том числе прогностические машины. В этом случае ваша склонность к технологиям и управлению становится причиной и чтения книги, и использования прогностических машин.
Причина не всегда существенна. Если нужно знать, воспользуется ли читатель прогностическими машинами, то неважно, что будет причиной, а что – следствием. Если вы видите человека, читающего эту книгу, можете обоснованно прогнозировать, что он внедрит прогностические машины в свой рабочий процесс.
Но иногда причина все же имеет значение. Вы порекомендуете эту книгу друзьям в случае, если благодаря ей повысите свое мастерство в качестве менеджера в сфере прогностических машин. Что вы хотели бы узнать? Сначала вы прочитаете книгу. Затем попробуете заглянуть в будущее и посмотреть, насколько хорошо пойдет работа с ИИ. Предположим, вы увидели радужные перспективы и замечательно преуспели на поприще прогностических машин: они играют главную роль в вашей организации, и вы добились больших успехов, чем в самых смелых мечтах. Можно ли сказать, что книга привела вас к этому?
Нет.
Если вы хотите убедиться в том, что такое влияние оказала именно книга, необходимо знать, что случилось бы, если бы вы ее не читали. Но таких данных у вас нет. Следует рассмотреть «отсутствие вмешательства», как говорят экономисты и статистики: что произошло бы, если бы вы предприняли иные действия. Для утверждения, что действие служит причиной результата, требуется два прогноза: первый – что будет, если предпринять это действие, и второй – что будет, если предпринять другое действие. Но это невозможно. У вас никогда не появится данных о последствиях того, чего вы не делали.
Это хроническая проблема прогностических машин. В книге Deep Thinking Гарри Каспаров обсуждает похожие проблемы первых алгоритмов машинного обучения в шахматах: «В начале 1980-х Мичи с коллегами написали экспериментальную шахматную программу машинного обучения, основанную на данных. Результат оказался очень забавным. Они загрузили в машину сотни тысяч позиций гроссмейстерских игр в надежде, что она разберется, какие ходы удачные и какие нет. Сначала вроде бы все получалось. Анализ позиций был точнее, чем у других программ. Проблемы начались, когда машина начала сама играть в шахматы. Она сделала несколько ходов, пошла в атаку и сразу же пожертвовала ферзем! Через пару ходов она проиграла, отдав ферзя без всякой причины. Почему? Когда гроссмейстер жертвует ферзем, обычно это ловкое и продуманное решение. Обучаясь на одних только гроссмейстерских играх, машина сделала вывод, что выигрывает тот, кто остается без ферзя!»
Машина неверно истолковала причинно-следственную связь. Не понимая, что гроссмейстер жертвует ферзем только в случае, если это прямой и верный путь к победе, она сделала вывод, что игрок побеждает вскоре после того, как отдаст ферзя, то есть ошибочно связала потерю шахматной фигуры и победу. Данную проблему прогностические машины решили, но обратная причинность остается слабым местом этих технологий.
В бизнесе такие задачи тоже встречаются. В большинстве сфер низким ценам сопутствует падение продаж. Например, в гостиничном бизнесе в несезонное время цены снижаются, но вырастают, когда спрос большой и отели переполнены. На основании таких данных машина может наивно предположить, что если поднять цены, то повысится спрос. Человек – хотя бы с минимальными познаниями в экономике – понимает, что рост цен служит следствием повышения спроса, а не наоборот. То есть, если поднять цены, продажи не вырастут.
Человек может предоставить машине верные данные (например, предложения индивидуального комфорта гостиничного номера исходя из цены) и соответствующие модели (с учетом сезонного спроса, а также других требований и предложений), чтобы лучше прогнозировать продажи по различным ценам. Для машины это неизвестные известные, но человек, разбирающийся в ценообразовании, воспринимает их как известные неизвестные или даже известные известные, если способен принимать решения по ценам самостоятельно.
Проблема с неизвестными известными и причинно-следственная зависимость становятся еще важнее в присутствии стратегического поведения других людей. Поиск Google работает по секретным алгоритмам. Они создаются с помощью прогностических машин, прогнозирующих, на какую ссылку пользователь нажмет с наибольшей вероятностью. Для администратора веб-сайта высокое ранжирование означает больше посетителей и продаж. Большинство администраторов знают об этом и делают оптимизацию в поисковых системах: стараются повысить рейтинг сайта в результатах поиска Google. Оптимизация, как правило, заключается в построении обходных путей существующих алгоритмов, в результате чего со временем поисковая машина замусоривается спамом и неинтересными пользователю ссылками.
Прогностические машины великолепно выполняют краткосрочные задачи – прогнозируют, на какую ссылку нажмут пользователи. Но через недели и месяцы обмануть систему ухитряется так много администраторов, что Google приходится постоянно обновлять прогностическую модель. Такое «перетягивание каната» между поисковой машиной и спамерами обусловлено возможностью обмануть прогностическую машину. Google пыталась разработать систему, в которой это было бы невыгодно, и попутно обнаружила, что полностью полагаться на прогностические машины неразумно. По этой причине Google начала использовать человеческие суждения для реоптимизации от подобного спама. Instagram тоже постоянно борется со спамерами и возмутительной информацией обновлением алгоритмов для их отсева. Вообще, как только эту проблему осознали, она перестала быть неизвестной известной: люди находят решение для улучшения прогноза, чтобы проблема стала известной известной, иногда требующей совместной работы человека и машины, либо не могут найти решения, и тогда проблема переходит в разряд известной неизвестной.
Возможности прогностических машин огромны, но не беспредельны. Они не очень хорошо работают с ограниченным объемом данных.
Квалифицированные специалисты способны разглядеть причину затруднений машины, будь то недостаток событий или причинно-следственные проблемы, и улучшить прогнозы. Но для этого нужно разбираться в IT очень хорошо.

Улучшенный прогноз совместными усилиями

Иногда в результате сотрудничества людей и машин, компенсирующего слабые стороны друг друга, получаются более точные прогнозы. В 2016 году команда исследователей ИИ из Гарварда и Массачусетского технологического института получила главный приз в конкурсе Camelyon Grand Challenge за компьютерную диагностику метастатического рака молочной железы по слайдам биопсии. Алгоритм глубокого обучения выдавал верный прогноз в 92,5 % случаев, а врач клинической лабораторной диагностики – в 96,6 %. Казалось бы, человек победил, но исследователи пошли дальше и объединили прогнозы алгоритма и врача. В результате точность повысилась до 99,5 %. Процент ошибок человека таким образом упал с 3,4 до 0,5 %, то есть на 85 %.
Это классическое разделение труда, но не физического, описанного Адамом Смитом, а когнитивного, о котором экономист и первооткрыватель компьютеров Чарльз Бэббидж писал в XIX веке: «Разделение труда, как механического, так и мыслительного, позволяет осваивать и применять точно такой объем знаний и навыков, который для него требуется».
Людям и машинам лучше всего удаются разные аспекты прогнозов. Врач редко ошибается, диагностируя рак. С другой стороны, ИИ точнее определяет отсутствие онкологического заболевания, то есть человек и машина совершают разные типы ошибок. Различие в способностях учли при их объединении с прогностической целью, человек и машина компенсировали недостатки друг друга, и в результате процент ошибок существенно снизился.
Как такое сотрудничество применимо в сфере бизнеса? Машинный прогноз может повысить прогностическую эффективность человека двумя способами. Первый – машинный прогноз проверяет человек и сравнивает со своей оценкой. Второй способ предполагает проверку человеческого прогноза машинным, для контроля над решениями людей. Таким образом, начальник будет уверен, что сотрудник старается составить качественный прогноз. Если же его не контролировать, он не всегда будет прилагать максимальные усилия. Теоретически человек, который должен обосновать, почему его предположения отличаются от прогноза беспристрастных алгоритмов, возьмет над машиной верх только в случае, если приложит достаточно усилий, чтобы быть уверенным в своем прогнозе.
Отличная сфера для проверки совместной работы – прогноз платежеспособности заемщиков. Ученые-экономисты профессор Дэниел Паравизини и Антуанетта Шоар после введений новой системы рейтинга кредитоспособности проверяли оценку центрального банка Колумбии в отношении подавших заявку на кредит на организацию малого бизнеса. В компьютерную систему ввели разнообразную информацию о заявителях, и она выдала оценку предполагаемого риска. Затем сотрудники кредитного комитета банка сопоставляли эти результаты с собственными предположениями и одобряли, отказывали или передавали заявку региональному руководству.
Порядок рассмотрения машинного прогноза до или после вынесения решения определялся не распоряжением менеджеров, а рандомизированным контролируемым испытанием. Таким образом можно было научно обосновать влияние рейтинга на принятие решения. Одной группе сотрудников его сообщили непосредственно перед их встречей для вынесения решения (аналогично первому способу сотрудничества людей и машин, в котором люди выносят решения на основании машинного прогноза). Другой группе о рейтинге не говорили, пока они не закончили работу над собственным анализом (пример второго способа, в котором прогноз помогает следить за качеством решений, принятых людьми; разница между способами состоит в том, как люди принимают собственное решение – на основании прогноза или без него).
Рейтинг принес пользу в обоих случаях, но все же она оказалась гораздо большей, когда информацию предоставляли заранее. Комитет выносил оптимальные решения и обращался за помощью к руководству реже, благодаря прогнозу сотрудники располагали достаточно полным объемом информации.
У второй группы, участникам которой рейтинг сообщали после того, как они дадут свою оценку, тоже улучшилось качество принятых решений, потому что прогнозы помогли руководству контролировать их работу. У сотрудников появился стимул стремиться к высокому качеству решений.
В прогностической паре «человек – машина» для улучшения прогнозов требуется понимание пределов возможностей обоих. В примере с заявками на кредит люди склонны к смещенным прогнозам или прилагают недостаточные усилия. Машинам же может не хватать информации. В коллективах часто делается упор на командную работу и сплоченность, но работа машины и человека бок о бок пока непривычна. Чтобы людям удалось улучшить качество прогнозов машин и наоборот, важно знать слабые стороны тех и других и строить их совместную работу таким образом, чтобы они компенсировали недостатки друг друга.

Прогноз исключений

Одно из основных преимуществ прогностических машин заключается в возможности экономии на масштабе. Минус же их – в том, что они не умеют прогнозировать необычные ситуации с недостаточным количеством прецедентов. Если сложить то и другое, получается, что сотрудничество людей и машин оптимально для «прогноза исключений».
Как мы уже говорили, прогностические машины учатся на больших объемах данных, накопленных для привычных, часто встречающихся ситуаций, и в таких случаях они не требуют участия человека. Но как только появляются исключения – нестандартные ситуации, – подключаются люди и вносят свой вклад в качество и точность прогноза. Пример с кредитным комитетом центрального банка Колумбии как раз и есть такой «прогноз исключений».
Это название происходит от метода «управление исключениями». В прогностике человек во многих смыслах становится руководителем машины. У него много сложных задач; для экономии времени нужно наладить работу машины так, чтобы она требовала внимания только в случае необходимости. Если непосредственно контактировать с машиной можно нечасто, значит, один человек без затруднений использует ее преимущества для рутинных прогнозов.
На прогнозе исключений основан первый продукт Chisel (его мы упоминали в ): он использовался для распознавания конфиденциальной информации, подлежащей редактированию в документах. Необходимость в трудоемкой процедуре возникает во многих юридических ситуациях, когда документ оглашается третьим сторонам или публично при условии частичного сокрытия информации.
Для первичной обработки текста в редакторе Chisel применялся прогноз исключений, когда пользователь может выбирать усиленный или легкий режим. В усиленном режиме порог предполагаемой для скрытия информации выше, чем в легком. Например, если вы беспокоитесь, что редактор пропустит конфиденциальную информацию, то выбираете усиленный режим, а если нужно раскрыть максимум информации – настраиваете слабый. У Chisel удобный для просмотра и подтверждения результатов интерфейс. Иными словами, машинная редакция выдавала скорее рекомендательный, чем окончательный вариант. Последнее слово оставалось за человеком.
В продукте Chisel предпринята попытка преодолеть недостатки человека и машины с помощью их сотрудничества. Машина работает быстрее и обеспечивает логичный подход, а человек вмешивается, если у нее недостаточно данных для составления точного прогноза.

Выводы

• Люди, в том числе профессионалы в какой-либо области, в определенных условиях неспособны давать точный прогноз. Они часто переоценивают очевидное и не учитывают статистические свойства. Эти несовершенства подтверждены многочисленными научными исследованиями; на них построен сюжет художественного фильма «Человек, который изменил все».
• В прогностике машины и человека есть свои сильные и слабые стороны. Машины постоянно совершенствуются, что требует изменений в сфере разделения труда. Прогностические машины лучше людей анализируют сложные взаимодействия между разными признаками, особенно при наличии большого объема данных. Поскольку многоплановость таких взаимодействий возрастает, способность человека к составлению точных прогнозов снижается по сравнению с машинами. Однако человек превосходит их в случаях, когда понимание происхождения данных дает прогностическое преимущество, особенно при скудном объеме данных. Мы классифицировали условия прогноза (известные известные, известные неизвестные, неизвестные известные и неизвестные неизвестные) для удобства выбора подходящей схемы разделения труда.
• Прогностические машины позволяют экономить на масштабе. Цена за единицу прогноза падает с повышением частоты прогнозов. С человеческими прогнозами все по-другому. Однако люди придерживаются когнитивной модели всего происходящего в мире и поэтому могут делать прогнозы исходя из ограниченного объема данных. Это предвещает распространение «человеческого прогноза исключений», поскольку прогнозы машин по большей части основаны на рутинных данных о регулярно повторяющихся событиях, а в нетипичных ситуациях машина не способна на точный прогноз – и тогда ей требуется помощь человека. Человек обеспечивает прогноз исключений.
Назад: Глава 3. Данные – это новая нефть
Дальше: Часть II. Принятие решений