Книга: Искусственный интеллект на службе бизнеса
Назад: Глава 14. Когда ИИ меняет бизнес
Дальше: Глава 16. Управление рисками ИИ

Глава 15. Стратегия обучения

В марте 2017-го во вступительном слове к ежегодному событию I/O СЕО Google Сундар Пичаи объявил, что компания «вместо мобильных устройств начинает ориентироваться на ИИ». Затем последовал ряд заявлений с упоминанием ИИ в той или иной форме: от разработки специальных чипов для оптимизации машинного обучения до использования глубокого обучения в новых программах, в том числе по исследованию онкологических заболеваний, с целью внедрения ИИ-ассистента Google в как можно большее количество устройств. Пичаи сообщил, что компания переходит «от поиска и организации мировой информации к ИИ и машинному обучению».
Заявление в большей степени касалось стратегии, чем основополагающей концепции компании. Основатель Google Ларри Пейдж подчеркнул это в 2002 году:
«У нас не всегда получается то, чего от нас хотят люди, но это действительно трудно. Нужны недюжинный ум, понимание всего на свете, а также собственной задачи. Мы интенсивно работаем над созданием искусственного интеллекта… Итоговая поисковая машина будет умной – мы всё ближе и ближе к этому результату».
В этом смысле Google уже много лет идет по пути создания ИИ. И лишь недавно открыто поставила технологии ИИ в центр всей своей деятельности.
Google не одинока в данной стратегической приверженности; Microsoft анонсировала «ориентированные на ИИ» намерения, также отодвинув на второй план мобильные устройства и облака. Но что означает ориентированность на ИИ? В отходе от приоритизации мобильных устройств ориентация на них – это привлечение к ним трафика и оптимизация пользовательского интерфейса даже в ущерб всему сайту и другим платформам. Последнее имеет стратегическое значение. Цель – «качество воспроизведения на мобильном устройстве». Стремление к ней даже во вред остальным каналам и есть настоящая приверженность стратегии.
Что это значит в контексте приоритизации ИИ? Руководитель исследований Google Питер Норвиг отвечает:
«Если полнота и точность информации составляет более 80 %, это уже хорошо. Не всякое предположение должно быть идеальным, хотя пользователь наверняка проигнорирует плохие прогнозы. Гораздо больше препятствий – в отношении услуг. Сервис, допускающий 20 % ошибок (например, при бронировании отеля), да хотя бы и 2 %, никому не нужен. Поэтому ассистент должен действовать намного точнее, а следовательно, быть умнее и осведомленнее. Вот это мы и называем ориентацией на ИИ».
Хороший ответ для IT-специалиста: в нем подчеркнута техническая эффективность и, в частности, точность, но подразумевается кое-что еще. Если ИИ оказывается на первом месте (максимизации прогностической точности), то что на втором?
Экономисту очевидно, что в любом утверждении вроде «мы направим свое внимание на Х» подразумевается компромисс. Что-то придется принести в жертву. Чем чревато возведение прогностической точности во главу угла? Ответ подскажет ключевая экономическая структура: ориентация на ИИ означает выделение ресурсов на сбор данных и обучение (долгосрочная цель) в ущерб важным краткосрочным вопросам, таким как мгновенный опыт пользователя, прибыль и количество пользователей.

Подрывные веяния

Освоение стратегии ориентирования на ИИ заключается в приоритизации качества прогнозов и поддержке машинного обучения даже в ущерб краткосрочным факторам, таким как удовлетворение потребителей и операционные показатели. Сбор данных означает использование ИИ, качество которого пока ниже оптимального уровня. Основная стратегическая дилемма заключается в выборе следующих действий: приоритизировать обучение или защищать другие аспекты от потерь производительности, которые повлечет за собой применение ИИ.
Все компании подойдут к этой дилемме по-своему и сделают разный выбор. Но почему Google, Microsoft и другие технологические компании выносят ИИ в приоритет? Не стоит ли остальным последовать их примеру? Или у них есть что-то особенное?
Отличительная черта этих компаний состоит в том, что они уже собирают и генерируют огромный объем цифровых данных и работают в неопределенной среде. Прогностические машины, вероятно, обеспечат их инструментами, которые они будут активно использовать в своих продуктах. Инструменты, включающие точный и дешевый прогноз, пользуются спросом и наряду с этим предоставляют преимущества со стороны предложения. В данных компаниях уже есть технические сотрудники для разработки и применения машинного обучения.
Если соотнести крупные технологические компании с примером гибридной кукурузы, они подобны фермерам Айовы. Но технологии ИИ обладают еще одной важной характеристикой. Учитывая, что для обучения требуется время, а оно часто приводит к снижению производительности (особенно для потребителя), у него есть общие черты с «подрывными технологиями» (как их назвал Клэй Кристенсен): давно функционирующим компаниям будет сложнее освоить их быстро.
Рассмотрим новую ИИ-версию существующего продукта. Для разработки продукта нужны пользователи. И у первого будет не самый лучший пользовательский опыт, потому что ИИ необходимо учиться. Компания с большой базой клиентов может привлечь их к использованию продукта для получения обучающих данных. Однако клиенты вполне довольны тем, что имеют, и могут не пожелать переходить на новый, пока не совершенный ИИ-продукт.
Это классическая «дилемма инноватора» – давно существующие компании не хотят портить сложившиеся отношения с клиентами даже ради улучшений в долгосрочной перспективе. Дилемма возникает, когда изначально инновации недостаточно хороши для удовлетворения клиентских запросов, но вполне годятся для новых стартапов, чтобы создать продукт для небольшого количества потребителей в ограниченной нише. Со временем стартап набирается опыта и в конце концов обретает способность разработать качественный продукт и переманить клиентов у более крупного конкурента (он на этот момент уже безнадежно отстал, и стартап берет над ним верх). ИИ требуется обучение, и вкладываться в него в большей степени склонны стартапы, а не состоявшиеся компании.
Дилемма инноватора перестает быть неразрешимой, когда компания сталкивается с жесткой конкуренцией, особенно с новыми участниками рынка, не связанными необходимостью удовлетворения спроса имеющихся клиентов. В этой ситуации цена бездействия слишком высока. Конкуренция склоняет чашу весов в сторону быстрого освоения подрывной технологии даже для сформировавшихся компаний. Иначе говоря, подрывные веяния технологий вроде ИИ с грандиозными последствиями в долгосрочной перспективе способствуют освоению их на раннем этапе даже компаниями, владеющими большой долей рынка.
На обучение понадобится много времени и данных, прежде чем машина начнет выдавать надежные прогнозы, – она сразу готова к работе в очень редких случаях. Продавец оснащенного ИИ устройства, вероятно, уже выполнил трудную задачу по обучению. Но если ИИ нужен для связанных с вашим бизнесом целей, готовое решение вам вряд ли подойдет. И вместо руководства пользователя вам понадобится руководство по обучению, во время которого ИИ будет собирать данные и совершенствоваться.

Путь к обучению

Историк экономики Натан Розенберг назвал явление, когда компания улучшает свой продукт по результатам взаимодействия с пользователями, «обучением посредством использования». В основном оно применялось в отношении характеристик самолетов, консервативный дизайн которых уступил место улучшенному, с повышенной вместимостью и эффективностью, которой производители добивались опытным путем. Они изначально обладали преимуществом, поскольку постоянно учились. Конечно, темпы обучения дают стратегическое преимущество в разнообразных контекстах и особенно важны для прогностических машин, основанных на машинном обучении.
До сих пор мы не уделили достаточно внимания классификации типов машинного обучения. Нас интересовало в основном контролируемое обучение. Данный метод используется, когда большой объем данных о прогнозируемом предмете уже накоплен. Например, у вас имеются миллионы изображений и вам известно, что на них либо кошка, либо опухоль. Исходя из такого знания, вы обучаете ИИ. Мы как ученые в основном занимаемся контролируемым обучением и знакомим студентов с новым материалом, описывая им проблемы и решения.
Для сравнения: что произойдет, если вы не располагаете данными для прогноза, но по факту можете узнать, насколько были правы? В такой ситуации, как мы уже обсуждали, IT-специалисты применяют методы обучения с подкреплением сигналами от среды взаимодействия: так учатся маленькие дети и животные. Физиолог Иван Павлов звонил в колокольчик, когда кормил собак, и вскоре слюна у них начинала выделяться сразу после звонка. Животные связали звук и еду, выяснив, что после первого сразу появляется второе.
В сфере ИИ наибольший прогресс с помощью этого метода был достигнут в обучении машин компьютерным играм. DeepMind давала ИИ пульт управления к играм, таким как Breakout, и «вознаграждала» за очки, не давая никаких инструкций. ИИ освоил игры Atari и обошел лучших игроков: это обучение посредством использования. ИИ сыграл тысячи раз и совершенствовался, как и люди, – разве что он мог пройти больше игр и действовать быстрее любого человека.
Обучение происходит, когда машина делает ходы и сравнивает данные по ним с прошлым опытом (ходов и баллов). Так она прогнозирует, какие ходы дают больше баллов, а единственный способ научиться – играть. Без этого машина не сможет ни хорошо играть, ни совершенствоваться. Но путь к обучению требует затрат.

Когда задействовать ИИ

Всем знакомым с разработкой ПО известно, что код многократно тестируют для поиска багов. Иногда компании предоставляют программу пользователям, чтобы те нашли баги при стандартном использовании. «Дегустация собачьего корма» (внутреннее тестирование первых версий – полностью: «дегустировать собачий корм собственного производства») и «бета-тестирование» (с привлечением пользователей) – эти формы обучения посредством использования подразумевают кратковременные инвестиции для постепенного улучшения продукта.
Краткосрочные издержки обучения с долгосрочной выгодой аналогичны повышению квалификации сотрудников. Чтобы устроиться в McDonald’s, не требуется специальная подготовка: новички медлительнее и чаще ошибаются, чем их опытные коллеги. Но чем больше клиентов они обслужат, тем лучше их навыки.
Пилоты коммерческих авиалиний также непрерывно наращивают профессиональный опыт. 15 января 2009 года рейс US Airways 1549 столкнулся со стаей канадских гусей, двигатели отказали, и капитан Чесли Салленбергер по прозвищу «Салли» мастерски посадил самолет на реку Хадсон и спас жизни 155 пассажиров. Большинство репортеров приписали его заслуги опыту. Он налетал уже 19 663 часа, в том числе 4765 на Airbus A320. Вот как выразился сам Салли: «Думаю, дело в том, что в течение 42 лет я регулярно вносил маленькие вклады в банк своего опыта, образования и подготовки. И на 15 января там оказалось достаточно средств, чтобы я мог снять столько, сколько нужно». Салли и его пассажиры получили выгоду от всех его предыдущих полетов.
Разница в том, что именно называется «неплохо для начала» у начинающих кассиров и пилотов, и в серьезности последствий их ошибок. У пилотов она очевидно выше. Утешает, что сертификацию пилотов проводит Министерство транспорта и Федеральное управление гражданской авиации США и минимальный требуемый опыт составляет не менее 1500 летных часов, 500 часов маршрутных полетов, 100 часов ночных полетов и 75 часов полета по приборам в условиях ограниченной видимости. И это несмотря на то, что пилоты постоянно совершенствуются. Для каждого вида деятельности существует собственное определение того, что такое «достаточно хорошо». То же можно сказать и о машинном обучении.
Компании разрабатывают системы обучения (и обучают) новых сотрудников до приемлемого уровня и затем допускают к работе, зная, что те будут набираться опыта на практике. Но очень важно определить, с чего именно начинается «приемлемый уровень». В случае прогностических машин это стратегическое решение и касается времени, когда следует переходить с внутрифирменного обучения к практике.
Для прогностических машин точного определения «приемлемого уровня» нет, есть лишь компромиссы. К ним нужен стратегический подход и серьезное отношение, тогда использование прогностических машин приведет к успеху.
Какая погрешность допустима с точки зрения людей? Для одних прогностических машин большая, для других – маленькая. Скажем, приложение Google Inbox читает письма, с помощью ИИ прогнозирует ответ и предлагает на выбор три варианта. Судя по отзывам, большинству пользователей приложение нравится, хотя в 70 % случаев оно ошибается (на момент написания книги годными оказываются только 30 % вариантов ответов ИИ). Люди терпимо относятся к этому, потому что плюсы от того, что не нужно сочинять и печатать письмо, перевешивают минусы забитого пространства экрана, когда прогнозируемый ответ неправилен.
А вот в автономном вождении мы не так толерантны к ошибкам. Первое поколение беспилотных транспортных средств, в основном производства Google, обучали профессиональные водители. Для этого они проехали на них сотни тысяч километров – как родители с неопытными подростками за рулем.
Водители-профессионалы обеспечивают безопасные условия обучения, но дают ограниченную информацию; машина узнает только о нескольких ситуациях. Люди наезжают миллионы километров в различных условиях и положениях, прежде чем научатся реагировать на редко наступающие обстоятельства, приводящие к несчастным случаям. Беспилотные автомобили на реальных дорогах могут попасть в созданные людьми неприятные ситуации, когда ошибка дорого стоит.
Насколько важно собирать данные о реальных пользователях? Зная, что обучение может длиться недопустимо долго, Tesla по максимуму оснастила все новые модели функциональными возможностями, в том числе датчиками сбора информации и данных о движении, загружаемых на сервер машинного обучения. Tesla может собрать обучающие данные за очень короткий срок, просто наблюдая за действиями водителя. Чем больше машин Tesla ездит по дорогам, тем быстрее они учатся.
Однако помимо пассивно собранных данных об управлении человеком Tesla необходимы данные по беспилотному управлению для понимания работы автономных систем. Чтобы оценить эффективность машин, они должны ездить самостоятельно; также требуется проанализировать случаи, когда человеку, чье присутствие и внимание необходимо, приходится вмешаться. Конечная цель Tesla – полностью автономный автомобиль, а не второй пилот или подросток, которому нужен присмотр. И она будет достигнута, когда пассажиры начнут чувствовать себя в нем спокойно.
Здесь опять следует искать компромисс. Чтобы совершенствоваться, машины Tesla должны учиться в реальных обстоятельствах, однако выпускать их в нынешнем состоянии на дороги – все равно что посадить за руль юного и неопытного водителя, пусть он даже не хуже большинства молодежи в автомобилях. Это более рискованно, чем бета-тестирование восприятия речи Siri и Alexa или степень правильности ответа, составленного Google Inbox. В этих случаях ошибка приводит только к негативному опыту пользователя, а в беспилотниках она может стоить жизни.
На дорогах ничего не стоит испугаться. Машины неожиданно выезжают с трассы или тормозят, когда водителю померещится препятствие. Слабонервные люди могут отказаться от беспилотной функции и тем самым не дадут Tesla учиться. Даже если компании удастся привлечь кого-либо к бета-тестированию, правильно ли она выберет кандидатов? Ведь кто-то из них может оказаться более склонным к риску, чем среднестатистический водитель. И какой он подаст пример машине?
Чем больше данных, тем быстрее учатся машины, а где их брать, как не в реальном мире? Однако не исключены проблемы, которые могут повредить имиджу компании. Ранний выпуск продукта способствует обучению, но создает риск потери репутации (также могут пострадать клиенты). Поздний выпуск замедляет обучение, зато дает больше времени на улучшение продукта и не повредит репутации (и клиенты будут целее).
Для таких продуктов, как Google Inbox, компромиссное решение очевидно, поскольку издержки от низкой эффективности малы, а плюсы от обучения в процессе использования существенны. Такие продукты есть смысл выпускать пораньше. В других случаях, например с автомобилями, все не так просто. Чем больше компаний во всех отраслях будут пользоваться преимуществами машинного обучения, тем понятнее станут стратегии принятия компромиссных решений.

Обучение на симуляторах

Использование моделируемой среды для обучения упрощает поиск компромиссного решения. Пилоты сотни часов проводят за сложными реалистичными симуляторами, прежде чем им доверят управлять настоящим самолетом. Такой же подход применим к ИИ. Google учила ИИ AlphaGo компании DeepMind побеждать лучших мировых игроков в го, не только показывая ему тысячи поединков между людьми, но в игре с другой версией себя.
Одна из форм этого метода называется состязательным машинным обучением. В нем основной ИИ выступает против другого ИИ, мешающего первому в достижении поставленной цели. Например, в исследовании Google один ИИ отправлял зашифрованные сообщения другому. У обоих ИИ был ключ к шифру. Третий ИИ (их соперник) тоже получал сообщения, но у него не было ключа, и он пытался сам заниматься дешифрованием. В многочисленных симуляциях соперник научился кодировать сообщения.
В реальных условиях такое обучение невозможно. Оно проводится в лаборатории, где создается новый алгоритм машинного обучения, который затем копируется и отправляется пользователям. Его преимущества заключаются в отсутствии риска негативного пользовательского опыта или угрозы жизни. Минусы же в том, что моделируемая среда не обеспечивает достаточного объема обратной связи и снижает, но не устраняет необходимость раннего выпуска. В конце концов ИИ придется «отпустить» в реальный мир.

Машинное обучение в облаке и на устройстве

ИИ совершенствуется в реальности, результаты используются для улучшения прогнозов. Как правило, компании собирают данные реальных условий для улучшения машины до выпуска обновленной прогностической модели.
Автопилот Tesla не учится на практике с реальными клиентами. В процессе езды он отправляет данные в облако Tesla, где они накапливаются и используются для обновления автопилота. Затем выпускается следующая версия. Обучение происходит в облаке.
Такой стандартный подход хорош тем, что пользователи защищены от плохо обученных версий. Но у него есть и минусы – обычно ИИ находится на устройстве и не может учитывать быстро меняющиеся местные условия до тех пор, пока их не внесут в обновление; с точки зрения пользователя, улучшения происходят рывками.
Но представьте, что ИИ учится и совершенствуется в реальной среде. Тогда он сможет быстрее реагировать на смену обстановки и оптимизироваться под разные условия. В среде, где все быстро меняется, разумнее улучшать прогностические машины непосредственно на устройствах. В таких приложениях, как Tinder (приложение для знакомств, где движение по экрану влево означает «нет», а вправо – «да»), пользователи быстро принимают много решений подряд. Эти данные сразу загружаются в прогностическую машину для подбора следующего кандидата на свидание. Вкусы у всех разные и непостоянные, меняются и за год, и в течение дня. В случаях, когда пользователи до определенной степени похожи и у них стабильные предпочтения, подходит отправка в облако с последующим обновлением. Но когда вкусы резко расходятся и часто меняются, пригодится способность совершенствовать прогнозы на уровне устройства.
Компании должны искать компромисс в том, как скоро опыт прогностической машины в реальном мире понадобится для составления новых прогнозов. Мгновенное использование опыта обеспечит быструю адаптацию к местным условиям, но ценой качества.

Разрешение учиться

Для обучения нужны потребители, согласные предоставлять данные. Если что-то в стратегии делается в ущерб чему-то другому, то в сфере ИИ немногие компании раньше и активнее проявили приверженность стратегии ИИ, чем Apple. В специальном разделе, на странице, посвященной конфиденциальности, СЕО Apple Тим Кук написал: «Самое главное для Apple – ваше доверие. Поэтому мы уважаем ваше право на конфиденциальность и защищаем ее криптостойким шифрованием и строгими правилами обращения с данными».
Далее он продолжил:
«Несколько лет назад пользователи интернета начали понимать, что для бесплатных сервисов они являются не клиентами, а продуктом. Но мы, сотрудники Apple, считаем, что политика конфиденциальности в отношении клиентов превыше всего.
Наша бизнес-модель прозрачна: мы занимаемся продажами качественного продукта. Мы не используем содержание ваших писем и СМС, а также истории просмотров для продажи рекламодателям и не монетизируем информацию, хранящуюся на вашем iPhone или в iCloud. Наши программы и услуги разработаны для совершенствования устройств, не более того».
Apple приняла такое решение не под давлением закона (некоторые утверждают, что из-за отставания в разработке ИИ от Google и Facebook). Ни одна компания, и в том числе Apple, не может отказаться от ИИ, стратегическая приверженность усложнит работу. Компания планирует создавать ИИ с соблюдением конфиденциальности и делает крупную стратегическую ставку на то, что пользователи захотят получить контроль над собственными данными. Apple уверена, что ее политика повысит, а не понизит вероятность установки пользователями ИИ в свои устройства. И она не одинока во мнении, что защита конфиденциальности окупится. Salesforce, Adobe, Uber, Dropbox и многие другие уже вложили в конфиденциальность немалые средства.
Это стратегическая ставка. Многие компании, в том числе Google, Facebook и Amazon, избрали другой путь и сообщают потребителям, что намерены использовать их данные для повышения качества продукта. Акцент Apple на конфиденциальности ограничивает диапазон ее продуктов. Например, и у Apple, и у Google в фотоприложение встроена функция распознавания; чтобы она работала, всем лицам необходимо присваивать метки. Google сохраняет их на сервере, и распознавание возможно на любом устройстве. Но Apple ради сохранения конфиденциальности проводит распознавание на уровне устройства. То есть, если отметить знакомых на компьютере Mac, на iPhone и iPad метки не появятся. В такой ситуации забота о конфиденциальности противоречит удобству использования (когда мы пишем книгу, неизвестно, как Apple собирается решать эту проблему).
Мы не знаем, как все обернется на практике. В любом случае с экономической точки зрения очевидно, что итоговый стратегический выбор обусловит относительная отдача от предпочтения конфиденциальности в ущерб прогностической точности. Повышенная конфиденциальность может позволить компании узнавать о пользователях, но толку от этих знаний будет мало.

Опыт как новый дефицитный ресурс

Навигационное приложение Waze собирает данные пользователей для прогнозирования ситуаций на дорогах. Лично для вас оно подберет кратчайший маршрут. Если бы это было его единственной задачей, проблем бы не возникло. Но прогноз меняет поведение людей, а Waze разработано для прогнозирования. И если приложение получает информацию от массы пользователей, то прогнозы могут искажаться.
Загвоздка в том, что пользователи Waze последуют по предложенному маршруту объезда пробок, вероятно, по переулкам. И если приложение не сделает поправки, то может не узнать, что препятствие устранено и обычный маршрут снова стал кратчайшим. Следовательно, для разрешения этой проблемы приложению придется направить по нему нескольких водителей для проверки. Их принесут в жертву ради блага других, и, разумеется, они разочаруются в продукте.
Когда прогноз меняет поведение толпы и тем самым лишает ИИ необходимой для прогнозирования информации, компромиссное решение найти непросто. В данном случае потребности большинства ставятся выше предпочтений нескольких человек (или одного). И это определенно не лучший пример отношения к клиентам.
Иногда для улучшения продукта, особенно в обучении посредством использования, важно встряхнуть систему таким образом, чтобы потребитель действительно получил совершенно новый опыт, полезный для обучения машины. Принудительно попав в новую среду, клиенты чаще всего получат негативное впечатление, но от этого выигрывают все остальные. В бета-тестировании это происходит добровольно, поскольку клиенты используют ранние версии. Однако некоторые участники бета-тестирования применяют продукт иначе, чем обычные клиенты. Иногда необходимо пожертвовать качеством продукта для получения обратной связи от нетипичных пользователей ради общей выгоды.

Людям тоже нужен опыт

Нехватка опыта приобретает еще большее значение, когда речь идет о людях. Если опыта набирается машина, он может проходить мимо человека. Согласно недавним предположениям, автоматизация грозит человечеству утратой навыков.
В 2009 году над Атлантическим океаном потерпел крушение рейс 447 Air France Рио-де-Жанейро – Париж. Сначала испортилась погода, затем отключился автопилот. По сообщениям в печати, в отличие от Салли из US Airways, неопытный пилот не справился с ситуацией. Когда его место занял квалифицированный коллега (до этого он спал), то не смог правильно оценить обстановку, потому что накануне ночью не выспался. Суть в том, что почти трех тысяч летных часов молодого пилота оказалось недостаточно, поскольку большую часть из них он летал с автопилотом.
Автоматизация полетов уже стала обычным делом вследствие того, что большинство авиакатастроф после 1970-х произошли в результате ошибок людей. С тех пор человек устранен из контрольного цикла, однако по иронии теперь пилоты получают еще меньше опыта и подготовлены еще хуже.
Для экономиста Тима Хартфорда решение очевидно: автоматизацию следует сокращать. По его мнению, автоматизировать необходимо рутинные процессы, а чрезвычайные ситуации требуют вмешательства человека, и с ними нельзя научиться справляться на повседневных примерах. Самолет Air France попал в экстремальную ситуацию, а опытного человека в кабине экипажа не оказалось.
Хартфорд подчеркивает, что автоматизация не всегда чревата проблемами:
«В большинстве ситуаций автоматизация не создает такого парадокса. Веб-страница клиентской службы справляется с обычными жалобами и запросами, что избавляет сотрудников от рутинной работы, поэтому они эффективнее решают сложные вопросы.
Но с самолетами все по-другому. Благодаря автопилотам и прочим видам компьютерного управления у экипажа появилось свободное время, но теперь пилотам особенно нечем заняться. В итоге они спят за пультом в прямом и переносном смысле. Всем известен случай в конце 2009 года, когда автопилот пролетел мимо аэропорта в Миннеаполисе больше чем на 100 миль, потому что пилоты не отрывались от своих ноутбуков».
Закономерно, что другие примеры, обсуждаемые в нашей книге, в том числе беспилотные автомобили, попадают в категорию самолетов, а не обращений в службу поддержки. Что мы станем делать без опыта вождения, когда машина в экстремальной ситуации переложит ответственность на нас? И как придется поступать нашим детям?
Людям необходимо развивать и сохранять навыки и снижать влияние автоматизации на процесс обучения. Опыт по сути своей – ресурс дефицитный, и его частично следует выделить человеку во избежание потери квалификации.
Обратное тоже верно. Прогностические машины должны получить ценный опыт событий, потенциально ведущих к катастрофе. Но откуда он возьмется, если в цикл включен человек? Возникает еще один компромиссный выбор – между опытом человека и машины.
Данные компромиссы раскрывают подтекст ориентированности на ИИ, провозглашенной руководством Google, Microsoft и других компаний. Они готовы инвестировать в данные для обучения прогностических машин, чье усовершенствование возводится в приоритет, даже в ущерб опыту пользователя и обучению сотрудников. В стратегии ИИ первое место занимают данные.

Выводы

• Переход на стратегию, ориентированную на ИИ, означает смещение прежних приоритетов. Ориентация на ИИ – не просто модная фраза, за ней кроется фактический компромисс. В такой стратегии организации на первое место ставится максимальная точность прогнозов, даже в ущерб другим целям, таким как увеличение прибыли, количество пользователей или опыт пользователя.
• ИИ представляет собой подрывную технологию, поскольку у действующих компаний экономические стимулы к его освоению слабее, чем у стартапов. Качество оснащенных ИИ продуктов поначалу невысокое – чтобы прогностическая машина работала так же эффективно, как жестко запрограммированные устройства, подчиняющиеся человеку, ей требуется время на обучение. При этом запущенный ИИ непрерывно учится и совершенствуется, оставляя позади своих неинтеллектуальных конкурентов. У давно существующих компаний возникает соблазн выждать, оставаясь в стороне и наблюдая за прогрессом ИИ в своей сфере. Для некоторых такой подход приемлем, но другим фирмам впоследствии окажется сложно догнать конкурентов, преуспевших в обучении и внедрении инструментов ИИ.
• Одно из стратегических решений касается времени, когда можно выпускать инструменты ИИ в реальный мир. Сначала их обучают внутри компании без привлечения пользователей. Но в реальных условиях коммерческого применения с большим притоком данных они учатся быстрее. Преимущество раннего выпуска – быстрое обучение, а издержки – более высокий риск (для имиджа компании или безопасности пользователя из-за недостаточно обученного ИИ). В некоторых случаях, например с Google Inbox, решение очевидно: плюсы быстрого обучения перевешивают издержки низкой эффективности. Но в других сферах, таких как автономное вождение, компромисс между преимуществами скорой коммерциализации продукта и высокой ценой ошибки слишком раннего выпуска найти не так просто.
Назад: Глава 14. Когда ИИ меняет бизнес
Дальше: Глава 16. Управление рисками ИИ