Крупнейшая по уровню дохода IT-компания Apple базируется в Калифорнии и разрабатывает, производит и продает культовые продукты с умными технологиями: iPhone, iPad, Mac, Apple Watch, Apple TV и сопутствующие продукты и услуги. В 2018 году Apple стала первой открытой акционерной компанией стоимостью 1 трлн долларов.
В ИИ-стратегии Apple отдает приоритет мобильным устройствам и в последние годы позиционирует себя как пионера встроенных ИИ-технологий с высоким уровнем безопасности и уникальным пользовательским опытом.
В Apple считают, что будущее за мощными портативными устройствами с функцией машинного обучения на данных, получаемых через собственные датчики. Это расходится с концепцией будущего других компаний, в которой преобладают облачные вычисления и относительно маломощные терминалы.
Алгоритмы машинного обучения будут работать непосредственно на устройстве, в мощном центральном процессоре или встроенных в телефон, часы или колонки графических процессорах. Для примера рассмотрим «нейронный двигатель» в последней модели iPhone X. Это специальная заказная микросхема для нейронных расчетов в глубоком обучении. Она ускоряет выполнение таких функций, как разблокировка по лицу, улучшение снимков (плюс забавные эффекты), дополненная реальность и время работы батареи.
Машинное обучение на устройстве происходит быстрее, поскольку не приходится ждать, когда из облака вернутся обработанные данные. Это хорошо, но, с другой стороны, ИИ учится на данных, полученных только от одного устройства. А ведь в облако поступает колоссальное количество данных из многих источников.
Apple фокусируется на конфиденциальности пользователей и именно поэтому выбирает обучение на устройстве. Личные данные не покидают смартфон, и компания рассчитывает, что пользователи сочтут это преимуществом.
Собственная ИИ-экосфера Apple строится на основе Core ML (фреймворка для работы с технологиями машинного обучения). Он позволяет встраивать в продукты алгоритмы машинного обучения: глубокое обучение, компьютерное зрение и естественный язык. На нем работают голосовой помощник Apple по имени Siri, камеры iPhone и клавиатура QuickType.
Значительную часть успеха iPhone обеспечил магазин App Store. До его запуска в 2008 году пользователи могли загружать приложения на свои смартфоны, но настройка и выбор функций выполнялись интуитивно.
Пользователи год за годом выбирают Apple, и разработчики начали внедрять ИИ в сторонние приложения. Компания намерена поддерживать максимальную функциональность, недоступную на других мобильных платформах. Для этого используются такие инструменты, как Create ML. Так машинное обучение встраивается в приложения для пользовательских устройств.
Отличный пример — приложение Homecourt для усовершенствования игры баскетболистов-любителей. Достаточно направить камеру на поле, и машинное обучение найдет игроков, проанализирует их позицию, передачи и броски. Все это осуществляется посредством компьютерного зрения на самом устройстве. Приложение Polyword выдает название любого объекта, на который направлена камера, на 30 языках, используя компьютерное зрение и машинное обучение. Другие функции приложения критически оценивают фотографии и дают рекомендации, как их улучшить, в режиме реального времени. Кроме того, можно управлять уведомлениями, чтобы не пропустить важную информацию.
После запуска Siri стала самым популярным голосовым помощником на основе ИИ и обработки естественного языка (ОЕЯ). Хотя ее критикуют за недостаток инноваций по сравнению с конкурентами, в недавних обновлениях для мгновенного перевода используются 40 языков.
ОЕЯ Siri отправляет данные в облако. Конфиденциальность не страдает: из данных голосовых команд вычленяется вся идентификационная информация, прежде чем они покинут устройство в зашифрованной форме.
Недавно Apple проводила исследование ОЕЯ, чтобы уточнить результаты поиска Siri компаний и достопримечательностей в районе проживания пользователей. Исследователи добавили определение местонахождения в обучающие данные и предоставили Siri доступ к локализованным массивам данных с названиями мест и мелких компаний. Теоретически Siri будет использовать эти данные для интерпретации разговорной речи, чтобы лучше понимать, что пользователь имеет в виду. К примеру, Alexa догадается, что “I’m going to Kilkenny” («Я еду в Килкенни») означает, что некто собрался в ирландский городок, а не планирует «убить Кенни» (“I’m going to kill Kenny”).