Книга: Машина, платформа, толпа. Наше цифровое будущее
Назад: Глава 2. Неприятная правда обо всех нас
Дальше: Глава 4. Привет, робот!

Глава 3. Наши почти разумные машины

Я верю, что к концу столетия словоупотребление и общественное мнение среди образованных людей изменятся настолько, что разговоры о мыслящих машинах не вызовут протеста.
Алан Тьюринг, 1950 г.

* * *

Едва разработав цифровые компьютеры, мы стали пытаться заставить их думать так, как это делаем мы. С самого начала было очевидно, что они очень полезны для выполнения шаблонных математических вычислений, но это не казалось новостью. В конце концов, люди давно знакомы с устройствами, облегчающими счет, начиная с японских и вавилонских абаков и загадочного греческого антикитерского механизма, появившихся еще до нашей эры. А вот новой была возможность программировать компьютеры, то есть давать им абсолютно произвольные инструкции. Как мы видели в предыдущей главе, компьютерные программы идеально подходят для алгоритмов — точных пошаговых инструкций для выполнения какой-либо задачи. Однако выдающиеся мыслители, представители самых разных дисциплин, вскоре стали пытаться заставить новые машины делать нечто большее, чем просто выполнять последовательность шагов в заранее установленном порядке. Эти первопроходцы хотели, чтобы запрограммированное «железо» стало умнее их самих — иначе говоря, чтобы машина научилась рассуждать на одном уровне с человеком и стала, таким образом, искусственным интеллектом.

Две разные дороги к искусственному интеллекту

Джон Маккарти, профессор математики в Дартмутском колледже, определял искусственный интеллект как «научные и технические методы создания разумных машин». Он организовал первую конференцию по этой теме, которая состоялась в колледже в 1956 году. Всего несколько лет спустя вокруг искусственного интеллекта началась масштабная и длительная полемика. Чтобы понять ее суть, а также осознать важность этого обсуждения, давайте рассмотрим различие между тем, как ребенок изучает первый язык, и тем, как большинство взрослых изучает второй язык.
Дети в основном делают это на слух. Они воспринимают разговоры окружающих людей, усваивают некоторые слова и правила, образующие язык, и в какой-то момент начинают говорить сами. У них есть обратная связь: если они делают ошибки, их поправляют, и в итоге дети преуспевают в сложной работе — умении говорить.
Взрослые при изучении нового языка знают, насколько это трудно. Когда они задаются целью овладеть вторым языком, то немедленно сталкиваются с множеством правил: куда поставить местоимения в предложении; какой предлог использовать; как спрягать глаголы; есть ли род у существительных, и если да, каким он бывает; как различать субъект и объект (чтобы понимать, кто является действующим лицом во фразах типа «мать видит дочь») и так далее. Запоминать слова очень трудно, но большинство взрослых людей, изучающих язык, больше страдают от необходимости изучать массу сложных и иногда непоследовательных правил.
Детям не нужны уроки по правилам языка, чтобы научиться хорошо говорить. А вот большинство взрослых не может без них обойтись. Разумеется, эти подходы отчасти перекрываются — многие дети изучают родную речь в школе, а взрослые воспринимают некоторые вещи на слух, — но разница все равно существенна. Мозг ребенка специализируется на изучении языка, и работа происходит по статистическим принципам выделения языковых закономерностей. Например, когда мама говорит о себе как о субъекте, она использует слово «я» и ставит его в начало предложения. Когда она является объектом, она использует слово «меня» и ставит его не в начало. Поскольку мозг взрослых отличается, им приходится изучать правила в явном виде.
На ранних стадиях работы над искусственным интеллектом занимавшееся им сообщество разделилось на два лагеря. Одни сосредоточились на так называемом символическом, или основанном на правилах, искусственном интеллекте, в то время как другие строили системы статистического распознавания образов. Первые пытались разработать искусственный интеллект на тех принципах, посредством которых взрослые люди учат иностранный язык; вторые стремились сделать искусственный интеллект похожим на ребенка, осваивающего речь.
Поначалу казалось, что более успешен символический подход. Например, на Дартмутском семинаре 1956 года Аллен Ньюэлл, Джон Клиффорд Шоу и будущий нобелевский лауреат Герберт Саймон продемонстрировали свою программу Logic Theorist, которая использовала правила формальной логики для автоматического доказательства математических теорем. Она смогла доказать 38 теорем из второй части Principia Mathematica — фундаментального труда Альфреда Уайтхеда и Бертрана Рассела по логике и философии математики. Одно из доказательств программы настолько превосходило по изяществу приведенный в книге аналог, что сам Рассел отреагировал на него «с восторгом». Саймон объявил, что они с коллегами «изобрели мыслящую машину». Тем не менее оказалось, что другие задачи намного хуже решаются с помощью подхода, основанного на правилах. Десятилетия исследований в области распознавания речи, классификации изображений, перевода с одного языка на другой и прочих дали весьма неубедительные результаты. Самые лучшие из систем, работающих в этих областях, справляются со своими задачами намного хуже человека, а худшие просто чудовищны. Например, если верить сборнику баек 1979 года, исследователи предлагали для перевода с английского языка на русский фразу «The spirit is willing, but the flesh is weak». Программа выдала «Виски приемлемо, но мясо испортилось». Вполне вероятно, что это вымышленная история, но даже если и так, она вполне правдоподобна. Символические системы искусственного интеллекта, рассматриваемые как единая группа, генерировали весьма заурядные результаты, так что к концу 1980-х в этой области наступила «зима», поскольку иссякли корпоративные и государственные источники финансирования.
СЛИШКОМ МНОГО ПРАВИЛ
Что объясняет такой масштабный провал символических подходов к искусственному интеллекту? Есть два основных препятствия. Одно представляет серьезную проблему для этой области, а второе выглядит вообще непреодолимым. Прежде всего, в мире есть масса правил — как прекрасно знают взрослые, изучающие язык, — и в целом недостаточно знать и соблюдать большинство из них. Чтобы грамотно говорить, вам нужно освоить все правила. Даже если предложение грамматически правильно на 80 процентов, оно, скорее всего, будет звучать комично или даже покажется бессмысленным.
Внутри правил есть свои правила. Так, недостаточно знать, что в английском языке прилагательное обычно ставится перед существительным. В своей книге The Elements of Eloquence («Элементы красноречия») Марк Форсайт пишет: «Прилагательные в английском языке должны следовать строго в таком порядке: мнение — размер — возраст — форма — цвет — происхождение — материал — предназначение, а далее идет существительное. У вас может быть любимый маленький старый прямоугольный зеленый французский серебряный перочинный ножик. Но если вы хоть чуть-чуть перепутаете порядок слов, вас посчитают безумцем. Странная штука: любой человек, говорящий на английском языке, строго придерживается этого правила, но почти никто не может его сформулировать».
Кроме того, миры, в которых мы живем — и мир физических объектов, и мир идей и понятий, — не стремятся придерживаться единого набора правил. У табуретов есть ножки, а пуф хоть и является частным случаем табурета, ножек может не иметь. В 2002 году американские мужчины не имели права заключать брак друг с другом, а в 2015 году получили такую возможность. Белки не летают, за исключением летяг, которые способны планировать — это своего рода полет. Два отрицания могут иметь положительный смысл («она никогда не грустит»), но два положительных утверждения никогда не составляют отрицания. Ага, конечно.
Попытки систематизировать все правила для таких сложных вещей, как язык, запрограммировать их в компьютерные системы и добиться, чтобы они делали что-нибудь полезное, были большей частью безуспешными. Специалист по информатике Эрнест Дэвис и нейробиолог Гэри Маркус пишут: «В 2014 году мало какие коммерческие системы в значительной степени применяли рассуждения на основании автоматизированного здравого смысла… Никто еще не приблизился к созданию механизма, способного удовлетворительно рассуждать, опираясь на здравый смысл». Огромное количество людей успешно пользуются здравым смыслом, чтобы преодолевать создаваемые миром барьеры, сложности и непоследовательность. В этом людям не мешают даже искажения и ошибки разума, речь о которых шла в . Но мы все еще не смогли разработать символьные цифровые системы, способные понимать реальное устройство мира так же хорошо, как наша собственная биологическая Система 1. Компьютеры становятся все эффективнее в узких областях применения искусственного интеллекта, таких как го или распознавание образов, но мы далеки от того, что Шейн Легг, один из основателей DeepMind, назвал общим искусственным интеллектом, — системы, способной применять интеллект к множеству непредусмотренных типов проблем.
ВЕЗДЕСУЩИЙ ПАРАДОКС ПОЛАНИ
Дэвис и Маркус рассказывают, в чем состоит, возможно, самое серьезное препятствие на пути к созданию таких систем: «Рассуждая с помощью обычного здравого смысла, люди… опираются на процессы, большей частью не поддающиеся самоанализу». Другими словами, когнитивная работа, которую мы делаем, легко проходя через чащобу правил, — это постоянная демонстрация парадокса Полани, утверждающего, что мы можем знать больше, чем способны рассказать. Как говорилось в главе 1, именно этот парадокс до недавнего времени мешал созданию программ, способных играть в го на одном уровне с людьми. Имейте в виду, что этот парадокс вездесущ. Во многих важных случаях мы просто не знаем и не можем знать, какие правила используем, чтобы делать что-то верно.
Этот факт кажется непреодолимым препятствием для создания любого рода автоматизации или искусственного интеллекта. Если никто в мире не знает правил, по которым люди что-то делают, включая самих людей, как же можно создать систему, основанную на правилах или любую другую, способную делать то же, что и мы? Кажется, что парадокс Полани строго ограничивает список человеческих задач, поддающихся автоматизации. Наш коллега из Массачусетского технологического института Дэвид Аутор пишет: «Рамки замены такого рода [замены людей компьютерами] ограничены, поскольку множество задач люди понимают по умолчанию и выполняют без усилий, но ни программисты, ни кто-либо другой не может сформулировать для таких задач явные “правила” или процедуры».
МОЖНО ЛИ СОЗДАТЬ САМООБУЧАЮЩИЕСЯ МАШИНЫ?
Другой лагерь исследователей искусственного интеллекта (тех, кто отказался от символического подхода) с конца 1950-х пытался преодолеть парадокс Полани, разрабатывая системы, изучающие задачи тем же способом, каким дети учат язык, — с помощью опытов, повторения и обратной связи. Эти специалисты создали область машинного обучения, суть которой в точности соответствует названию.
Одной из первых цифровых машин, способных обучаться таким образом, был перцептрон — финансируемый Военно-морскими силами США проект думающей и обучающейся машины. Руководил им Фрэнк Розенблатт, ученый из Корнелльской лаборатории аэронавтики. Назначением перцептрона, появившегося в 1957 году, была классификация объектов, которые он видит, — например, предполагалось, что он сможет отличать кошек от собак. В каком-то смысле он представлялся чем-то вроде крохотной версии мозга.
Примерно 100 миллиардов нейронов человеческого мозга не упорядочены по какой-то аккуратной схеме. Они сильно переплетены между собой: типичный нейрон воспринимает входящие сигналы от 10 тысяч своих соседей, а затем посылает выходящий сигнал примерно такому же количеству получателей. Каждый раз, когда на определенное количество входов поступает достаточно сильный электрический сигнал, нейрон направляет собственный сигнал на все свои выходы. Величины, которые мы обозначили словами «достаточное количество» и «достаточно сильный», меняются со временем в зависимости от обратной связи, и нейрон придает каждому из своих входов важность, называемую «весом». В результате этих странных, сложных, не прекращающихся ни на мгновение процессов возникают память, умения, Система 1 и Система 2, внезапные озарения, когнитивные искажения и все остальное, что имеет отношение к нашему разуму.
Перцептрон не мог выполнять такую сложную работу. Его создали только для классификации простых изображений. В нем было 400 фотоэлементов, соединенных случайным образом (чтобы смоделировать запутанность мозга) в один слой искусственных нейронов. Первая демонстрация этой «нейронной сети» вкупе с уверенными прогнозами Розенблатта привела к тому, что газета New York Times написала в 1958 году о перцептроне как о «зародыше электронного компьютера, который, по ожиданиям [ВМС США], будет способен ходить, разговаривать, видеть, писать, воспроизводить себя и сознавать свое существование».
Однако обещанного быстрого прорыва не произошло, а в 1969 году Марвин Минский и Сеймур Пейперт опубликовали сокрушительную критическую работу под названием Perceptrons: An Introduction to Computational Geometry («Перцептроны: введение в вычислительную геометрию»). Они математически доказали, что проект Розенблатта не способен выполнять некоторые базовые задачи классификации. Для большинства исследователей искусственного интеллекта этого было достаточно, чтобы отвернуться не только от перцептронов, но и от более широкой концепции нейронных сетей и машинного обучения в целом. Зима опустилась на оба лагеря исследователей искусственного интеллекта.
ВЕРНОСТЬ ПЕРЦЕПТРОНАМ ПРИНОСИТ РЕЗУЛЬТАТ
Несколько групп ученых все-таки продолжали заниматься машинным обучением, будучи убеждены, что правильный способ заставить компьютеры думать по образцу человека — это построить на основе модели мозга нейронные сети, способные учиться на примерах. Исследователи поняли, в чем заключались ограничения перцептрона, и преодолели их, комбинируя сложную математику, все более мощное аппаратное обеспечение и прагматичный подход, который позволял им вдохновляться тем, как работает мозг, но не ограничиваться этим. Например, в нейронах мозга электрические сигналы текут только в одну сторону, а в успешных системах машинного обучения, построенных в 1980-е годы Полом Уэрбосом, Джеффом Хинтоном, Яном Лекуном и другими, информация могла проходить по сети в обоих направлениях.
Это «обратное распространение» обеспечило значительное улучшение работы, однако прогресс происходил безнадежно медленно. К 1990-м система машинного обучения, разработанная Лекуном для распознавания чисел, была способна прочитать до 20 процентов всех рукописных банковских чеков в США, но другого практического применения ей не нашлось.
Как показывает недавняя победа AlphaGo, сейчас ситуация совершенно другая. Поскольку AlphaGo использовала эффективный поиск по огромному количеству возможностей — классический элемент систем искусственного интеллекта, основанных на правилах, — она, по сути, была системой машинного обучения. Как пишут ее создатели, AlphaGo — «новый подход к компьютеру, играющему в го, который использует… глубокие нейронные сети… обучаемые новаторским сочетанием контролируемого обучения с помощью игр с экспертами-людьми и обучения с подкреплением через игры с собой».
AlphaGo неединичный случай. В последние годы мы видим расцвет нейронных сетей. Сейчас они, бесспорно, доминирующая форма искусственного интеллекта и, вероятно, некоторое время останутся на лидирующих позициях. Эта область искусственного интеллекта наконец выполняет хотя бы некоторые из тех обещаний, что нам когда-то давали ученые.

Итак, почему у нас есть искусственный интеллект?

Что стало причиной этого взлета и почему он оказался таким быстрым и неожиданным? Как часто бывает в случае прогресса, здесь соединилось несколько факторов, и определенную роль сыграли упорство разработчиков и счастливая случайность. Многие специалисты считают, что единственным важным фактором был закон Мура. По мере увеличения размера нейронные сети становятся намного более мощными и производительными, и только недавно по-настоящему крупные сети стали достаточно дешевы, чтобы быть доступными для большого числа ученых.
Исследователи с небольшим бюджетом также получили доступ к изучению искусственного интеллекта с помощью облачных вычислений. По словам предпринимателя Эллиота Тёрнера, к осени 2016 года вычислительные мощности, необходимые для осуществления передового проекта машинного обучения, можно было получить у провайдера облачных сервисов, например Amazon Web Services, в среднем за 13 тысяч долларов. Как ни странно, рост популярности видеоигр также стал значительным толчком для машинного обучения. Оказалось, что специализированные графические процессоры, которые установлены в современных игровых приставках, хорошо подходят к типам вычислений, нужным для нейронных сетей, так что эти устройства в больших количествах привлекаются для выполнения таких задач. Исследователь искусственного интеллекта Эндрю Ын сказал нам: «Ведущие группы делают с помощью графических процессоров такие безумно сложные вещи, каких я не мог вообразить два-три года назад».
Появление больших данных — то есть недавнее взрывообразное увеличение количества цифрового текста, изображений, звуков, видео, показаний датчиков и тому подобного — было почти таким же важным для машинного обучения, как и закон Мура. Подобно тому как ребенок для изучения языка должен слышать множество слов и предложений, системам машинного обучения нужно иметь множество примеров, чтобы улучшать распознавание речи, классификацию изображений и решать другие задачи. Сейчас данные поступают, по сути, непрерывно, причем их становится все больше. Системы типа тех, что создали Хинтон, Лекун, Ын и другие, обладают весьма полезным свойством: чем больше примеров они видят, тем лучше работают. Хинтон сказал с определенной скромностью: «Если посмотреть назад, то [успех в машинном обучении] был просто вопросом количества данных и количества вычислений».
Возможно, Хинтон принижает собственный вклад. Благодаря ему нейронные сети значительно продвинулись вперед, а одна из его разработок дала новое название всей этой сфере. Статья 2006 года «Алгоритм быстрого обучения для глубоких сетей доверия», написанная Хинтоном в соавторстве с Саймоном Осиндеро и И-Вай Те, продемонстрировала, что довольно мощные и надлежащим образом настроенные нейронные сети могут учиться сами, без вмешательства человека. Например, если такой сети показать множество написанных от руки цифр, она придет к правильному заключению, что в этих данных есть десять различных образцов, соответствующих цифрам от 0 до 9, и в дальнейшем будет точно распределять любые рукописные цифры по десяти категориям.
Такой тип неконтролируемого обучения остается относительно редким. Самые успешные системы основаны на контролируемом обучении, в ходе которого, как правило, сначала они получают набор вопросов и правильных ответов, а уже потом им предлагают самостоятельно ответить на какие-либо новые вопросы. Так, системе машинного обучения можно дать большой набор звуковых файлов с человеческой речью и файлов с соответствующими текстами в письменном виде. Система использует эти пары, чтобы создать ассоциации в рамках своей нейронной сети, которые позволят ей трансформировать в текст новые примеры речи. Поскольку оба подхода к машинному обучению — и контролируемый, и неконтролируемый — используют алгоритмы, описанные Хинтоном и его коллегами в статье 2006 года, сейчас основанные на них программы и устройства обычно называют системами глубокого обучения.

Демонстрация и применение искусственного интеллекта

Если не считать весьма небольшого числа более ранних случаев (вроде системы Лекуна для распознавания рукописных номеров на чеках), можно сказать, что коммерческому применению глубокого обучения всего несколько лет. Однако такие технологии распространяются с удивительной скоростью. Разработчик программного обеспечения Джефф Дин, который возглавлял программы Google по использованию глубокого обучения, отмечает, что еще в 2012 году компания не применяла эту технологию для улучшения таких продуктов, как поиск Google, Gmail, YouTube или Google Maps. Однако к третьему кварталу 2015 года глубокое обучение стало использоваться примерно в 1200 проектах компании и показало большую производительность по сравнению с другими методами.
Компания DeepMind особенно продвинулась в сочетании глубокого обучения с другой технологией, известной как обучение с подкреплением, сосредоточив внимание не только на информационных продуктах, предоставляемых клиентам, но и на важных процессах реального мира. Google ввела в строй несколько крупнейших в мире дата-центров, которые потребляют очень много энергии. В этих зданиях расположены 100 тысяч серверов, которые должны не только получать питание, но и охлаждаться. Проблема с охлаждением усугубляется тем фактом, что общая вычислительная нагрузка для центра, или общее количество запрашиваемых серверов, непредсказуемо изменяется во времени. Кроме того, на необходимость охлаждения влияет погода.
Как правило, всеми насосами, вентиляторами, охладительными башнями и прочим оборудованием, которое поддерживает нужную температуру в дата-центрах, управляют люди. Они следят за термометрами, датчиками давления и прочими сенсорами и принимают решения, как лучше охлаждать здание. Компания DeepMind захотела узнать, можно ли вместо этого использовать машинное обучение. Специалисты использовали данные прошлых лет о вычислительной нагрузке, показаниях датчиков, факторах окружающей среды (температуре и влажности), чтобы обучить систему нейронных сетей управлять всем имеющимся оборудованием для охлаждения. В каком-то смысле разработчики подошли к дата-центру как к гигантской видеоигре и дали указания своим алгоритмам постараться набрать максимальное количество очков; в рассматриваемом случае очки начислялись за оптимальную эффективность энергопотребления.
Когда реальный дата-центр перешел под управление этой системы, результаты появились немедленно и поражали воображение. Общее количество энергии, используемой для охлаждения, снизилось на целых 40 процентов, а ситуация с непроизводительными потерями — энергией, которая не использовалась непосредственно для IT-оборудования и включала дополнительные нагрузки и потери, — улучшилась примерно на 15 процентов. Один из основателей DeepMind Мустафа Сулейман сказал нам, что это одно из самых крупных улучшений, которые когда-либо видела команда дата-центров Google. Сулейман также подчеркнул, что подход DeepMind очень хорошо поддается обобщению. Нейронные сети необязательно полностью перестраивать для каждого нового дата-центра. Их просто нужно обучить с использованием максимально подробных данных за несколько лет. Такое обучение — тонкая и сложная работа, но она определенно окупается.
Наиболее эффективные системы машинного обучения, используемые сегодня для самых разных приложений — от управления энергией в дата-центрах до распознавания речи, классификации образов и автоматического перевода — удивительно похожи. Это просто варианты глубокого обучения, а сама сфера применения существенно не изменяет технологию. Это означает, что такой подход к искусственному интеллекту способен с большой скоростью проникать в различные области промышленности и экономики. Новые нейронные сети можно почти мгновенно дублировать и масштабировать, обучать с помощью данных, а потом применять в деле.
Технологические гиганты, включая Microsoft, Amazon, Google и IBM, разработали собственные технологии машинного обучения и сделали их доступными для других компаний посредством сочетания облака и программных интерфейсов приложений (API), которые, по сути, являются ясными, согласованными и открытыми правилами, определяющими то, как части программного обеспечения взаимодействуют друг с другом. API значительно облегчают комбинирование кода из различных источников в единое приложение, а облако обеспечивает его доступность по запросу в любой точке мира.
С такой инфраструктурой появляется возможность быстрого распространения машинного обучения по всему миру. Однако по причинам, описанным в , мы предполагаем, что это будет происходить неравномерно, поскольку в ведущих компаниях перестраиваются процессы и возникают новые модели ведения бизнеса. Это уже произошло кое-где, в том числе в некоторых неожиданных местах.
Когда японец Макото Коикэ в 2015 году приехал к родителям на огуречную ферму, он увидел возможность применить машинное обучение. Ранее он работал инженером по аппаратному и программному обеспечению в автомобильной промышленности, поэтому был сведущ в создании оборудования, сочетающего коды и механизмы. Он нашел приложение своим талантам, взявшись за сортировку огурцов, которой ранее занималась его мать. Используя свой многолетний опыт, она вручную сортировала всю продукцию фермы на девять категорий. Работа не казалась сложной, поскольку ферма была небольшая (средний размер японской фермы, за исключением тех, где выращивают рис, составляет всего 1,5 гектара, то есть примерно полтора бейсбольных или два футбольных поля), но мать сильно уставала. Во время пика созревания она работала до восьми часов в день.
Макото Коикэ был впечатлен способностями AlphaGo к сравнению изображений и заинтересовался технологией машинного обучения TensorFlow, которую Google открыла для широкой общественности в ноябре 2016 года. Инженер решил использовать TensorFlow, чтобы узнать, можно ли автоматизировать работу по сортировке огурцов на семейной ферме. Хотя у него не было опыта в области машинного обучения, он освоил TensorFlow, а затем обучил систему, взяв 7 тысяч изображений огурцов различных категорий. Используя недорогие камеры, компьютеры и контроллеры, Макото построил полностью автоматический сортировщик, который в первый год работы добился 70-процентной точности. Улучшить результат почти наверняка можно будет с помощью изображений более высокого разрешения и нового поколения программного обеспечения для машинного обучения, использующего облако. Макото говорит об этих технологиях так: «Мне не терпится их опробовать». Работы, подобные описанной, заставляют нас согласиться с мнением Каза Сато из Google, заметившего: «Я не преувеличу, если скажу, что варианты применения машинного обучения и глубокого обучения ограничены только нашим воображением».
Когда мы писали книгу, почти все коммерчески успешные системы в этой сфере использовали методы контролируемого обучения и лишь немногие применяли неконтролируемое обучение (как в случае с оптимизацией дата-центра компанией DataMind). Однако люди в основном учатся с помощью неконтролируемого обучения. Ребенок каждый день изучает физику, играя с кубиками, выливая воду из стакана, бросая мячик и опрокидывая стулья, а не изучая законы Ньютона и не запоминая уравнения типа F = ma. Ян Лекун метко обрисовал широту и почти полную невостребованность неконтролируемого обучения с помощью такой метафоры: «Если сравнивать машинное обучение с кексом, то неконтролируемое обучение будет собственно кексом, контролируемое — сахарной глазурью, а обучение с подкреплением — вишенкой наверху. Мы знаем, как делать сахарную глазурь и где взять вишенку, но мы пока не в силах испечь кекс». Он считает, что разработка улучшенных алгоритмов неконтролируемого обучения станет важна, если мы когда-нибудь создадим общий искусственный интеллект.
РАЗУМ И МАШИННОЕ ОБУЧЕНИЕ
Мы не раз слышали, как создатели нынешнего поколения нейронных сетей пренебрежительно именуют предыдущий, основанный на правилах подход «конструированием признаков». Сейчас многие специалисты считают неверным подход, при котором сначала все соответствующие ситуации правила собираются, а затем вводятся в компьютер. Они полагают, что гораздо продуктивнее создавать системы, способные изучать правила самостоятельно. Статистический лагерь исследователей искусственного интеллекта сейчас занимает лидирующие позиции и уже выполнил по меньшей мере некоторые обещания из тех, что были даны более полувека назад.
И как же в таких условиях свести вместе разум и машину? Есть несколько разных способов. Один был описан в ; его сторонники, Пол Мил и Том Дэвенпорт, полагают, что люди, наделенные здравым смыслом, будут наблюдать за решениями и действиями искусственного интеллекта и вмешиваться, если заметят что-то неладное. Именно это делала компания DeepMind, когда оптимизировала обслуживание дата-центра с помощью нейронных сетей. Люди-контролеры никуда не делись, в любой момент они могли перехватить контроль у компьютера.
Автопроизводители, которые встраивают в машины технологии автоматического управления, пользуются таким же методом. Они подчеркивают, что человек и в буквальном, и в переносном смысле находится на месте водителя и отвечает за безопасное функционирование автомобиля даже в то время, когда тот едет сам. Многим участие человека в схеме управления кажется благоразумным, поскольку невнимательность может быть фатальной. Летом 2016 года машина марки Tesla Джошуа Брауна врезалась в борт грузового прицепа, водитель погиб. Фура белого цвета совершала левый поворот с автострады на боковую дорогу. Браун ехал по противоположной стороне шоссе. Поскольку машина Tesla не затормозила перед катастрофой, похоже, ни Браун, ни видеокамера автомобиля не заметили белый прицеп на фоне яркого неба Флориды. Возможно, Браун слишком полагался на систему автоматического вождения, так как видел ее эффективность во многих предыдущих случаях и привык не обращать особого внимания на дорогу.
Google считает, что, поскольку человеческая невнимательность — это вечная проблема, нужно полностью исключить людей из управления транспортным средством. Крис Урмсон, бывший руководитель проекта компании по машинам с автоматическим управлением, говорит: «Общепринятая точка зрения такова, что нам нужно взять существующие системы помощи водителю и каким-то образом постоянно улучшать их, тогда у нас со временем появятся самоуправляемые автомобили. Что ж, я отвечу так: это равнозначно утверждению, что если я буду усердно учиться прыгать, то когда-нибудь научусь летать. На самом деле действовать нужно несколько иначе». Вот почему компания работает над созданием на сто процентов автономных машин, которые не требуют участия человека, — это называется автономностью пятого уровня.
Их возможности впечатляют. На конференции TED 2015 года Урмсон сообщил: «Наши автомобили проезжали через Маунтин-Вью, и вот с чем мы столкнулись. Одна женщина на электрическом кресле-коляске гонялась кругами за уткой. В правилах дорожного движения ничего не написано о том, что нужно делать в таком случае, однако наши машины смогли обнаружить препятствие, снизить скорость и проехать дальше». Автономных машин, способных безопасно ездить в любых условиях и ситуациях, пока еще нет. Тем не менее, по нашему мнению, они скоро появятся.
Способность машин преодолевать парадокс Полани начинает применяться в работе бэк-офисных подразделений «белых воротничков», которая в данный момент удивительно плохо поддается полной автоматизации. «Бэк-офис» — обобщающий термин для умственной работы, происходящей вне поля зрения клиента и включающей закупки, бухгалтерию и IT. Как мы говорили ранее, наиболее масштабные и распространенные операции бэк-офиса давно автоматизированы корпоративными системами, тем не менее в большинстве компаний все равно остается масса ручной работы. Один из способов автоматизировать хотя бы часть такой работы — спросить выполняющих ее людей, какими правилами они руководствуются, каковы исключения из них, когда нужно использовать другой набор правил или директив и прочее. Однако на сбор такой информации с помощью опросов ушло бы много времени, и это отвлекло бы сотрудников от работы и, вероятно, не оправдало бы себя. Лица, выполняющие менее рутинную работу, по всей вероятности, не способны точно и исчерпывающе изложить кому бы то ни было, как они действуют.
Японская страховая компания Fukoku Mutual Life использует другой подход. В декабре 2016 года она объявила о попытке использовать созданную IBM технологию искусственного интеллекта Watson, чтобы хоть частично автоматизировать работу людей, имеющих дело с заявлениями о наступлении медицинского страхового случая. Система будет извлекать соответствующую информацию из документов, предоставленных больницами и другими медицинскими учреждениями, и использовать ее для заполнения надлежащих кодов для страховых выплат, а затем выдаст эту информацию людям. В перспективе же система будет «изучать историю оценивания прошлых выплат, чтобы перенять опыт и квалификацию оценщиков». Другими словами, технологии предстоит обучаться по ходу дела, и со временем она сможет освободить людей от большого объема работы.
Мы ожидаем, что в ближайшее время появится немало таких проектов, и прогнозируем быстрое распространение глубокого и других видов машинного обучения. Например, значительная часть работы с клиентами заключается в том, что сотрудник выслушивает заказчика, чтобы понять, чего тот желает, а затем предоставляет ему ответ или услугу. Современные технологии смогут взять на себя вторую часть описанной процедуры, как только овладеют правилами взаимодействия. Гораздо труднее будет автоматизировать не нахождение ответа, а первый этап — выслушать и понять. Распознавание речи и другие аспекты обработки естественного языка крайне сложны для искусственного интеллекта с самого его зарождения по причинам, описанным в этой главе. Доминировавший ранее символический подход с такими задачами не позволял справиться вовсе, однако ему на смену пришли новые подходы, основанные на глубоком обучении, которые развиваются очень быстро даже на удивление экспертов.
В октябре 2016 года группа из Microsoft Research объявила, что сконструированная ею нейронная сеть достигла «уровня распознавания разговорной речи, сравнимого с человеческим». Такая фраза была в названии их статьи. Их система работала точнее, чем профессиональные люди-транскрибаторы, причем справлялась как с аудиозаписями по установленным темам, так и с обычными разговорами между друзьями и членами семьи. Комментируя этот результат, профессор Джеффри Паллум написал: «Должен признаться, я никогда не думал, что доживу до такого дня. В 1980-х я считал, что полностью автоматическое распознавание связной речи (слушание и точная запись сказанного) слишком трудно для машин… Специалисты достигли этого, не опираясь на какой-либо синтаксический анализ: они проделали чисто техническую работу с помощью статистического моделирования, основанного на гигантском объеме исходных данных… Я не только не думал, что когда-либо это увижу, — я уверенно поставил бы на обратное».
Легендарный ученый Фредерик Йелинек, работавший в области информатики, точно подметил причину масштабного сдвига внутри сообщества разработчиков искусственного интеллекта от подхода, основанного на правилах, к статистическому подходу. В середине 1980-х он сказал: «Каждый раз, когда я увольняю лингвиста, качество распознавания речи улучшается». К середине 2010-х в самых успешных группах, работавших над задачами преобразования речи в текст, лингвистов не было, и результаты удивили мир. Мы уверены, что нас еще ждут новые сюрпризы.
Мы согласны с CEO компании Salesforce и пионером индустрии высоких технологий Марком Бениоффом в том, что мы двигаемся к «миру с лидерством искусственного интеллекта». Как и мы, он видит бесчисленные возможности в перспективе заменить людей, принимающих решения, чем-то намного более эффективным. Марк Бениофф пишет: «Многие бизнесы по-прежнему принимают важные решения, опираясь на интуицию, а не на информацию… В ближайшие несколько лет это изменится, так как искусственный интеллект становится все более распространенным и потенциально делает каждую компанию и каждого работника умнее, быстрее и производительнее». Несколько лет назад такой прогноз показался бы ужасным преувеличением, сегодня же он выглядит беспроигрышной ставкой.

Резюме

• Основанный на правилах, или символический, подход к искусственному интеллекту сейчас пребывает в спячке. Кажется очень маловероятным, что он выживет за пределами узких областей, а возможно, и совсем исчезнет.
• Машинное обучение — искусство и наука создания программных систем, которые могут обнаруживать закономерности и формулировать выигрышные стратегии после просмотра множества примеров, — в итоге выполняет свои давние обещания и уже приносит определенную пользу.
• Системы машинного обучения действуют лучше, когда становятся больше, работают на более быстром и специализированном аппаратном обеспечении, получают доступ к большему количеству данных и содержат улучшенные алгоритмы. Поскольку все эти вещи сейчас активно совершенствуются, то и машинное обучение быстро прогрессирует.
• Нейронные сети достигают наилучших результатов при контролируемом обучении, когда есть размеченные примеры. Однако в неконтролируемом обучении — основном способе, которым люди познают мир, — прогресс нейронных сетей невелик.
• Контролируемое обучение идеально подходит для автоматизации многих задач, которые сейчас выполняют люди, особенно в сферах сопоставления образов, диагностики, классификации, прогнозирования и рекомендаций. Машинное зрение, распознавание речи и другие вещи, которые некогда считались невозможными, сейчас во многих областях осуществляются на уровне, сравнимом с человеческим.
• Пока мы находимся на ранних стадиях распространения машинного обучения. Оно будет проникать в экономику и общество, особенно после того, как стало доступно любому желающему в облаке.
• Системам машинного обучения (и всем прочим формам искусственного интеллекта) по-прежнему не хватает здравого смысла.

Вопросы

1. Выполняете ли вы какую-нибудь важную работу по сопоставлению образов, диагностике, классификации, прогнозированию и рекомендациям? Рассматриваете ли вы применение машинного обучения для каких-либо из перечисленных областей?
2. Принятие каких решений и выполнение каких операций (если таковые есть) вы могли бы доверить системам искусственного интеллекта? Какие из этих решений и задач в случае автоматизации потребуют присмотра человека?
3. Вы согласились бы завтра утром поехать на работу на машине с автоматической системой вождения? Как вы думаете, будет ли вам комфортно делать это через пять лет? Почему?
4. Заполните пропуск в предложении: «Если конкуренты реализуют успешную систему машинного обучения для __________, у нас будут серьезные проблемы».
5. Какой стратегией машинного обучения вы пользуетесь? Насколько далеки вы от внедрения машинного обучения в своей организации?
Назад: Глава 2. Неприятная правда обо всех нас
Дальше: Глава 4. Привет, робот!