Книга: Власть роботов: Как подготовиться к неизбежному
Назад: Глава 3. Отделяем хайп: реалистичный взгляд на искусственный интеллект как на общедоступный ресурс
Дальше: Глава 5. Глубокое обучение и будущее искусственного интеллекта
Глава 4

В поисках путей создания интеллектуальных машин

Премию Тьюринга называют нобелевской в области информационных технологий. Она носит имя легендарного математика и ученого Алана Тьюринга и ежегодно присуждается Ассоциацией по вычислительной технике людям, посвятившим себя развитию этой области. Как и в случае Нобелевской премии, присуждение премии Тьюринга сопровождается выплатой $1 млн, выделяемого, главным образом, Google.

В июне 2019 года лауреатами премии Тьюринга за 2018 год стали трое: Джеффри Хинтон, Ян Лекун и Йошуа Бенджио — за вклад в разработку глубоких нейронных сетей. Эта технология, которую также называют глубоким обучением, за последнее десятилетие трансформировала сферу искусственного интеллекта и обусловила технический прогресс, который еще недавно показался бы научной фантастикой.

Водители автомобилей Tesla регулярно доверяются автопилоту при движении по автомагистралям. Google Translate мгновенно выдает читабельный текст даже при переводе с редких языков, о которых слышали лишь немногие из нас, а Microsoft продемонстрировала синхронный машинный перевод с китайского на английский. Дети растут в мире, где общение с Alexa от Amazon — обычное дело, и родители беспокоятся, благотворно ли такое общение. Все эти достижения — и множество других — возможны благодаря глубоким нейронным сетям.

Идея, лежащая в основе глубокого обучения, известна уже не одно десятилетие. В конце 1950-х годов Фрэнк Розенблатт, психолог Корнеллского университета, придумал «перцептрон» — электронное устройство, действующее на принципах, аналогичных функционированию нейронов головного мозга. Розенблатт показал, что простые сети из перцептронов можно научить решать задачи, связанные с распознаванием образов, например цифр.

Работа Розенблатта по нейронным сетям была встречена с энтузиазмом, но, поскольку существенного прогресса добиться не удалось, этот метод был со временем отодвинут на задний план. Лишь маленькая группа исследователей, включавшая в том числе трех лауреатов премии Тьюринга 2018 года, продолжала заниматься нейронными сетями. Специалисты по компьютерным наукам привыкли считать эту технологию маргинальным направлением исследований и почти верным способом похоронить свою карьеру.

Все изменилось в 2012 году, когда команда из исследовательской лаборатории Джеффа Хинтона в Торонтском университете приняла участие в ImageNet Large Scale Visual Recognition Challenge. На этом ежегодном конкурсе группы из множества ведущих мировых университетов и корпораций демонстрируют возможности создания алгоритма, способного правильно распознавать изображения из огромной базы фотографий. Если другие участники пользовались традиционными методами программирования, то команда Хинтона развернула нейронную сеть, обученную на тысячах изображений-образцов. Разработка группы из Торонтского университета произвела ошеломляющее впечатление, и весь мир неожиданно узнал о возможностях глубокого обучения.

В последующие годы практически все крупные технологические компании вкладывали огромные средства в глубокое обучение. Google, Facebook, Amazon и Microsoft, а также китайские ИТ-гиганты Baidu, Tencent и Alibaba сделали нейронные сети основой своих продуктов, деятельности и бизнес-моделей. Сфера производства компьютерной техники также переживает трансформацию, и такие компании, как NVIDIA и Intel, конкурируют в области создания чипов, оптимизирующих работу нейронных сетей. Заработки специалистов по глубокому обучению исчисляются семизначными числами, а сами они превратились в подобие звезд профессионального спорта, поскольку компании конкурируют за ограниченное количество экспертов.

Хотя прогресс в создании искусственного интеллекта в последнее десятилетие был огромным и беспрецедентным, он обусловливался главным образом использованием все более значительных массивов данных для обучения нейронных алгоритмов, поддерживаемых все более быстрой компьютерной техникой. Эксперты в области ИИ приходят к пониманию, что этот подход не обеспечивает устойчивого развития и технологию необходимо подпитывать совершенно новыми идеями, если мы хотим продолжить поступательное движение. Прежде чем обратиться к возможному будущему ИИ, давайте познакомимся с тем, как все начиналось, бросим взгляд на пройденный к настоящему моменту путь и узнаем, как работают системы глубокого обучения, обеспечившие революционный прогресс. Мы увидим, что с самого начала исследования в области искусственного интеллекта характеризовались конкуренцией двух совершенно разных подходов к созданию умных машин. Противоречия между этими двумя школами мысли снова выходят на передний план и, по всей видимости, будут определять направление развития ИИ в последующие годы и десятилетия.

Могут ли машины мыслить?

Машины, способные мыслить и поступать как люди, существовали в нашем воображении задолго до изобретения первых электронных компьютеров. В 1863 году английский писатель Сэмюэл Батлер написал письмо редактору газеты из новозеландского Крайстчерча. В этом письме, озаглавленном «Дарвин среди машин», высказывалась идея «живого механизма», который когда-нибудь сумеет так развиться, что сравняется с людьми, а может, даже превзойдет их. Батлер призывал к немедленной войне против нового вида механических существ и заявлял, что «машины подобного рода должны быть уничтожены». Этот страх кажется несколько преждевременным с учетом состояния информационной технологии в 1863 году, но нарисованная Батлером картина повторяется с тех пор снова и снова, взять хотя бы фильмы «Терминатор» и «Матрица». Страхи Батлера разделяют не только авторы научной фантастики. Недавние достижения в создании ИИ заставили таких видных деятелей, как Илон Маск и покойный Стивен Хокинг, выступить с предостережением в отношении развития сценариев, поразительно близких тому, что пугал Батлера более 150 лет назад.

В вопросе о том, когда создание искусственного интеллекта стало областью серьезных исследований, мнения расходятся. Я бы отнес ее возникновение к 1950 году. В том году блестящий математик Алан Тьюринг опубликовал научную статью «Вычислительные машины и разум», где задавал вопрос: «Могут ли машины мыслить?». В этой статье Тьюринг предложил тест на основе популярной игры, который до сих пор является эталоном для определения, может ли некая машина считаться в полной мере интеллектуальной. Тьюринг, родившийся в Лондоне в 1912 году, проделал эпохальную работу в области теории вычислений и природы алгоритмов, и его принято считать отцом-основателем компьютерной науки. В 1936 году, всего через два года после окончания Кембриджа, он сформулировал математические принципы того, что сейчас называют универсальной машиной Тьюринга, в сущности — концептуальный план любого компьютера, когда-либо созданного в реальном мире. В самом начале компьютерной эры Тьюринг ясно понимал, что машинный интеллект — это логичное и, возможно, неизбежное продолжение электронных вычислений.

Словосочетание «искусственный интеллект» придумал Джон Маккарти, в то время молодой преподаватель математики Дартмутского колледжа. Летом 1956 года Маккарти участвовал в организации Дартмутского летнего исследовательского проекта по изучению искусственного интеллекта в кампусе колледжа в Нью-Гемпшире. Это была двухмесячная конференция, куда пригласили светил новой области исследований. Участники проекта ставили перед собой смелые и оптимистичные цели. В плане конференции говорилось, что «будет предпринята попытка определить, как научить машины владеть языком, формировать абстрактные понятия и концепции, решать задачи того типа, которые в настоящее время считаются сугубо человеческими, а также совершенствоваться», и выражалась уверенность организаторов «в достижении существенного прогресса в решении одной или нескольких этих задач, если тщательно подобранная группа ученых будет совместно работать над ними в течение лета». Среди участников были Марвин Мински, наряду с Маккарти ставший одним из самых известных в мире исследователей ИИ и основателем Лаборатории искусственного интеллекта МТИ, и Клод Шеннон, легендарный инженер-электрик, сформулировавший принципы теории информации, легшие в основу электронной коммуникации и обусловившие возможность появления интернета.

Примечательно, однако, что величайший ум не принимал участия в Дартмутской конференции. Алан Тьюринг совершил самоубийство двумя годами раньше. Осужденный за однополые отношения согласно законам о «непристойном поведении», действовавшим тогда в Великобритании, Тьюринг был поставлен перед выбором между тюремным заключением и химической кастрацией путем принудительного введения эстрогена. Он выбрал второе и, находясь в депрессии, покончил с собой в 1954 году. Это стало невосполнимой утратой для зарождающейся области компьютерных наук и искусственного интеллекта. На момент смерти Тьюрингу был всего 41 год. В более справедливом мире он почти наверняка дожил бы до появления персонального компьютера и, вполне вероятно, интернета и многих других инноваций. Невозможно сказать, какой вклад Тьюринг внес бы в последующие десятилетия или насколько более развитым мог бы сегодня быть ИИ, но его уход стал колоссальной интеллектуальной потерей для этого направления исследований и для всего человечества.

Область искусственного интеллекта стремительно развивалась после Дартмутской конференции. Компьютеры становились более мощными, совершались важные открытия, разрабатывались алгоритмы, способные решать все более широкий круг задач. Искусственный интеллект как научное направление занял прочное место в американских университетах, и был создан ряд лабораторий по исследованию ИИ.

Одним из самых важных факторов, обусловивших возможность этого прогресса, стали огромные инвестиции правительства США, особенно Пентагона. Значительная часть этих средств поступала через Управление перспективных исследовательских проектов (Advanced Research Projects Agency, ARPA). Особенно важным центром финансируемых ARPA исследований был Стэнфордский исследовательский институт (SRI), впоследствии обособившийся от Стэнфордского университета и получивший название SRI International. Центр изучения искусственного интеллекта SRI, основанный в 1966 году, внес эпохальный вклад в такие области, как языковой перевод и распознавание речи. Там был также создан первый по-настоящему автономный робот — машина, способная транслировать мышление на основе ИИ в физическое взаимодействие с окружением. Почти через полвека после своего основания Центр изучения искусственного интеллекта SRI создал дочернюю компанию-стартап по разработке нового персонального помощника Siri, которая была куплена Apple в 2010 году.

Однако вскоре прогресс привел к чрезмерной эйфории, преувеличенным обещаниям и нереалистичным ожиданиям. В 1970 году Life опубликовал статью о роботе, созданном в SRI, где назвал его первым в мире электронным существом. Марвин Мински, в то время звезда исследований ИИ в МТИ, со «спокойной уверенностью» заявил автору статьи Брэду Дарраху:

В течение трех — восьми лет мы получим машину, обладающую универсальным интеллектом среднего человека. Я имею в виду машину, способную читать Шекспира, менять масло в автомобиле, заниматься офисными интригами, шутить, ссориться. К тому моменту машина начнет сама себя обучать с фантастической скоростью. Через несколько месяцев она достигнет уровня гения, а еще через несколько месяцев после этого ее возможности будут безграничными.

Даррах попросил других исследователей ИИ оценить это утверждение, и ему ответили, что, пожалуй, заявленный Мински срок три — восемь лет малость оптимистичен. Может потребоваться 15 лет, но «все сошлись на том, что такая машина будет существовать и что она может ускорить третью промышленную революцию, покончить с войнами и бедностью и дать толчок столетиям развития науки, образования и искусства».

Когда выяснилось, что эти предсказания очень сильно расходятся с действительностью и что создание ИИ-систем, способных решать даже намного менее амбициозные задачи, оказалось значительно сложнее, чем ожидалось, энтузиазм стал улетучиваться. К 1974 году разочарование инвесторов, особенно правительственных структур, обеспечивавших непропорционально большую долю финансирования, негативно сказалось на этой области исследования — как и на карьере многих исследователей ИИ. На протяжении всей своей истории сфера ИИ страдала чем-то вроде коллективного биполярного расстройства: огромные ожидания и быстрый прогресс сменялись десятилетиями разочарований и недофинансирования, так называемыми зимами искусственного интеллекта.

Отчасти периодическое наступление таких зим объяснялось непониманием истинной сложности задач, которые призван решать ИИ. Другим принципиально важным фактором стала простая неспособность осознать, насколько медленными были компьютеры до 1990-х годов. Понадобились десятилетия прогресса в соответствии с законом Мура, чтобы появились компьютеры, начавшие превращать в реальность мечты участников Дартмутской конференции 1956 года.

Появление быстродействующей компьютерной техники привело к ряду радикальных изменений в конце 1990-х годов. В мае 1997 года компьютер Deep Blue компании IBM с небольшим перевесом победил чемпиона мира по шахматам Гарри Каспарова в турнире из шести игр. Хотя такое событие назвали триумфом искусственного интеллекта, в действительности это был, по сути, ловкий трюк, проделанный благодаря высокой скорости вычислений. Специализированные алгоритмы, исполняемые компьютером Deep Mind размером с холодильник, были способны заглядывать далеко вперед, быстро перебирая множество возможных ходов, что было не под силу даже самому гениальному человеческому разуму.

IBM снова добилась триумфа в 2011 году с появлением Watson, машины, легко победившей самых сильных в мире игроков в телеигре Jeopardy!. Во многих отношениях это было намного более впечатляющее достижение, потому что для него потребовалось понимание естественного языка, включающее даже способность распознавать шутки и каламбуры. В отличие от Deep Blue система Watson обладала способностью выходить за пределы игровой доски с жестко определенными правилами и работать с, казалось бы, безграничным массивом информации. Watson выиграла в Jeopardy!, одновременно задействуя массу умных алгоритмов, которые в поисках верного ответа прочесывали наборы данных, зачастую почерпнутых из статей в «Википедии».

Watson возвестила о наступлении новой эпохи и стала предтечей машин, которые впоследствии начали анализировать язык и по-настоящему общаться с людьми, но в 2011 году произошло и кардинальное изменение базовой технологии искусственного интеллекта. Если Watson опиралась на алгоритмы машинного обучения, осмысляющие информацию с использованием методов статистики, то в следующие несколько лет другой тип машинного обучения, непосредственно восходящий к перцептрону, задуманному Фрэнком Розенблаттом более чем за полстолетия до этого, снова вышел на первый план и затем быстро стал господствующим в области искусственного интеллекта.

Коннекционистский и символический ИИ и развитие глубокого обучения

На протяжении десятилетий разработка искусственного интеллекта переживала взлеты и падения, но в общем в центре внимания исследователей попеременно оказывались два противоположных подхода к разработке умных машин. Одна школа сформировалась на основе работы Розенблатта по нейронным сетям в 1950-х годах. Его последователи считали, что интеллектуальную систему необходимо строить по образцу базовой архитектуры головного мозга и что она должна использовать глубоко соединенные компоненты, напоминающие биологические нейроны. Согласно этому подходу, получившему название «коннекционизм», способность к обучению — главное свойство интеллекта, поэтому если заставить машину эффективно учиться на предлагаемых ей данных, то у нее постепенно могут развиться и другие возможности человеческого мозга. В конце концов, имелось убедительное свидетельство эффективности этой модели — головной мозг человека, представляющий собой, как было известно, непостижимо сложную систему взаимосвязанных биологических нейронов.

К противоборствующему лагерю относились исследователи, избравшие «символический» подход, делающий акцент на применении логики и рационального мышления. С точки зрения символистов, обучение не столь важно, а суть интеллектуальности — это способность использовать знание посредством мышления, принятия решений и действия. Вместо разработки алгоритмов, способных учиться самостоятельно, символисты вручную вводили информацию в создаваемые ими системы. Из этой деятельности выросла такая область компьютерных наук, как инженерия знаний.

Практически все первые образцы применения искусственного интеллекта опирались на символический ИИ. Так, специалисты по инженерии знаний совместно с врачами создали системы для диагностирования болезней с помощью алгоритмов с использованием дерева решений. Результаты применения подобных медицинских экспертных систем были неоднозначными, а сами они негибкими и ненадежными. Однако во многих других сферах, например в автопилотах для реактивных самолетов, наработки, связанные с экспертными системами, постепенно стали обычной частью программного обеспечения и перестали именоваться «искусственный интеллект».

Коннекционизм восходит к исследованию, целью которого было понимание принципов работы человеческого мозга. В 1940-х годах Уоррен Маккаллок и Уолтер Питтс предложили идею искусственной нейронной сети как своего рода вычислительного аналога биологических нейронов в мозге. Фрэнк Розенблатт, получивший психологическое образование и читавший лекции на психологическом факультете Корнеллского университета, впоследствии включил эти идеи в свою концепцию перцептрона.

Перцептрон был способен к рудиментарному распознаванию образов, например печатных символов, воспринимаемых через прикрепленную к устройству камеру. Изобретатель и писатель Рэй Курцвейл, в настоящее время технический директор Google, познакомился с Розенблаттом в его лаборатории в Корнелле в 1962 году. Курцвейл рассказывал мне, что приносил в лабораторию образцы текста для проверки на перцептроне и что машина работала идеально, если символы были четко напечатаны нужным шрифтом. Розенблатт поделился с юным Курцвейлом, готовившимся к поступлению в МТИ, своей уверенностью в том, что результаты будут значительно лучше, если связать перцептроны в многоуровневый каскад так, чтобы выходной сигнал одного уровня становился входным для следующего. Однако Розенблатт погиб при кораблекрушении в 1971 году и не успел создать многоуровневую структуру.

К концу 1960-х годов первоначальный энтузиазм в отношении искусственных нейронных сетей стал угасать. Одной из главных причин утраты интереса к ним стал выход в свет в 1969 году книги «Перцептроны», одним из авторов которой был Марвин Мински. По иронии судьбы Мински, глубоко убежденный в блестящем будущем искусственного интеллекта, в целом с большим пессимизмом относился к данному подходу, которому суждено было обеспечить беспрецедентный прогресс. В книге Мински и его соавтор Сеймур Пейперт привели формальные математические доказательства ограничений нейронных сетей и высказали предположение, что эта технология окажется неспособной решать комплексные практические задачи.

Когда ученые-компьютерщики и аспиранты стали отказываться от работ с нейронными сетями, возобладал подход на основе символического ИИ — сейчас его часто называют классическим ИИ. Нейронные сети пережили краткий период возрождения в 1980-х годах, повторившийся в 1990-х, но на протяжении десятилетий господствовала символическая школа, как бы ни менялся интерес к искусственному интеллекту в целом. Коннективистов же преследовали пугающе суровые и затяжные зимы ИИ, не слабевшие даже в те моменты, когда символический ИИ вступал в пору весеннего цветения.

Особенно тяжелая ситуация сложилась в 1970-х и в начале 1980-х годов. Ян Лекун, считающийся одним из главных идеологов глубокого обучения, сказал мне, что в тот период исследование нейронных сетей было «не просто в загоне»: «Статью, в которой хотя бы упоминались “нейронные сети”, сразу же заворачивали». Тем не менее некоторые исследователи сохраняли верность коннективизму. Многие из них имели базовое образование не в области компьютерных наук, а психологии или когнитивистики и хотели создать математическую модель работы мозга. В начале 1980-х годов Дэвид Румельхарт, профессор психологии из Калифорнийского университета в Сан-Диего, создал метод так называемого обратного распространения, остающийся основным алгоритмом обучения в сегодняшних многослойных нейронных сетях. Румельхарт, Рональд Уильямс, ученый в области компьютерных наук из Северо-Восточного университета, и Джеффри Хинтон, в то время работавший в Университете Карнеги — Меллона, описали возможное использование этого алгоритма в статье, опубликованной в журнале Nature в 1986 году, — теперь она считается одной из самых важных научных работ об искусственном интеллекте. Алгоритм обратного распространения стал фундаментальным концептуальным прорывом, в конечном счете обеспечившим господство глубокого обучения в области ИИ, но потребовались десятилетия, прежде чем компьютеры стали достаточно мощными для полноценного использования этого подхода. Джеффри Хинтон, в 1981 году молодой исследователь, работавший с Румельхартом в Калифорнийском университете в Сан-Диего, впоследствии стал, пожалуй, самой видной фигурой в революции глубокого обучения.

К концу 1980-х годов начали появляться примеры практического применения нейронных сетей. Ян Лекун, в то время исследователь в Bell Labs компании AT&T, использовал алгоритм обратного распространения в новой архитектуре, так называемой сверточной нейронной сети. В сверточных сетях искусственные нейроны соединены по образцу зрительной коры головного мозга млекопитающих, и эти сети предназначались в первую очередь для распознавания визуальных образов. Система Лекуна могла распознавать рукописные символы, и к концу 1990-х годов благодаря сверточным нейронным сетям машины AT&T научились понимать цифры, написанные на банковских чеках.

Двухтысячные годы стали эпохой расцвета «больших данных». Фирмы и государственные структуры получили возможность собирать и анализировать информацию в масштабах еще недавно немыслимых, и стало очевидно, что общий объем данных, генерируемых в мире, продолжит расти в геометрической прогрессии. Этот поток данных в сочетании с новейшими алгоритмами машинного обучения открыл путь для революции в области искусственного интеллекта.

Один из самых значимых массивов данных появился благодаря усилиям молодого профессора компьютерных наук из Принстонского университета. Фей-Фей Ли, работавшая над компьютерным зрением, поняла: чтобы машины смогли ориентироваться в реальном мире, нужен всеобъемлющий комплекс обучающих материалов, включающий правильно классифицированные образцы вариантов внешнего вида людей, животных, зданий, транспортных средств, предметов — практически всего, что нас окружает. За два с половиной года она классифицировала больше 3 млн изображений из 5000 с лишним категорий. Эту работу пришлось выполнить вручную; только человек мог установить верную связь между фотографией и описанием. Поскольку нанять хотя бы магистрантов для выполнения этой огромной работы было непозволительно дорого, команда Ли обратилась к Mechanical Turk, только что созданной Amazon платформе краудсорсинга для задач в области информации, которая нашла дистанционных исполнителей в основном в странах с низким уровнем оплаты труда.

Описание проекта Ли ImageNet было опубликовано в 2009 году, и скоро он стал незаменимым ресурсом для исследователей в области машинного зрения. С 2010 года Ли проводит ежегодное состязание для команд из университетов и корпоративных исследовательских лабораторий, выставляющих на конкурс алгоритмы для классификации изображений из этого огромного комплекса данных. Конкурс ImageNet Large Scale Visual Recognition Competition, состоявшийся два года спустя, в сентябре 2012 года, пожалуй, знаменует переломный момент для технологии глубокого обучения. Джефф Хинтон совместно с Ильей Суцкевером и Алексом Крижевским из исследовательской лаборатории Торонтского университета представил многослойную сверточную нейронную сеть, которая с большим отрывом победила конкурирующие алгоритмы, убедительно продемонстрировав, что технология на основе глубоких нейронных сетей стала в полной мере практической. Триумф команды Хинтона вызвал большой резонанс в сообществе исследователей ИИ и показал, насколько продуктивно соединение огромных баз данных с мощными нейронными алгоритмами. Вскоре этот симбиоз обеспечил достижения, казавшиеся всего несколько лет назад возможными исключительно в научной фантастике.

Эту краткую справку можно назвать классической историей глубокого обучения. Особенно масштабными фигурами в ней представляются лауреаты премии Тьюринга 2018 года Джефф Хинтон, Ян Лекун и Йошуа Бенджио, профессор Монреальского университета, которых нередко называют крестными отцами глубокого обучения. (Иногда их величают даже крестными отцами ИИ, что ярко демонстрирует безграничное господство в этой области глубокого обучения, оттеснившего символические подходы, первоначально находившиеся в центре внимания.) Впрочем, есть и другая версия данной истории. Как и в большинстве других научных областей, конкуренция за признание здесь невероятно остра, и это немудрено из-за ощущения, что прогресс в создании ИИ уже перешел тот пороговый уровень, за которым следует подлинное историческое преобразование как общества, так и экономики.

Самым активным сторонником альтернативной истории является Юрген Шмидхубер, содиректор Института исследований искусственного интеллекта Далле Молле в Лугано, Швейцария. В 1990-х годах Шмидхубер со своими студентами создал нейронную сеть особого типа, реализовавшую «долгую краткосрочную память» (long short-term memory, LSTM). LSTM позволяет сетям «помнить» данные из прошлого и включать их в текущий анализ. Эта способность оказалась принципиально важной в таких областях, как распознавание речи и языковой перевод, где контекст, созданный предыдущими словами, оказывает громадное влияние на точность. Такие компании, как Google, Amazon и Facebook, активнейшим образом используют LSTM, и Шмидхубер считает, что именно работа его команды, а не более знаменитых исследователей из Северной Америки обусловила прогресс в создании ИИ.

В электронном письме, присланном мне вскоре после издания книги «Архитекторы интеллекта» — в которую я включил краткий обзор классической истории глубокого обучения, Шмидхубер написал: «Многое из того, о чем вы говорите, вводит в заблуждение, что весьма печально!». По его мнению, истоки глубокого обучения находятся не в Соединенных Штатах или Канаде, а в Европе. Первый алгоритм обучения для многослойных нейронных сетей, по его словам, был описан украинским исследователем Алексеем Григорьевичем Ивахненко в 1965 году, а алгоритм обратного распространения предложил в публикации 1970 года — за полтора десятилетия до появления знаменитой статьи Румельхарта — финский студент Сеппо Линнайнмаа. Очевидно разочарование Шмидхубера из-за недостаточного признания его собственных исследований, известна и его привычка едко прерывать доклады на конференциях по ИИ обвинениями в «заговоре» с целью переписать историю глубокого обучения, особенно со стороны Хинтона, Лекуна и Бенджио. Эти более известные исследователи в свою очередь энергично защищаются от нападок. Лекун сказал репортеру The New York Times: «Юрген маниакально одержим идеей признания и упорно приписывает себе несуществующие заслуги».

Скорее всего, разногласия по вопросу об истинном источнике глубокого обучения сохранятся, но не приходится сомневаться, что после состязания ImageNet 2012 года этот метод быстро захватил сферу искусственного интеллекта — как и большую часть крупнейших компаний хай-тека. Американские технологические гиганты Google, Amazon, Facebook и Apple, а также китайские Baidu, Tencent и Alibaba сразу же оценили подрывной потенциал глубоких нейронных сетей и стали создавать команды исследователей и включать эту технологию в свои продукты и деятельность. Google пригласила на работу Джеффа Хинтона, Ян Лекун стал директором новой лаборатории Facebook по исследованию ИИ, и всю эту отрасль охватила полномасштабная война по перекупке специалистов, вследствие чего зарплаты и опционы на акции даже у новоиспеченных выпускников вузов со специализацией в области глубокого обучения стали заоблачными. В 2017 году генеральный директор Сундар Пичаи объявил, что для Google теперь «ИИ на первом месте» и работа над искусственным интеллектом станет одним из важнейших направлений конкуренции компании с другими технологическими гигантами. Google и Facebook придают такое значение этой технологии, что исследователи глубокого обучения получают кабинеты в непосредственной близости от кабинета гендиректора. К концу десятилетия нейронные сети стали настолько господствовать в сфере ИИ, что СМИ часто используют понятия «глубокое обучение» и «искусственный интеллект» как синонимы.

Назад: Глава 3. Отделяем хайп: реалистичный взгляд на искусственный интеллект как на общедоступный ресурс
Дальше: Глава 5. Глубокое обучение и будущее искусственного интеллекта