Вот прогноз, который может показаться всем нам знакомым:
«Через 3–8 лет у нас появится машина с общим интеллектом под стать человеческому. Я имею в виду машину, которая сможет читать Шекспира, менять моторное масло, шутить, участвовать в драках и офисных интригах. К этому моменту она будет обучаться с фантастической скоростью. Через несколько месяцев ее интеллект окажется на уровне гениальности, а еще через пару месяцев возможности такой машины станут безграничными».
Примечательно здесь то, что эти фразы не принадлежат современным визионерам ИИ, вроде Ника Бострома или Илона Маска. Такой прогноз был сделан в 1970 году одним из отцов-основателей ИИ – Марвином Минским. Но восемь лет спустя пределом возможностей ИИ стала лишь обучающая игрушка Speak & Spell, в которой использовалась элементарная компьютерная логика. Как только пропасть между обещаниями Минского и реальностью стала еще шире, всеобщее разочарование в ИИ привело к заморозке профильных исследований на целые десятилетия.
Сегодня опять слышны отголоски тех предсказаний. Но на этот раз они подпитываются восторгом, окружающим глубокое обучение. «Я уже чувствую мурашки по коже», – признается Роджер Шэнк из Северо-западного университета в Эванстоне, штат Иллинойс. Но что это – ропот ветеранов, пропустивших настоящую революцию ИИ, или предвестник чего-то реального?
Первая зима ИИ была вызвана двумя факторами. Во-первых, в исследовательской монокультуре процветал метод, основанный на своде правил, – символическое обучение. Оно пыталось подражать простейшей человеческой логике рассуждений. В лабораториях на такие исследования возлагались колоссальные надежды, благодаря чему и возникли топорные прогнозы Минского и других ученых. Поскольку сомнительные прогнозы накапливались, Научно-исследовательский совет Великобритании заказал отчет для оценки возможностей ИИ. Результат был убийственным. В отчете Лайтхилла за 1973 год было сказано, что огромный потенциал обучения на своде правил, который демонстрировался в лабораториях, не годился для работы в реальных условиях. Правительства прекратили финансирование исследований ИИ в университетах. Аспиранты стали искать лучшей жизни в других областях, вызывающих большее уважение. Те же, кто остался, говорили о своей работе приглушенным тоном и намеренно отказывались от использования фразы «искусственный интеллект». Пройдет еще два десятилетия до того, как область ИИ сможет возродиться.
Восстановление началось в 1997 году, когда Deep Blue – искусственный интеллект, созданный в IBM, – смог победить действующего чемпиона по шахматам. В 2005 году автономный автомобиль проехал самостоятельно отрезок в 210 км (131 милю). В 2011 году Watson от IBM обыграл двух соперников-людей в телевикторине Jeopardy! Но именно глубокое обучение стало тем самым элементом, обусловившим популяризацию ИИ.
В 2012 году Google помпезно представила нейронную сеть, способную распознавать кошачьи морды на видео.
Люди начали говорить о том, что при должной вычислительной мощности глубокое обучение приведет к созданию машины, способной разрабатывать собственные концепции и, следовательно, понимать мир. Два года спустя Google купила DeepMind – фирму, которая затем получила приз в 500 миллионов долларов, победив в игре в го.
Кто-то даже смело заявлял, что ранние успехи ИИ привели к настоящей золотой лихорадке. Один стартап обещал превратить рак из массового убийцы в управляемую хроническую болезнь, другой строил амбициозные планы по раннему выявлению потенциальных террористов по чертам лица человека. Объединяло эти идеи то, что при правильном сочетании алгоритмов они действительно могли представить какие-то решения проблем, считавшихся неразрешимыми.
– Главная загадка нейронных сетей кроется в том, что каким-то необъяснимым образом они способны учиться на данных и понимать то, что не видели ранее, – рассказывает Марк Бишоп из Голдсмитского колледжа Лондонского университета.
– Из-за этой сложности люди закрывают глаза на многое и представляют себе, что слияние алгоритмов позволит получить некий эволюционировавший интеллект. Но на деле это все та же машина, в основе которой лежат математические системы, управляемые правилами, – говорит Шанк.
В 2014 году документ, который можно считать продолжателем идей из отчета Лайтхилла, пошатнул веру в то, что нейронные сети способны демонстрировать нечто, отдаленно похожее на реальное понимание. Такие сети распознают шаблоны, выискивая взаимосвязи в наборах данных, которые человеку обнаружить слишком сложно. Это действительно важно, поскольку опровергает идею о том, что машины способны развить в себе понимание мира. Нейронная сеть может сказать, что кошка – это кошка. Но она понятия не имеет, что такое кошка.
Данный документ не единственное, что вызвало в людях чувство дежа вю. Шанк и другие указали на поток денег, вливаемых в глубокое обучение и накопление фундаментальных знаний. «Если некая область исследований слишком сильно увлечена краткосрочным прогрессом, изучая возможности лишь одной методологии, это может привести к долгосрочному тупику», – рассказывает Кеннет Фридман, студент Массачусетского технологического института. Далее он подчеркивает, что большинство студентов, изучающих ИИ и информатику, массово склоняются к глубокому обучению.
Беспокойство вызывает не только старая гвардия. Диспепсическое урчание исходит от передовых приложений для машинного обучения, включая Crowdflower – компанию по очистке данных, которая заставляет задуматься о том, не страдает ли сфера ИИ от «чрезмерного ажиотажа».
Но мало кто испытывает страх от того, что пузырь ИИ готов лопнуть – снова. «Не уверен, что мы можем вообще говорить о пузыре», – говорит Майлз Брандейдж из нового Центра стратегических исследований ИИ Института будущего человечества в Оксфорде. Однако если вдруг такой пузырь и существует, то в настоящий момент обстановка в нем довольно спокойна, считает ученый. «Я не думаю, что в ближайшее время ИИ исчерпает свой потенциал. В этой области столько всего, что само плывет нам в руки; так много возможностей и ожиданий», – объясняет он.
Даже в Cassandra настаивают, что они не хотят принижать успехи развития технологий. «Я впечатлен тем, чего смогли добиться люди, – рассказывает Марк Бишоп. – Никогда бы не подумал, что застану день, когда машины победят в го. И распознавание лиц работает уже почти на 100 %». Но взволновали окружающих далеко не эти приложения, а обещания по лечению рака и прекращению старения. Даже если ИИ сможет оправдать эти ожидания, препятствия на его пути не исчезнут. Например, люди не готовы признать абсолютную неэффективность глубокого обучения. Также они не понимают, насколько сложно получить тот самый необходимый объем данных для реализации амбициозных обещаний некоторых фирм. Особенно это актуально для медицины, в которой вопросы конфиденциальности данных являются главным камнем преткновения, мешающим получать достаточное количество больших данных.
Пока что трудно говорить о том, приведет ли дефицит данных к настоящей зиме. В прошлом уже отмечались периоды утраты иллюзий об ИИ без наступления полноценного кризиса. Тут все зависит скорее от степени разочарования, с которой готовы смириться люди и финансирующие организации. Большинство людей все же склонно не волноваться о наступлении зимы ИИ. В настоящее время самая главная проблема ИИ заключается в том, что инвесторы не успевают «печатать деньги» для подпитки продолжающейся золотой лихорадки. И не говорите, что вас не предупредили.
Классные штуки, которые можно проделать с компьютером
Почему мы уверены, что машины находятся на грани понимания окружающего мира? Возможно, наша уверенность провоцируется словами, которые мы используем: машинное обучение, глубокое обучение, нейронные сети и когнитивные вычисления. Все это подразумевает наличие мышления.
– Восприятие означает мышление. Но ваша машина не думает, – утверждает Роджер Шанк из Северо-западного университета в Иллинойсе. – Когда люди говорят «ИИ», они имеют в виду вовсе не искусственный интеллект, а множество грубых вычислений.
Патрик Уинстон из Массачусетского технологического института называет такие понятия «словами-чемоданами». Определения этих слов настолько расплывчаты, что в них можно заключить любое значение. Искусственный интеллект является ярким примером слов-чемоданов. То же можно сказать и про машинное обучение, ведь никакого обучения в традиционном смысле слова оно не обозначает.
Нейронные сети не являются нейронами, даже несмотря на то, что между ними прослеживаются некие параллели. Это не просто терминология. Скажите людям, что машина думает, и они сочтут, будто машина думает так же, как человек. Если такая противоречивость представлений разрастется слишком сильно, то она может привести к тому, что пузырь ИИ наконец-то лопнет. «Началом и концом проблемы станет понятие "искусственный разум", – уверен Шанк. – Разве нельзя называть такие системы просто "классными штуками, которые можно проделать с компьютером"?»