Книга: Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин
Назад: За пределами теста Тьюринга
Дальше: Научиться видеть и слышать

3. Все, что вы можете делать

Как ИИ перехитрил людей



Все, что вы можете делать, машина способна сделать лучше. И пусть это не совсем так, но впечатление создается именно такое. Стремительные успехи в глубоком обучении привели к появлению компьютеров, возможности которых конкурируют с нашими или даже превосходят их в различных задачах, начиная от прохождения игры и заканчивая распознаванием образов на картинках. Такие машины выполняют задачи быстрее и масштабнее, даже большой группе людей не под силу с ними тягаться. И чем чаще машины выполняют новые задачи, тем больше они узнают об устройстве нашего мира.

В игре: ИИ играет в го, покер и многое другое

Одно из самых знаменитых достижений машинного обучения пришлось на 2016 год, когда алгоритм под названием AlphaGo победил южнокорейского мастера Ли Седоля в игре го. Большинство наблюдателей были уверены, что до появления ИИ такого масштаба должно пройти целое десятилетие. Игры издавна считались эталоном по оценке производительности ИИ. Победу Deep Blue от IBM над чемпионом по шахматам Гарри Каспаровым в 1997 году провозгласили первым шагом в революции ИИ.



На сей раз все происходило точно так же. Впервые AlphaGo попал в заголовки новостей несколькими месяцами ранее, когда DeepMind (компания, работающая в сфере искусственного интеллекта, которую Google купила в 2014 году) объявила, что ее ИИ победил чемпиона Европы по шахматам Фан Хуэя со счетом 5:0. Это побудило DeepMind бросить вызов Ли, считавшемуся одним из сильнейших игроков последнего времени.

В то время как игра с Фаном проходила в атмосфере секретности, второй турнир сопровождался десятками камер и сотнями репортеров, стекающихся к месту событий – отелю Four Seasons в самом центре Сеула. Пока AlphaGo от Google играл партию с Ли Седолем, пресса заполнила два отдельных конференц-зала: один с английским комментатором, а второй – с корейским. И игра захватила внимание публики.

В итоге AlphaGo обыграл Ли со счетом 4:1, чем поверг в шок сообщество го и вызвал изрядную шумиху в мире. Но причиной обсуждений стал не столько сам факт поражения, сколько то, как именно шел к победе AlphaGo.

«AlphaGo действительно обладает интуицией, – заявил New Scientist соучредитель Google Сергей Брин через пару часов после третьей победы своей компании. – Ходы бота были прекрасны. Он смог придумать такие изящные комбинации, о которых большинство из нас даже не догадывалось».



Корейский афтершок

С поражением приходит решимость. После своей победы AlphaGo стал настоящей звездой Кремниевой долины. Но в Южной Корее царили другие настроения. Там трансляция игры в го по телевизору привлекает рекламные контракты и корпоративных спонсоров. Студенты корпят над изучением различных ходов в академиях. Наблюдение за тем, как искусственный разум от Google AlphaGo разгромил корейского гроссмейстера Ли Седоля, повергло страну в шок, особенно после того, как национальный герой уверенно предсказал свою победу над ботом. Однако реальный результат продемонстрировал всю мощь ИИ.

– Прошлая ночь была очень печальной, и многие люди топили горе в бутылке, – рассказал в своем утреннем выступлении после первого поражения Ли Чжон Ахрам, ведущий корреспондент по го из Joongang Ilbo, одной из крупнейших ежедневных газет Южной Кореи. – Корейцы боятся, что ИИ разрушит человеческую историю и культуру. Это очень эмоциональный момент.

Но, пожалуй, сильнее всего людей задела изящность действий AlphaGo.

– Это колоссальный по своей значимости эпизод в истории эволюции человека: машина смогла отточить собственную интуицию, изобретательность и коммуникацию – все то, что ранее считалось прерогативой человека, – сказал Чон Дэ-Ик, научный философ Сеульского национального университета. – До этого мы даже не думали о том, что искусственный интеллект может обладать творческими способностями. Теперь мы знаем, что творчество у ботов есть – чем больше мозгов, тем они умнее.

Южнокорейскую прессу заполонили заголовки: «"Ужасающая эволюция" искусственного интеллекта» и «Победа AlphaGo… боязнь искусственного интеллекта прогрессирует». Некоторые люди настроены оптимистично и надеются, что последствия проигрыша Ли ознаменуют революцию в сфере южнокорейского образования. «Мы очень слабы в ИИ, – говорит Ли Сок-бонг, журналист южнокорейского научного портала HelloDD.com. – До этого момента корейцы мало что знали об искусственном интеллекте. Но сейчас, после этой игры, каждый кореец узнал о нем».

Завоевание территории

Игра в го сводится к тому, что два игрока размещают черные и белые камни для захвата поля соперника. Она ведется на доске 19 × 19, что дает в сумме 10171 возможных комбинаций. Для сравнения, стандартная шахматная доска 8 × 8 имеет максимум 1050 возможных конфигураций. А чтобы вы еще лучше поняли масштаб: всего во Вселенной насчитывается 1080 атомов. «Пожалуй, го – это самая сложная игра из когда-либо придуманных человеком», – говорит сооснователь DeepMind Демис Хассабис.

Для успешного прохождения игры AlphaGo от DeepMind использует несколько нейронных сетей. Его «стратегическая» нейронная сеть изучает игру по базе данных, содержащей порядка 30 миллионов ходов, которые совершались опытными игроками-людьми. Эта база данных учит программу предсказывать дальнейшие ходы. Затем сеть совершенствуется, отыгрывая тысячи партий с различными версиями себя. В дальнейшем она передается в «целевую» сеть, которая оценивает шансы на победу с учетом текущей позиции на доске. После обе сети добавляются в метод Монте-Карло для поиска по «дереву» – это симуляция, которая просматривает все «дерево» возможных шагов для обнаружения путей с наивысшими шансами на победу. Сети служат для сужения выбора путем исключения безнадежных или малоперспективных шагов и ускорения поиска по Монте-Карло. Именно это «сокращение» и дает AlphaGo основное преимущество.

Подход AlphaGo заметно отличается от подхода Deep Blue, поскольку, по сравнению с шахматным приложением, в каждом ходе он оценивает на тысячи позиций меньше. Другими словами, AlphaGo лучше понимает, какие ходы из огромного массива всех возможных комбинаций имеют больше шансов на победу, и фокусируется на них. Также AlphaGo способен поразить своей находчивостью, делая такие шаги, о которых люди-игроки даже не догадываются. Взять, например, 37-й ход во второй партии против Ли.

По прошествии 2500 лет, в течение которых люди играли в го, AlphaGo сделал что-то совершенно невероятное. Бот оставил группу камней в одном углу доски, чтобы играть в другом. Даная стратегия шла вразрез со всем, что мог бы сделать игрок-человек. Подобный ход вызвал негодование Ли, который на несколько минут даже покинул комнату, а затем четверть часа раздумывал о своем следующем ходе. Некоторые комментаторы сначала подумали, будто AlphaGo допустил ошибку. Но данный ход обеспечил победу ИИ.

Ход 37 использовался как доказательство того, что AlphaGo способен на то, что мы называем интуицией.

После знаменательной победы AlphaGo продолжил самосовершенствоваться, соревнуясь с лучшими игроками, включая побежденного чемпиона Европы Фан Хуэя. В мае 2017 года AlphaGo выиграл все три партии в игре против Ке Цзе, нынешнего игрока с самым высоким рейтингом в мире. Китайская ассоциация го присудила ИИ от DeepMind профессиональный статус 9 дана. Но свои навыки оттачивала не только машина. Фань Хуэй сказал, что изучение нечеловеческого стиля ИИ сделало его еще более сильным игроком. После нескольких месяцев спарринга с ИИ он перешел с 500 до 300 строчки в мировом рейтинге.

Теперь DeepMind занята поисками новых задач. «Мы надеемся, что однажды сможем расширить методы алгоритма для решения ряда самых сложных и острых проблем общества, начиная от климатического моделирования и заканчивая комплексной диагностикой болезней», – говорит Хассабис. Примерно то же самое IBM в свое время говорила о Deep Blue. Но победа в шахматной игре не вызвала революции ИИ. Единственная разница в данном случае состоит в том, что метод обучения AlphaGo делает его более универсальным, и это может сыграть людям на руку. Базовые методы AlphaGo, в отличие от техник Deep Blue, обладают большей применимостью к другим областям.



Интервью. Каково это – действовать от имени ИИ?

В 2016 году Аджа Хуанг из DeepMind (Google) перемещал фигуры за AlphaGo в пяти играх против Ли Седоля.

– Каково это быть телесным воплощение ИИ?

– Я настроен очень серьезно. Не хочу ошибиться, потому как все это – кропотливая работа команды. Кроме того, я очень стараюсь проявить уважение к Ли Седолю. Он – мастер.

– Вы и Ли поклонились друг другу перед первой партией, хотя вы и не являетесь AlphaGo.

– Это официальная игра, и мы проявляем уважение друг к другу. Я кланяюсь от имени AlphaGo.

– Удивляют ли вас действия AlphaGo?

– О да, конечно. Как?! Играть здесь? Особенно тот выдающийся 37-й ход во второй партии. Его показали на экране, и я такой: «Вау!»

– Отличается ли ваша манера расставлять камни?

– Если AlphaGo уверен в своих движениях, то и я буду играть уверенно. В ряде шагов, которые лично мне кажутся очень хорошими, я играю в полную силу. Мол, отличный ход!

– Как все это выглядит для Ли?

– Мне кажется, для него это тоже новый опыт. Такая игра отличается от игры человека. Компьютер равнодушен. У него нет эмоций. Поэтому, думаю, Ли было не очень комфортно.

– Сопереживаете ли вы ему?

– Я всегда на стороне AlphaGo. Но чувство сопереживания у меня все-таки есть. Я тоже чувствую давление на Ли. Он пообещал, что сможет сокрушить AlphaGo со счетом 5:0. А на деле все оказалось совершенно иначе. Тем не менее я уважаю его как мастера.

Лучшие результаты

Перед ИИ не устояли не только настольные игры. В 2015 году DeepMind объявила о разработке ИИ, который способен научиться играть в видеоигры путем наблюдения за ними на экране. Изначально алгоритм научился играть в 49 различных видеоигр на Atari 2600. ИИ смог побить рекорд профессиональных игроков-людей в 23 играх из 49.

Программе не рассказывались правила игры. Она пользовалась алгоритмом под названием «глубокая нейронная сеть» для исследования состояния игры и определения набора действий, дающих в сумме наибольшее количество очков. Лучше всего ИИ проявил себя в простых играх на тему бокса и пинбола. Тем не менее он также получил высокие оценки в классической аркадной игре Breakout, в которой нужно отбивать мяч и разбивать ряды блоков. ИИ даже научился прокладывать туннель через один ярус блоков и отбивать мяч от внутренней стены – этим трюком пользуются лишь опытные игроки в Breakout. «Для нас это стало большой неожиданностью, – рассказывает Хассабис. – Такую стратегию придумала сама система».

Наблюдение за игрой Atari равносильно обработке порядка 2 миллионов пикселей данных в секунду. Это говорит о том, что Google заинтересован в использовании своего ИИ для анализа собственных больших наборов данных. И поскольку ИИ обучается путем наблюдения за экраном, а не получает данные из кода игры, то можно предположить, что данным алгоритмом планируют пользоваться для анализа изображений и видеоматериалов.



В какую игру сыграть ИИ дальше?

Вот каким, по мнению экспертов, должен быть список.



Diplomacy

Марк Бишоп из Голдсмитского колледжа Лондонского университета предлагает стратегическую настольную игру Diplomacy, в которой игроки примеряют на себя роль европейских держав, борющихся за землю и ресурсы. Бишоп говорит, что AlphaGo «не понимает значения символов, которыми так виртуозно оперирует. Алгоритм даже не осознает, что играет в го». Diplomacy олицетворяет собой многие трудности, стоящие на пути развития современного ИИ к истинной разумности. «Интересно, что это игра, в которую, чисто теоретически, компьютер может играть на очень высоком уровне, поскольку ходы в ней передаются в письменной форме», – рассказывает Бишоп. Но сначала алгоритму придется пройти тест Тьюринга – если люди поймут, каким персонажем играет ИИ, они смогут объединиться против него.



StarCraft

Одновременно в го существует порядка 300 возможных ходов. В стратегической видеоигре StarCraft, которая состоит из сотен частей, ходов может быть 10300. «Вы не сможете изучить все возможные ходы даже в текущем отрезке времени, не говоря уже о будущем», – говорит Стюарт Рассел из Калифорнийского университета в Беркли. Наоборот, ИИ должен будет оценить свои действия и цели на более высоком уровне, а затем придумать план для достижения желаемого. Здесь потребуются методы рассуждения, применимые к более широкому кругу реальных проблем.



Dungeons & Dragons

Джули Карпентер из Калифорнийского политехнического государственного университета в Сан-Луис-Обиспо говорит, что «AlphaGo не пытается доказать или опровергнуть человеческое чувство реальности или правдоподобности. Наоборот, он целиком и полностью сосредоточен на достижении цели – победить в игре». Она считает, что было бы интересно привлечь ИИ к ролевым играм. Цели игры в данном случае не будут казаться машинам столь очевидными, и для достижения успеха ИИ придется полагаться на такие навыки, как социальное общение и ситуационная осведомленность более высокого уровня.



Мошенничество

Игроки-люди могут предугадать по лицу и языку тела оппонента его следующий шаг. Для достижения своей цели они также могут пользоваться тактиками введения в заблуждение (например, дезориентация). Но сможет ли робот определить притворное поведение или ввести кого-то в заблуждение, не будучи разоблаченным? «Подобные сложности в игре выходят за масштабные рамки математических проблем, которые смог решить современный ИИ», – говорит Рональд Аркин из Технологического института Джорджии в Атланте.



Реальный мир

Мюррей Шанахан из Имперского колледжа Лондона утверждает следующее: «Я не особо заинтересован в том, чтобы ИИ осваивался в других играх. Это полезно для тестирования алгоритма или новых методов обучения, но по-настоящему новой областью является реальный мир. Мы сможем приблизиться к общему человекоподобному искусственному интеллекту только тогда, когда машинное обучение научится понимать повседневный мир так же хорошо, как и стратегии в го».

Фишки на исходе

В январе 2017 года компьютеры одержали очередную победу над людьми, выиграв 20-дневный турнир по покеру. ИИ Libratus обыграл четырех лучших в мире игроков в техасский холдем в казино Пенсильвании. После 120 000 раскладов Libratus фишки составляли порядка 1,7 миллионов долларов.

Мастерски играющий в покер ИИ примечателен тем, что освоил игру с «неполной информацией»: игроки не знают, какие карты раздали их оппонентам, поэтому не имеют полного представления о состоянии игры. Это означает, что ИИ приходится следить за техникой игры оппонента и корректировать собственный подход, чтобы не выдать свой блеф или хороший расклад карт.

Победа является еще одной важной вехой для ИИ. Алгоритмы Libratus не создавались специально для покера или других игр. ИИ не обучали стратегиям. Наоборот, он должен был вырабатывать собственный способ игры, в зависимости от предоставленной информации (в данном случае – в соответствие с правилами покера). Это говорит о том, что Libratus можно применять к любой ситуации, которая требует ответа на основании несовершенной информации.

Повседневный мир богат неполной информацией. Создатели ИИ из Университета Карнеги – Меллона считают, что алгоритм можно применять в сфере кибербезопасности, переговорах, военных условиях, аукционах и многом другом. Также они рассмотрели возможность использования ИИ для усиления борьбы с инфекциями, представляя планы лечения в виде игровых стратегий.

Libratus состоит из трех основных частей. Первая часть вычисляет длинный список стратегий, которые ИИ может использовать в начале игры. За первые минуты турнира Libratus тратил порядка 15 миллионов часов вычислений, оттачивая свои стратегии. Вторая часть, называемая «вывод завершающей фазы», учитывает ошибки, допущенные оппонентами ИИ: случаи, когда они «открывались» и можно было предсказать результат каждого хода. Третья часть ИИ искала собственные стратегические слабости, чтобы изменить свои способы игры перед следующей сессией. Алгоритм стремился определить методы, которыми пользовались оппоненты. Например, «подсказки», которые мог заметить другой игрок. Это было очень важно, поскольку в последнем турнире человеческие игроки смогли вычислить, как именно играл ИИ при различных раскладах, и стали подстраивать под это порядок ставок.

Джейсон Лес, один из профессиональных игроков турнира, охарактеризовал Libratus как «безумно хороший» и отметил, что было похоже, будто со временем его стратегия улучшалась, и день ото дня победить его становилось куда сложнее.



Быстрый и яростный

В 2016 году мы узнали, что за неделю ИИ-приложение от Facebook может нанести на карту больше, чем человечество за всю его историю.

Социальная сеть объявила, что ее системе искусственного интеллекта понадобилось две недели на создание карты, охватывающей 4 % нашей планеты. Это 14 % поверхности Земли площадью в 21,6 миллионов км2, снимки которой были сделаны из космоса, обработаны и сопоставлены с цифровым представлением изображенных на них дорог, зданий и населенных пунктов. Кроме того, Facebook утверждала, что алгоритм может справиться с задачей лучше и быстрее, проведя потенциальное сравнение всей земной поверхности менее чем за неделю. Цель Facebook – создание карт, которые помогут социальной сети подключить к Интернету людей, находящихся в данный момент в режиме офлайн.

Один из самых ярких примеров технологического феномена – компьютеры, которые очень быстро выполняют работу человека. Они изменят то, как мы работаем, и окажут огромное влияние на процесс получения знаний, налаживания сотрудничества в крупных проектах и даже понимания мира.

Получив для обучения всего лишь 8000 спутниковых изображений одной страны, размеченных человеком, данная модель смогла нанести на карту 20 стран. Позже компания усовершенствовала процесс до такой степени, что на создание такой же карты уходило не более пары часов. При наличии необходимых фотографий система ИИ сможет создать карту Земли за шесть дней. На создание карты такого масштаба любая команда из людей потратит десятки лет, и количество данных для обработки превысит все мыслимые пределы возможностей не только людей, но и корпораций.

Картографический ИИ от Facebook – всего лишь один из тысяч узкоспециализированных искусственных интеллектов, бросающихся на решение человеческих задач по всей планете – и они делают это быстрее и масштабнее, чем когда-либо мог человек.

Лаборатория физики элементарных частиц ЦЕРН под Женевой, Швейцария, использует глубокое обучение для обнаружения шаблонов в массиве данных о столкновениях частиц. Фармацевтические компании с помощью ИИ находят новые идеи для лекарств в наборах данных, которые не смог бы обработать человек. Элисон Лаундс из Nvidia, которая помогает организациям создавать системы глубокого обучения, говорит, что теперь она работает со всеми: правительствами, врачами, исследователями, родителями, розничными торговцами и даже, как ни странно, упаковщиками мяса.

Интересно то, что все нейронные сети могут масштабироваться так же, как и картографический ИИ от Facebook. У вас есть ограниченный ИИ, который может по снимкам распознать признаки рака? Отлично! Если у вас есть нужные данные, то вы можете проверить на рак каждого жителя Земли всего за несколько часов. У вас есть ИИ, который знает, как обнаружить обвал рынка? Великолепно! Он может одновременно наблюдать за 20 крупнейшими мировыми биржами и следить за ценами акций отдельных компаний.

Истинная мощь ограниченного ИИ заключается не в том, что он может делать, – ведь его производительность почти всегда уступает человеческой. Карты, сгенерированные искусственным интеллектом Facebook, далеко не так хороши, как аналоги от разработчика произвольных карт Mapbox. Но сила интеллектуальных систем, создаваемых в лабораториях Google, Facebook и Microsoft, именно в том, что они работают на компьютерах.

Будущее «человеческой» работы будет зависеть от того, что более предпочтительнее: операции среднего качества со скоростью 50 миллионов в секунду или же операции высокого, человеческого, качества по одной за несколько минут.

Назад: За пределами теста Тьюринга
Дальше: Научиться видеть и слышать