Книга: На что похоже будущее? Даже ученые не могут предсказать… или могут?
Назад: 9 Кибербезопасность Алан Вудворд
Дальше: 11 Квантовые вычисления Винфрид Хензингер

10
Искусственный интеллект
Маргарет Боден

Непросто перечислить, где будет искусственный интеллект в будущем. Но просто сказать, где его не будет: под лежачим камнем. Он будет вездесущ как святой дух.
ИИ уже активно используется во многих сферах жизни общества. Он направляет каждый наш поисковый запрос в интернете, он в самом сердце любого программного приложения. Без него не обходится ни система GPS, ни видеоигры, ни голливудские мультфильмы, ни один современный банк, ни страховая компания, ни больница. Ну и конечно, он во всяких умных часах и беспилотных автомобилях.
В будущем он будет повсюду: в судах, офисах, домах престарелых… и даже в кабинете консультанта по вопросам семьи и брака. У марсоходов появится множество собратьев, которых задействуют на складах. ИВ свяжет носимые устройства (отслеживающие наше местоположение, уровень активности и артериальное давление) со множеством гаджетов в наших домах, офисах, ресторанах, а также на улицах городов. За нами будет следить не один «Большой брат», а, скорее, армия из триллионов маленьких «братьев», непрерывно взаимодействующих друг с другом.
Ждать осталось совсем недолго. На самом деле большинство этих предсказаний уже становится реальностью. В ближайшие несколько десятилетий наша жизнь будет зависеть от бесчисленного количества таких устройств. В развитых странах люди не смогут без них обходиться. и развивающиеся страны эта тенденция также вряд ли обойдет стороной: в условиях, когда расстояние до ближайшей больницы или агронома исчисляется многими километрами, ИИ даст людям консультацию по медицинскому или сельскохозяйственному вопросу.
В основе всех этих возможностей лежит не так давно разработанная технология машинного обучения с использованием больших данных – огромных массивов информации, анализ которых позволяет выявлять закономерности и тенденции в поведении людей. Теоретическая база этой технологии ИИ, получившей название «глубокое обучение», существует уже более четверти столетия, но реализовать ее на практике не удавалось из-за недостатка вычислительных ресурсов. Однако за последние несколько лет быстродействие компьютеров и емкость их накопителей выросли настолько, что современные компьютеры, способные выполнять миллион миллиардов математических операций в секунду, стали учиться на данных из гигантских датацентров, хранящих информацию о миллиардах предметов.
Методы машинного обучения этого рода позволяют обнаружить закономерности и тенденции на самом разном уровне детализации в огромных наборах. Это могут быть, например, данные о местонахождении и скорости в текущий момент времени всех легковых и грузовых автомобилей города и состояние всех светофоров на его улицах. Или это могут быть медицинские данные из любой региональной или федеральной больницы, содержащие информацию обо всех его пациентах, их болезнях, дозах принимаемых препаратов и результатах лечения.
Эти интеллектуальные системы не программируются в обычном смысле слова, то есть в них не загружается программа, которая указывает им, что они должны сделать сначала, а что – потом. Вместо этого у них многослойные нейронные сети, и выходные данные одного слоя используются в качестве входных другим слоем. В каждом слое содержатся многие тысячи узлов, и информация от каждого узла одного слоя передается каждому узлу другого так, чтобы эта сеть в результате пришла в состояние, отражающее некую устойчивую закономерность, которая присутствует в данных. Часто эти закономерности новы и неожиданны – даже для тех людей, которые пользуются такими системами.
В 2016 г. приложение на основе этой технологии (разработанное компанией Google DeepMind) научилось играть в го и достигло такого уровня мастерства, что смогло одержать победу над чемпионом мира – а это задача намного более трудная, чем победа над чемпионом мира по шахматам (одержанная в 1997 г. суперкомпьютером Deep Blue компании IBM). Но, какой бы впечатляющей ни была демонстрация возможностей новой технологии, это была всего лишь игра, не имеющая никакого практического применения. Впрочем, глубокое обучение уже используется государственными органами и крупными компаниями, располагающими большим количеством ресурсов. По мере удешевления технология будет становиться все более доступной, что в конечном итоге приведет к ее проникновению во все сферы общества.
Наверное, вы подумали: «Сегодня го, завтра – все, что только пожелаешь!» В действительности это не совсем так. Современные системы обучения обладают колоссальными возможностями, но мы не до конца понимаем, как ими воспользоваться. Говоря языком специалистов, мы имеем дело с «черными ящиками», то есть системами, входные и выходные данные которых мы способны оценить, но вот внутренние механизмы их работы нам пока неизвестны. Их архитекторы и разработчики не знают, как они на самом деле работают, а значит, не могут точно спрогнозировать, что будет с ними в ближайшем будущем. Разумеется, разработчики прекрасно осознают эту проблему и прикладывают колоссальные усилия, требующие огромных бюджетов, для ее решения. Но никто не знает, когда эти «черные ящики» наконец-то станут – и станут ли вообще – «серыми» (под этим термином я понимаю состояние отрасли, при котором мы будем точно понимать, как такие системы делают то, что они делают). Возможно, этой мечте не суждено сбыться.
Так что нам следует быть осторожными в наших футурологических прогнозах. Некоторые технологии намного сложнее, чем кажется большинству из нас. Один из примеров – универсальный искусственный интеллект (УИИ). Именно его хотели создать основоположники теории ИИ в 1950-е гг., а до них – Алан Тьюринг. Они надеялись разработать системы ИИ, которые по своей универсальности и гибкости будут сопоставимы с человеческим сознанием. Решением самых разных проблем должна была заниматься одна – разумеется, исключительно сложная – программа. В ее арсенале должны были быть такие инструменты, как язык, зрение, слух, способность к обучению и творческие способности, которые она бы разумно комбинировала и сочетала друг с другом. К ним должна была добавиться еще и способность контролировать двигательную активность – на случай использования в качестве средства управления роботом. Получается, что эта заветная программа очень сильно отличалась бы от хорошо знакомых нам сейчас однобоких, узкоспециализированных прикладных решений.
Изначально на УИИ возлагались большие надежды. В 1959 г. даже появилась программа, которую назвали «Универсальным решателем проблем», так как она, по сути, могла решить любую проблему, сформулированную в виде иерархий целей и подцелей. (В действительности задача по формулировке проблемы в таком формате возлагалась на программиста. и это была самая трудная часть работы.)
Среди решенных с ее помощью головоломок была, например, задача о миссионерах и людоедах. По условиям задачи три миссионера и три людоеда стоят на одном берегу реки. У них есть одна лодка, вмещающая двух людей. Необходимо перевезти всех шестерых на другой берег реки таким образом, чтобы количество миссионеров никогда не было меньше количества людоедов. Это был настоящий успех – ведь в задачке есть важный нюанс. (Попробуйте решить ее сами, например, используя монеты.) В то время она использовалась в качестве теста на соответствие требованиям ИИ. Поэтому неудивительно, что новость о том, что машина смогла решить задачку, произвела настоящий фурор.
Началась активная работа по усовершенствованию таких систем и расширению их возможностей. Но, как оказалось, добиться поставленных целей было совсем непросто. К концу 1970-х гг. большинство ученых, занимавшихся исследованиями в области ИИ, переключились на значительно более узкие задачи, занявшись, например, разработкой так называемых экспертных систем, призванных ставить диагнозы и (или) выписывать препараты при определенных заболеваниях. Учитывая, что такие системы работали с конкретными знаниями (к примеру, о медицинских диагнозах), работа над ними велась под девизом «перенесем наши знания о мире в системы ИИ».
Сегодня существуют тысячи всевозможных экспертных систем (хотя сам этот термин давно вышел из моды), используемых для решения как сложных, так и самых обычных повседневных задач. Они применяются в самых разных областях – от геологоразведочных работ, машинного перевода и распознавания лиц до поиска ближайшего ресторана индийской кухни. Основная часть исследований в области ИИ в XXI в. посвящена разработке как раз таких узкоспециализированных систем. Но этим все не ограничивается – УИИ сегодня снова считается достойным внимания предметом изучения. (Один из примеров возрождения интереса – модель сознания LIDA, о которой пойдет речь ниже.) Тем не менее ни одна из существующих систем УИИ не является по-настоящему «универсальной» в том значении, которое вкладывал в этот термин Алан Тьюринг.
Однако с этим утверждением вряд ли бы согласились поклонники программы Watson компании IBM. Скорее всего, они бы заявили, что задача создания УИИ уже решена: все-таки в 2011 г. эта программа обыграла двух победителей телевизионной игры-викторины Jeopardy! Участники этого состязания не отвечают на сформулированные кем-то другим вопросы – они сами формулируют их на основе полученных от ведущего подсказок (то есть ведущий не обращается к ним с вопросом «Какой город является столицей Франции?», а, например, дает подсказку – «столица, являющаяся тезкой наследницы гостиничной империи»). Чтобы участвовать в такой викторине, нужно уметь нестандартно мыслить, ну или хотя бы выстраивать цепочки ассоциаций.
Многочисленные победы Watson в Jeopardy! – настоящее достижение, которым разработчики могут по праву гордиться. Однако интеллект Watson не имеет ничего общего с нашим. Однажды, например, система совершенно верно определила, что в подсказке шла речь о ноге конкретного спортсмена, но она не смогла понять, что главным фактом об этом человеке в ее базе данных было отсутствие у него одной ноги. После этого программисты пометили слово «отсутствует» как значимое, чтобы эта ошибка не повторилась снова. Но человек, понимающий, насколько важны ноги для спортсменов (да и для обычных людей), просто бы не допустил такую ошибку. Умение определять значимость тех или иных вещей для человека – главный камень преткновения для всех систем УИИ: проще говоря, компьютер не знает, что значит быть человеком.
Таким образом, некоторые амбициозные задачи в области ИИ и УИИ настолько сложные, что, даже если в теории у них и есть решение (все-таки человеческий мозг вряд ли продукт волшебства), на практике их реализовать не получится.
С этим утверждением вряд ли согласятся поборники идеи о «сингулярности» – того воображаемого момента в истории, когда машинный интеллект сравняется с человеческим, а потом благодаря разумному самоусовершенствованию машин быстро перегонит его, и до которого, по мнению некоторых специалистов в области ИИ, осталось не более 20 лет. (Прогнозы разнятся: многие исследователи, занимающиеся разработкой ИИ, предсказывают наступление сингулярности к концу столетия.) и тогда все наши главные проблемы, заявляют некоторые адепты сингулярности, будут решены. Война, бедность, голод, болезни и даже смерть – все это уйдет в прошлое.
Здесь есть с чем поспорить. Например, станет ли кто-нибудь всерьез утверждать, что какая-то система с ИИ сможет распутать тугой узел политических противоречий на Ближнем Востоке? Стоит признать, что мы, люди, пока не очень преуспели на этом поприще. Но вера в то, что ИИ когда-нибудь сможет решить эту проблему, требует слишком фанатичной преданности идеям технологического прогресса, которая чужда многим людям (включая меня): политические и исторические причины существующих конфликтов настолько сложны и замысловаты, что ИИ вряд ли под силу учесть их в полной мере.
Еще один футуристический сценарий, рожденный воображением некоторых сторонников идеи о сингулярности, не сулит ничего хорошего для человечества – роботы в нем берут контроль над всем. Согласно этому сценарию, «сверхразумный» ИИ будет стремиться во что бы то ни стало достичь каких-то собственных целей. В результате мы можем оказаться в весьма невыгодном положении. Причем все может обойтись без причинения вреда людям (хотя и такое развитие событий вполне возможно). Но, подобно тому, как большинство людей не заботит судьба муравьев, сверхразумный ИИ может в итоге причинить нам вред или даже уничтожить нас, если мы встанем у него на пути. Например, ИИ, разработанный для производства скрепок, в будущем может переключиться на человеческие тела, используя их как источник атомов металлов: так, железо в нашей крови может стать сырьем для скрепок.
Одним словом, люди резко расходятся во мнениях не только в вопросе о самой возможности наступления сингулярности, но также и в вопросе о том, будет ли это хорошо или плохо для нас. В любом случае нас ждет немало интересного впереди. Но совсем не обязательно верить в сингулярность, чтобы предсказать, что ИИ предстоит захватывающее будущее. Вряд ли кто-нибудь станет спорить, что ИИ шагнет далеко вперед по сравнению с текущим состоянием. Но насколько далеко он сможет шагнуть? Получится ли у ИИ, например, пройти знаменитый тест Тьюринга? В 1950 г. Тьюринг предложил тест, призванный показать, что машины могут думать. По условиям теста программа на основе ИИ должна вести беседу с людьми в течение пяти минут. Для успешного прохождения 30 % участников не должны догадаться, что их собеседник – компьютер. Тест до сих пор не пройден, хотя во многих случаях ИИ удавалось обмануть людей, если они не знали, что их собеседником может быть компьютер.
Каждый год в Блетчли-парк, там, где Тьюринг работал над расшифровкой кода немецкой «Энигмы» во время Второй мировой войны, проводится состязание по прохождению теста Тьюринга (оно транслируется в интернете). Участники борются за Премию Лёбнера: $2000 получает система, которая показывает лучший результат в конкретном году, приз в $25 000 ждет «первый компьютер, чьи ответы будет невозможно отличить от человеческих», и награда в $100 000 достанется создателям человекоподобной системы, наделенной способностью к аудиовизуальному восприятию, а также владеющей языком.
Пока никому не удалось получить заветные $25 000. Ни одна программа не смогла обмануть судей в 30 % случаев, как это требуется по условиям теста. Справедливости ради следует упомянуть, что в 2014 г. одной из программ удалось убедить 33 % собеседников в том, что они говорили с человеком. Однако из нескольких вариантов описания возможного собеседника, предложенных организаторами теста, большинство из них выбрали 13-летнего мальчика-украинца. Иными словами, язык (это был английский), на котором с ними общался компьютер, был далек от совершенства. Собеседники-люди закрывали глаза на ошибки и неуклюжие обороты, что было вполне естественно: когда мы общаемся с иностранцами, в особенности с детьми, которые вынуждены говорить не на своем родном языке, мы всегда делаем скидку на их произношение.
Сам собой напрашивается вопрос: «Ну и что?» Допустим, однажды появится система ИИ, которая пройдет тест Тьюринга или даже так называемый расширенный тест Тьюринга, предусматривающий участие робота, обладающего похожими на человеческие способностями к восприятию и двигательной активности. Что это докажет? Будет ли это означать, что компьютеры действительно умеют думать? Будет ли это означать, что они обладают сознанием?
Понятие сознания с трудом поддается определению. Однако мы все-таки можем отделить функциональное сознание от феноменального. Первая из этих категорий охватывает целый ряд психологических дихотомий – бодрствующий / спящий, намеренный / неумышленный, внимательный / невнимательный, доступный / недоступный, осознаваемый / неосознаваемый, отрефлексированный / неотрефлексированный и т.д.
Такие противопоставления носят функциональный характер. У нас есть все основания полагать, что они могут быть понимаемы в терминах обработки информации, а значит – и смоделированы на компьютере. (В настоящее время наиболее любопытной моделью машинного сознания является архитектура LIDA, учитывающая перечисленные выше различия и основанная на получившей широкое признание теории функционирования головного мозга.) Так что в этом смысле некоторые системы ИИ в будущем вполне могут обладать сознанием. Например, применительно к роботу, прошедшему тест Тьюринга, уместно говорить о способности планировать и думать.
Феноменальное сознание, или субъективное переживание квалиа (первичных ощущений – например, боли или красноты чего-то красного), представляется чем-то совершенно иным. Само его существование в преимущественно материальной Вселенной продолжает оставаться метафизическим парадоксом. Изучение природы феноменального сознания считается сложной задачей, так как добиться результата в этом случае куда сложнее, чем при рассмотрении функционального сознания.
Для объяснения квалиа выдвигались самые разные, исключительно спекулятивные решения, иногда кажущиеся абсурдными. Согласно некоторым из них, феноменальное сознание – такое же фундаментальное свойство Вселенной, как масса или заряд. (Разумеется, это вряд ли дает ответ на вопрос!) Другие обращаются к квантовой физике, используя одну непостижимую загадку для того, чтобы попытаться найди отгадку для другой. А многие просто опускают руки, отчаявшись найти ответ. Один известный философ заявил, что не только никто не имеет «ни малейшего представления о том, как нечто материальное может обладать сознанием», но также и «никто даже не знает, каково это – иметь хотя бы малейшее представление о том, как нечто материальное может обладать сознанием». Cловом, тема эта – самый настоящий философский тупик.
Если даже в случае с людьми феноменальное сознание – это непостижимая загадка, вряд ли мы способны судить о возможности его наличия у какой-либо системы ИИ в будущем. Наверняка это предположение само по себе кажется вам смешным. Во всяком случае, я точно не могу относиться к нему серьезно. Но к нему нужно относиться как к интуиции, которую можно просто принять без всяких возражений, а не как к тщательно обоснованному выводу.
Большинство исследователей ИИ – например, специалисты, занимающиеся разработкой архитектуры LIDA, – игнорируют феноменальное сознание. Им оно кажется слишком сложным. Однако есть ряд философов, которые под влиянием ИИ анализируют его в терминах обработки информации.
С их точки зрения, квалиа – внутренние вычислительные состояния, которые реализуются в головном мозге в рамках некой программы или своего рода «виртуальной машины». Эти состояния могут иметь причинно-следственное влияние на поведение (например, вызывать непроизвольную мимику). Под их влиянием могут меняться другие составляющие процесса обработки информации в сознании (например, мысли о мести в случае причинения кому-либо боли). Существование их возможно только в вычислительных системах с достаточно высоким уровнем структурной сложности. (Поэтому, например, у улиток их, скорее всего, нет.) Доступ к ним имеют лишь определенные сегменты системы. В результате появляется интимность. Кроме того, далеко не всегда их можно выразить словами, то есть описать способом, присущим более высоким уровням сознания, ассоциирующимся с рефлексией. Отсюда – невыразимость. Если подытожить: «Вам не дано прочувствовать мои ощущения от красного цвета. А я не способен в полной мере описать их словами ни вам, ни себе самому».
Если приведенные свойства квалиа соответствуют действительности, в будущем вполне могут появиться системы ИИ с феноменальным сознанием. Так что ставить точку в обсуждении пока еще рано.
Вопрос о том, является ли ИИ благом или, что важнее, будет ли он благом в будущем, также остается открытым. Упоминавшиеся выше поборники сингулярности отвечают на него решительным «да!». Даже если вы, как и я, сомневаетесь, что сингулярность когда-нибудь наступит, мы вряд ли станем спорить, что во многих областях современные технологии ИИ приносят немало пользы. и в будущем пользы от них будет только больше. Это совершенно очевидно. В этой связи кажется вполне уместным говорить об ИИ как о «благе».
Однако ряд тенденций в развитии ИИ вызывает беспокойство. Над некоторыми из них нам стоит серьезно задуматься уже сегодня. Один из очевидных примеров – угроза для рынка труда: дело не только в сокращении количества самих рабочих мест (на рынке как квалифицированного, так и неквалифицированного труда), но и в снижении требований к квалификации, обусловленном тем, что все больше рутинных операций выполняются машинами. В идеальном сценарии подход к организации труда будет пересмотрен таким образом, чтобы люди могли работать рядом с машинами: люди будут делать то, что могут делать только они, а всем остальным будет заниматься ИИ. Но даже в этом случае найдется немало любителей скучной рутины, которым будет непросто адаптироваться к новым условиям труда. Наверняка появятся новые рабочие места. Но, вероятнее всего, к образованию кандидатов будут предъявляться высокие требования, труднодостижимые для большинства людей – причем даже в самых развитых обществах.
Найдутся те, кто скажет, что без работы можно и обойтись. По их мнению, зарплату смогут заменить некие «универсальные базовые выплаты», право на получение которых будет иметь каждый гражданин. (В ряде стран уже проводятся или планируются пробные программы таких выплат.) Но реализовать эту инициативу не так просто. Где взять налоговую базу, которая позволит обеспечить эту неслыханную социальную щедрость? и что будут делать люди с таким количеством свободного времени? Согласно исследованиям социальных психологов, работа, пускай даже и связанная с неквалифицированным трудом, – это нечто куда большее, чем просто источник дохода.
Еще один яркий пример, а точнее – целая группа примеров, относится к военной сфере. Доставкой бомб к месту сброса уже занимаются беспилотные летательные аппараты (БПЛА), однако за выбор целей по-прежнему отвечают люди. Будущее, где каждый шаг беспилотника полностью автоматизирован, а цели выбираются машинами, может показаться кошмаром. Речь об этом пойдет в главе, написанной Ноэлем Шарки.
Кроме того, существует большая группа примеров применения ИИ в областях, предполагающих сегодня эмпатическое общение между людьми. Значительные средства вкладываются в исследования, посвященные «компьютерам-сиделкам», «компьютерам-компаньонам» и «робоняням».
Если няня-робот – это просто система контроля состояния ребенка, позволяющая отслеживать фазы сна и реагировать на плач, отправляя соответствующие сигналы человеку, то в этом нет ничего плохого. Но если это еще и система обработки естественного языка, которая должна развлекать и обучать малыша, то о пользе говорить уже не приходится. Даже совместный просмотр «Бэмби» с таким помощником может обернуться громадными проблемами: что сможет сказать ребенку няня-робот в момент убийства мамы Бэмби?
Схожим образом использование систем ИИ (будь то автоматизированное слежение или роботы) для выполнения рутинной повседневной работы в домах престарелых не приводит к особым проблемам. Однако участие таких систем в разговорах на личные темы, включая ситуации, вызывающие в памяти пожилых людей яркие эмоции, может принести куда больше вреда, чем пользы. (Разумеется, в идеальном мире такие способы использования ИИ даже бы не рассматривались. Профессиональные сиделки и социальные работники получали бы достойную оплату и пользовались бы куда большим уважением, чем сейчас, а друзья и родственники пожилых людей не ленились навещать своих родных. Но в реальности все иначе. Так что обольщаться не стоит.)
В настоящее время несколько групп специалистов по всему миру размышляют над этими разнообразными проблемами и пытаются выработать практические меры, направленные на то, чтобы с ними справиться, компенсировать их негативные последствия и обеспечить надлежащий контроль. Над этим работает, например, международный комитет под председательством специалиста по робототехнике, в задачи которого входит осуществление мониторинга – и консультирование – в области разработки роботов (таких, как БПЛА) для военного применения. Подобными вопросами занимаются и группы специалистов по ИИ вместе с представителями государственных органов, осуществляющих надзор за использованием больших данных в различных областях с целью выявления проблем, связанных, например, с нарушением неприкосновенности частной жизни.
Таким образом, нас ждут серьезные перемены. Многие разработки в области ИИ, безусловно, существенно облегчат нам жизнь. Но будут среди них и такие, которые приведут к непреднамеренным (хотя иногда и прогнозируемым) последствиям, создающим угрозу для важных составляющих жизни людей. Давать полный карт-бланш на разработку ИИ недопустимо.
Назад: 9 Кибербезопасность Алан Вудворд
Дальше: 11 Квантовые вычисления Винфрид Хензингер