Книга: Живым голосом. Зачем в цифровую эру говорить и слушать
Назад: Четвертый стул?
Дальше: Благодарности

Конец забывания
О чем мы забываем, когда беседуем с машинами?

Некоторые люди пытались завязать дружбу… но их попытки оказались настолько неудачными, что они отказались от своей затеи. И вот, услышав об идее создания робота-компаньона, они думают – что ж, он ведь не будет таким, как человек, у него нет собственного разума, чтобы уйти, или вообще оставить нас, или сделать что-то подобное.
Шестнадцатилетняя девушка, обдумывающая идею более сложно устроенной умной помощницы Siri
Торо говорит о трех стульях, а я думаю о четвертом. Поэт рассказывает, что для наиболее расширенных, самых глубокомысленных бесед он выводил гостей на природу: он называет это своей парадной гостиной, своей “лучшей комнатой”. На мой взгляд, четвертый стул обозначает философское пространство. У Торо была возможность выйти на природу, но теперь мы берем в расчет и собственно природу, и вторую природу, созданную нами самими, – мир искусственного и виртуального. Там мы встречаемся с машинами, заявляющими о своей готовности к беседе. Четвертый стул ставит вопрос: кем мы становимся, когда разговариваем с машинами?
У некоторых говорящих машин скромные амбиции – например, они помогают вам продемонстрировать свои способности во время собеседования при приеме на работу. Другие машины куда более амбициозны. Большинство начали входить в нашу жизнь совсем недавно: “роботы-няни”, призванные позаботиться о наших детях и стариках, если у нас самих не будет на это времени, терпения или ресурсов; автоматизированные психотерапевтические программы, призванные заменить живых специалистов. Имея дело с такими машинами, мы сталкиваемся с чем-то совершенно новым.
Возможно, мы не ощущаем это как что-то новое. Каждый день в течение 24 часов мы пользуемся хитроумными приложениями, вводим свои данные в диалоговые окна программ и получаем информацию от персональных цифровых ассистентов. Мы чувствуем себя вполне комфортно, обращаясь к машинам и разговаривая посредством машин. А теперь нам предлагают вступить в беседу нового рода – такую, которая обещает нам “эмпатические” связи.
Машины не могут нам этого предложить, и все же мы проявляем настойчивость в своем желании найти в неодушевленных объектах компаньонов и даже обрести с ними некую общность. Достаточно ли эмпатии в симуляции эмпатии? Достаточно ли общности в симуляции общности?
Четвертый стул обозначает место, которого Торо не мог видеть. Это наше “как раз вовремя”.
О чем мы забываем, когда беседуем с машинами, – и что мы можем вспомнить?
“Компьютер, настолько прекрасный, чтобы в нем захотела жить душа”
В начале 1980-х я беседовала с одним из студентов Марвина Минского. По мнению этого молодого человека, его герой Минский, один из патриархов искусственного интеллекта (ИИ), “работал над созданием компьютера, настолько прекрасного, чтобы в нем захотела жить душа”.
Этот образ не покидает меня вот уже более тридцати лет.
В мире ИИ вещи проделали путь от мифических до прозаических. Сегодня дети растут с роботами-питомцами и цифровыми куклами. Они считают естественным болтать со своими телефонами. Я бы определила точку, в которой мы находимся, как “роботизированный момент”, и дело тут не в достоинствах наших машин, а в нашей готовности к тому, чтобы они составили нам компанию. Еще до того, как мы создаем роботов, мы пересоздаем самих себя, готовясь стать компаньонами для автоматических устройств.
Долгое время надежды людей на роботов были выражением неисчерпаемого технологического оптимизма, веры в то, что наука движется в правильном направлении, даже если все остальное – нет. В сложном мире то, что нам могут обещать роботы, всегда казалось чем-то вроде помощи в трудной ситуации. Роботы спасают людей в зонах военных действий; они могут функционировать в космосе и в море – в сущности, везде, где людям может грозить опасность. Роботы проводят медицинские процедуры, с которыми люди не могут справиться; они внесли поистине революционные изменения в дизайн и производство.
И все же они дают нам надежду на большее: не только на помощь в трудной ситуации, но и на простое избавление. Что значит простое избавление? Это надежда, что роботы будут нашими компаньонами. Что забота о нас станет их работой. Что их общество и беседа с ними принесут нам утешение. Это остановка в нашем “путешествии забывания”.
О чем мы забываем, беседуя с машинами? Мы забываем, что такого особенного в том, чтобы быть людьми. Мы забываем, что значит вести подлинную беседу. Машины запрограммированы на то, чтобы поддерживать беседу так, “как будто” они понимают, о чем идет речь. Следовательно, когда мы говорим с ними, мы и сами оказываемся низведены до этого “как будто”.
Простое избавление
Десятилетиями я слышала, как крепнут надежды на то, что роботы станут нашими компаньонами, хотя у большинства людей даже нет опыта общения с полноценным роботом-компаньоном: в основном люди общаются с кем-то вроде Siri, цифровой помощницы Apple, беседа с которой, как правило, сводится к фразам “найти ресторан” или “найти друга”.
Тем не менее, всего лишь попросив Siri “найти друга”, люди вскоре начинают мечтать о том, чтобы найти друга в Siri. Я часто слышу, что люди с нетерпением ждут того времени (а оно должно наступить достаточно скоро), когда Siri или кто-то из ее ближайших кузенов или кузин станет для них кем-то вроде лучшего друга, а в чем-то даже и лучше: с ним всегда можно поговорить, он никогда не сердится, его невозможно разочаровать.
И действительно, в первой телевизионной рекламной кампании Apple, где появилась Siri, “ее” представляли не как функцию, не как удобный способ получить информацию, а как компаньона. В рекламе снялась группа кинозвезд – Зоуи Дешанель, Сэмюэл Л. Джексон, Джон Малкович, – относившихся к Siri как к своей задушевной подруге. К примеру, Дешанель в роли легкомысленной инженю говорит о погоде и о том, как ей не хочется надевать туфли или прибираться в доме в дождливый день. Она просто хочет танцевать и лакомиться томатным супом. В свою очередь Siri исполняет роль лучшей подруги, способной понять героиню Дешанель. Джексон ведет с Siri беседу, пронизанную пикантными намеками на страстное свидание: в ожидании своей дамы он колдует на кухне над гаспачо и ризотто. Ему нравится шутить со своей закадычной подругой Siri насчет плана соблазнения. Малкович, восседающий в глубоком кожаном кресле в комнате с тяжелыми портьерами и лепниной на стенах – возможно, где-то в Париже или Барселоне, – всерьез обсуждает с Siri смысл жизни. Ему нравится, что у Siri есть чувство юмора.
Во всех этих ситуациях нас приучают вести беседы с машинами, которые способны приблизительно пошутить, но совершенно не понимают, о чем именно мы говорим; во всех этих беседах вся работа ложится на наши плечи, но мы нисколько не возражаем против этого.
Я была приглашена на радиопередачу, посвященную Siri, где присутствовала группа специалистов – инженеров и социологов. Вскоре участники передачи стали обсуждать, почему людям нравится беседовать с Siri; отчасти этот общий феномен объясняется тем, что люди не испытывают скованности, обращаясь к машине. Им нравится ощущать, что их никто не судит. Один из гостей передачи – социолог – предположил, что весьма скоро тюнингованная и отчасти приглаженная версия Siri смогла бы выступать в качестве психиатра.
Кажется, этого социолога не смутило, что в роли психиатра Siri принялась бы консультировать людей по поводу их жизни, хотя собственной жизни у нее нет. По словам социолога, если Siri может вести себя, как психиатр, значит, она может быть психиатром. Если никого не смущает, что “как будто” и реальность – не одно и то же, значит, пусть машина займет место человека. В этом и есть прагматизм роботизированного момента.
Однако с концепциями робота-друга или терапевта (о, это простое избавление, даруемое нам роботизированным моментом!) все обстоит далеко не так просто.
Хотя машины запрограммированы, чтобы подражать множеству действий, и общаются с нами так, как будто им есть до нас дело, на самом деле они понятия не имеют о том, что такое дуга человеческой жизни. Когда мы говорим с ними о таких человеческих проблемах, как любовь и утрата, или об удовольствии есть томатный суп и танцевать босиком в дождливый день, они могут только имитировать эмпатию и контакт.
Вот что может знать искусственный интеллект: ваше расписание, буквальное содержание ваших электронных сообщений, ваши кино-, теле- и кулинарные предпочтения. Если вы наденете те или иные датчики, ИИ узнает, что способно на вас эмоционально воздействовать, ведь он сделает эти выводы на основе психологических маркеров. Однако ИИ не сможет понять, что все эти вещи значат для вас.
Но мы же хотим, чтобы машины понимали именно значение вещей. И мы готовы тешиться иллюзиями, что они это действительно понимают.
Игры с уязвимостью
Мы уже очень долго играем с искусственным интеллектом в игры с уязвимостью – еще с тех пор, когда программы были несравнимо проще нынешних. В 1960-х компьютерная программа ELIZA, созданная Джозефом Вейценбаумом из МТИ, смогла освоить “отражающий” стиль психотерапевта, практикующего роджерианский (клиент-центрированный) подход. Таким образом, если бы вы напечатали фразу: “Почему я ненавижу свою мать?”, ELIZA могла бы ответить: “Я слышу, вы говорите, что ненавидите свою мать”. Эта программа успешно создавала иллюзию умного слушателя – по крайней мере в течение короткого периода времени. И вот еще какой момент: мы хотим говорить с машинами, даже если нам известно, что они не заслуживают нашего доверия. Я называю это “эффектом ELIZA”.
Вейценбаум был потрясен следующим фактом: люди (к примеру, его секретарша и магистранты), знавшие, что ELIZA обладает весьма ограниченной способностью понимать, все же хотели оставаться с программой наедине для доверительного общения. ELIZA показала, что люди (за очень редкими исключениями) проецируют человеческие свойства на программы, претендующие на человекоподобие. Этот эффект усиливается, когда люди оказываются в обществе роботов, именуемых “коммуникабельными” машинами: такие машины способны проследить за вашими движениями, установить визуальный контакт и запомнить ваше имя. Тогда люди чувствуют, что рядом находится кто-то знающий, кто-то, кому есть до них дело. Двадцатишестилетний мужчина беседует с роботом по имени Kismet, способным устанавливать визуальный контакт, опознавать выражения лица и издавать звуки, напоминающие модуляции человеческой речи. Этот молодой человек настолько дорожит поддержкой робота Kismet, что готов обсуждать с ним позитивные и негативные моменты своего дня.
Машины, наделенные голосами, обладают особой силой внушать нам, что они нас понимают. Впервые дети знакомятся с матерями, привыкая узнавать их голоса, причем происходит это еще в утробе. Во время нашей эволюции единственной речью, которую мы слышали, была речь других людей. Теперь, по мере развития сложной искусственной речи, мы оказались первыми людьми, чьей задачей стало отличать речь людей от речи машин. С точки зрения неврологии, мы не обладаем качествами, необходимыми для такого рода деятельности. Поскольку прежде – скажем, в течение 200 000 лет – люди слышали только человеческие голоса, требуются серьезные умственные усилия, чтобы отличить речь человека от речи, генерируемой машинами. Для нашего мозга речь – это то, что делают люди.
Особой силой обладают также машины с человекоподобной внешностью.
У людей форма улыбки или гримасы высвобождает химические вещества, воздействующие на психологическое состояние. Наши зеркальные нейроны возбуждаются как при выполнении действий, так и при наблюдении за действиями других. Мы сами чувствуем эмоции, которые видим на лице другого человека. Выразительное лицо робота тоже может оказать на нас влияние. По мнению философа Эмманюэля Левинаса, присутствие лица влечет за собой действие этического договора между людьми. Лицо сообщает: “Не убивай меня”. Появление лица связывает нас обязательствами еще до того, как мы узнаем, что за ним стоит, – еще до того, как мы, возможно, узнаем, что это лицо машины, которую нельзя убивать. И, с точки зрения Левинаса, лицо робота, безусловно, говорит: “Не покидай меня”. Опять-таки, это этический и эмоциональный договор, связывающий нас обязательствами, но не имеющий смысла, если наши чувства обращены к машине.
Экспрессивное лицо машины – будь то лицо робота или программа на экране компьютера – помещает нас в ландшафт, где мы ищем признания и чувствуем, что можем его получить. По сути дела, нас побуждают искать эмпатию у объекта, неспособного ее дать.
Я работала в Лаборатории искусственного интеллекта в МТИ, когда люди впервые встретились с коммуникабельным, эмоциональным роботом Kismet. Не имело значения, что Kismet говорит на самом деле, но издаваемый им звук ассоциировался с теплом, любопытством или озабоченностью.
Иногда тем, кто навещал робота Kismet, казалось, что он их узнал и “услышал” их рассказ. Когда что-то срабатывало идеально с технической точки зрения, люди испытывали, как им представлялось, эмпатическую связь. Эта убедительная имитация понимания впечатляет и способна доставить немало удовольствия, если думать об этих встречах как о театре. Однако я видела, как дети по-настоящему пытались найти в Kismet друга. Я наблюдала, как дети надеются, что робот их узнает, и иногда чувствовали себя опустошенными, если им не предлагалось ничего, что могло бы дать им эмоциональную подпитку.
Двенадцатилетняя Эстель приходит к роботу Kismet в поисках беседы. Девочка одинока, ее родители разведены. Проводя время с роботом, она чувствует себя особенной: вот робот, готовый слушать только ее. На Эстель произвело большое впечатление, что у Kismet меняются выражения лица, но, к сожалению, в день ее посещения речевые способности робота не на высоте. В результате эта сессия крайне разочаровала Эстель. Вместе с нашей небольшой командой сопровождающих исследователей девочка возвращается в помещение, где мы беседуем с детьми до и после встречи с роботами. Эстель пьет сок, ест крекеры и печенье, принесенные нами специально, чтобы люди могли перекусить. Девочка ест и ест, не в силах остановиться, пока мы не просим ее оставить хоть немного еды для других детей. Она перестает поглощать еду, но ненадолго. Вскоре она уже снова торопливо ест, пока мы ждем машину, которая должна отвезти ее обратно на внеклассные занятия.
Эстель объясняет нам, почему она так расстроена: ей кажется, что она не понравилась роботу Kismet. Робот сначала заговорил с ней, а потом отвернулся. Мы объясняем, что дело вовсе не в ней. Тут проблема технического характера. Наши объяснения не убеждают Эстель. С ее точки зрения, она потерпела поражение в свой самый важный день. Уходя, Эстель берет четыре коробки печенья из подсобки и кладет их к себе в рюкзак. Мы ей не мешаем. Утомленные участники моей команды вновь собираются вместе в ближайшей кофейне, чтобы задать себе трудный вопрос: может ли сломанный робот причинить боль ребенку?
Мы бы так не беспокоились об этике, если бы речь шла о ребенке, играющем с дефектной версией Microsoft Word или с порванной куклой Тряпичная Энни. У текстового процессора вполне инструментальные задачи. Если в какой-то день он работает хуже, чем обычно, это может раздражать пользователя, но не более того. Но если программа побуждает вас к контакту, это уже совсем другая история.
Чем сломанный Kismet отличается от сломанной игрушки? Игрушка побуждает детей проецировать их собственные истории и собственную повестку на пассивный объект. Но дети воспринимают коммуникабельных роботов как “живых настолько”, чтобы обладать собственной повесткой. Дети привязываются к ним не посредством психологической проекции, а посредством психологии реляционной вовлеченности – то есть примерно так же, как они привязываются к людям.
Если маленькая девочка чувствует вину из-за того, что разбила мамин хрусталь, она может наказать за это целую вереницу кукол Барби – к примеру, поместить этих Барби под арест и таким образом разобраться со своими чувствами. Куклы становятся материалом, помогающим запустить механизм психологической проекции, чтобы ребенок мог проработать свои эмоции. Но коммуникабельный робот преподносит себя как нечто обладающее собственным разумом. Если такой робот отвернулся от ребенка, у последнего возникает впечатление, что робот отвернулся по собственной воле. Поэтому дети считают, что совершают достижение, завоевав сердце коммуникабельного робота, ведь так приятно понравиться тому, кто нравится вам. Опять-таки, дети взаимодействуют с коммуникабельными роботами не посредством психологической проекции, а посредством вовлеченности. Они реагируют так, словно перед ними другой человек, а значит, как и в случае с людьми, им могут причинить боль.
Эстель отреагировала на эту эмоционально напряженную ситуацию депрессией и поиском “комфортной пищи”. Другие дети, тоже разочарованные общением с Kismet, отреагировали агрессией. Шестилетний Эдвард не смог понять, что ему говорит Kismet, а потому начал совать предметы роботу в рот – металлическую булавку, карандаш, модель экскаватора – словом, все, что мальчик смог найти в лаборатории робототехники. Тем не менее на протяжении всего сеанса Эдвард был вовлечен в общение с Kismet. Он не хотел терять шанс завоевать симпатию робота.
Особое внимание стоит обратить вовсе не на риски, сопряженные со сломанными роботами. Нам следовало бы подумать вот над какими вопросами: какую позитивную эмоцию мы могли бы дать этим детям, если бы роботы были в своей самой лучшей форме? Почему мы вообще предлагаем детям общество роботов? Для одинокого ребенка коммуникабельный робот – гарантия, что его не отвергнут; ребенок может довериться роботу. Но вообще-то дети вовсе не нуждаются в гарантии того, что неодушевленный объект будет симулировать свое расположение к ним. На самом деле детям нужны отношения, благодаря которым они научатся настоящей взаимности, заботе и эмпатии.
Таким образом, сложности начинаются не в тот момент, когда ломается машина. Даже когда роботы функционируют идеально, это не приносит детям большой пользы. В случае с роботом-няней у вас уже возникает проблема, когда приходится объяснять ребенку, почему на эту должность не нашлось человека.
Обращаться с машинами, как с людьми; обращаться с людьми, как с машинами
Во всем этом нельзя не почувствовать иронии: даже когда мы обращаемся с машинами почти как с людьми, у нас формируются привычки, подталкивающие нас обращаться с людьми почти как с машинами. Возьмем простой пример: мы постоянно ставим людей “на паузу” посередине разговора, чтобы заглянуть в телефон. А когда мы общаемся с игнорирующими нас людьми, это что-то вроде подготовки к разговору с машинами, неспособными нас понять. Когда от людей мы получаем все меньше, общение с машинами не кажется таким уж снижением уровня.
В ходе панельной дискуссии, посвященной “киберэтикету”, я была на сцене вместе с журналистом, пишущим о технологиях, и двумя колумнистами, дающими полезные советы по этикету. Участники дискуссии достигли консенсуса по большинству вопросов: никакой электронной переписки за семейным обедом. Никакой переписки в ресторанах. Не приносите ноутбук на спортивные мероприятия с участием ваших детей, каким бы сильным ни было искушение.
И тут поступил вопрос из зрительного зала: женщина сказала, что ей как работающей матери не хватает времени, чтобы общаться с друзьями, рассылать электронные письма, СМС и вообще поддерживать отношения.
По большому счету, – призналась женщина, – единственное свободное время у меня вечером, после окончания работы и перед приходом домой, когда я иду за покупками для своей семьи в супермаркет Trader Joe’s. И вот кассир, парень на кассовом терминале, жаждет общения. А я просто хочу провести время со своим телефоном, просматривая сообщения и ленту Facebook. Имею ли я право просто его игнорировать?
Два эксперта по этикету заговорили первыми. В принципе, оба сказали одно и то же, хотя и немного по-разному это сформулировали: мужчина на кассовом терминале должен выполнять свои рабочие обязанности. Женщина, задавшая вопрос, имеет право на личное пространство и на свою переписку, пока сотрудник магазина оказывает ей услуги.
Пока я слушала ответы колумнистов, мне стало немного не по себе. Я вспоминала свое детство, походы за покупками с бабушкой и все те отношения, которые бабушка поддерживала с продавцами в каждом магазине: с пекарем, с торговцем рыбой, с продавцом фруктов, с бакалейщиком (так мы тогда называли этих людей). Сегодня всем нам известно, что работу человека на кассовом терминале может выполнять и машина. По сути дела, на той же улице, но в другом супермаркете эту работу действительно выполняет машина, автоматически сканирующая ваши продукты. И тогда я решила поделиться своей мыслью: пока машина не заменила этого кассира, он вправе рассчитывать на признание и уважение, которые мы обычно выказываем людям. А значит, если вы обменяетесь с этим кассиром хотя бы парой слов, он почувствует, что, хотя он и выполняет работу, которую могла бы выполнять машина, его все-таки воспринимают как человека.
Однако слушатели и мои коллеги по дискуссии ждали вовсе не такого ответа. Пока я критически оценивала их прохладную реакцию на свои слова, я заметила новую симметрию: от технологий мы хотим большего, а друг от друга – меньшего. То, что некогда могло восприниматься как “гостеприимное обслуживание” на местном рынке, теперь стало неудобством, отвлекающим нас от смартфона.
Раньше мы считали, что мобильные телефоны нужны, чтобы мы могли разговаривать друг с другом. Теперь мы хотим, чтобы мобильные телефоны разговаривали с нами. В этом мы можем убедиться, посмотрев, к примеру, рекламные ролики Siri: фантазии о новых беседах и своего рода руководство насчет того, как они могут звучать. Мы переживаем момент искушения, ведь мы готовы прибегнуть к обществу машин, даже когда нам по какой-то причине тяжело или неудобно общаться друг с другом в такой простой ситуации, как, например, посещение продуктового магазина. Мы хотим, чтобы присутствие технологий в нашей жизни возрастало, а людей, напротив, просим отступить.
Люди одиноки, боятся близости, а роботы, как нам кажется, находятся буквально у нас под рукой. Мы же, в свою очередь, готовы к их обществу, если забываем, что такое близость. А когда нашим детям не о чем забывать, они учатся новым правилам по поводу того, когда уместно разговаривать с машинами.
Стефани сорок, она агент по недвижимости в штате Род-Айленд. Ее десятилетняя дочь Тара – перфекционистка, всегда и во всем “хорошая девочка”, болезненно воспринимающая даже намек на критику. Недавно Тара начала разговаривать с Siri. Неудивительно, что детям нравится общаться с цифровой помощницей. Степень находчивости в ответах Siri как раз достаточна, чтобы дети чувствовали, что кто-то, возможно, их слушает. И если дети боятся осуждения, то общение с умной помощницей кажется им вполне безопасным. И вот Тара позволяет себе в адрес Siri тот гнев, который не решается выказать родителям или друзьям, ведь с ними она играет роль “идеального ребенка”. Услышав, как дочь орет на Siri, Стефани поясняет: “Она выпускает пар, общаясь с Siri. Она начинает говорить, но потом впадает в ярость”.
Стефани колеблется – “может, это не так уж плохо, и, уж конечно, это более честная беседа”, чем те, которые Тара ведет с реальными людьми. Возможно, стоит хорошенько вникнуть в эту мысль. Безусловно, когда в беседе с телефоном Тара обнаруживает чувства, которые старается утаить от окружающих, это позитивно влияет на девочку. В то же время общение с Siri делает Тару уязвимой. У нее может возникнуть мысль, что ее чувства – нечто такое, что люди не в силах воспринять. В результате она может упорствовать в своем нынешнем убеждении, что притворное совершенство – это все, чего другие люди хотят от нее и что они готовы от нее принять. Вместо того чтобы осознать, что люди способны оценить то, как она на самом деле себя чувствует, Тара приходит к выводу, что лучше вообще не иметь дела с людьми.
Если Тара может “быть собой” только в общении с роботом, возможно, она будет взрослеть в уверенности, что только предмет способен воспринять ее правду. То, чем занимается Тара, – вовсе не “тренировка”, чтобы научиться устанавливать связь с людьми. Для этого Таре нужно запомнить: вы можете завязать отношения с людьми, если доверяете им, совершаете какие-то ошибки и не боитесь откровенных разговоров. Разговоры девочки с неодушевленными объектами уводят ее в другом направлении: в мир, лишенный не только риска, но и заботы друг о друге.
Автоматизированная психотерапия
Мы создаем машины, которые кажутся достаточно человекоподобными, чтобы втянуть нас в беседу, а потом обращаемся с ними, как будто они способны на те же поступки, что и люди. Это подробно разработанная стратегия исследовательской группы в МТИ, цель которой – создать автоматизированного психотерапевта путем “краудсорсинга” коллективного эмоционального интеллекта. Как это работает? Представьте себе, что молодой человек вводит в компьютерную программу короткое (от одного до трех предложений) описание стрессовой ситуации или болезненной эмоции. В ответ программа делит терапевтические задачи между “краудворкерами”. Единственное требование к этим краудворкерам – базовое знание английского языка.
По словам создателей программы, они разработали ее, потому что беседы с психотерапевтами – вещь прекрасная, но слишком уж дорогая, чтобы быть доступной всем нуждающимся. Но в каком смысле эта система предоставляет возможность беседы? Один краудворкер посылает быстрый “эмпатический” ответ. Другой сотрудник проверяет, не искажает ли молодой человек реальность в своем описании проблемы, а потом может попросить того переформулировать свой вопрос. Или заново оценить ситуацию. Эти ответы тоже короткие – не больше четырех предложений. То есть в системе есть люди, но разговаривать с ними вы не можете. Каждому сотруднику попросту дается отдельная деталь головоломки, которой он должен заняться. И действительно, создатели программы надеются, что когда-нибудь весь процесс – уже отлично налаженная машина – будет полностью автоматизирован, и к помощи людей можно будет не прибегать даже по отдельным вопросам.
Автоматизированный психотерапевт, разговоры Тары с Siri, а также психиатр, ожидающий, когда “более разумная” версия Siri придет ему на смену, – эти эпизоды многое говорят о нынешней ситуации в нашей культуре. Во всех этих случаях отсутствует понимание того, что в психотерапии беседа лечит, благодаря отношениям с терапевтом. У терапевта и пациента есть общее – то, что оба они люди. Все мы когда-то были детьми, маленькими и зависимыми. Все мы вырастаем, и нам приходится принимать решения насчет близости, генеративности, работы и смысла жизни. Мы переживаем утраты. Мы думаем о том, что смертны. Мы задаемся вопросом, какое наследие хотим оставить следующему поколению. Когда у нас возникают проблемы с этими вещами – а такого рода проблемы являются естественной частью жизни любого человека, – мы знаем, как обсудить их друг с другом. Но по мере того как усиливается наше стремление говорить об этом с машинами, мы готовимся к тому, что появятся искусственные психотерапевты, а дети будут делиться своими бедами с iPhone.
Когда я говорю о своих опасениях в связи с ростом популярности подобных бесед, в ответ я нередко слышу: “Если люди утверждают, что будут с радостью говорить с роботом; если им нужен друг, которого они никогда не разочаруют; если они не хотят чувствовать неловкость или уязвимость из-за того, что рассказывают свою историю человеку, – почему это вас беспокоит?” Но почему бы не поставить этот вопрос иначе: “А почему это не беспокоит всех нас?” Почему всех нас не беспокоит, что, когда мы стремимся к таким беседам, мы, в сущности, гонимся за фантазией? Почему нам не приходит в голову, что мы заслуживаем большего? И, действительно, разве мы не думаем, что заслуживаем большего?
Дело отчасти в том, что мы убеждаем себя: нам не нужно больше, мы довольны тем, что нам могут дать машины. А потом жизнь, где мы никогда не боимся осуждения, или неловкости, или уязвимости, уже кажется нам не такой уж плохой. Возможно, беседа с машиной дает нам определенный прогресс, и со временем мы освоим лучший способ существовать в этом мире? Может быть, эти “беседы” с машинами не просто лучше, чем что-то, а лучше, чем вообще все?
На эту работу не найти людей
В передовице одного из номеров журнала Wired, озаглавленной “Лучше, чем люди”, с воодушевлением писали и о неизбежности, и о преимуществах того, что роботы со временем заменят людей во всех сферах жизни. Статья начиналась со следующего утверждения: каждый раз, когда роботы берут на себя какую-либо человеческую функцию, следующий вид деятельности, к которому приступают люди, оказывается в большей степени человеческим. Статью написал самопровозглашенный техно-утопист Кевин Келли, но его мысль перекликается с тем, что я десятилетиями слышала от других людей, обсуждавших эту тему. Это утверждение делится на две части. Во-первых, роботы делают нас человечнее, расширяя наши возможности в плане отношений, ведь теперь для нас возможны отношения с ними как с новым “видом” существ.
Во-вторых, о какой бы человеческой деятельности ни шла речь, если ее может выполнять робот, значит, это действие уже по определению не является специфически человеческим. Со временем в этот список вошли такие занятия как беседа, товарищество и уход. Теперь мы заново определяем, какую деятельность можно считать человеческой, пользуясь следующим критерием: эту работу нельзя выполнить посредством технологий. Но, следуя формулировке Алана Тьюринга, беседа с компьютером – это “игра в имитацию”. Мы провозглашаем компьютеры умными, если они могут обмануть нас, убедив в том, что они люди. Но ведь это не значит, что они и вправду люди.
Я работаю в одной из крупнейших научных и инженерных организаций в мире. В течение длительного периода некоторые из моих наиболее блистательных коллег и студентов работали над проблемой роботов-собеседников и роботов-компаньонов. Один из моих учеников использовал голос своей двухлетней дочери в качестве голоса My Real Baby, роботизированной куклы с настолько развитой способностью откликаться, что, как говорилось в рекламе, она может научить ребенка навыкам общения. Недавно другой студент разработал модель искусственного партнера по диалогу, с которым можно практиковаться в собеседованиях при приеме на работу.
В МТИ исследователи представляют себе улучшенные варианты коммуникабельных роботов как педагогов, помощников по дому, незаменимых друзей для одиноких людей – как молодых, так и пожилых. В особенности для пожилых: в этом случае потребность в роботах воспринимается как самоочевидная. Как объясняют инженеры-робототехники, из-за демографической ситуации “на эту работу не найти людей”.
Тренд понятен: людей старшего поколения слишком много, а людей младшего поколения, способных за ними ухаживать, не хватает. Поэтому, по словам инженеров-робототехников, им нужно создавать “машины-сиделки” или, как их порой называют, “заботливые машины”.
Откровенно говоря, не только инженеры-робототехники говорят об этом. За последние двадцать лет, пока я изучала разработку коммуникабельных роботов, я слышала отзвук фразы “На эту работу не найти людей” во время бесед с людьми, которые вообще не связаны с производством роботов, – с плотниками, юристами, врачами, сантехниками, школьными учителями и офисными работниками. В их высказываниях на эту тему слышится предположение, что те, кто готов выполнять “эту работу”, для нее не годятся. Они могут украсть. Они могут быть некомпетентными и даже проявлять насилие. Использовать машины было бы менее рискованным. Люди говорят что-то вроде: “Пусть лучше о моей матери заботится робот, чем тот, кто даже не смог окончить среднюю школу. Уж я-то знаю, кто работает в этих домах престарелых”. Или: “Пусть лучше о моем ребенке заботится робот, чем юная девица в каком-то центре по уходу за детьми, которая даже толком не знает, что делать”.
Так что же мы на самом деле подразумеваем, говоря о беседах с машинами? Мы имеем в виду, что боимся друг друга, что можем разочароваться в нашем ближнем. Что нам не хватает общности. Не хватает времени. Начиная разговор с беспокойства насчет того, что сиделка даже не окончила среднюю школу, люди быстро переходят к мечте о создании робота, который мог бы заботиться о них, когда им это понадобится. Опять-таки, мы переживаем роботизированный момент, не потому что роботы уже готовы к встрече с нами, а потому что мы на них рассчитываем.
Одна шестнадцатилетняя девушка, поразмыслив о возможности завести робота в качестве друга, решила, что это не для нее, но сочла, что хотя бы отчасти понимает, почему эта идея привлекает других:
Бывает, что люди пытались завести друзей и все такое прочее, но из-за серьезных неудач решили оставить такие попытки. Поэтому, когда я слышу предложения сделать роботов компаньонами людей… ну, понятное дело, это будет не то же самое, что человек, обладающий умом, способный уйти, или вообще оставить вас, или что-то в этом роде.
Что касается отношений, вы ведь не будете опасаться, что робот вас обманет, поскольку это робот. Он запрограммирован на то, чтобы остаться с вами навсегда. Поэтому если кто-то услышал о такой идее, а при этом у него раньше были отношения, в которых он потерпел неудачу (его обманывали и оставили), этот человек может ухватиться за идею с роботом, ведь он знает: в такой ситуации ничего плохого не случится.
Идея перешла к новому поколению: роботы предлагают отношения без риска: “ничего плохого не случится”, если у вас будет робот в качестве друга или, как представляет себе эта девушка, в качестве романтического партнера. Но давайте внимательно рассмотрим то простое избавление, на которое мы рассчитываем в компании робота. Мы, конечно же, столкнемся с первой проблемой: время, проведенное с роботами, мы уже не сможем провести друг с другом. Или с детьми. Или с самими собой.
И вторая проблема: хотя болтовня с постоянно доступным роботом – это способ никогда не испытывать чувство одиночества, мы все-таки будем одиноки, участвуя в “как будто” разговорах. А что, если практика даст отличные результаты и мы вообще забудем, что такое настоящая беседа и почему она имеет значение? Поэтому я очень обеспокоена ситуацией с “краудсорсинговым” терапевтом. Такую ситуацию преподносят как путь в направлении еще более автоматизированного заместителя, но при этом не боятся использовать слова “терапевт” или “беседа” для описания того, что нам предлагается.
Умные игрушки: уязвимость перед ситуацией “как будто”
В конце 1970-х, когда я только приступала к изучению взаимоотношений компьютеров и людей, я обратилась к детям. Первое поколение электронных игрушек и игр (с их напористой демонстрацией умений) еще только выходило на массовый рынок. В глазах детей новые игрушки, как и люди, обладали интеллектом, но, как это виделось детям, у людей, в отличие от компьютеров, есть эмоции. Чувства – вот что делает людей особенными.
Мальчик двенадцати лет рассказывает: “Когда появятся компьютеры, такие же умные, как люди, компьютеры будут выполнять самые разные задачи, но все-таки и для людей найдется работа. Люди будут управлять ресторанами, пробовать еду, и именно они будут любить друг друга и обзаводиться семьями. Думаю, только они будут по-прежнему ходить в церковь”. И, в сущности, в середине 1980-х – начале 1990-х люди любого возраста находили возможность сказать: хотя симуляция мышления может быть мышлением, симуляция чувства – это все-таки не чувство, а симуляция любви – не любовь.
А потом, в конце 1990-х, произошли глубинные преобразования. Теперь цифровые объекты преподносились как нечто обладающее чувствами. Виртуальные любимцы, такие как Tamagotchi, Furby и AIBO, были предложены в качестве товарищей по играм; они просили, чтобы о них заботились, да еще и вели себя так, словно это имело значение. И стало ясно: это действительно имело значение для детей, которые о них заботились. Мы устроены так, чтобы пестовать тех, кого мы любим, но также и чтобы любить тех, кого пестуем.
Когда мы кого-то пестуем, это оказывается “убойным приложением”. Едва мы начинаем заботиться о цифровом создании, учить или развлекать его, у нас возникает привязанность к нему, а потом мы ведем себя так, “как будто” это создание в ответ заботится о нас.
Если у детей сформировалось убеждение, что у коммуникабельных роботов есть чувства, дети уже не готовы рассматривать людей как нечто особенное из-за того, что у них есть эмоциональная жизнь. Я опрашивала многих взрослых, склонных говорить о детских привязанностях к отношениям в стиле “как будто” примерно следующее: “Что ж, это мило, они это перерастут”. Но с такой же, если не с большей, вероятностью эти дети не перерастут свои привычки привязываться к неодушевленным предметам, а, напротив, срастутся с ними.
Чему учатся дети, когда обращаются к машинам как к своим задушевным друзьям? Пятнадцатилетний мальчик отмечает: каждый человек ограничен своим жизненным опытом, но “роботов можно запрограммировать на бесконечное число историй”. Таким образом, по мнению этого мальчика, в качестве задушевных друзей роботы выигрывают по части опыта. И что характерно, они также выигрывают по части надежности. Родители мальчика разведены. Дома он часто видел ссоры. “С людьми, – говорит мальчик, – приходится рисковать. Роботы надежны”. Роботы не подведут в эмоциональном плане, ведь у них вообще нет эмоций.
Искусственный наставник
Если вспомнить о словах студента Марвина Минского, сегодня мы пытаемся создавать не машины, внутри которых хотели бы жить души, а машины, вместе с которыми хотели бы жить мы сами.
Семнадцатилетний Томас утверждает, что с самого раннего детства использовал компьютерные игры как пространство эмоционального комфорта, “пространство, куда можно уйти”. Томас приехал в США из Марокко в восьмилетнем возрасте. Его отцу пришлось остаться на родине, и теперь Томас живет с матерью и сестрой в городке, расположенном более чем в часе езды от его частной школы в пригороде. Семья юноши рассеяна по всему миру, и он поддерживает с ними связь по электронной почте и мессенджерам. Его отношения с матерью достаточно формальны: она вынуждена работать на нескольких работах, и Томас говорит, что не хочет ее расстраивать своими проблемами. По словам юноши, когда он сталкивается с трудностями, персонажи его компьютерных игр предлагают ему конкретные советы.
Томас приводит пример того, как это работает. Один из друзей в школе дал ему украденную коллекционную карточку довольно большой стоимости. Перед Томасом был соблазн оставить ее себе, но он вспомнил, что персонажу одной из его любимых игр также давали краденое. По словам Томаса, в игре персонаж вернул похищенное, поэтому юноша последовал его примеру. “Персонаж совершил правильный поступок и вернул краденое. И в результате все сложилось благополучно. И тогда я сказал: да, это хорошо. Наверное, и мне следует вернуть похищенное”.
Вдохновленный действиями персонажа, юноша вернул украденную карточку законному владельцу. Игра помогла Томасу принять верное решение, но не дала ему возможности обсудить случившееся. Она не дала ему шанса поговорить о том, как дальше общаться с одноклассниками, которые воруют явно без каких-либо последствий, а теперь у них есть основания считать, что и он тоже ворует. Томас признается, что в школе чувствует себя “в окружении предателей”. Это ужасное ощущение, и здесь бы ему помог разговор с другим человеком. Но Томас сомневается, что такой разговор может состояться вскоре. Напротив, ему кажется, что в будущем он все чаще будет обращаться к машинам за компанией и советом. Когда я слышу это признание, мне кажется, что у меня екнуло сердце. Каким образом мой собеседник перевел разговор на тему искусственной дружбы? Томас объясняет: в сети он играет в игры, где иногда не может отличить людей от программ.
У Томаса есть любимая компьютерная игра с большим количеством “неигровых персонажей”. Неигровые персонажи – те, которые не находятся под контролем игрока; их поведение определяется программно. Такие персонажи могут быть очень важны: иногда они спасают вам жизнь, а иногда, чтобы двигаться дальше, вы должны спасти жизнь им. Но время от времени те, кто создали компьютерную игру, в которую играет Томас, переворачивают ее мир вверх тормашками: авторы берут на себя роли неигровых персонажей, ими созданных. “Таким образом, в первый день вы встречаете каких-то персонажей, и это просто программы. Во второй день они уже оказываются людьми… Выходит, вы далеко не всегда можете отличить роботов от людей”.
Когда мы встречаемся, Томас как раз недавно получил опыт, когда он перепутал неигрового персонажа с человеком. Это произвело на него большое впечатление. Томасу интересно, как бы он себя почувствовал, если бы “настоящий бот” – то есть персонаж, чье поведение определяется компьютерной программой, – захотел стать его другом. Молодой человек не может сформулировать какое-либо возражение. “Если бы настоящий бот действительно о чем-то меня спросил и вел бы себя, как живой человек, – признается Томас, – я бы и воспринял его в качестве друга”.
В “игре в имитацию” Тьюринга, компьютер, чтобы считаться умным, должен был общаться с человеком (посредством клавиатуры и телетайпа) и сделать так, чтобы человек не понял, кто скрывается за этим текстом: человек или машина. Тест Тьюринга целиком посвящен поведению, способности сыграть человека. Томас живет в бихевиористском мире. Существует “тест Томаса” на дружбу. Чтобы стать другом, нужно вести себя как друг, как “живой человек”.
Томас поясняет: если кто-то изображает дружеское отношение к нему, он готов это принять за настоящую дружбу. По словам молодого человека, если бы бот спросил его: “Как дела? Как ты себя чувствуешь? Что ты думаешь?”, он бы ответил. Это служит основанием для сложносочиненной фантазии Томаса насчет того, какие черты личности могли бы ему импонировать в его друзьях-машинах. В отличие от ребят, с которыми отношения в школе не складываются, друзья-машины будут с ним честны. Они предложат ему свою компанию без напряжения и трудного морального выбора. Такая перспектива, по словам Томаса, кажется ему “успокаивающей”.
Это роботизированный момент, “успокаивающий” семнадцатилетнего парня, к которому в друзья пока что набиваются юные гопники. Возможно, Томас и согласится считать программы задушевными друзьями, ведь он уже настолько снизил свои требования к беседе, что готов принять даже предложение игрового бота: изображение честности и товарищеского интереса.
И потом еще есть вопрос, насколько мы ценим “информацию”. К первому десятилетию 2000-х было просто найти старшеклассников, полагавших, что лучше обсуждать проблему свиданий в старшей школе с компьютерными программами, чем откровенничать об этом с родителями. Программы, как объясняли эти студенты, могут прибегнуть к таким обширным базам данных, о каких родителям не приходится даже мечтать. Если кто-то дает совет по поводу свиданий, он должен поставить себя на место другого человека, проникнуться его чувствами. Следовательно, когда вы беседуете с отцом о девушках, это может также стать поводом поговорить об эмпатии и этичном поведении. Даже если отцовский совет вам не помог, будем надеяться, что вы все же узнали из этого разговора нечто такое, что поможет вам улучшить ситуацию хотя бы со следующей девушкой.
Если вы предпочитаете, чтобы о беседе насчет свиданий “позаботилась” машина, это значит, что более масштабный разговор на эту тему не состоится. Он попросту не может произойти. И чем больше мы говорим о беседах как о том, что можно поручить машинам, тем больше мы, в конечном счете, обесцениваем беседы с людьми – потому что они не могут нам предложить того, что дают машины.
Я слышу, как взрослые и подростки говорят о непогрешимых “машинах, дающих советы”, способных работать с огромным количеством данных и проверенными алгоритмами. Когда мы считаем, что человеческая жизнь опирается на алгоритм, и когда совет машины становится золотым стандартом, мы перестаем чувствовать себя в безопасности, если имеем дело с людьми, не лишенными недостатков.
Услышав, как молодые люди говорят о преимуществах того, чтобы обратиться к роботам вместо родителей, я понимаю, что эти дети разочарованы в своих родителях. Если родитель ведет себя отстраненно, его детям будет непросто понять чувства других людей. Устремляясь к своим телефонам, отцы и матери, видимо, чувствуют себя свободными от тревог, возникающих из-за того, что они игнорируют детей. И если в этом новом мире вы добавляете ко всему происходящему робота-няню, это уже не кажется странной затеей. В сущности, это может восприниматься как решение. Рассеянным родителям нравятся роботы, потому что сами они отстранены. Нравятся роботы и одиноким детям, ведь роботы всегда будут рядом.
Наиважнейшая задача детства и подросткового возраста – научиться привязанности и доверию к другим людям. Этой цели можно достичь с помощью человеческого внимания, присутствия и беседы. Когда мы раздумываем, не позволить ли роботам заботиться о детях, мы забываем о том, о чем детям действительно нужно помнить: взрослые будут рядом с ними постоянно.
На пути от того, что лучше, чем ничего, к тому, что лучше, чем все
С точки зрения ребенка, узы привязанности и выражение дружбы – одно и то же. Общаясь с людьми, дети учатся со временем распознавать, как голосовые модуляции, выражения лица и движения тела становятся единым целым. Естественно. Плавно. А потом они узнают, как раскрываются слои человеческих эмоций, тоже естественно и плавно.
Детям нужно узнать, как выглядят сложные человеческие чувства и человеческая двойственность. Им также нужно, чтобы другие люди откликались на их собственные выражения этой сложности. Это наиболее ценные вещи, которые люди могут дать детям, когда беседуют с ними в период их становления. Никакой робот не в состоянии преподать такой урок.
Но мы забываем о таких вещах, когда размышляем о том, что дети проводят значительное время, беседуя с машинами, глядя в лица роботов, вверяя себя их заботам. Стоит ли играть с огнем, когда речь идет о таких деликатных вопросах?
Но мы все же играем. Это часть общей тенденции, которую я назвала “на пути от того, что лучше, чем ничего, к тому, что лучше, чем все”. Мы начинаем со смиренного признания, что общество машин все же лучше, чем ничего – например, говорим: “на эту работу не найти людей”. Потом мы превозносим возможности того, что нам может предложить симуляция, до тех пор, пока со временем не начинаем утверждать следующее: то, что мы получаем с помощью искусственных средств, может и в самом деле быть лучше, чем то, что когда-либо предложит нам живой человек. Работники по уходу за детьми могут плохо обращаться с детьми. Няни или даже матери с лучшими намерениями могут совершать ошибки. Дети говорят, что роботизированный пес вроде питомца AIBO никогда не заболеет, к тому же его можно выключить, если вы хотите обратить свое внимание на что-то другое. А главное, такой питомец никогда не умрет. Взрослые испытывают похожие чувства. Собака-робот, поясняет пожилая женщина, “не умрет внезапно, не покинет вас и не заставит грустить”.
В нашей новой культуре связи мы одиноки, но боимся близости. Фантазии о “беседе” с искусственными существами позволяют решить дилемму. Они предлагают иллюзию товарищества без требований, выдвигаемых дружбой. Они дают нам возможность представить себе версию дружбы, лишенную трений. Требования такой дружбы находятся у нас под контролем, причем, возможно, в буквальном смысле.
Я уже говорила, что технологии связи столь соблазнительны отчасти по той причине, что они откликаются на наши фантазии, наши желания всегда быть услышанными, всегда иметь возможность обратить внимание на все, чего мы захотим, и никогда не быть в одиночестве. И, конечно же, они откликаются на подразумеваемую здесь четвертую фантазию: желание никогда не скучать.
Рассказывая об этих фантазиях, люди также описывают, нередко сами того не понимая, отношения с роботом. Робот всегда внимателен к вам и всегда терпеливо относится к тому, что ваше внимание может куда-то вас увести. Он, безусловно, не будет возражать, если вы прервете беседу с ним, чтобы ответить на сообщение или звонок. И он никогда не оставит вас, хотя тут возникает вопрос: а действительно ли он был с вами? Что касается скуки, то, само собой, робот приложит все усилия, чтобы скука навсегда ушла для вас в прошлое.
Если, подобно Таре, мы решаем разделить наши огорчения с друзьями-роботами потому, что не хотим расстраивать друзей-людей, с которыми мы находимся рядом по-настоящему и с которыми и вправду что-то чувствуем, то значение человеческой дружбы изменится. Она может стать пространством, куда вы направляетесь, чтобы поболтать о пустяках, ведь вы будете опасаться, что разговор о серьезных вещах может утомить. А это значит, что разговоров о серьезных вещах не будет вовсе, ведь роботы неспособны их понять.
И все же очень многие люди делятся со мной своей надеждой: когда-нибудь (возможно, не в самом отдаленном будущем) более совершенная версия Siri станет для них подобием лучшего друга. Того, кто слушает, когда другие не слушают. Не сомневаюсь, что это желание отражает болезненную правду, которую я узнала за долгие годы моих исследований: чувство, что “никто меня не слушает”, играет большую роль в наших отношениях с технологиями. Именно поэтому многих привлекает страница в Facebook или лента Twitter: там как раз много людей, которые слушают автоматически. И чувство, что “никто меня не слушает”, заставляет нас проводить время с машинами, для которых, как нам кажется, мы что-то значим. Мы готовы принять то, как они изображают заботу и беседу, за чистую монету.
Когда инженеры-робототехники показывают видеозаписи, где люди радостно общаются с коммуникабельными роботами, тенденция состоит в том, чтобы с гордостью показывать их в моменты увлеченной игры. Такое впечатление, что нам демонстрируют небольшой триумф: смотрите, мы это сделали! У нас человек радостно общается с машиной! Но ведь в этом эксперименте именно люди оказываются “перепроектированными” экспериментальными объектами. Мы учимся принимать “как будто” беседы с машинами всерьез. “Перформативные” беседы начинают менять наше отношение к тому, что вообще считать беседой.
Мы практикуем что-то новое. Однако меняемся в этой ситуации мы сами. Нравится ли нам то, во что мы превращаемся? Хотим ли мы больше преуспеть в этом?
Превращаясь в зрителей
В ходе моего исследования произошел один роботизированный момент, который я не могу забыть, поскольку он заставил меня изменить свое мнение.
Я посещала обитателей домов престарелых и одиноких стариков и приносила им роботов, специально разработанных, чтобы служить компаньонами. Я хотела изучить их возможности. Как-то раз я увидела, как пожилая женщина, потерявшая ребенка, разговаривает с роботом, которому придали облик детеныша тюленя. Казалось, он смотрит женщине в глаза. Казалось, он следует за ходом ее мыслей. Он утешает ее. Многие участники моей исследовательской группы, сотрудники и обслуживающий персонал дома престарелых были приятно удивлены.
Эта пожилая женщина пыталась проработать боль утраты, общаясь с машиной, которая хорошо притворялась. И тут мы уязвимы: люди готовы принять за чистую монету даже притворную симпатию. Но роботы не в состоянии проявлять эмпатию. Они не сталкиваются со смертью и не знают жизни. И поэтому меня вовсе не обрадовало, что пожилая женщина находит утешение в роботе-компаньоне. Напротив, я почувствовала, что мы бросили эту женщину на произвол судьбы. То, что я была частью этого эксперимента, оказалось одним из самых тяжелых переживаний за все пятнадцать лет моих исследований в области коммуникабельной робототехники.
Для меня это стало поворотным моментом: я чувствовала энтузиазм своей команды, а также сотрудников дома престарелых. Там было столько людей, готовых помочь, но все мы стояли сложа руки, превратившись в толпу зрителей, и все ради того, чтобы посмотреть, как старый человек устанавливает дружеский контакт с машиной. Казалось, все мы кровно заинтересованы в аутсорсинге того, что лучше всего удается нам самим: речь идет о понимании друг друга, о заботе друг о друге.
В тот день в доме престарелых меня крайне встревожило, что все мы позволили себе быть вытесненными на обочину, быть превращенными в зрителей роботом, который ничего не понимал. Та ситуация бросила тень не на робота, а на нас и на то, как мы смотрим на стариков, когда они пытаются рассказать нам историю своей жизни. В последние десятилетия, когда возникла идея роботов-компаньонов для пожилых людей, упор был сделан на то, захочет ли старик разговаривать с роботом. Сумеет ли робот поддержать эту беседу? Достаточно ли он для этого убедителен?
Но если поразмыслить о жизненной ситуации, которую мы здесь рассматриваем, дело ведь не только в том, что пожилым людям нужно говорить. Хорошо бы, чтобы молодые люди их слушали. Таков договор между поколениями. Однажды мне сказали, что в некоторых древних культурах есть поговорка: если молодой человек плохо себя ведет, значит, “у него не было никого, кто рассказал бы ему старые истории”. Когда мы с энтузиазмом относимся к роботам-слушателям, которые на самом деле не умеют слушать, это свидетельствует об одном: нас слишком мало интересует то, о чем готовы рассказать наши старики. Мы создаем машины, гарантирующие, что человеческие истории будут доверены “глухим ушам”.
Есть столько замечательных вещей, посредством которых роботы могут улучшить жизнь пожилых людей, оказав им помощь в трудной ситуации. Роботы могут помочь старикам (или больным, привязанным к дому людям) почувствовать бо́льшую независимость, доставая для них банки супа или предметы одежды с верхних полок; роботы способны помочь человеку с трясущимися руками приготовить пищу. Роботы помогут неуверенно стоящему на ногах человеку лечь в постель. Они найдут очки, оказавшиеся не в том месте. Одним словом, они способны принести массу пользы. Кто-то скажет, что робот, болтающий с пожилым человеком, – тоже, безусловно, хорошая вещь. Однако в этом случае нам, по-моему, стоит внимательно подумать о сугубо человеческих свойствах беседы и эмоциональной заботы.
Коммуникабельные роботы действуют как объекты, вызывающие воспоминания: объекты, способствующие нашим размышлениям о себе и о своих наиболее значимых ценностях. Мы находимся на территории того четвертого стула, где в центре нашего внимания оказывается природа – наша собственная, а также вторая природа, которую мы создаем. В этом контексте разговор с машинами подталкивает к вопросу: какова ценность взаимодействия, которое не содержит общего жизненного опыта и не вносит никакого вклада в общее хранилище человеческого смысла, а, по сути дела, может его обесценить? На этот вопрос нет готового ответа, но его стоит задать и к нему стоит вернуться.
Непросто заводить разговор такого рода, когда мы относимся к идее роботов-компаньонов всерьез. Едва мы начинаем воспринимать ее как новую норму, это может привести к исчезновению беседы.
Прямо сейчас мы берем за основу следующую установку: если мы пользуемся роботом для выполнения какой-то работы, это уже лучше, чем ничего. Эта установка небезупречна. Если у вас проблемы с заботой и общением, и вы пытаетесь их решить с помощью робота, значит, вы не делаете попыток решить их с помощью друзей, семьи и вашего сообщества.
Если робот “как будто” действует, то и взаимодействующий с ним человек тоже начинает “как будто” действовать, а это ничем не поможет детям в период их взросления. Взрослым это тоже ничем не поможет, если они стремятся к подлинности.
А если мы говорим, что роботов можно использовать только для того, чтобы помочь пожилым людям в период, когда они пытаются разобраться со своей жизнью, то мы таким образом принижаем этих людей. Уж кому-кому, а старикам нужно давать возможность говорить об их настоящей жизни, наполненной потерями и любовью, – причем говорить именно с теми, кто понимает, что это такое.
Обретение самих себя
Мы способны на такие беседы, но иногда я боюсь, что они могут не состояться вовсе.
Заканчивая работу над этой книгой, я побывала на большой международной встрече, где одна из сессий называлась “Отключиться, чтобы подключиться”. Там психологи, ученые, технические специалисты и представители делового сообщества рассуждали о нашей эмоциональной жизни в цифровой век. Многие согласились с тем, что у молодых людей, выросших в атмосфере эмоционального “отключения”, наблюдается разрыв эмпатии, хотя они постоянно “подключены” к телефонам, играм и соцсетям. Участники встречи были полны энтузиазма по поводу того, какую помощь могут оказать технологии. Теперь для людей, не проявляющих особой эмпатии, будут созданы “эмпатические приложения”, призванные научить их сочувствию и вниманию к другим людям. Предполагаются компьютерные игры, где награждаться будет сотрудничество, а не насилие.
Идея состоит в том, что мы сами виноваты в своих проблемах с технологиями, а значит, именно технологии помогут нам эти проблемы решить. Это та самая помощь в трудной ситуации. Если мы когда-то мечтали о роботах, которые позаботятся о нашей физической уязвимости, то теперь приложения помогут разобраться с нашими эмоциональными оплошностями. Если мы стали холодны друг к другу, приложения нас “обогреют”. Если мы забыли, как слушать друг друга, приложения научат нас быть внимательнее. Но тот факт, что мы обращаемся к технологиям за помощью в ликвидации эмпатического разрыва, кажется ироничной реакцией на проблему, которой, возможно, у нас вообще могло не быть.
Я уже говорила, что создавать приложения может быть куда легче, чем вести беседы. Когда я думаю о родителях, которые буквально не вылезают из своей электронной почты вместо того, чтобы поговорить за обедом с детьми, я не уверена, что можно с помощью технологий устранить возникающую из этого эмоциональную дистанцию. Да, при разработке приложений необходимо учитывать нашу уязвимость – телефоны должны отпускать нас, а не стараться удержать, – но я стараюсь думать о том, чем сами люди могут заполнить эмпатический разрыв. Я думаю о родителях, экспериментирующих с охранными зонами и технологическими тайм-аутами, чтобы снова стать идеальными собеседниками для своих детей и друг для друга. Я думаю о студентах и руководителях организаций, которые на время убирают телефоны, чтобы сосредоточить все свое внимание на друзьях и коллегах. Я думаю о новом энтузиазме в отношении медитации как способе присутствовать здесь и сейчас и открывать мир, который мы держим в себе. Когда люди находят время для саморефлексии, они начинают больше ценить то, что могут предложить другим.
Сейчас подходящий момент. У нас был роман с технологиями, казавшийся волшебным. Но, как и вся великая магия, этот роман требовал нашего внимания и заставлял нас смотреть только на то, что предлагал нам волшебник. Теперь мы готовы вернуть себе свое внимание – для уединения, для дружбы, для общества.
Заботливые машины бросают вызов нашим основополагающим представлениям о том, что значит быть преданными друг другу. Эмпатические приложения заявляют, что помогут нам вновь обрести полную человечность. Эти предложения могут положить конец нашему забыванию: теперь мы должны спрашивать, станем ли мы человечнее, если отдадим свою самую человечную работу машинам. Именно сейчас нам надо пересмотреть свой подход к делегированию таких полномочий. И речь не о том, чтобы отвергнуть технологии, а о том, чтобы обрести самих себя.
Это наш момент “как раз вовремя”, момент, когда мы должны четко следовать избранной линии: признать нежелательные последствия технологий, перед которыми мы оказались уязвимыми, и отдать должное приспособляемости, которую мы всегда демонстрировали. У нас есть время, чтобы исправить ситуацию. Чтобы вспомнить, кто мы такие. Вспомнить, что мы сформированы историей, глубокой психологией, сложными отношениями. И, конечно, беседами – безыскусными, рискованными, лицом к лицу.
Назад: Четвертый стул?
Дальше: Благодарности

IvagruppOpela
шпонка