Книга: Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта
Назад: Глава 5 Начало эмоциональной экономики
Дальше: Часть II Рассвет эмоциональных машин

Глава 6
Кисмет и роботы

Фаллуджа, Ирак – 24 мая 2008 года, 1:06 Арабский часовой пояс (UTC+03:00)

 

Сидя в бронированном транспортере для личного состава высоко над Евфратом, специалист по обезвреживанию боеприпасов Дарнелл Харрис пристально наблюдал, как Спрингер выходит на боевую операцию. Исполнительный боец медленно двигался вдоль стального моста и вытягивался перед каждой сквозной фермой. В голубой вышине летнего неба над Ираком ярко светило солнце. Харрис потер бровь и бросил быстрый взгляд на своих товарищей. Ни один солдат роты обезвреживания боеприпасов не проронил ни слова. Все сосредоточились на соратнике, который осторожно продвигался к самодельному взрывному устройству.
В один миг ситуация целиком и полностью вышла из-под контроля.
– Я потерял его! – крикнул в рацию Джексон.
– Он движется к краю! – крикнул кто-то. – Осторожно!
Харрис посмотрел вверх и увидел, как Спрингер быстро направляется к левой стороне моста.
– Нейтрализуйте его! – скомандовал лейтенант Пирсон.
– Я пытаюсь, – крикнул Джексон. – Он не отвечает!
– Нейтрализуйте его! Он собирается…
В тот же момент наступила полная тишина. Посмотрев на мост, Харрис понял почему. Спрингер внезапно застыл на месте, и как раз вовремя. Треть его небольшого тела опасно свисала с края конструкции. Он едва не сорвался с моста в реку и держался, уцепившись захватом за тяжелый водяной баллон от взрывного устройства.
Солдаты, постоянно взаимодействовавшие с роботами, говорили о награждении медалями и похоронном салюте из двадцати одного залпа в честь погибших механических товарищей.
Джерри Спрингер – небольшой самоходный аппарат на гусеничном ходу с дистанционным управлением – не шевелился. Он был оснащен четырьмя цветными камерами с нерегулируемым фокусом и удлиняющимися манипуляторами; запястные шарниры могли вращаться на 360 градусов. Стандартная модель «Коготь», разработана для 717-й роты обезвреживания боеприпасов в Ираке. Спрингер – робот.
Солдаты пришли на помощь боевому товарищу. Они знали, что нельзя отправлять на мост человека. Самодельное взрывное устройство в любой момент могло сдетонировать, поэтому к Джерри отправили второго робота.
Маленький автоматический робот по прозвищу Денни ДеВито проехал треть пути по мосту, крепко схватил «Когтя» зажимами и сильно дернул. Но как ни пытался, он не мог сдвинуть с места более крупного робота. Слишком велика была разница в весе.
Выбора не было, пришлось пересмотреть стратегию. Рота вернула малыша и быстро прикрепила к нему кусок парашютного шнура. Дэнни снова отправился на мост и прикрепил трос к Спрингеру. Лишь тогда солдатам удалось бережно и осторожно оттащить Спрингера от края.
* * *
Если вы считаете эту ситуацию несколько странной, вы не одиноки. С тех пор как военные начали использовать в своих операциях роботов, подобные случаи происходят все чаще. Солдаты придумывают своим механическим однополчанам пол, имя и личность. Не менее важно, что они переживают за роботов, как за обычных солдат. Что во многих отношениях является правдой.
В 2013 году соискатель докторской степени Вашингтонского университета Джули Карпентер провела для диссертационного исследования опрос об отношении к роботам1. Большинство из 23 специалистов по обезвреживанию боеприпасов сообщили, что для них было в порядке вещей наделять машины человеческими чертами. Они сочувствовали роботам в случае поломки и часто испытывали гнев или сожаление в случае потери робота. Иногда они устраивали похороны роботов, уничтоженных при выполнении служебных обязанностей.
Более того. Во множестве случаев, не упомянутых Карпентер, солдаты, постоянно взаимодействовавшие с роботами, говорили о награждении медалями и похоронном салюте из двадцати одного залпа в честь погибших механических товарищей2.
Почему солдаты так поступают? Почему так поступил бы любой из нас? Карпентер и другие отмечают, что потребность или тенденция лучше узнавать друг друга и сближаться естественна для тех, кто работает вместе, даже если это не люди. И в таком поведении нет ничего необычного. Мы часто разговариваем со своими автомобилями, лодками и инструментами, так что неудивительно, что солдаты в боевых условиях делают то же самое. Как написал один солдат на военном форуме: «машины, гитары, оружие… в порядке вещей давать имена продуктам технологий… так что нормально думать, что роботы пожертвовали собой, спасая жизни»3.
Проясняя ситуацию, отметим, что солдаты не испытывали к роботам той привязанности, которая мешала бы им нести службу или становилась причиной конфликта в межчеловеческих отношениях. Когда Карпентер спросила у солдата по имени Джед, что он чувствовал, когда робот взорвался, он ответил:
Много чего. Ну, сначала немного злишься, что кто-то взорвал твоего робота. Тебя это слегка бесит, потому что ты попал, и теперь тебе светит самому вылезать из грузовика. А потом ты думаешь, вроде как этот робот отдал свою жизнь, чтобы спасти тебя, так что это немного грустно, но опять же это всего лишь машина, инструмент, который был там, а потом взорвался, а ведь на его месте мог оказаться ты сам, так что ты очень, вот просто ужасно счастлив тому, что это был всего лишь робот, а не кто-то из наших. В общем, целое море эмоций, и гнев вначале, и раздражение, эй, нашего робота взорвали. То, что ты только что потерял инструмент, на который полагался много раз, и что этот инструмент только что спас тебе жизнь… бедолага.
(Джед, 41 год, первый главный старшина ВМС)
Солдаты определенно очеловечивают своих роботов, пусть даже не в крайней степени. Очеловечивать – значит приписывать человеческие черты и качества объектам, которые не являются людьми (животным или неодушевленным предметам) и даже явлениям, таким как гроза или бушующее море. Психологи называют ряд причин, по которым люди это делают. Во-первых, предметы могут быть немного похожими на людей, например плюшевый мишка или кукла. Даже если в их облике нет ничего человеческого, то вместо физических черт предмет может обладать качеством, напоминающим о человеке, например о воспринимаемой жестокости или терпении. Во-вторых, очеловечивание помогает понять незнакомое. Вписывая что-либо в привычный контекст, даже не вполне точный, по всей видимости, помогает понять его функцию. Простые примеры таких ситуаций можно найти в языке. Ножки стула или глава организации весьма условно похожи на биологические прототипы, но сами слова очень точно определяют функцию. Наконец, у нас существует потребность в социальных связях. Наша врожденная способность к эмоциональному общению помогает нам лучше взаимодействовать с окружающими и лучше понимать мир. По всей видимости, именно благодаря такой способности мы получили в прошлом эволюционное преимущество.
Карпентер отмечает: «Для нас абсолютно естественно применять нормы взаимодействия с чем-то одним как образец для взаимодействия с чем-то другим, немного похожим. Это эффективный способ вторичной обработки знаний. Интересно, что иногда солдаты применяют модель взаимодействия „человек-человек" и „человек-животное" к роботам. Это не только попытка социализации ради социализации, но и разумный способ попытаться понять взаимодействие человека и робота, чтобы сделать его максимально эффективным».
К сожалению, в случае с обычными приборами подобное взаимодействие всегда было односторонним. Не важно, насколько отчаянно мы хотим показать свое огорчение забарахлившему тостеру. Он не сможет ни понять нашу точку зрения, ни изменить свое поведение в зависимости от наших чувств. По крайней мере пока.

 

В июне 2014 года большая очередь собралась у дверей главного магазина Softbank в Сибуя, районе Токио, где находится множество торговых центров. Все надеялись увидеть Пеппер, маленького робота, заявленного как первая доступная в продаже машина, способная к социальному взаимодействию. Симпатичный человекоподобный робот ростом меньше полутора метров в чехле из сияющего белого пластика разговаривает, жестикулирует и общается с покупателями тет-а-тет, выдавая заученные шутки и ответы на стандартные вопросы. С помощью сложной технологии распознавания голоса, а также аудио- и визуальных технологий, помогающих определить настроение человека, Пеппер ведет умную и вполне связную беседу. Хотя ей далеко до настоящей человеческой беседы, тем не менее это истинное торжество технологии.
Разработчик Пеппер – французская робототехническая компания Aldebaran, входящая в группу компаний Softbank, – и позиционирует ее как первого настоящего робота-компаньона. Пеппер распознает лица, понимает речь и прикосновения, говорит на семнадцати языках, у нее есть чувство юмора. Самое важное, что Пеппер понимает эмоции и реагирует на них, что для любой машины непростая задача. Когда в середине 2015 года Aldebaran и Softbank запустили робота в продажу, только в первую минуту удалось продать тысячу экземпляров4. Это дает представление о спросе на подобные технологии, по крайней мере среди любителей техники и первых покупателей модели. Пеппер стоит 2000 долларов и предназначается в компаньоны пожилым японцам, количество которых постоянно увеличивается. Пеппер пока что не запрограммирована выполнять работу по дому, но, судя по ее подвижности и обучаемости, последующие модели, по всей видимости, обретут и это умение.
Пеппер – далеко не первое устройство, способное фиксировать и понимать чувства, она всего лишь первая из доступных широкой общественности. На протяжении двух последних десятилетий производство роботов-компаньонов приобретало все большую важность для эмоционального программирования. По мере того как машины будут становиться все более сложными, эта тенденция сохранится.
Если эмоциональное программирование основано на ряде различных технологий и систем, то в основе роботов-компаньонов их еще больше. Им нужна не только способность определять эмоции пользователя на основе ряда сигналов-подсказок, они должны реагировать и взаимодействовать с окружающими как полноправные физические объекты. По мере развития этих функций исследователи узнают множество сведений не только о том, как проектировать подобные машины, но и о психологии людей, и о том, что требуется для успешного взаимодействия.
В идеале чтобы роботы вели себя с людьми естественно, им нужно общаться с нами так, как мы общаемся между собой. Для этого роботы должны узнавать людей, определять, что люди делают и как они это делают. Они должны точно оценивать как внешнее, так и внутреннее состояние человека. В психологии это называется «теория сознания», способность, которая у большинства детей развивается в возрасте от двух до пяти лет5. Сознание позволяет распознавать и приписывать ментальные состояния другим людям, отличающимся от нас. В числе таких состояний знания, предположения, эмоции, желания, намерения и многие другие. Развитие и применение теории сознания к роботам и искусственному интеллекту – серьезная задача для разработчиков. Нет гарантий, что задача имеет решение, но если придерживаться редукционистской точки зрения (о том, что сознание сводится к физическим свойствам мозга), то цель кажется достижимой6. В таком случае однажды роботы обретут самосознание7.
Есть еще один способ сделать поведение роботов более естественным с помощью теории сознания, и он исходит с человеческой стороны этого уравнения. С точки зрения человека роботу не нужно достигать внутреннего состояния, аналогичного человеческому. Достаточно имитировать это состояние, чтобы убедить нас. Это различие крайне важно, поскольку настоящее сознание у машин может появиться, а может и не появиться, и до этого времени нужен некий приемлемый вариант.
На протяжении двух последних десятилетий производство роботов-компаньонов приобретало все большую важность для эмоционального программирования.
Зачем нам это нужно? С помощью такого интерфейса мы сможем быстрее и проще добиться наиболее реалистичного уровня социального взаимодействия. Мы не знаем наверняка, что такое сознание, как оно работает и пробуждается. Может пройти некоторое время прежде, чем оно появится у искусственного интеллекта, если вообще появится (подробнее в главе 17). Чтобы лучше понять, как работает теория сознания, нужно заставить наблюдателя поверить в то, что он общается с «другим», наделенным таким же сознанием. Даже если останется общее понимание того, что роботы не обладают настоящим сознанием, люди осознанно закроют на это глаза, чтобы облегчить взаимодействие и больше вовлекаться в общение.
Вре́менная мера – имитация сознания – может сыграть важную роль, так как позволит нашему общению с роботами стать более завершенным и создать эффект присутствия. Хотя робот-компаньон сам по себе реализованный интерфейс, через который мы получаем доступ к его функциям, мы, возможно, постараемся сделать его настолько естественным и человекоподобным, насколько это возможно.
Одним из ученых, сделавших первый шаг к созданию роботов, которые однажды смогут оперировать теорией сознания, стала профессор Массачусетского технологического института Синтия Бризель. По ее словам, идеей персональных роботов она увлеклась еще с детства. В книге «Создавая социальных роботов» (Designing Sociable Robots) Бризель пишет, что когда она увидела вышедший в 1977 году фильм «Звездные войны» (Star Wars), ее очаровали дроиды СЗРО и R2D28. Много лет спустя, имея багаж профессиональных знаний и научную степень в области инженерного проектирования, Бризель работала над исследованием искусственного интеллекта в Массачусетском технологическом институте. С подачи Родни Брукса, который был директором института, она познакомилась с робототехникой. Это знакомство изменило всю ее жизнь. Бризель поняла, что она будет работать в этой области.
В 1997 году, когда исследования Бризель в Массачусетском технологическом институте были в самом разгаре, Соджорнер совершил посадку на Марс. Он стал первым роботом, приземлившимся на поверхность другой планеты. Подающий надежды специалист в области робототехники задалась вопросом, почему мы можем отправлять роботов в космос, но при этом не держим их дома. Она пришла к выводу, что дело в отсутствии естественного или социального взаимодействия с роботами.
Бризель занялась разработкой первого социального робота и докторской диссертацией о социальном обмене между людьми и роботами. В течение следующих трех лет Бризель и ее команда разработали робота, которого назвали «Кисмет», что по-турецки означает «судьба», или «рок».Несмотря на то что Кисмет был металлической машиной, у него были большие выразительные глаза, гибкие красные губы и подвижные уши, при помощи которых он передавал невербальную информацию, очень похоже на собаку или другого человека. Человек, сидевший рядом с Кисметом, мог показать ему какой-нибудь предмет и сказать об этом предмете несколько слов. Голова и глаза робота следили за лицом говорящего, затем его взгляд перемещался на указанный предмет, затем снова возвращался к собеседнику, пока продолжался разговор. Во время беседы робот весьма натуралистично моргал и издавал невербальные звуки. И хотя он, безусловно, был машиной, люди, тем не менее, относились к нему почти как к живому существу. Появление Кисмета ознаменовало важную веху в разработке интерфейса, способного обеспечить общение между машинами и людьми на условиях последних, хотя люди по большей части были вовлечены в это общение на социальном уровне. Бризель сказала: «Этот маленький робот каким-то образом смог получить доступ к глубоко социальным аспектам нашей личности, пообещав тем самым появление совершенно нового для нас способа общения с роботами»9.
В последующие годы Бризель основала и возглавила Группу разработки персональных роботов при Междисциплинарной исследовательской лаборатории Массачусетского технологического института, которая в конечном итоге взяла на себя контроль за разработкой целой линии социальных роботов10. Среди них был очень экспрессивный пушистый Леонардо, аниматронный продукт, созданный совместно со Stan Winston Studio, командой, занимавшейся спецэффектами для таких голливудских блокбастеров, как «Терминатор» (Terminator) и «Парк юрского периода» (Jurassic Park).(Интересно, что Леонардо выглядел очень похоже на Эвока из фильма «Возвращение джедая» (Return of the Jedi), третьего эпизода «Звездных войн», которому добавили уши от пушистого гремлина.) Некси – белый пластиковый подвижный социальный робот с выразительными лицом и глазами, умевший, в отличие от неговорящих Кисмета и Леонардо, разговаривать на человеческом языке. Еще одной разработкой группы стал Аутом. Его создал Кори Кидд, работая над докторской диссертацией о помощи худеющим пользователям. Благодаря появлению этих и многих других роботов, Бризель стали называть крестной матерью персональной робототехники.
Затем в июле 2014 года Бризель запустила на сайте Indiegogo краудфандинговую кампанию в поддержку разработки продукта, который станет первым домашним социальным роботом11. Робот получил имя Джибо, стал самым успешным в истории робототехники краудфандинговым проектом. Проект быстро собрал 3,7 миллиона долларов, в том числе 2,3 миллиона долларов от предварительных продаж первых пяти тысяч экземпляров. Спустя год с небольшим проект получил дополнительное финансирование в 35 миллионов долларов12. Помощник по хозяйству – мечта минималиста: небольшой, с белым корпусом и простыми формами, выполняет все виды домашней работы от сортировки семейных фотографий и передачи сообщений до чтения сказок детям перед сном. Весной 2016 года компания начала продажи первых экземпляров робота.
Джибо был не единственным заявленным как первый домашний социальный робот. Очевидно, что претендовать на это звание могла и Пеппер, изобретение компании Aldebaran, и катающийся интерактивный домашний робот Бадди, разработка Blue Frog Robotics. Фактически в пределах ближайшей пары лет готовится релиз множества моделей домашних социальных роботов. Многие разработчики считают, что пришло время вывести эти устройства на рынок, и для них крайне важно первыми занять рыночную нишу. Но это лишь начало. Велика вероятность, что некоторые системы поступят в продажу, не будучи действительно готовыми к взаимодействию. Покупатели первых моделей могут счесть качество приемлемым, если недостатки не будут слишком серьезными. Но пользователи – важное звено товарооборота, поскольку они могут и лишить продукт будущего, если он не будет соответствовать заявленным характеристикам. В случае с роботами лишь время покажет, кто из них окажется победителем в долгосрочной перспективе, если вообще окажется.
Сейчас многие ученые по всему миру занимаются разработкой новых социальных роботов и платформ. Они придерживаются разных концепций и применяют разные подходы, чтобы обеспечить наше с ними взаимодействие наиболее продуманным образом. Например, Дэвид Хэнсон и его команда в компании Hanson Robotics занимаются разработкой роботов с невероятно выразительными натуралистичными лицами. Эту задачу они решают за счет маломощных моторов и сервоприводов, имитирующих работу более чем шестидесяти основных мышц человеческого лица и шеи. Затем на них накладывается новейший изобретенный Хэнсоном материал, напоминающий кожу и названный им «фраббер» (гибрид английских слов «flesh» – «плоть» и «rubber» – «резина»). По словам Хэнсона, этот запатентованный и получивший торговую марку материал представляет собой «упругий пористый полимер, использующий нанотехнологию липидных бислоев, позволяющую формировать структуры, похожие на клеточные стенки человеческого организма»13. За счет управляемой имитации движений лицевых мышц на основе искусственного интеллекта каждый робот может обрести уникальные особенности мимики. Используя эти технологии, Hanson Robotics разработала впечатляющую линейку роботов, предназначенных для крупносерийного производства и использования в разнообразных целях, включая образование, исследования, музейные экскурсии и домашнюю работу. Одна из целей Хэнсона – применение говорящих роботов, обладающих собственным характером, «чтобы перейти к созданию роботов, обладающих эмпатией. Так что если их интеллект достигнет уровня человеческого или, что вполне возможно, превзойдет человеческий, это может дать нам определенные надежды на будущее»14.
В области коммерции предпринимаются многочисленные попытки использовать социальных роботов для налаживания контактов в разных отраслях бизнеса. Многие компании работают над созданием обслуживающих роботов, устройств, наделенных социальными функциями. Существуют роботы, которые служат в качестве рекламы или заменяют информационную стойку в крупных торговых центрах, как, например, Дзюнко Тихира, человекоподобный робот компании Toshiba, созданный для общения с посетителями и предоставления им подробной информации15. Другое новшество из Японии – знаменитый отель «Хенна», в котором весь обслуживающий персонал – от администраторов до носильщиков – состоит почти полностью из роботов 16. В одном из торговых центров Шанхая работает Яньянь, робот-женщина, умеющая говорить, пожимать руки, петь и обнимать людей. В Наньянском технологическом университете Сингапура за стойкой в холле работает один из созданных в университете андроидов по имени Надин17.
Распознавание лиц и понимание выражений – это то, что мы делаем без труда и настолько быстро, что даже не осознаем процесс. Однако для машины это действие представляет невероятную сложность.
Наблюдается интересная тенденция: большинство рекламных роботов имеют женскую внешность. Возможно, это продиктовано тем, что общество не воспринимает женщину как источник угрозы; кроме того, роботы выполняют работу, которой традиционно занимаются женщины. Сохранится ли тенденция в дальнейшем? Можно ли ожидать, что социальные роботы на управляющих должностях и в роли помощников создадут дисбаланс рабочих мест, вытеснив женщин, точно так же, как промышленные роботы вытеснили мужчин с их традиционных рабочих мест в предыдущие десятилетия? В докладе Всемирного экономического форума 2016 года говорится о кардинальных изменениях на рынке труда, включая более широкое применение роботов и искусственного интеллекта. По прогнозам к 2020 году применение роботов приведет к сокращению пяти миллионов рабочих мест. Две трети потерь составят рабочие места в офисах и в административном секторе. В целом потеря рабочих мест наиболее ощутимо скажется на женщинах: на одно рабочее место будет приходиться пять сокращений, в то время как у мужчин на одно рабочее место будет приходиться три сокращения. Весьма неутешительная тенденция, и ее развитие необходимо отслеживать.
Как и в других современных технологиях, в социальной робототехнике существует ряд общедоступных решений. Это Опо, открытая платформа социальной робототехники в рамках бельгийского проекта Social Robotics Project; Poppy, открытая робототехническая платформа, основанная на технологии 30-печати; Open Robot Hardware также разработали открытую концепцию робототехнических систем. Платформы всех систем построены на основе проектов или программ социальной робототехники. (Платформа – это группа технологий, поддерживающих разработку других приложений, сервисов или, как в нашем случае, роботов.) Можно сказать, что такие роботы уступают в сложности выпускаемым коммерческими фирмами или исследовательскими лабораториями при научных учреждениях. Тем не менее это показывает, что с развитием инноваций важность платформ с открытым исходным кодом будет возрастать.

 

Говоря об эмоциональном программировании, важно помнить, что эта область включает в себя множество различных дисциплин и технологий. Распознавание лиц и понимание выражений – это то, что мы делаем без труда и настолько быстро, что даже не осознаем процесс. Однако для машины это действие представляет невероятную сложность. Машины могут повторить его, лишь используя камеры, улавливая черты лиц, затем анализируя их с помощью сложных специальных программ распознавания лиц, в которые было загружено огромное множество изображений-образцов для тренировки. По тому же принципу работают и программы распознавания голоса, используя микрофоны, улавливающие тон и модуляции человеческого голоса. Язык тела и жесты также передают огромное количество информации, и в области их распознавания также ведутся исследования. Кроме того, для исследования представляют интерес и физиологические изменения, например циркуляция крови или кожно-гальваническая реакция. Все эти технологии используют алгоритмы распознавания образов – программы могут различать и извлекать образы и отношения из первичных данных быстрее, чем человек.
В чем-то эмоциональное программирование и социальная робототехника схожи, но отличительная черта последней – это способ нашего с ней взаимодействия. Программное обеспечение, применяемое в эмоциональном программировании, может быть очень сложным, но это всего лишь набор программ. Пользователю сложнее их идентифицировать, чем программы, имеющие физическое воплощение. С другой стороны, исследования показали, что, общаясь с роботами, люди способны испытывать эмпатию точно так же, как если бы испытывали ее по отношению к другому человеку18. Исследование Карпентер, проведенное среди военных, подтвердило: специалисты по обезвреживанию боеприпасов отчетливо продемонстрировали некоторую степень идентификации себя с роботами. Эти роботы не были человекоподобными, тем не менее они обладали формой, с которой пользователи могли взаимодействовать. Это важно, поскольку исследование показывает, что чем больше объект напоминает человека, тем вернее мы отождествляем себя с ним и тем сильнее сопереживаем ему. (По крайней мере до той степени, о которой пойдет речь в следующей главе.) Программное приложение само по себе не располагает к эмпатии, поскольку оно не имеет выраженной формы, но даже небольшая игрушка-робот способна вызвать сопереживание.
В исследовании, проведенном Астрид Розенталь фон дер Путтен из университета Дуйсбург-Эссен в Германии, добровольцы проходили функциональную магнитно-резонансную томографию (ФМРТ) и одновременно просматривали видеоролики19. В некоторых роликах они увидели, как исследователи ласково обращаются с коробкой зеленого цвета, зеленым игрушечным динозавром или с женщиной в зеленой футболке. Исследователи могли обнять объект, ласково прикоснуться к нему, погладить. Игрушечный динозавр, робот по имени Плео, был оснащен микрофонами, динамиками, сенсорами и моторами. В зависимости от того, как с ним обращались, он мог двигаться, изгибаться и издавать звуки. Когда динозавра гладили и обнимали, он отвечал воркованием и восторженным повизгиванием. Потом добровольцам показали видеоролики, в которых исследователи демонстрировали жестокое обращение с объектами. Их по очереди шлепали, били, трясли или делали с ними вещи похуже. Например, когда душили Плео, он кричал, кашлял и хрипел, как будто он задыхается, почти как женщина в зеленой футболке. Реакция робота на другие проявления жестокости также была выразительной. Результаты анализа сканирования мозга добровольцев удивили исследовательскую группу. Для них не стало сюрпризом, что наблюдение за коробкой почти не вызвало выраженной реакции. Исследователи ожидали, что результаты сканирования мозга добровольцев при просмотре роликов с динозавром будут представлять собой нечто среднее между результатами просмотра роликов с коробкой и роликов с женщиной. Однако результаты сканирования при просмотре роликов с Плео оказались очень похожи на результаты, полученные при просмотре роликов с женщиной. И хотя реакция на жестокое обращение с ней была сильнее, чем на ролики с Плео, результаты были красноречивыми.
В ходе другого исследования Кейт Дарлинг из Массачусетского технологического института дала нескольким людям поиграть с динозаврами Плео20. Через час игры она дала участникам ножи и другое оружие и велела им мучить игрушки и резать их на куски. Все до единого отказались. Дарлинг подняла ставку и сказала, что они смогут спасти своего динозавра, если убьют другого динозавра. И снова все участники отказались. Она выдвинула последний ультиматум: если одна из игрушек не будет уничтожена, всех динозавров Плео убьют. Лишь тогда вперед вышел мужчина с топором и ударил одного из динозавров. Остальные участники молча смотрели на него в полном шоке от его жестокого поступка.
В один прекрасный день мы не сможем отличить взаимодействие с роботом от отношений с человеком.
Почему участники экспериментов реагировали именно так? Что вызвало эмпатию по отношению к неодушевленным предметам? Ответ может заключаться в поведении роботов. Профессор Массачусетского технологического института Шерри Теркл называет некоторые действия, например установление зрительного контакта, отслеживание движений и жестикуляцию, дарвиновскими кнопками21. Эти дарвиновские кнопки запускают у нас глубинные инстинктивные реакции, убеждая нас верить в то, что перед нами некая форма разума, возможно даже обладающая сознанием. Во многом это дешевый трюк, играющий на наших эволюционно обусловленных уязвимостях.
Эти и многие другие исследования показывают, что активизируются одни и те же эмоциональные системы, если мы наблюдаем действие, производимое над человеком или над роботом. Из-за этой реакции некоторые специалисты в области робототехники говорят о создании руководства по этичному обращению с роботами и даже о «защите прав роботов». Сейчас многие люди считают это смешным, но Дарлинг отмечает, что в законодательстве уже существуют прецеденты защиты животных от жестокого обращения. По ее словам, выбор, из-за которого мы решаем защитить животных, отнюдь не универсален и не постоянен. Во многих культурах люди спокойно убивают насекомых или грызунов, но им претит мысль о том, чтобы причинить боль дельфину или собственной собаке. Каждый день многие из нас едят мясо, полученное от животных, выращенных в ужасных условиях, но те же люди в большинстве своем откажутся сознательно съесть хомяка или обезьяну. Дарлинг предполагает, что мы принимаем подобные законы, отождествляя себя со страдающим существом другого вида. В некотором роде это напоминает зеркальное отражение нас самих, когда мы нажимаем дарвиновские кнопки. В таком случае мы принимаем подобные законы не столько для защиты животных, сколько для собственной защиты. Может, наступит день, когда мы решим сделать что-то подобное и для роботов. Пока же произойдет множество трансформаций и сменится не одно поколение социальных роботов, которые будут общаться с нами все более убедительно.

 

Относительная простота, с которой мы отождествляем себя с роботами, возможно, принесет нам несколько положительных моментов, но вместе с ними возникнут и проблемы. Поскольку мы стоим на пороге эры, когда мы будем все больше времени проводить с роботами, близко взаимодействовать с ними, сопереживать им и заботиться о них, не исключено, что мы сможем воспринимать их как членов своей семьи.
Возможно, это улучшит наше взаимодействие, сделав обмен более ценным. Это будет применимо и к роботам, задействованным в сфере услуг, и к изолированным от общества.
С другой стороны, готовность считать роботов кем-то отдаленно напоминающим нас самих вызовет проблемы. Мы можем обнаружить, что принимаем далеко не оптимальные решения, когда речь идет об отношении к этим устройствам. Появятся люди, которые попытаются использовать нашу уязвимость в своих корыстных целях. Но более важно, что некоторые люди будут относиться к роботам на равных, как к людям. Кажется вероятным, что какая-то часть людей предпочтет общение с роботами. Проблема заключается, конечно же, в том, что на современном этапе развития роботы не обладают сознанием. (По крайней мере пока.) Выражаясь более разговорным языком, у них в голове пусто. У них нет ничего даже отдаленно напоминающего ответную эмоциональную реакцию на наши действия. Робот еще не может стать для человека настоящим другом или доверенным лицом, хотя некоторые люди неизбежно окажутся под властью этой иллюзии. Многие люди предпочтут этот путь вместо более осуществимого, но порой неприятного взаимодействия с другими людьми. С развитием робототехники искушение будет становиться все сильнее. И в один прекрасный день мы не сможем отличить взаимодействие с роботом от отношений с человеком. Чтобы этот день настал, инженерам-робототехникам придется преодолеть множество препятствий, в частности решить одну крайне важную проблему, которую мы и обсудим в следующей главе.
Назад: Глава 5 Начало эмоциональной экономики
Дальше: Часть II Рассвет эмоциональных машин