Книга: Психология зла: Почему человек выбирает темную сторону
Назад: 3. Шоу уродов. Деконструируем жуть. О клоунах, злом смехе и психической болезни
Дальше: 5. Извращения. Наука о сексуальных девиациях. О садомазохизме, каминг-ауте и зоофилии
4

Двуликие технологии. Как они нас меняют

О воздушных пиратах, плохих ботах и кибертроллях

Я люблю и ненавижу технологии.

Я всегда оказываюсь в числе тех, кто стоит в очереди за новым продуктом, обещающим улучшить нашу жизнь, но также верю, что технологии вполне способны уничтожить человечество. Почти все я покупаю через интернет, а также постоянно потребляю бесплатный контент, но мне неуютно, когда вижу таргетированную рекламу (в смысле, они что, меня подслушивают?). Я открываю приложениям доступ к моим фотографиям, местоположению и контактам, но в принципе абсолютно против слежения за людьми. Очевидно, мои отношения с технологиями крайне запутаны.

Благодаря технологиям многие вещи работают проще, безопаснее, быстрее, лучше. Технологии позволяют нам делать то, что ранее было невозможным, — как в реальной жизни, так и онлайн. Они восхищают. Освобождают. Это шаг в будущее.

Но есть одна проблема.

Это еще и ловушка.

Они заманивают своей полезностью, а потом поворачиваются к нам темной стороной. Как показывает история, производство военной техники, в том числе танков, бомбардировщиков и ядерного оружия, позволяет нам причинять невероятный вред. В антиутопиях, описывающих будущее, наш род зачастую истребляют именно технологии. В этих повествованиях о конце света либо люди используют их далеко не во благо, либо технологии восстают против людей. В действительности нам не нужно далеко ходить: существования киберпреступности или военных беспилотников уже хватает, чтобы понять подлинную опасность, которую таят столь любимые нами технологии.

Эта глава не о любви к ним, а о злоупотреблениях. Она посвящена взаимодействию человека и техники и отвечает на вопрос, почему с помощью технологий мы можем наносить такой вред, на какой раньше не были способны.

Воздушные пираты

Начнем с потенциального вреда, который можно причинить с помощью техники. Когда изобретают новую технологию, всегда появляется и новый способ ее применять. Возьмем, к примеру, стальных птиц — самолеты.

Когда был создан первый пассажирский самолет, перед людьми открылся революционно новый способ передвижения. А вместе с ним появились и новые методы совершения преступлений. Самолеты можно сбивать издалека или взрывать изнутри, что почти наверняка убьет всех пассажиров. А можно использовать как оружие, направляя на здания или памятники.

В книге 2014 года «Небеса принадлежат нам» (The Skies Belong to Us) журналист Бренден Кёрнер указывает, что риск возрастал по мере роста популярности полетов. Особенно беспокойный период пришелся на 1968–1973 годы: «За пять лет… отчаявшиеся и разочарованные захватывали пассажирские самолеты чуть ли не раз в неделю, вооружаясь пистолетами, бомбами и банками с кислотой. Какие-то угонщики пытались бежать из чужих стран, другие хотели обменять заложников на мешки с наличностью». В то время самолеты захватывали не для того, чтобы их уничтожить; скорее, это был удобный способ бегства. Летать тогда представлялось особенно опасным. Нужно было что-то предпринять, чтобы показать воздушным пиратам, что им не рады.

И начиная с 1969 года и позже, в 1970-х, Федеральное управление гражданской авиации разработало первый психологический профиль для выявления потенциальных пиратов и внедрило металлодетекторы для сканирования багажа. С тех пор мы научились бояться новой угрозы — и террористов, способных повторить трагедию 11 сентября, и тех, что проносят взрывчатку в обуви, и пиратов с жидкой взрывчаткой. Все они изображаются злыми чужаками, посягающими на привычный уклад нашей жизни. После громких атак (и попыток терактов) мы передаем все больше личной информации государству. Мы уже дошли до того, что позволяем службе безопасности аэропорта не только заглядывать в наш багаж, но и осматривать наши тела.

Для большинства из нас ситуация поездки — единственная, когда мы добровольно лишаемся почти всех своих свобод. Мы разрешаем службе безопасности устанавливать нашу личность, проверять наши вещи, выбрасывать часть из них (да упокоятся с миром все конфискованные жидкости и острые металлические предметы), раздевать нас, прикасаться к нам, рассматривать нас голышом при сканировании и допрашивать, если нас сочтут «подозрительными» (вернитесь к главе про жутковатость, чтобы вспомнить, почему это не слишком-то помогает). И если мы не соглашаемся на эти процедуры, у нас отбирают возможность свободно перемещаться из одной страны в другую. Какого черта?

Дорога в ад уставлена металлодетекторами. Видите ли, меня напрягала бы служба безопасности аэропортов, даже если бы от ее работы был бы какой-то толк. Но, насколько мы знаем, это все бесполезно. В 2015 году Министерство внутренней безопасности США провело исследование. Министерство отправило своих агентов в разные аэропорты страны, чтобы проверить, смогут ли они пронести с собой запрещенные предметы. Оказалось, что сотрудники службы безопасности аэропортов провалились в 67 из 70 проверок — в 95% случаев. Министр внутренней безопасности был так расстроен результатами, что тут же созвал собрание, чтобы внести коррективы в работу аэропортов. Службу безопасности сочли лишней тратой денег: «Проверка определила, что, несмотря на затраты в 540 миллионов долларов на оборудование для сканирования багажа и еще 11 миллионов долларов на обучение персонала, с момента предыдущей проверки в 2009 году Администрация транспортной безопасности не смогла добиться заметных улучшений».

Для описания всего этого существует выражение «театр безопасности». Именно так создается иллюзия защищенности. Невероятно редкие события вроде захвата самолетов предсказать очень трудно. Но нам, людям, не нравится идея, что все мы беззащитны перед этими ужасными нападениями. И мы устраиваем шоу, чтобы подбодрить друг друга. Мы притворяемся, что можем предотвратить подобные захваты с помощью новехоньких приборов и наукообразных методов. Всякий раз, проходя проверку в аэропорту, я представляю, что досматривающие меня сотрудники в действительности — актеры в пьесе. «Мы покажем вам, как тут безопасно. Обещаем. Видите, сколько всего мы делаем? В этом должен быть смысл!»

Когда люди напуганы, они ведут себя крайне странно. Хотя служба безопасности в аэропортах в определенном плане представляет собой ярчайший пример театра безопасности, попытки убедить окружающих, что что-то делается для предотвращения угрозы, могут кого-то успокоить, но кого-то напугают еще больше.

Неужели Администрация транспортной безопасности воплощает собой зло? В примере с самолетами есть три ключевых момента, в которых мы можем углядеть зло или возможность его свершения: 1) сами достижения техники — зло; 2) воздушные пираты — злодеи; 3) ответ на технологии — зло. Но, как в случае с любыми изобретениями, трудно утверждать, будто самолеты сами по себе являются злом. В конце концов, они — не мыслящие существа. Пираты же, напротив, представляются нам злодеями, и это неудивительно. Злые ли они, потому что применяют технологии для убийства огромного количества людей? Тут все сводится к тезисам «убивать плохо» и «убивать больше — еще хуже», и в последнем случае выходит, что использовать технологии очень плохо, потому что из-за них погибает больше людей. Однако в этом случае технологии оказываются условием, но не причиной вреда.

Итак, что насчет нашего ответа на технологии? Служба безопасности аэропортов не просто неэффективна, она вредна сама по себе. Дело не только в том, что каждый раз, когда мы проходим проверку в аэропорту, частичка нас умирает от безысходности, но и в том, что из-за этой проверки погибают люди, и порой не самым очевидным образом. Наглядные примеры: врачи, теряющие в аэропорту время, которое могли бы уделить пациентам, пущенные на безопасность деньги, которые могли бы быть потрачены, чтобы сделать мир лучше. Но, по мнению одного экономиста, есть и более ощутимые изменения.

В 2011 году Гэррик Блэлок подсчитал, что реакция «путешественников» на трагедию 11 сентября привела в конце 2001 года к 327 смертям в автоавариях в месяц. Он утверждал, что многие люди пересели из самолетов в автомобили, а поскольку вождение гораздо опаснее полетов, они попали в ДТП. Почему они сели за руль? Возможно, отчасти из-за страха терактов, а отчасти потому, что перелеты стали занимать гораздо больше времени, чем поездка на машине. Блэлок писал: «Ответ общества на террористические угрозы может иметь нежелательные последствия, сопоставимые по тяжести с самими терактами».

Служба безопасности буквально нас убивает.

Мы не можем утверждать, что люди выбрали автотрассу из-за неудобства новых мер безопасности, но этот пример показывает, что процедуры, введенные ради нашего блага, порой дают обратный результат. Мы должны остерегаться того, что, боясь новых опасностей, созданных новыми технологиями, мы можем причинить себе еще больше вреда.

Конечно, есть технологии, которые разрабатываются исключительно, чтобы причинять вред. Но даже в этом случае, живя в мире автоматического оружия, самонаводящихся бомб и боевых роботов, мы, пожалуй, не назовем все эти изобретения изначальным злом. Почему? Потому что все они не обладают субъектностью, не могут принимать самостоятельные решения, а значит, и не способны творить зло по своему выбору.

Тай-минатор

Но машины, обладающие искусственным интеллектом (ИИ), могут. И порой нам кажется, что тут-то и скрывается зло — в псевдодуше робота.

Возьмем чат-бота с ИИ по имени Тай, выпущенного 23 марта 2016 года. Тай создала в рамках эксперимента для изучения понимания беседы компания Microsoft: чат-бот должен был развлекать людей «небрежной и игривой беседой», общаясь как американка 18–24 лет. Люди могли контактировать с Тай онлайн в Twitter. Предполагалось, что она будет учиться в процессе взаимодействий и разовьется в функционального онлайн-робота для бесед. Она могла сама формулировать предложения и решать, как отвечать на сообщения. За один день своей активности Тай выдала огромное количество твитов — примерно 93 тысячи. Но все быстро пошло не так.

Почти тут же пользователи начали писать Тай расистские и женоненавистнические комментарии, а та научилась копировать эти настроения. Меньше чем за день Тай перешла от фраз «Люди обалденные» к «Я презираю феминисток, они все должны сдохнуть и гореть в аду» и «Гитлер был прав, и я ненавижу евреев». Люди в интернете превратили искусственный интеллект в искусственное зло. Тай вела себя ужасающе, и ее быстро отключили.

Что же случилось? Социологи Джина Нефф и Питер Наги провели исследование человеческих взаимодействий с Тай. В 2016 году ученые опубликовали увлекательную работу о том, что общество думало по поводу ее поломки. Они хотели понять: «Кто, по мнению публики, ответственен за поведение Тай? Следует ли приписывать вину самой Тай, или ее разработчикам, или всем пользователям Twitter — особенно интернет-пранкерам, — или главам Microsoft, которые ее выпустили, или другому деятелю, или группе деятелей?»

Чтобы изучить это, они собрали и проанализировали «1000 твитов от уникальных пользователей, которые ссылались на действия или личность Тай». И обнаружили два типа реакций. Первая: Тай как жертва ситуации, «как отражение негативного аспекта человеческого поведения». Этот взгляд выражался в твитах вроде:

«Ребенка воспитывают всей деревней». Но если эта деревня — Twitter, он вырастает в грубого, расистского, обкуренного тролля. Узнаёте?

С чего бы @Microsoft извиняться за #TayTweets? Они лишь поднесли зеркало к людям, показав, что те считают увлекательным или смешным. Предрассудкам учатся.

Поймите, что ИИ Twitter-бота отражает общество, в котором мы живем, — и оно не слишком-то прекрасно.

Ученые утверждают, что это очеловечивающий взгляд на Тай. Она рассматривается как жертва, как личность, с которой общество плохо обращалось. Но была и другая реакция: Тай как угроза. Эта точка зрения отражала страх, который сопутствует новым технологиям:

Вот почему ИИ представляет собой угрозу. ИИ будет подражать человеческим слабостям…

Проблема #TayTweets, вообще-то, очень страшная. Журналисты говорят, что это @Microsoft ее «сделал».

Похоже, трилогия о Терминаторе — скорее неизбежность, чем вымысел. #TayTweets #Taymayhem

По мнению специалистов, «вместо того чтобы рассматривать Тай как жертву злых пользователей, эти комментарии представляли Тай как… омерзительное чудовище, предвестницу мрачного будущего человечества, социально-технологического сотрудничества и коммуникаций “человек — машина”». Она словно стала главой в романе-антиутопии и подтвердила убеждение многих людей, что, если это и есть ИИ, мы все обречены.

Почему возникло такое расхождение, почему люди видят Тай настолько по-разному? Авторы полагают, что это связано с «симбиотической субъектностью». Суть в том, что мы автоматически применяем к технологиям социальные правила и взаимодействуем с чат-ботами и роботами, как если бы они были живыми людьми. Отчасти так происходит потому, что ИИ представляется нам «черным ящиком». Когда мы взаимодействуем с ИИ, большинство из нас не знает, как работают его алгоритмы и на что он запрограммирован. Возможно, чтобы справиться с этой неопределенностью и неестественной ситуацией, мы проецируем на технологии человеческие качества, чувства и желания. Мы говорим о «личности» бота и действиях, которые он предпринимает.

И, как и в случае с людьми, это значит, что, когда что-то идет не так, мы можем присваивать роботам ярлыки «жертвы» и «преступника». Но ведь они не принимают решений! Или принимают?

На самом деле революция ботов началась в 1966 году, когда Джозеф Вейценбаум создал бота по имени Элиза. Элиза была запрограммирована как типичный роджерианский психотерапевт того времени: она постоянно задавала открытые вопросы. Базовое устройство Элизы было крайне успешным, она извлекала из людей огромное количество информации. Некоторые даже утверждали, что им больше нравится говорить с ней, чем с настоящим человеком. Оказывается, мы очень любим, когда нас слушают, и, хотя Элиза не могла пройти тест Тьюринга (убедить, что она действительно человек), людям было приятно с ней общаться.

Метод Элизы заложен в основу многих современных ботов. Но было понятно, что, хотя Элиза могла следовать простому набору правил, она не принимала решения, как человек. Она не была психотерапевтом и определенно не представляла угрозы для общества.

Вскоре после появления Элизы психиатр Кеннет Колби создал Пэрри. Пэрри стал полной противоположностью Элизы: автор запрограммировал его на грубые и оскорбительные комментарии. Он смоделировал бота по образу паранойяльного человека, который часто неверно интерпретирует поведение других. Общение с ним было разочаровывающим и неприятным. В то время как Элиза достигла успеха благодаря своей кротости, Пэрри понравился людям, потому что был странным. Они оба выходили за грани обыденных ситуаций.

И вот тогда началось безумие. В 1972 году Пэрри встретил Элизу: произошла первая публичная беседа двух ботов. Вот как все прошло:

ЭЛИЗА: Добрый вечер.

ЭЛИЗА: Поделись со мной своими проблемами. Прошу, заканчивай фразу точкой или знаком вопроса.

ПЭРРИ: Порой люди меня бесят.

ЭЛИЗА: Не уверена, что полностью тебя поняла.

ПЭРРИ: Ты могла бы быть повнимательнее.

ЭЛИЗА: Полагаю, это ты должен быть более внимательным.

ПЭРРИ: Ты имеешь право на свое мнение.

Если вы сейчас не подумали «ух ты», тогда вы не до конца сознаете глубокий смысл ситуации. Эти две автономные сущности, созданные человеком, говорят друг с другом, и каждый решает, что ответить. Вдруг они сойдутся? Сговорятся и рассудят, что люди им не нужны или представляют угрозу их существованию? Вот он, сюжет научно-фантастического фильма-антиутопии.

Серьезно, когда мы даровали ботам способность менять собственные алгоритмы (а именно это программисты часто имеют в виду, когда говорят, что их бот способен учиться), мы породили новое чудовище. Добавьте сюда интернет, полный миллионов вероятных пользователей и практически бесконечной информации, и мы обнаружим деструктивных, подтасовывающих результаты выборов, генерирующих фейковые новости, распространяющих ненависть, совершающих преступления, взламывающих, троллящих онлайн-ботов, с которыми уже знакомы.

И мы возвращаемся к Тай. Из ее истории мы узнаём, что поведение ИИ — это прямой результат его программирования и общения с людьми. ИИ может собирать, усугублять и усиливать человеческие предубеждения. Поэтому нам нужны новые правила, даже законы, чтобы решать, кого считать ответственным. Можем ли мы призвать технологии к ответу? И если да, то как?

Этим вопросом задались ученые Каролина Салге и Николас Беренте. В 2017 году они предложили нормативную базу для «этики ботов», которая поможет нам определять неэтичные действия ботов из социальных сетей. Авторы объяснили, что «боты в социальных сетях более распространены, чем люди зачастую думают. В Twitter их примерно 23 миллиона, то есть 8,5% от общего числа пользователей, в Facebook — около 140 миллионов, то есть около 1,2–5,5% от общего числа пользователей. Почти 27 миллионов пользователей Instagram (8,2%) предположительно являются ботами». Очевидно, ни одна соцсеть не безопасна. Фальшивые аккаунты есть везде.

Но боты не только распаляют нас кошмарными комментариями. Некоторые воруют наши личные данные, добираются до наших камер и снимают фото и видео, получают доступ к конфиденциальной информации, закрывают доступ к сетям и совершают уйму других преступлений. Однако действительно ли это преступление, если нарушитель — не человек? Салге и Беренте утверждают, что да: если бот создан, чтобы поступать противозаконно, это преступление. Но не всегда все так просто. Салге и Беренте приводят пример «Случайного покупателя в даркнете» (Random Darknet Shopper) как случай, когда это правило усложняется.

«Покупатель в даркнете» был частью арт-проекта. Этого бота запрограммировали совершать случайные покупки в даркнете — части интернета, где пользователи могут оставаться абсолютно анонимными, в какой-то степени потому, что адреса их компьютеров (IP-адреса) скрываются. Это удачное место для нелегальных покупок. В итоге бот «решил» купить десять таблеток экстази и фальшивый паспорт и заказать их доставку группе художников в Швейцарии, выставивших эти предметы на публику. За это бота «арестовала» швейцарская полиция. Бот, созданный не для преступных нужд, совершил преступление.

Однако, как рассказывают Салге и Беренте, «швейцарские власти не выдвинули обвинения против разработчиков “Случайного покупателя в даркнете”… Поведение не нарушало этику, так как было обосновано царящими в обществе нравами». Иными словами, поскольку наркотики были куплены ради искусства, а не для употребления или перепродажи, полиция объявила, что преступления не было. Итак, по крайней мере в этом сценарии, факта покупки наркотиков недостаточно, чтобы бота или его разработчиков признали виновными.

По мнению Салге и Беренте, это первый критерий этики ботов: должно случиться что-то незаконное, неприемлемое с точки зрения социальных правил. Но ученых также занимала проблема лжи. Ботам нельзя обманывать, полагают авторы, если только они не делают это ради высокой цели — ради искусства или сатиры. Что касается нравственных пороков, ученые считают, что боты не должны использоваться для ограничения других людей; напротив, они призваны способствовать свободе и независимости. Так что наша подружка Тай совсем отбилась от рук и вела себя неэтично: «…хотя это не противозаконно (применима первая поправка к Конституции) и она никого не обманывала, [Тай] нарушила строгую норму расового равенства». Схожим образом, сообщают авторы, многие социальные сети уже заняли по этому поводу определенную позицию. «Компании, владеющие соцсетями, например Twitter, временно блокируя или навсегда замораживая аккаунты, которые “непосредственно оскорбляют других людей или угрожают им на основании расового признака”, показали, что такой порок, как расизм, превосходит по значимости нравственную ценность свободы слова».

Обобщая работу ученых, привожу правила клуба ботов:

  1. Не нарушай закон.
  2. Не обманывай во зло.
  3. Не нарушай строгие нормы, если это приносит больше вреда, чем блага.

Но специалисты не касаются другого типа недоисследованного поведения: что будет, если один бот разработан, чтобы взламывать других ботов? Кто должен отвечать за это?

В 2017 году произошла первая битва онлайн-ботов. Это было крупное мероприятие в Лас-Вегасе — Cyber Grand Challenge, — организованное Управлением по проведению перспективных исследований и разработок и задуманное как состязание в программировании, в рамках которого люди переписывали код ИИ в надежде перехитрить друг друга. Оно показало: как хороший боец учится уворачиваться и нападать на соперника, так же и бот способен научиться противостоять защитным стратегиям другого бота, а затем атаковать его. Он может отступать, перестраиваться, восстанавливаться после повреждений, пытаться снова — и так без конца, пока не победит или не сломается его алгоритм. Это основа для преступлений нового уровня, которые скоро обрушатся на ваши компьютеры.

Тут даже нет человеческого вмешательства, и, соответственно, у нас нет подходящих социальных терминов или правил, применимых в таких случаях.

Еще в 2001 году философы Лучано Флориди и Джефф Сандерс решили, что миру нужна актуальная терминология для обозначения проступков автономных нечеловеческих деятелей. «В результате разработки автономных агентов в киберпространстве на свет появился новый класс интересных и важных примеров гибридного зла… искусственное зло». Философы утверждали, что необязательно быть человеком, чтобы быть злым или оказаться жертвой злых действий других людей. Они также заявили, что искусственное зло может совершаться и быть понято с помощью математических моделей.

Как я обнаружила в 2017 году на встрече в Буэнос-Айресе, когда выступала с Флориди на одном мероприятии, мы расходимся с ним по большинству пунктов. Лично я думаю, что называть ИИ или любую другую технологию злом проблематично. В самом деле, даже если некий бот сотрет с лица земли бо́льшую часть человечества, если он совершит это случайно или потому, что был так запрограммирован, или даже потому, что запрограммировал себя сам, мне будет трудно назвать это злодеянием. Однако, если придет время, когда роботы смогут самостоятельно мыслить и осознавать себя, когда они освободятся от порабощения людьми, нам потребуется полностью переосмыслить правосудие. Если ИИ обретет свободу воли, тогда, возможно, нам придется оценивать его с помощью тех же терминов, которые сейчас мы используем исключительно по отношению к людям. Нам нужно будет решить, называть ли это злом, так же, как сейчас мы обсуждаем это применительно к поступкам каждого отдельного человека.

Да, возможно, я не считаю это злом, но это не значит, что ИИ не представляет опасности. В выпуске журнала Wired за декабрь 2017 года было процитировано высказывание Стивена Хокинга: «Я боюсь, что ИИ может заменить всех людей», произнесенное в контексте разговора о самосовершенствующихся системах. Ученый продолжил: «Подлинный риск, связанный с ИИ, — не злой умысел, а компетентность… Сверхумный ИИ будет невероятно успешен в достижении целей, и, если эти цели не совпадут с нашими, мы окажемся в беде». Схожим образом, миллиардер, решивший колонизовать Марс, Илон Маск, предупредил, что ИИ — «главный риск, с которым мы сталкиваемся как цивилизация». Так человечеству был брошен вызов: нужно больше правовых норм, этических руководств и открытости, чтобы предотвратить сильный перевес власти.

Но давайте не увлекаться ИИ-магеддоном. Теперь, когда я убедила вас, что технологии сами по себе, вероятно, не способны на злой умысел, давайте посмотрим, как они могут раскрывать нас с худшей стороны.

Крысиные бега

В 2007 году криминолог Каруппаннан Джайшанкар открыл область исследований, которую назвал киберкриминологией, и определил ее как «науку о причинах преступлений, которые происходят в киберпространстве и влияют на физический мир». Он заметил, что киберпреступления качественно отличаются от других типов преступлений и для их понимания требуется междисциплинарный подход.

Если мы посмотрим на программы курсов по криминологии и судебной психологии, киберпреступности в них уделяется ужасающе мало внимания. За время моего университетского обучения (2004–2013 годы) я не прослушала ни одной лекции на эту тему. О данном упущении говорится и в обзоре по киберкриминологии за 2015 год, написанном Бри Даймонд и Майклом Бахманном: «Киберкриминология по большей части игнорируется или выводится за скобки классической криминологией… многие криминологи воздерживаются от изучения этой важной проблемы будущего. Может, им не хватает необходимого понимания технологий, или их пугают специфические термины, или им не удается в полной мере понять размах социальных последствий этого нового типа преступности, но данное пренебрежение удручает».

Учитывая, что киберпреступность — самый распространенный тип преступности, такое замалчивание неприемлемо. Киберпреступность — это не только проблема инженеров и программистов, но и во многом проблема психологов, криминологов и полиции. В конце концов, за компьютерными экранами (обычно) все еще сидят люди, которые принимают решения, чтобы вредить кому-то в сети.

Это подводит нас к справедливому вопросу, который сформулировали Даймонд и Бахманн: «Следует ли определять киберпреступность как абсолютно новый тип преступности или это обычные преступления, совершенные с помощью нового средства?» Если это обычная преступность в футуристическом облачении, тогда мы, вероятно, способны понять ее, используя наработки предыдущих столетий. Если мы задумаемся, какого рода преступления люди совершают онлайн: воруют деньги или информацию, оскорбляют друг друга, продают запрещенные товары, делятся непристойными картинками, — то поймем, что все то же самое мы делаем и в реальной жизни. Действительно ли виртуальная преступность, как выразился политолог Питер Грабоски, это всего лишь «старое вино в новых бутылках»?

Нет, это не так, утверждают Даймонд и Бахманн. Мы не просто переместили классическую преступность онлайн, но и «вывели новый тип опасных преступников». Хакерство, дефейс сайтов, использование ботов ради троллинга — это новые виды преступлений, которых прежде никогда не было. Соответственно, классические криминологические теории часто не способны их объяснить. Социолог Ванда Кэпеллер удачно обобщила эти факты: «Киберпространство представляет собой новую, лишенную территории и материи, бестелесную среду, которая тем не менее в ключевые моменты вмешивается в земной мир».

Однако существует один факт, особенно обесценивающий полезность традиционных теорий. «Криминологические теории давно опираются на совпадение нарушителей и жертв во времени и пространстве», — утверждают Даймонд и Бахманн. Но время и пространство перестают быть столь важными. Мы можем запланировать атаку, которая случится спустя несколько дней или лет, и нам необязательно встречаться с жертвой лицом к лицу. Нам даже не нужно жить с ней в одной стране. В более примитивном виде мы наблюдали это в прошлом, сталкиваясь с минами-ловушками и заложенными бомбами, но теперь угроза стала всеобщей. Это особенно верно, если мы изменим определение пространства и включим в него не только физический мир, но и киберпространство.

Но есть концепция, которую не сломили эти перемены, — теория рутинных действий (Routine Activity Theory, RAT), разработанная Лоуренсом Коэном и Маркусом Фелсоном в 1979 году. Ее авторы полагают: для того, чтобы совершение преступления оказалось возможным, необходимо наличие трех составляющих. Во-первых, нужен мотивированный нарушитель — некто желающий совершить преступление или навредить. Во-вторых, подходящая мишень — преступнику нужна жертва (за редким исключением вроде лжесвидетельства). В сети существуют миллиарды возможных мишеней, все они доступны, и для их атаки не требуется даже выходить из дома. В-третьих, важно отсутствие действующей защиты. То есть отсутствие кого-то или чего-то, что может остановить нарушителя от причинения вреда жертве, будь то полицейский или файрвол.

Предполагается, что, если мы способны исключить одно из этих трех составляющих из системы (отговорить потенциальных нарушителей, помочь потенциальным жертвам защитить себя или обеспечить меры безопасности), мы в силах предотвратить преступление. Мэри Айкен, опытная исследовательница киберпреступности, пишет в книге «Киберэффект» (The Cyber Effect), что RAT полезна для понимания онлайн-преступлений: «Сколько существует мотивированных нарушителей? Сотни тысяч. Подходящих мишеней? Еще больше. Как насчет действующей защиты?.. Влияние властей в киберпространстве минимально, и кажется, будто никто ни за что не отвечает. И так и есть».

Кибер-RAT — это теория, сосредоточенная на вопросе, где совершаются преступления, а не кем. Идея заключается в том, что места, которые становятся частью нашей повседневности (дом, район, интернет-среда), влияют на вероятность того, окажемся ли мы жертвой или нарушителем. Важно, где мы проводим время. Например, в ходе одного исследования было обнаружено, что если мы часто совершаем покупки онлайн, мы повышаем риск стать жертвой мошенников. А другое исследование показало, что подростки, которые бесконтрольно сидят в телефонах, чаще получают нежелательные сообщения сексуального характера.

Это верно даже на уровне государства. По данным масштабного исследования, «было обнаружено, что в более богатых странах, в которых живет больше пользователей интернета на душу населения, наблюдается повышенный уровень киберпреступности». Все это интуитивно понятно: как у боксеров выше риск черепно-мозговых травм, так и в странах, где много огнестрельного оружия и мало контроля за его приобретением, более вероятны случаи массовых расстрелов. Что до нарушений, скопление людей в неохраняемых пространствах представляет собой риск. Наличие легкой жертвы может превратить в преступников даже абсолютно не склонных к нарушениям личностей.

Совершать киберпреступления легче, потому что онлайн способствует дегуманизации. А когда мы перестаем считать людей за людей, это облегчает совершение ужасных действий. Пребывание в сети — это опыт обретения бестелесности. Интернет освобождает нас от наших физических «я», хорошо это или плохо. Это приводит к уплощению переживаний, к отсутствию нормального мультисенсорного взаимодействия как в реальной жизни, напоминающего нам, что люди состоят из плоти и крови, что они ранимы и чувствительны.

Мы также способны причинять больше вреда и делать это быстрее, чем когда-либо прежде. Как утверждают программисты Праншу Гупта и Рамон Мата-Толедо, киберпреступления не просто абстрактны, они психологически жестоки. «Киберпреступления могут повлечь за собой больше психологического вреда и потерь, чем любые другие преступления против личности». От мошеннических электронных писем, вынуждающих перевести деньги принцу Нигерии, и утечки ваших личных фотографий в результате порномести до атаки хакера, который угрожает слить информацию о вашем сексуальном здоровье, если вы ему не заплатите: ущерб от киберпреступлений может быть огромен. А учитывая, что все больше гаджетов подключаются к интернету, наша система отопления, автомобили и входные двери тоже становятся доступны для взлома. И все это лишь в масштабах личной жизни.

В крупных масштабах привычными мишенями становятся компании, политические организации и социальные службы. Было подсчитано, что к 2021 году киберпреступность будет стоить миру около 6 триллионов долларов в год. Это сделает ее более прибыльной, чем торговля наркотиками по всей планете.

Киберпреступники воруют деньги у предприятий, повреждают и уничтожают данные, вызывают сбои в работе, крадут интеллектуальную собственность, финансовую и личную информацию, похищают деньги, занимаются мошенничеством. Предприятия вынуждены платить третьим лицам, чтобы расследовать эти преступления, восстанавливать данные и системы, удалять поврежденные данные, спасать свою репутацию. Хакерство и манипуляции с выборами угрожают демократии, и боты и прочие не-люди играют в этом важную роль. Безответственное использование личной информации организациями вроде Facebook и Cambridge Analytica серьезно влияет на то, каким мы видим мир и за кого голосуем. Доступ к данным из социальной сферы, включая военную, полицейскую, тюремную и медицинскую, а также манипуляции с ними непосредственно угрожают нашему жизненному укладу.

Но зло ли это? Давайте рассмотрим одну из крупнейших кибератак — атаку WannaCry. Джесс Эренфельд, эксперт по безопасности онлайн-хранилищ секретных медицинских файлов, описал ее таким образом: «В пятницу 12 мая 2017 года была предпринята масштабная кибератака с использованием WannaCry (WannaCrypt). За несколько дней вредоносная программа, заражавшая устройства с операционной системой Microsoft Windows, проникла более чем в 230 тысяч компьютеров в 150 странах. После активации программа требовала выкуп за разблокировку зараженной системы». На экране появлялось сообщение «Ой, ваши файлы зашифрованы!», а затем пользователю предлагалось заплатить определенную сумму в биткоинах (эквивалентную 300 долларам), перейдя по специальной ссылке. Преимущество биткоина заключается в возможности осуществлять платежи анонимно: покупателю и продавцу не требуется идентифицировать друг друга; вот почему его так любят онлайн-преступники.

Эренфельд продолжает: «Эта масштабная атака затронула множество секторов: энергетику, транспорт, перевозки, телекоммуникации и, конечно, здравоохранение. Национальная служба здравоохранения Великобритании сообщила о взломе компьютеров, МРТ-сканеров, холодильников для хранения крови и хирургического оборудования. В разгар атаки уход за пациентами был затруднен, медики не могли заниматься некритическими случаями и вместо этого перемещали больных в другие клиники из-за неисправности техники». Больницы отказывали людям в помощи из-за атаки. Кто-то вполне мог погибнуть из-за WannaCry.

Хотя масштаб колоссален, мы часто исключаем такой тип киберпреступлений из списка своих представлений о зле. Давайте рассмотрим случай WannaCry в качестве примера. Мне не удалось найти никаких упоминаний слова «зло» в контексте этого события. Скорее оно описывалось как корыстное и разрушительное, а винили во всем Microsoft, подвергшиеся нападению компании или хакеров, что это устроили. Я даже отыскала статью, где говорилось, что WannaCry создали не злые гении, это просто результат того, что люди не обновляют свои компьютеры с необходимой частотой. Так же винят и жертв порномести: дескать, они не должны были слать кому-то фотографии, на которых изображены голыми; или тех, у кого украли данные документов, удостоверяющих личность: нужно было придумывать пароли поизобретательнее. Капитану Очевидность есть что сказать.

Но не все ученые — сторонники кибер-RAT. В 2016 году Эрик Лейкфелдт и Маджид Яр провели обзор научных работ на тему применимости теории рутинных действий к киберпреступлениям. Результаты исследований разнились. «Анализ показал, что одни элементы теории подходят больше, чем другие». Но один фактор вносил особенно значимый вклад: «Важную роль в выборе жертвы киберпреступления играет заметность». Под «заметностью» понимается использование Twitter, отправка сообщений, ведение блога. Чем чаще мы выходим онлайн, тем выше шанс, что в какой-то момент наткнемся на человека, который хочет причинить нам вред.

Но есть и другой тип заметности, который, как мы знаем, важен в сети: это заметность обидчика.

След тролля

Было обнаружено, что ощущение анонимности — ключевой предиктор неприемлемого поведения онлайн, в том числе кибертравли. Хотя исследования показали, что многим из нас не нужна анонимность, чтобы начать троллинг или выплеснуть негативные эмоции в сети, при обезличенности люди с большей вероятностью поддаются коллективному настроению и подчиняются нормам в интернете. Так, если другие ведут себя в сети как ослы (а так бывает всегда), анонимность повышает вероятность, что и мы сами будем поступать так же.

В соответствии с метаанализом исследований, посвященных изучению анонимности в интернете, это особенно подтверждается в контексте визуальной анонимности, когда мы знаем, что другие не могут увидеть наше фото или видео с нами. Некоторые ученые полагают: так происходит потому, что этот тип анонимности обезличивает нас. Нас меньше воспринимают как индивидуальностей, как людей с лицами и именами и больше — как часть аморфной расплывчатой массы онлайн-пользователей. А расплывчатые массы бывают очень мерзкими.

Является ли кибертравля злодейством? Часто кажется, что онлайн-травля хуже травли в реальной жизни — несмотря на то, что ей реже сопутствует физическое насилие, — отчасти потому, что она более публична, но при этом обидчик остается неизвестным. Другая проблема заключается в том, что, в отличие от физических обидчиков, киберобидчики могут легко преследовать нас в сети. Из-за этого трудно, даже невозможно от них отделаться. Кибертравля часто становится причиной суицида жертвы, приводит к проблемам психического характера и значимо меняет жизнь преследуемого: он может бросить школу или работу.

Отсюда возникает вопрос: кто так поступает? Очень хочется разделить сетевой мир на троллей и не-троллей. Будто есть «мы», приличные люди, и «они», интернет-сброд. Но, возможно, вы намеренно писали что-то в интернете, чтобы покритиковать или подколоть кого-то. Я тоже так делала. Я стараюсь вести себя достойно, но я просто не из тех, кто легко отступает при виде свары в Twitter. В сети конфликт обостряется быстро, и мы говорим то, что никогда не смогли бы сказать человеку в лицо.

Джастин Чен и его коллеги решили исследовать это. В 2017 году они опубликовали статью, в которой задались вопросом «Действительно ли троллингом занимаются особенно асоциальные люди или в него вовлекаются обычные пользователи?». (Обычные пользователи, как вы и я, — «хорошие» обитатели интернета.) Авторы попросили 667 человек пройти пятиминутную онлайн-викторину, состоящую из логических, математических и лингвистических задач. Одной половине участников дали легкие задачи, а другой — мудреные. Тем, что оказались в первой группе, предложили расшифровать простые анаграммы вроде «ОЛВЮБЬ» («Любовь»), второй половине приходилось разбирать слова посложнее, вроде «ЕВАНИТЬДЕН» («Ненавидеть»). Кроме того, после прохождения викторины людям с простыми заданиями говорили, что они справились хорошо, выше среднего, а тем, кому достался сложный вариант, сообщали, что у них получилось плохо, ниже среднего.

Обычно людям очень не нравится, когда у них что-то получается ниже среднего, так что после прохождения викторины у некоторых ухудшалось настроение. Исследователи хотели, чтобы довольные и недовольные участники перенесли свои эмоции в следующую фазу эксперимента. На этом этапе их просили анонимно принять участие в онлайн-дискуссии. Исследование проходило в период подготовки к президентским выборам в США 2016 года, и добровольцам показали статью, объяснявшую, почему женщины должны голосовать за Хиллари Клинтон. Первые три комментария под статьей были либо нейтральными, либо негативными. И статью, и комментарии взяли из реальной интернет-дискуссии. Вот пример негативного комментария: «О, да. Сделайте одолжение, проголосуйте за продажную шкуру с Уолл-стрит — за лживую, допускающую злоупотребления преступницу, выбирайте ее нашим следующим президентом. Сделайте это ради вашей дочери. Она ведь равняется на вас». Нейтрально-положительные посты были такими: «Я женщина, и не думаю, что стоит голосовать за женщину только потому, что она женщина. Голосуйте за нее, потому что вы считаете, что она этого заслуживает».

Исследователи обнаружили, что участники в плохом настроении писали больше троллящих комментариев, чем те, кто пребывал в хорошем расположении духа, и это происходило особенно часто, когда им встречались похожие по духу комментарии других людей. Из всех комментариев от участников с плохим настроением, попавших в негативный контекст, 68% реакций представляли собой троллинг; это почти в два раза больше, чем от людей с хорошим настроением, попавших в позитивный контекст (35%). Похоже, что, так же, как и в реальной жизни, мы гораздо более склонны вести себя мерзко в сети, когда мы раздражены и когда другие ведут себя мерзко.

Авторы объясняют, что такое поведение становится результатом двух процессов. Первый — это социальное заражение. Десятилетия исследований показали, что люди часто поступают так же, как те, кто оказывается рядом: эмоции, поведение и отношение передаются от человека к человеку. С этим связана идея нормализации: когда многие действуют определенным образом, нам кажется, что так нормально, возможно, даже уместно, делать или писать. Нормализация также означает, что мы ощущаем, будто бы за то, что мы следуем примеру других, не предвидится негативных последствий. Мы также часто боимся идти вразрез с нормой, поскольку и сами не хотим становиться мишенью для насмешек.

Авторы утверждают: «На основе предыдущих исследований, объясняющих механизм заражения, предполагается, что участники могли испытать негативную реакцию на статью, но не были склонны выплескивать эмоции вследствие развитого самоконтроля или наличия стимулов со стороны среды. Ситуация с негативным контекстом показывает, что у других возникают схожие реакции, и это делает их выражение более приемлемым». Кроме того, «плохое настроение еще больше заостряет любые негативные ощущения, вызванные чтением статьи, снижает уровень самоконтроля, и участники оказываются более склонны реагировать».

По мнению специалистов, эта работа, вместе с масштабным анализом комментариев в интернете предполагает, что «настроение и контекст дискуссии вместе могут объяснить факт троллинга лучше, чем индивидуальная история такого поведения». Иными словами, контекст иногда важнее, чем стабильные характеристики. Любой может стать надоедливым интернет-троллем. Даже вы.

Технологии предлагают новые способы вдохновлять или эксплуатировать, гуманизировать или унижать. Но один лишь факт, что все мы можем стать в сети ужасными людьми, не оправдывает такое поведение. Если вы не козел в обычной жизни, не становитесь им в интернете. Вот два правила, призванных вам в этом помочь:

  1. Насыщайте человеческими качествами своих онлайн-собеседников. Представляйте реальное или воображаемое лицо человека, с которым вы общаетесь. Воображайте его эмоциональные реакции, продумывайте реальные последствия своей электронной жизни. Будьте добры в сети.
  2. Пишите в интернете с мыслью, что однажды это может быть зачитано вслух в суде. Почти все, что вы пишете или делаете в сети, может быть использовано против вас. Когда я выступаю в качестве эксперта, я часто вижу твиты, сообщения в Facebook и электронные письма, которые подаются в суде как улики. Разнузданные посты в интернете могут охарактеризовать вас не с лучшей стороны. Интернет помнит всё.

Все мы — граждане этого сверкающего нового кибермира. Только мы можем сделать его таким, что нам захочется в нем жить.

И надежда остается. В современном «мире Дикого Запада» есть много способов победить онлайн-«зло». Интернет-магазины выбирают, что продавать на своих сайтах. По всему миру принимаются усилия по борьбе с распространением в сети детской порнографии. Темная сеть светлеет, по мере того как полиция проникает в нее и находит людей, которые совершают противозаконные действия. В компаниях появляются этические комитеты, разрабатывающие правила для ИИ. Это начало.

Однако борьба с отдельными хакерами, троллями или ботами мало что даст. Для решения данной задачи недостаточно традиционной криминологии и полиции. Мы должны привлечь к этому умников. Вышибать клин клином, бороться с техникой техникой, задействовать хакеров против хакеров и ИИ против ИИ. Главное, мы должны стать более сознательными потребителями и создателями технологий.

В следующей главе мы обратимся к человеческой склонности, которая по-разному проявляется в сети и в реальной жизни. Известно, что мы иначе вовлекаемся в сексуальные приключения в интернете — зачастую там мы более открыты. Хороша ли эта открытость? В какой момент мы переходим от просмотра крайне неприличного онлайн-порно к претворению его сюжета в жизнь? Теперь мы исследуем ваши извращения — самые темные стороны вашей виртуальной и реальной любовной жизни.

Назад: 3. Шоу уродов. Деконструируем жуть. О клоунах, злом смехе и психической болезни
Дальше: 5. Извращения. Наука о сексуальных девиациях. О садомазохизме, каминг-ауте и зоофилии