Факты удручающие, но это не повод опускать руки. Некоторые алгоритмы работают достаточно хорошо, чтобы их можно было использовать для определенных целей. Так, в канадской провинции Онтарио люди с игровой зависимостью добровольно записываются в черные списки казино. Если кому-то из них не хватит силы воли, алгоритм распознавания отметит лицо этого человека, и сотрудники казино вежливо попросят его удалиться. Конечно, это несправедливо по отношению к тем, кому ни за что испортили вечер, хотя они просто хотели развлечься, но я убеждена в оправданности такой жертвы, если это помогает завязавшим игроманам бороться со старыми пороками.
Так и в розничной торговле. Офисы охраны в магазинах всегда были увешаны фотокарточками воришек – теперь, едва вы войдете в дверь, алгоритм сверит вашу личность с базой данных магазинных воров. Если ваше лицо совпадает с лицом уже засветившегося злоумышленника, дежурные сотрудники охраны получат на смартфоны сообщение и смогут выследить вас в проходах торгового зала.
У магазинов есть резон заинтересоваться такой технологией. Только в торговых заведениях Великобритании ежегодно совершается примерно 3,6 миллиона правонарушений, что наносит ретейлерам немалый ущерб – 660 миллионов фунтов. А если принять во внимание, что в 2016 году в американских магазинах из-за насильственных действий погиб 91 подозреваемый в воровстве, то, пожалуй, для всеобщего блага лучше вовсе не пустить рецидивиста в магазин, прежде чем дело примет серьезный оборот.
Однако высокотехнологичные методы борьбы с магазинными ворами имеют свои недостатки, например, связанные с нарушением неприкосновенности частной жизни. Компания FaceFirst, один из главных поставщиков программного обеспечения для систем безопасности, утверждает, что не хранит фотографии постоянных покупателей, но, безусловно, магазины пользуются системой распознавания лиц для отслеживания наших трат. В связи с этим возникает вопрос, кто рискует попасть в черный список компьютера. Кто сказал, что в черный список всех заносят обоснованно? И как же презумпция невиновности, не пойман – не вор? Что станется с теми, чьи фамилии оказались в черном списке случайно, – как им избавиться от клейма? Опять же всегда есть шанс, что алгоритм, для которого стопроцентная точность просто недостижима, ошибется при опознании.
Вопрос в том, что перевешивает – плюсы или минусы. Простого ответа нет. Даже ретейлеры не могут прийти к единому мнению. Одни с энтузиазмом хватаются за новые технологии, другие стараются держаться от них подальше, и в числе последних сеть Walmart, чьи надежды на прибыль от инвестиций не оправдались, поэтому компания прекратила эксперимент FaceFirst в своих магазинах.
Но в сфере борьбы с преступностью, по-видимому, гораздо легче найти баланс пользы и вреда. В самом деле, далеко не только алгоритмы распознавания лиц стоят на шатком статистическом фундаменте. Никто не знает, какова вероятность ошибки в экспертизе отпечатков пальцев, следов укуса, разлета брызг крови или в баллистической экспертизе. По сообщениям Национальной академии наук США 2009 года, ни один из применяемых в криминалистике методов, кроме анализа ДНК, “не доказывает связи между уликами и данным человеком или источником”. Тем не менее нельзя отрицать, что все эти методы подтвердили свою практическую ценность и важность для полицейского расследования – при условии, что полиция не придает полученным с их помощью доказательствам излишний вес. Пожалуй, если есть хоть малейший риск повторения дела Стива Талли, нельзя пользоваться несовершенной технологией, которая увеличит вероятность лишения человека свободы. Но все-таки подобные истории погоды не делают. Потому что при всех колоссальных минусах ловли преступников с помощью методов распознавания лиц у этих технологий есть еще и большие жирные плюсы.
В мае 2015 года по Манхэттену бегал человек с молотком и нападал на случайных прохожих. Сперва он подбежал к группе людей рядом с Эмпайр-стейт-билдинг и размозжил затылок двадцатилетнему парню. Спустя шесть часов он направился на Юнион-сквер и тем же молотком ударил в висок мирно сидевшую на скамейке женщину. Всего через несколько минут он объявился вновь – на этот раз его жертвой стала женщина тридцати трех лет, которая шла по улице вдоль парка. Алгоритм распознавания лиц сумел идентифицировать его личность по видеозаписи с камеры наблюдения – это был Дэвид Бэрил, и за несколько месяцев до своей акции он выложил в Instagram фото забрызганного кровью молотка. Его признали виновным в нападениях и приговорили к двадцати двум годам тюремного – заключения.
Некоторые считавшиеся безнадежными дела подняты из архивов тоже благодаря прогрессу в технологии распознавания лиц. В 2014 году алгоритм привел на скамью подсудимых американца, пятнадцать лет скрывавшегося под чужим именем. Нил Стаммер, обвиняемый в нескольких преступлениях, включая похищения и сексуальные домогательства к детям, сбежал из-под залога. После того как картинку с объявления ФБР о розыске сверили с базой паспортных данных и нашли в Непале человека с таким же лицом и паспортом, под фотографией в котором стоит другое имя, Стаммера арестовали снова.
Летом 2017 года во время теракта на Лондонском мосту погибли восемь человек, и теперь я понимаю, какую пользу могла бы принести система, использующая такой алгоритм. Одним из трех мужчин, направивших свой фургон на пешеходов, а затем устроивших резню на близлежащем рынке Боро, был Юссеф Загба. Его объявили в розыск в Италии как подозреваемого в терроризме, и алгоритм распознавания лиц мог бы изобличить его автоматически еще до того, как он попал в нашу страну.
Но как найти компромисс между правом на неприкосновенность частной жизни и на защиту общества, между справедливостью и безопасностью? Сколько Стивов Талли мы готовы отдать в обмен на быстрое обнаружение таких личностей, как Дэвид Бэрил и Юссеф Загба?
Давайте посмотрим статистику нью-йоркского полицейского управления. Сообщается, что в 2015 году в результате успешного опознания 1700 подозреваемых было произведено 900 арестов, при том что ошибочно опознали пять человек. Как бы туго ни пришлось этим пятерым, вопрос остается открытым – устраивает ли нас такое соотношение? Та ли это цена, которую мы готовы заплатить за сокращение преступности?
Оказывается, алгоритм без изъянов, вроде алгоритма геопрофилирования Кима Россмо, который мы обсуждали в начале этой главы, – скорее исключение, чем правило. В борьбе с преступностью любой алгоритм, какой ни возьми, с одной стороны вселяет большие надежды, с другой – внушает сильную тревогу. PredPol, HunchLab, Strategic Subject Lists и алгоритмы распознавания лиц – все они сулят нам решение всех проблем и одновременно создают новые проблемы.
Насколько я могу судить, именно в сфере уголовного права, где само существование алгоритмических систем вызывает вопросы, на которые нет простых и ясных ответов, наиболее остро проявляется насущная потребность в их регулировании. Так или иначе, нам предстоит столкнуться с проблемой трудного выбора. Памятуя о том, что, когда собственники алгоритма передадут нам его, он может оказаться не столь прекрасным (а преступность может вырасти), – должны ли мы требовать применения только тех алгоритмов, в которых нам все понятно и в механизм которых мы можем вникнуть? Следует ли отказаться от математической системы, в которой технологически заложена необъективность или возможность ошибки, если мы понимаем, что при этом требуем от машины более высокого уровня, чем тот, что обеспечат нам люди? Когда необъективная система становится уж слишком необъективной? В какой момент потенциальные жертвы преступления станут вам дороже жертв алгоритма?
Отчасти вопрос сводится к тому, как мы, все общество в целом, представляем себе благополучие. Что для нас главное? Как можно более низкий уровень преступности? Или превыше всего свобода невиновных? В какой степени вы готовы пожертвовать первым ради второго?
Это очень хорошо сформулировал профессор социологии из Массачусетского технологического института Гэри Маркс в интервью газете Guardian: “В Советском Союзе в самые страшные годы тоталитаризма и диктатуры уличная преступность держалась на поразительно низком уровне. Но, боже правый, какой ценой?”
Возможно, в конце концов мы захотим ограничить сферу деятельности алгоритмов. Придем к выводу, что не все поддается анализу и расчету. Что есть какие-то чувства, которые плохо укладываются в рамки уголовного права. Наверное, не потому, что алгоритмы их не испытывают. Просто потому, может быть, что некоторые вещи не входят в компетенцию равнодушной машины.