Поскольку алгоритм распознавания лиц предназначен для распознавания именно лиц, неудивительно, что подобные программы нередко обвиняют в расизме. В 2015 году Джеки Алсине обнаружил, что сервис «Google Фото» отмечает самого Джеки и его девушку на фотографиях как горилл. Его твит лаконично описывал проблему:
Google Фото, вы охренели. Моя подруга – не горилла.
Так как проблему нельзя было решить элементарным способом, Google просто удалил отметку «горилла». Многие наблюдатели предполагали, что проблема заключалась в предвзятости данных. Мы не знаем, на каких данных основывалось обучение «Google Фото», но проблема может также состоять в том, что ИИ, и особенно нейросети, хрупки и дают сбои совершенно неожиданным образом.
«Google Фото» также иногда отмечает белых людей как морских котиков. Однако это не кажется таким же обидным, как распознавание черных людей как горилл. Когда мы с вами помечаем фотографию, мы понимаем, что перепутать черного человека с гориллой – это оскорбительно. Однако ИИ не знаком подобный здравый смысл. Мы осознаем, что подобная отметка – расизм. Машинам же это неизвестно. Они понятия не имеют о том, что такое оскорбление.
Эта ситуация подчеркивает одно из самых фундаментальных различий между человеческим и искусственным интеллектом. Наше качество выполнения задачи часто ухудшается, если задача меняется. Однако ИИ часто дает катастрофические сбои. Это то, что нам нужно помнить, когда мы доверяем все больше решений машинам. Особенно если на кону жизни, мы должны понимать, что ИИ совершает абсолютно другие и часто гораздо более страшные ошибки.
Существует множество примеров алгоритмов, которые были намеренно сделаны предвзятыми. В 2012 году издание Wall Street Journal выяснило, что сайт для путешествий Orbitz предлагал владельцам компьютеров Mac более дорогие отели, чем владельцам компьютеров с Windows. Orbitz утверждал, что не показывает одну и ту же комнату разным пользователям по разным ценам, но единственное доказательство – слова представителей сайта. В любом случае Orbitz скорее покажет улучшенный номер или люкс владельцу Mac, а обычный номер – владельцу компьютера с Windows. Orbitz даже имел наглость заявить, что удовлетворяет нужды клиентов, так как пользователи Mac платят за ночь на тридцать процентов больше, чем пользователи Windows.
Ничто не способно остановить динамическое ценообразование и не дать сайтам показывать разным пользователям один и тот же отель за разную цену. Hertz много раз представлял мне более высокую цену как «золотому пользователю», чем когда я бронировал ту же машину как гость. Все мы привыкли к тому, что ценовые условия для всех равны. Нам кажется несправедливым, когда некоторым группам предлагают платить больше за те же самые товары или услуги.
Динамическое ценообразование может быть нечестным, но оно не запрещено в большинстве стран, если не основывается на критериях расы, религии, национальности или пола и если не нарушается местное антимонопольное законодательство. Интернет-рынок предлагает продавцам еще больше возможностей для динамического ценообразования. Находя признаки, по которым можно определить нашу платежеспособность – как, например, операционная система, – онлайн-магазины, вероятно, будут увеличивать свою прибыль.
Однако нам необязательно с этим мириться. Мы просто можем потребовать, чтобы все покупатели в интернете имели равные ценовые условия. На некоторых рынках мы уже ограничили ценовую дискриминацию. Например, в 2012 году Европейский суд постановил, что страховые компании не могут брать с мужчин и женщин разную плату. В результате стоимость страховки на машину, здоровье и жизнь в Европейском союзе больше не зависит от пола покупателя.
Ирония в том, что в некоторых случаях страховые взносы имеют причину различаться в зависимости от пола. Женщины – менее рискованные водители, чем мужчины, и живут обычно дольше. Это означает, что мужчины стоят страховым компаниям дороже женщин. Если мыслить логически, с них нужно брать больше денег. Почему женщины должны оплачивать опасное вождение мужчин? Это только подталкивает их к рискованному вождению.
Вероятно, брать с мужчин больше денег за страховку не очень разумно. Большинство мужчин не выбирают свой пол. Однако именно мужское поведение и стиль жизни вкупе с генетикой приводят их к более ранней смертности, чем у женщин. Дискриминировать же человека, основываясь на том, какую он выбирает операционную системы, еще сомнительнее. Может быть, нам стоит законодательно запретить такое ценообразование?
В конце концов возведение ценовой дискриминации в абсолют уничтожит сам смысл страхования. Суть страховки в том, что человека защищает равномерное распределение рисков на более широкую группу населения. Ценовая дискриминация вновь возлагает этот риск на плечи индивида. Как общество мы готовы смириться с тем, что многим приходится платить чуть большие взносы, чтобы защитить тех, кому повезло меньше. Стоит ли позволять технологиям нарушать эту солидарность?
Становятся известны также примеры намеренно предвзятых алгоритмов, которые нарушают закон. К примеру, в 2015 году обнаружилось, что компания Volkswagen встроила в некоторые свои дизельные модели сложный алгоритм, который запускал полный контроль выбросов только в момент тестирования. Это позволяло контролировать выбросы оксидов азота так, чтобы двигатель казался менее загрязняющим, чем он есть на самом деле. Теперь Volkswagen ждут штрафы на сумму более чем в 30 миллиардов долларов, а также иные санкции.
Другой пример всплыл в 2017 году. Оказалось, компания Uber незаконно использовала свою программу Greyball, чтобы не подчиняться регулятивным мерам со стороны правительства. Отслеживая правительственные учреждения, информацию о кредитных картах чиновников и их страницы в соцсетях, Uber пытался не допустить использования приложения правительственными чиновниками.
Тот факт, что в обоих примерах фигурируют автомобили, должен заставить нас задуматься. Можно ожидать, что в погоне за прогрессом в сфере транспорта и разработки автономных средств передвижения, электрических автомобилей и грузовиков, а также новых видов транспорта многие транспортные компании поддадутся искушению незаконно использовать алгоритмы. На кону – триллионы долларов, а потому потенциальная прибыль огромна. Кроме того, у нас не очень много инструментов, которые помогли бы это предотвратить.