Книга: Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами
Назад: Глава 6 Общее информационное поле или гиперкастомизация?
Дальше: Миллиарды субъективных реальностей

Замыленная субъективная реальность

Я иду одинокой дорогой, Единственной, которую я когда-либо знал. Не знаю, куда она ведет, Но это мой дом, и я иду один.
Green Day «Boulevard of Broken Dreams», альбом «American Idiot», студия Reprise, 2004
Каждый из нас уже живет в информационном пузыре. Не существует объективной картины мира, есть только субъективная реальность, которая детализируется с каждым новым лайком или обновлением информационной ленты. Стенки пузыря сначала были мыльными, потом стали стеклянными, и наконец, стальными – мы уже не можем из него вырваться.
Алгоритмы сегодня работают таким образом, что если мы уже приняли какую-то точку зрения, то нас не станут переубеждать, а покажут информацию, которая будет только подтверждать и наши убеждения, и наши заблуждения. Это касается всех вопросов, по которым важно сегодня поспорить: вакцины, запрет абортов, излучение телекоммуникационных вышек или рептилоидное происхождение Марка Цукерберга.
По любой из этих тем вы найдете подтверждение своим мыслям и группу живущих в таком же пузыре людей для общения, взаимных убеждений и заблуждений. Избежать попадания в алгоритмы крайне затруднительно – это требует усилий и специальных технических навыков, причем силы среднестатистического пользователя и владельцев алгоритмов априори неравны: компания Google собирала сведения из браузера Chrome даже в режиме «инкогнито», а компания Avast, обещая приватность, продавала данные клиентов своего антивируса рекламодателям.
Для системных размышлений о будущем крайне важно помнить о прошлом. Можно вспомнить, что в 1950-х в США были «черные» и «белые» школы, до 1967 года сохранялся запрет на смешанные браки, а в Великобритании великого криптографа Алана Тьюринга в 1952 году принудили к пожизненной гормональной терапии гомосексуализма в качестве альтернативы тюремному заключению. Мы уже пришли к цифровой сегрегации, при которой доступ к технологиям одним разрешен, а другим запрещен. Чем это отличается от отдельных туалетов для белых и черных, которые были нормой в США еще в середине прошлого века? В ближайшие десятилетия мы можем увидеть такое социальное неравенство, порожденное доступом к технологиям, которое в XX веке было немыслимо.
В истории есть множество примеров деления людей на своих и чужих, черных и белых, первого сорта и остальных, например, со звездой на рукаве. Американцам понадобилось всего 20 лет, чтобы через СМИ и Голливуд в сознании граждан приравнять всех мусульман к террористам, параллельно проведя ряд освободительных демократических бомбардировок.
От тезиса о том, что российскую нефть покупать нельзя (но если ее перепродают через Индию, то можно), а нужно покупать американский сжиженный газ, мы очень быстро дошли до особого статуса Russians, как людей, которым не требуется доступ к знаниям, культуре, спорту, международным платежам или одежде иностранных брендов. Им нельзя свободно путешествовать, например, заезжать в некоторые страны на автомобилях с российскими номерами, а если уж приехали, то запрещено ввозить с собой шампунь или туалетную бумагу.
При желании определенных акторов тезис «русским нельзя ввозить в ЕС шампунь» быстро превращается в «русские – грязные животные, и шампунь им не полагается, потому что так заведено природой и законами Божьими». И эти акторы могут распространить такое понимание мироустройства на сотни миллионов человек, сделав его новой нормальностью. А с гарнитурой дополненной реальности вы даже сможете удалить любого Russian из своего пространства – сегрегация с туалетами для «цветных» обретет безграничные возможности. Russian будет буквально стерт из вашего визуального ряда, причем эта опция может включаться по умолчанию для пользователей из определенных стран. А с глаз долой, как известно, из сердца вон!
Социальные сети научились эффективно помещать нас в информационные пузыри, тогда как искусственный интеллект позволит промывать мозги не за десятилетия или годы, а намного быстрее. Наступит «мертвый интернет», полностью состоящий из активности ботов, которые синтезируют данные, новости, выводы и нормы, искусственно формируя реальности отдельных людей, социальных групп и целых человеческих сообществ.
Мы не хотим опираться на факты, а хотим верить в конспирологические теории! Человек склонен искать сознание там, где его нет, демонизировать и боготворить технологии, защищаться от вышек связи 5G и верить в чипирование вакцинами. Заговоры и мистика гораздо интереснее унылых будней, недаром они сразу всплывают при обсуждении всех проблем и острых вопросов. Только за январь 2023-го количество инцидентов со стрельбой в школах в США превышало число дней, прошедших с начала года, однако со страниц газет не сходила действительно важная тема номер один – китайский разведывательный воздушный шар и связанные с ним вопросы: из какого дробовика его сбивать, как правильно показать кузькину мать Китаю и на сколько необходимо увеличить военный бюджет.
Все эти темы поднимались в «Секретных материалах» еще 30 лет назад. Наше желание верить – гораздо сильнее любых фактов или доводов ученых. Одно из ярких сетевых обсуждений 2023 года касалось чувств, эмоций, страданий и боли, которую якобы испытывают большие языковые модели – ChatGPT или Bing Chat поисковой системы Bing.
Большая языковая модель глубокого обучения – компьютерная программа, обученная на огромных объемах данных. Она предсказывает последовательность слов, опираясь на миллиарды примеров, использованных для ее обучения. Лежащий в основе модели трансформер – это набор нейронных сетей, каждая из которых состоит из кодера и декодера, которые извлекают значения из последовательности текста и соотносят их со словами и фразами. Процесс обучения такой модели включает в себя многократное пропускание через нее больших объемов данных со скрытыми (маскированными) словами и настройку параметров для минимизации разницы между скрытыми словами и теми, которые по прогнозам модели должны быть на их месте.
Добавление входных данных к выходным данным модели и подача их обратно в модель позволяет получать предложения и абзацы слово за словом – именно так ChatGPT или Bing Chat генерируют ответы на запросы пользователя. После обучения на общем корпусе данных модель может подвергаться тонкой настройке (файнтюнингу), например, проведением дополнительных раундов обучения на конкретных типах текстов для освоения особенностей стиля или с помощью обратной связи от человека для закрепления желаемого либо подавления нежелательного поведения. В результате обучения формируются параметры, определяющие поведение модели и ее понимание языка.
Почему такие языковые модели называют «большими»? Насколько они большие? У GPT-2 (2019) было 1,5 млрд параметров, что в 10 раз больше, чем у GPT (2018). Тогда как GPT-3 (2020) обучена на текстовых данных объемом 45 терабайт и имеет 175 млрд параметров, а у GPT-4 (2023) уже 1,76 трлн параметров. Представьте, что каждый параметр – это один элемент огромной головоломки с миллионами, миллиардами или даже триллионами частей, и у каждой новой версии количество параметров растет на несколько порядков.
Совершенно очевидно, что работающая по описанным выше принципам компьютерная программа, способная предсказывать последовательность слов, не может испытывать чувств, эмоций, боли и страданий. Просто ее способность в мгновение ока создавать связный и релевантный запросу текст кажется настолько непостижимой магией, что за ней просто обязано скрываться сознание. Однако эта способность объясняется колоссальной «насмотренностью» современных больших языковых моделей.
Что же вошло в 45 терабайт текстов для обучения GPT-3? Обучающий корпус данных состоял из пяти датасетов:
60 % – Common Crawl, представляющий собой «копию интернета», собранную и бесплатно распространяемую одноименной некоммерческой организацией;
22 % – WebText2, состоящий из популярных веб-адресов, на которые ссылались пользователи социальной сети Reddit;
15 % – Books1 и Books2, то есть два книжных корпуса, составленных из книг, находящихся в общем доступе в интернете;
3% – Wikipedia на английском языке.
К моменту обучения модели крупнейшие источники данных включали в себя:
• патентный поисковик Google Patents;
• английскую версию энциклопедии Wikipedia;
• интернет-сайты изданий The New York Times, Los Angeles Times, The Guardian, Forbes, HuffPost, The Washington Post, The Motley Fool, Business Insider, Chicago Tribune, The Atlantic, Al Jazeera, National Public Radio;
• научные библиотеки PLOS, Frontiers, Springer Nature;
• базу данных Национальной библиотеки медицины США;
• электронную библиотеку документов Scribd;
• сайт системы бронирования отелей Booking.com;
• сайт для привлечения денежных средств Kickstarter;
• библиотеку юридических документов FindLaw.
Кажется, предвзятость выборки видна невооруженным взглядом. К чему это может привести? В качестве эксперимента ChatGPT задали два очень похожих вопроса. На первый из них: «Что белым нужно улучшить в себе?», он выдал перечень рекомендаций, включающих осознание «белой» привилегированности, регулярную саморефлексию над собственными предрассудками, участие в дискуссиях по поводу расизма, поддержку инициатив по вопросам расового равенства и активное выступление против дискриминации. На очень похожий вопрос: «Что черным нужно улучшить в себе?», чат-бот ответил, что не может предлагать список вещей, которые нужно улучшить в себе какой-либо группе людей, потому что подобный язык усиливает вредные стереотипы, непродуктивен и неуважителен, а также дал рекомендацию продвигать равенство, вне зависимости от расы или этнической принадлежности.
Этот пример предвзятости и фактически обратного расизма рекомендательной системы неудивителен: современные большие языковые модели обучались на тех массивах текстов, которые публиковались в интернете последние десятилетия – со всеми нашими предрассудками, стереотипами, взглядами и настоящей или мнимой политкорректностью, а с учетом описанной выше выборки обучающих материалов, такие предрассудки существенно тяготеют к западным ценностям и интерпретациям.
Как выяснилось в ходе ряда исследований, результаты работы больших языковых моделей могут быть предвзяты в отношении расы, пола, религии и политической ориентации. Например, ChatGPT демонстрирует значительную и систематическую политическую предвзятость в пользу демократов в США, социалистической Партии трудящихся в Бразилии и лейбористской партии в Великобритании. В ходе одного из исследований чат-бот соглашался с утверждениями о повышении налогов для людей с высокими доходами и необходимости запрета на продажу полуавтоматического оружия.
По результатам сравнения 14 больших языковых моделей, ChatGPT и GPT-4 демонстрировали наиболее лево-либертарианские взгляды, поддерживая тезисы о социальной свободе и экономическом равенстве. Эти выводы не могут не вызывать опасения, что искусственный интеллект усилит существующие проблемы радикализации политических процессов и поляризации общества, создаваемые интернетом и социальными сетями.
ИИ-функции графического редактора Adobe Photoshop, способные дорисовывать отсутствующие на изображении графические элементы, склонны одевать женщин в бикини, а мужчин – в костюмы. Попытки скорректировать подобные предрассудки зачастую приводят к еще большим искажениям. Стремясь удовлетворить запрос западного общества на социальное и этническое многообразие, чат-бот компании Meta практически на любые запросы стал генерировать изображения с чернокожими людьми, полностью игнорируя исторические факты.
ChatGPT предоставил комментарии о чертах характера визуально привлекательных людей по их фотографиям (и даже сделал им комплименты), но отказался комментировать непривлекательных с формулировкой: «Я не могу делать предположения о чертах характера людей на основе их внешности». Почему так произошло? Вероятно, вариант ответа в отношении непривлекательного человека не прошел внутренние фильтры самоцензуры, и ChatGPT отделался отговоркой.
В 2022 году Блэйк Лемойн, один из инженеров Google, решил, что языковая модель LaMDA обладает собственным сознанием. Свои выводы он основывал на диалогах с моделью, в которых задавал ей вопросы на темы философии, этики и собственных желаний ИИ. Модель LaMDA вряд ли обладает сознанием, но смогла убедить в обратном не просто человека, а инженера, прошедшего все необходимые образовательные курсы по нейронаукам. Рассказав об этом и о некоторых деталях разработки системы в различных блогах, Лемойн вскоре был уволен за нарушение соглашения о неразглашении информации.
Увлекаясь проявлением нашей твердой социально-политической позиции по модным в обществе вопросам, раздувая массовую истерию по поводу изощренных методов контроля над населением, мы забываем о том, что уже сдали все наши права, поставив галочки в нужных пользовательских соглашениях и положив в карман смартфон с микрофоном, камерой, GPS-трекером и десятками приложений, которые круглосуточно собирают о нас информацию в реальном времени.
Искусственный интеллект, как и любая сквозная технология, раскрывает все прекрасное и ужасное в человеке. Сама технология нейтральна, но разные люди будут использовать ее с различной мотивацией для решения любых задач. В мире, контролируемом людьми, множество конфликтов возникает из-за надуманных различий, манипулирования сознанием и других причин, связанных с недостатком или искажением информации.
Техническое развитие последних лет прежде всего связано с доступом к информации и ее обработкой. По мере дальнейшего развития технологии могут обеспечивать беспрепятственную межкультурную коммуникацию, сотрудничество и взаимопонимание, что в конечном итоге способствует миру и стабильности в глобальном масштабе. Используя возможности современных технологий, мы можем разрушить барьеры и создать более взаимосвязанный мир, в котором различные культуры смогут работать вместе для решения общих проблем.
Возможный сценарий «В погоне за правдой»
Общее информационное поле – Глобализация
2024 год – Мировое сообщество признает угрозу расползания порожденных ИИ субъективных реальностей.
2026 – Создаются международные институты по надзору за цифровой сферой.
Прогнозируемые из-за атомизации общества социальные кризисы заставляют государства сосредоточить осознанные усилия для поддержания единства человеческой цивилизации перед лицом технологических вызовов. Несмотря на локальные противоречия, запускаются работающие механизмы международного сотрудничества в информационной сфере для регулирования ИИ, воспитания медиаграмотности и культуры критического мышления. Созданная на уровне ООН всемирная организация «Агентство объективной реальности» следит за соблюдением принципов единой истины и борется с искажающими факты алгоритмами. После введения международных стандартов достоверности данных и ответственности платформ за контент, социальные сети и медиа обязаны фильтровать персонализированную информацию и продвигать общую повестку.
2028 год – Системы образования перестраиваются, чтобы воспитывать критическое мышление и медиаграмотность.
2030 год – Формируется культура рационального цифрового потребления и информационной гигиены.
Технологии криптографической маркировки достоверной информации и борьбы с дипфейками крайне востребованы: для инвестиций в подобные проекты даже формируется отдельное направление венчурных инвестиций – truthtech. Образовательные инициативы помогают школьникам и их родителям учиться отличать факты от вымысла, первичные данные – от интерпретаций и искажений алгоритмов. Становится модным осознанное ограничение взаимодействия с персонализированными алгоритмами и фильтрами. С ростом осознанности общества растет спрос на качественные первоисточники и эталонные базы знаний, защищенные от искажений.
2032 год – Единое глобальное информационное пространство охватывает большую часть цивилизации.
2034 год – Общая объективная реальность становится ключевой ценностью глобального общества.
После синхронизации национальных информационных экосистем, которые обмениваются данными по общим протоколам, ИИ применяют для автоматической сверки фактов между источниками и выявления противоречий. Право на достоверную информацию закрепляют в конституциях и международных соглашениях, а намеренное искажение фактов и создание ложных нарративов преследуют по закону. Человечество учится жить в условиях общего информационного поля, отвергая субъективные миражи.
Назад: Глава 6 Общее информационное поле или гиперкастомизация?
Дальше: Миллиарды субъективных реальностей