Книга: Испытательный полигон
Назад: Глава 32
Дальше: Глава 34

 

Судья попросила меня назвать следующего свидетеля, и я обратил внимание на Маркуса Мейсона. Когда я произнес имя Наоми Китченс, он резко откинулся на спинку стула, как будто уворачиваясь от удара. Его реакция была очевидной, но я не мог понять, удивился ли он моему выбору бывшего специалиста по этике в качестве свидетеля, или же его шокировало само ее появление. Если второе, это означало бы, что он знал о давлении, оказанном на нее накануне, и даже одобрил его.

После того как он «увернулся» от невидимого удара, его руки направились к папкам на столе защиты. Он провел рукой по стопке и вытащил папку толщиной примерно в два с половиной сантиметра, которая, как я предположил, содержала материалы по Китченс.

Отсутствие более толстой папки наверху стопки говорило мне, что Маркус не ожидал появления Китченс на этом этапе. Следовательно, он не был в курсе ночных событий. Это было к лучшему. Попытка помешать Китченс добраться до суда оказалась провальной.

Принеся присягу и назвав свое имя для протокола, Наоми заняла место. Ее взгляд тут же устремился к зрителям, где она увидела свою дочь, сидящую рядом с Циско. Едва заметно кивнув им, Наоми собралась и повернулась ко мне.

Мы с ней заранее договорились в «Рэдберде» о моей роли на трибуне. Неизвестным оставалось лишь поведение стороны защиты. Я посоветовал ей найти Лили в зале и сосредоточить на ней внимание, когда ситуация у трибуны станет напряженной. Лили должна была служить ей опорой.

— Добрый день, профессор Китченс, — начал я. — Наоми Китченс — это ваше настоящее имя?

— Теперь это моё официальное имя, — ответила Китченс.

— Вы его меняли?

— Давным-давно. Да.

— Как вас звали при рождении и почему вы решили сменить имя?

— Моё имя при рождении — Элисон Стерлинг. Я сменила его двадцать лет назад, чтобы защитить себя и ребёнка, которого носила.

Я увидел, как её взгляд тут же скользнул к дочери.

— Защитить ребёнка от кого? — спросил я.

— От моего бывшего парня, — сказала она. — Это было в Пенсильвании, где я выросла.

— Расскажите присяжным, почему вы сочли необходимым пойти на такие меры.

— Он был плохим человеком. Преступником. Я поняла, что должна от него сбежать. И я уехала. Переехала в Калифорнию и официально сменила имя, чтобы он не смог нас найти.

— «Нас» — это кого?

— Мою дочь и меня.

— Сколько лет вашей дочери сейчас?

— Девятнадцать.

— Тот мужчина, от которого вы сбежали, её отец?

— Да.

— Он нашёл вас после побега?

— Нет. Он много лет провёл в тюрьме. Точнее, в колонии.

— Вы знаете, за какое преступление его осудили?

— За грабёж и нападение. Он выстрелил в человека, но тот выжил.

— Вы были как-то вовлечены в эти преступления?

— Нет. Но… мы жили на деньги, которые он крал. Я это знала. Это была одна из причин, по которой мне нужно было от него уйти.

— Были и другие причины?

— Он был жестоким. Я боялась, что он причинит вред ребёнку.

— Как звали этого человека?

— Квентин Холгард.

— Значит, если бы Квентин Холгард вошёл сейчас в этот зал и заявил, что вы совершали преступления вместе с ним, он сказал бы правду?

— Нет. Он бы солгал.

Последний вопрос был наугад. Но мне нужно было опередить любую вылазку Мейсонов. Они могли подготовить Квентина Холгарда как свидетеля-опровержения, не раскрывая его имя и не внося его в утверждённый список. Я не знал, какой у защиты план, но хотел быть готов ко всему.

Я чувствовал, что первый блок вопросов отработан, и вернулся к изначальной линии показаний Китченс.

— Итак, вы приехали в Калифорнию, чтобы сбежать от этого человека. Что было дальше?

— Я работала и училась в районе залива Сан-Франциско, — сказала Китченс.

— В каком учебном заведении?

— Моё первое образование было в Южно-Франкском университете и…

— В каком? — переспросил я. — В Южно-Франкском?

— Простите, в Университете Сан-Франциско. Затем я получила степень магистра в Калифорнийском университете в Беркли, а потом докторскую — в Стэнфорде.

Я быстро перечислил её дипломы по порядку: сначала — компьютерные науки, потом — психология, и, наконец, социология.

— Похоже, мне стоит обращаться к вам «доктор Китченс», — сказал я.

— Мне больше нравится просто Наоми, — ответила она.

— Хорошо, Наоми. Вы сами оплачивали эти университеты?

— Да. Я работала. Получала стипендии, несколько исследовательских грантов. Но у меня были и студенческие кредиты. Я до сих пор их выплачиваю.

В зале раздался тихий гул смеха.

— Похоже, вы в этом не одиноки, — сказал я. — Кем вы работали в те годы?

— Я была программистом в разных компаниях, — сказала Китченс. — Работала в Майкрософт, Эппл и ещё в нескольких.

— Чем занимается программист?

— Пишет рабочий код для разных приложений.

— Всё это вы делали, будучи матерью-одиночкой и учась?

— Да.

— Какой карьерной цели вы добивались, получая все эти дипломы?

— Я хотела преподавать в колледже. Хотела стать профессором.

— И вы этого добились?

— Да. Моя первая работа была в Университете Южной Флориды. После получения докторской степени я осталась в Стэнфорде ещё на три года.

— Что заставило вас уйти из Стэнфорда?

— Мне поступило предложение от «Тайдалвейв». Зарплата почти удваивалась. Я согласилась, чтобы обеспечить дочери лучшую жизнь.

— В чём заключалась ваша работа в «Тайдалвейв»?

— Я была специалистом по этике. В первую очередь по проекту «Клэр».

Я улыбнулся и приподнял руки от кафедры, будто говоря: «Ну и что нам это даёт?»

— Должен признаться, я не до конца понимаю, кто такой специалист по этике и чем он занимается, — сказал я. — Объясните, пожалуйста.

— «Клэр» был проектом генеративного искусственного интеллекта, — сказала Китченс. — В то время это был новый рубеж. Правил почти не было, государственного надзора — тоже. Конкуренция была ожесточённой. Компании стали нанимать людей, чтобы гарантировать, что такие программы и приложения создаются ответственно. Генеративный ИИ должен был изменить мир — и уже изменил его. Специалист по этике был чем-то вроде совести проекта. Я должна была помочь выставить барьеры, защищающие людей, которым эти системы будут служить.

— «Должна была»? — уточнил я.

— В некоторых случаях компания лишь заявляет о своей этичности, но на самом деле этого не придерживается. Ставки там чрезвычайно…

Маркус Мейсон поднялся и возразил:

— Ваша честь, в общем виде свидетель намекает на неэтичное поведение в «Тайдалвейв» в рамках проекта «Клэр», — сказал он. — Никаких доказательств этого суду не представлено, потому что их не существует. Я прошу снять вопрос и ответ и дать присяжным соответствующее указание.

Судья Рулин посмотрела на меня, ожидая реакции.

— Ваша честь, во-первых, прошу указать адвокату не включать своё заключительное слово в возражение, — сказал я. — Во-вторых, я закладываю основу для понимания присяжными того, в чём заключалась работа этого свидетеля в «Тайдалвейв» и конкретно в проекте «Клэр».

— Возражение удовлетворяю, — сказала Рулин. — Господин Холлер, давайте перейдём к показаниям, непосредственно связанным с основанием иска.

— Да, Ваша честь, — сказал я. — Одну минуту, пожалуйста.

Я опустил глаза в блокнот, перевернул страницу и пропустил несколько вопросов, которые теперь уже точно не прошли бы мимо возражений.

— Хорошо, Наоми, давайте поговорим о самом проекте «Клэр», — сказал я. — Когда вас к нему прикрепили?

— Компания «Тайдалвейв» наняла меня в конце 2021 года, — сказала Китченс. — После короткого обучения меня назначили на «Клэр» в январе 2022 года.

— Это была отправная точка проекта?

— Нет. Проект уже шёл полным ходом. Когда я только входила в курс дела, то просматривала код и корпоративные директивы за три года последних года.

— То есть специалиста по этике привлекли с большим опозданием.

Маркус вскочил с возражением. Он заявил, что я основываю вопрос на фактах, не подтверждённых доказательствами. Судья удовлетворила возражение, даже не давая мне слова. Я понимал, что он прав по форме. Я просто хотел, чтобы присяжные отложили этот момент в памяти.

Я продолжил.

— Доктор Китченс, вы…

— Наоми, — напомнила она.

— Ладно, Наоми. Раньше вы назвали проект «Клэр» программой генеративного ИИ. Объясните присяжным, что это значит.

— Конечно. Генеративный ИИ — это такие модели, как, например, приложение «Клэр», которые создают новые данные — видео или текст — на основе массива данных, на которых они были обучены.

Мне понравилось, как она, говоря, разворачивается к присяжным. За обедом я сказал ей: «Ты преподаватель. Будь преподавателем и на свидетельской трибуне». Сейчас она именно это и делала. Я был уверен: её новые ученики — присяжные — это чувствовали.

— То есть это не просто «вход — выход»? — спросил я.

— Верно, — сказала Наоми. — Важна именно генеративная часть. Обучение продолжается. Эти большие языковые модели непрерывно получают новые данные и на их основе учатся дальше.

— «Большая языковая модель» — что это такое?

— Это модель машинного обучения, созданная для генерации естественного языка. Она обучается на огромных объёмах текстов, а потом, когда её просят, что-то сказать или ответить, анализирует и фильтрует эти данные, выискивает закономерности и связи. Со временем модель приобретает предсказательную силу в отношении человеческой речи. Но её постоянная проблема в том, что она впитывает и любые предубеждения и ошибки, содержащиеся в обучающих данных.

— То есть по-простому: «мусор на входе — мусор на выходе»?

— Именно. И вот тут и нужен специалист по этике. Чтобы обеспечить барьеры, не позволяющие мусору попасть внутрь.

Я на мгновение замолчал, собираясь вернуться к своей теме.

— Раньше вы говорили, что присоединились к «Клэр» примерно через три года после начала проекта, верно?

— Примерно через тридцать месяцев, — уточнила она.

— Хорошо. Вы заменили предыдущего специалиста по этике?

— Нет. До меня в проекте никого на этой позиции не было. Обычно специалиста по этике привлекают, когда проект достигает определённого уровня инвестиций и жизнеспособности.

— Вас привлекли спустя три года. Вы анализировали, что происходило с проектом в первые три года?

— Да. Анализировала.

— И что-нибудь вас встревожило?

— Да. Несколько моментов.

— Вы составили список этих моментов?

— Да, составила.

— Что было первым?

— В исходном документе по миссии проекта я увидела, что создаваемое приложение изначально было рассчитано на тринадцатилетних. То есть предназначалось для подростков.

— Почему это вас насторожило?

— Само по себе это не выглядело тревожным. И формально не противоречило заявленной цели проекта. Но когда я углубилась в анализ, у меня возникло ощущение, что создаётся нечто, не подходящее для подростков. «Клэр» с самого начала обучали на данных, ориентированных на более старшую аудиторию. На взрослых.

— Поясните присяжным, что вы имеете в виду под «обучением» в отношении проекта «Клэр».

Этот вопрос мы с ней отрабатывали многократно. Если её ответ пройдёт без возражений, он станет фундаментом для аргумента о безрассудном пренебрежении «Тайдалвейв».

— Создание ИИ-компаньона во многом похоже на воспитание ребёнка, — сказала Китченс. — Только процесс сжат во времени. Мы отправляем детей в школу на двенадцать–шестнадцать лет и дольше, наполняем их голову знаниями, социальными навыками, опытом. ИИ работает похоже, но гораздо быстрее, потому что он полностью цифровой. Данные загружаются. Обучение не основано на реальном опыте или человеческом понимании воспитания. Поэтому это и называется искусственным интеллектом. Это не настоящий интеллект.

— Понимаю, — сказал я. — И что в этом процессе насторожило вас применительно к «Клэр»?

— Проблема была в том, что создавалось приложение, которое собирались продавать подросткам, но обучали его не как подростка. Входящие данные не приводились в соответствие с целевой аудиторией. С человеческой точки зрения это выглядело так, словно у тринадцати-четырнадцатилетнего ребёнка появился двадцатипятилетний друг. Этот «друг» — приложение — обладал бы объёмом знаний и жизненных данных, которые сильно опережали бы возраст тех, для кого оно предназначено. В документах по миссии «Клэр» были обозначены ограничения, но в самом процессе обучения их просто не существовало. На бумаге — да. В реальности — нет.

— То есть это были бумажные ограничения?

— Именно.

— Можете привести конкретные примеры того, что вы наблюдали как специалист по этике?

— У меня были постоянные стычки с одним из программистов проекта. Он загружал в систему свои личные данные — например, свои списки «Спотифай», свои десятки лучших фильмов, сериалов, мест для путешествий. Ему было чуть за тридцать, и это меня тревожило. «Клэр» должна была стать подходящим компаньоном для тринадцатилетнего ребёнка. Я считала, что она не должна знать о кварталах красных фонарей в Таиланде.

Маркус Мейсон сразу же возразил, сославшись на неподтверждённые факты. Рулин, не комментируя, отклонила возражение и велела мне продолжать.

— Наоми, вы выражали свою обеспокоенность тем, кто курировал проект? — спросил я.

— «Обеспокоенность» — слишком мягкое слово, — сказала она. — Я была встревожена. Я писала служебные записки и электронные письма всем руководителям проекта. Проводила совещания. Я считала, что для этого меня и наняли. Я чувствовала себя последним барьером.

Я обернулся к залу, посмотрел на Лорну в первом ряду и кивнул. Она прошла через качающиеся створки, села за мой стол и открыла ноутбук, чтобы запустить презентацию в «Пауэр Пойнт».

— Ваша честь, — сказал я, — у меня есть ряд служебных записок и электронных писем, которые свидетель направляла разным руководителям и заинтересованным лицам проекта «Клэр». Прошу приобщить их к делу в качестве вещественных доказательств и разрешить демонстрацию на экране.

— Хорошо, — сказал Рулин. — Давайте предоставим присяжным перерыв на обед, пока я изучу ваши документы.

Я ожидал, что кто-то из братьев Мейсонов возразит против такого общего запроса. Но за столом защиты стояла тишина.

Китченс вывели, и пока присяжные выходили в зал ожидания, я отнёс один комплект документов клерку для судьи, а второй — на стол защиты.

— Уверен, у вас они уже есть, ребята, — сказал я. — Но на всякий случай.

Я положил бумаги перед Маркусом. Он поднял руку, словно отталкивая их.

— Не утруждайся, — сказал он. — Можешь включать «Пауэр Пойнт», Холлер. Присяжные ничего не вспомнят, когда я разберусь с твоим так называемым «последним барьером».

Я сделал вид, будто это обычная словесная перепалка. Но что-то в его сарказме задело меня. Убедившись, что презентация настроена, я вышел через створки в коридор — найти Наоми Китченс.

Я обнаружил её на скамейке у входа, рядом с ней сидела дочь.

— Лили, не возражаешь, если я поговорю с твоей мамой наедине пару минут? — спросил я.

Лили посмотрела на мать, та кивнула. Девочка встала и ушла обратно в зал суда. Я сел на её место.

— Похоже, братья Мейсон не слишком переживают из-за твоих записок и писем, — сказал я.

— Это хорошо или плохо? — спросила Китченс.

— Возможно, и то и другое. Но я боюсь, что у них что-то есть, — ответил я.

— Например?

— Что-то на тебя, Наоми. Я уже спрашивал, но скажи ещё раз: есть ли что-нибудь, о чём ты мне не рассказала, что они могут использовать, чтобы разрушить твою репутацию?

Китченс покачала головой.

— Ничего, — сказала она. — Теперь ты знаешь всё.

— Ты сказала, что не имеешь никакого отношения к преступлениям Квентина Холгарда, — напомнил я. — Это должно остаться в силе, Наоми. Иначе нам конец.

— Во-первых, — сказала она, — я уже вчера вечером и сегодня говорила тебе, что не хочу давать показания. Это ты меня уговорил.

— А во-вторых? — спросил я.

— Это правда. Я не лгу.

Я вглядывался в её лицо, ища хоть малейшую трещину в решимости. Ни тени. Она даже не моргнула.

— Ладно, — сказал я. — Надеюсь, у нас всё в порядке. Я постараюсь растянуть твоё время на трибуне.

— Что это значит? — спросила она.

— Я оставлю тебя на свидетельском месте до конца дня. Если у них есть что-то, чего мы не знаем, Мейсоны не смогут использовать это до завтра. Тебя это устраивает?

— Устраивает. Но у них ничего нет. Если только не придумают — сказала она.

— Думаю, скоро узнаем, — ответил я.

 

Назад: Глава 32
Дальше: Глава 34