Книга: Искусственный разум и новая эра человечества
Назад: Глава 2. Как мы здесь оказались. История человеческого мышления
Дальше: Глава 4. Глобальные сетевые платформы
Глава 3

От Тьюринга до наших дней — и не только

В 1943 г. был создан первый современный — то есть электронный, цифровой и программируемый — компьютер. Это достижение вновь сделало актуальными старые вопросы: могут ли машины «думать»? Являются ли они «разумными»? И могут ли они стать разумными? Эти вопросы казались особенно сложными, учитывая давние дилеммы о природе интеллекта. В 1950 г. математик и криптограф Алан Тьюринг нашел ответ. В статье с непритязательным заголовком «Вычислительные машины и разум» Тьюринг предложил полностью отбросить проблему «интеллекта» машины, поскольку важен не механизм, а проявление интеллекта. Невозможно познать чью бы то ни было внутреннюю жизнь, а значит, единственным средством измерения интеллекта остаются его внешние проявления. Так Тьюринг обошел стороной многовековые философские дебаты о природе интеллекта. По правилам «имитационной игры» Тьюринга, если наблюдатели не могут отличить поведение машины от поведения человека, машину следует считать «мыслящей».

Так появился тест Тьюринга.

Многие представляли себе выполнение теста Тьюринга буквально, не понимая, что такое машины, отвечающие его критериям, и воображая роботов, которые выдают себя за людей. Но реальная ценность теста Тьюринга проявилась в оценке работы «интеллектуальных» машин в определенных ограниченных видах деятельности, таких как игры. На самом деле тест не требует полной неотличимости от человека — он применяется к машинам, чьи действия похожи на человеческие, и фиксирует результат, а не процесс. Например, такие генераторы, как GPT-3, являются ИИ не из-за особенностей обучения модели, а поскольку они создают текст, который выглядит как написанный человеком.

В 1956 г. компьютерный ученый Джон Маккарти уточнил определение ИИ в отношении «машин, которые могут выполнять задачи, характерные для человеческого интеллекта». С тех пор оценки Тьюринга и Маккарти стали эталонами в отношении ИИ — оценивается поведение, похожее на проявление интеллекта, а не более глубокие философские, когнитивные или нейробиологические аспекты этого термина.

В последующие полвека машинам, как правило, не удавалось продемонстрировать подобный «интеллект». В течение десятилетий вся работа компьютеров происходила в рамках жесткого программного кода. Классические программы могли работать с большими объемами данных и выполнять сложные вычисления, но не умели распознавать изображения простых объектов или самостоятельно исправлять ошибки входных данных. Компьютер не мог воспроизвести неточное и концептуальное человеческое мышление.

В последние годы, похоже, наметился выход из этого тупика — появляется все больше примеров специализированных ИИ, которые в своей сфере применения не уступают человеку и даже превосходят его.

Четыре основных качества ИИ, ориентированные на конкретные области, — неточность, динамичность, эмерджентность и обучаемость. Системы ИИ обучаются, потребляя данные, а затем делая наблюдения и выводы на основе этих данных. Они не требуют точного ввода и не гарантируют точного вывода — например, системы машинного перевода переводят тексты не путем замены отдельных слов, а выявляя и используя идиоматические фразы и шаблоны. Аналогичным образом, такие ИИ считаются динамичными, поскольку они развиваются в ответ на изменяющиеся обстоятельства, и эмерджентными, так как они могут находить решения, совершенно новые для человека. Это качества, революционные для машин.

Рассмотрим прорыв AlphaZero в мире шахмат. Если классические шахматные программы следовали жестко закодированному в них человеческому опыту, то ИИ AlphaZero развивал свои навыки, играя миллионы партий против самого себя. Завершив обучение, модель AlphaZero применила выработанную стратегию и сопутствующую тактику на практике — и результатом стали «шахматы из другого измерения». Такие методы обучения основаны на алгоритмах — наборах шагов для преобразования входных данных (таких как правила игры) в повторяющиеся выходные данные (такие как победа в игре). При этом цель обучения заключается не в получении точных и предсказуемых результатов вычислений, а в улучшении неточных результатов. И эти методы замечательно работают.

Возьмем в качестве примера авиацию. Скоро ИИ сможет управлять различными воздушными транспортными средствами — или быть вторым пилотом. Уже сейчас в рамках программы DARPA AlphaDogFight истребители, пилотируемые ИИ, превосходят человека в боевых симуляциях, выполняя маневры, которые не под силу пилотам-людям. Управляя боевыми самолетами или беспилотниками, доставляющими продовольствие, ИИ может оказать значительное влияние на будущее военной и гражданской авиации.

Сейчас мы видим самые первые инновации в области ИИ, и они уже начинают менять человеческое мировосприятие самыми разными способами. В ближайшие десятилетия эти тенденции будут только усиливаться. ИИ становится вездесущим, и его влияние на нашу жизнь растет.

Технологические концепции, управляющие развитием ИИ, очень сложны и важны. В этой главе мы рассказываем об эволюции и текущем состоянии различных видов машинного обучения и его применений. Современные ИИ одновременно поразительно мощны и заметно ограничены. Базовое знакомство со структурой, возможностями и ограничениями ИИ жизненно важно для понимания того, как он развивается, какие несет социальные, культурные и политические изменения и какое влияние окажет в будущем.

Эволюция ИИ

Человечество всегда мечтало о помощнике — машине, способной выполнять человеческие задачи. В греческой мифологии бронзовый гигант Талос, выкованный богом-кузнецом Гефестом, патрулировал берега Крита, защищая остров от вторжения. Людовик XIV во Франции в XVII в. и Фридрих Великий в Пруссии в XVIII в. увлекались механическими автоматами. Однако в реальности создать такую машину и сделать ее способной к полезной деятельности — даже с появлением современной вычислительной техники — было дьявольски сложно. Главная проблема была в том, как и чему ее обучать.

Первые попытки создать практически полезный ИИ заключались в кодировании человеческого опыта в наборы правил или фактов для компьютерных систем. Но далеко не все можно свести к простым правилам или символическим представлениям. Там, где используются точные характеристики — шахматы, алгебраические расчеты, автоматизация бизнес-процессов, — добились больших успехов так называемые экспертные системы. Но в таких областях, как переводы с иностранных языков и визуальное распознавание объектов, экспертные системы потерпели неудачу.

Проблемы, возникшие при распознавании визуальных объектов, наглядно иллюстрируют недостатки этих ранних программ. Распознавание изображений — легкая задача даже для маленьких детей, но не для первых поколений ИИ. Сначала разработчики ИИ пытались задать отличительные характеристики объекта через символическое представление. Например, чтобы идентифицировать изображение кошки, они создавали абстрактные варианты различных атрибутов — усов, четырех лап, тела, заостренных ушей — идеализированной кошки. Но в реальности такое идеальное представление кошки встречается редко, к тому же кошки могут бегать, сворачиваться клубком или вытягиваться, у них бывают разные размеры и окрасы. Таким образом, подход, подразумевающий создание абстрактных моделей и их сопоставление с входными данными из реального мира, на практике оказался неработоспособным.

Эти формалистические, негибкие системы познакомили нас с интеллектуальными машинами, но успешно работали они только в областях, в которых имеющийся опыт можно было четко зафиксировать в виде жестких правил. При решении задач, которые нельзя было закодировать четкими правилами, такие системы не проходили тест Тьюринга, то есть оказывались неспособны делать (или имитировать) работу человека. Так наступила «зима ИИ» — области применения интеллектуальных систем были ограничены, их финансирование сократилось и прогресс замедлился.

Затем произошел концептуальный сдвиг. Разработчики осознали, что нужен новый подход к созданию машин для решения сложных проблем — машины должны учиться самостоятельно. Так мы перешли от попыток закодировать знания, полученные человеком, к делегированию машинам самого процесса обучения.

Машинное обучение возникло еще в 1950-х гг., но новые достижения позволили исследователям опять обратить на него внимание в 1990-е гг. и начать применять его на практике. Лучше всего зарекомендовали себя методы извлечения закономерностей из больших массивов данных с помощью так называемых нейронных сетей. В философском плане можно сказать, что первопроходцы ИИ отказались от идеи свести мир к механистическим правилам и построить модели, приближенные к реальности. Они поняли, что для идентификации изображения кошки машина должна «выучить» ряд визуальных представлений кошек, наблюдая за животными в различных контекстах. Для машинного обучения важно взаимодействие различных представлений, а не их идеальное выражение — Витгенштейн, а не Платон. Так родилась современная область машинного обучения — программы, которые обучаются на полученном опыте.

Современный ИИ

Мы добились серьезных успехов. Например, в 2000-х гг. был достигнут значительный прогресс в области машинного обучения для визуального распознавания объектов. Разработчики создали ИИ, которые обучались на наборах картинок и идентифицировали изображения объектов гораздо эффективнее, чем жестко закодированные системы.

ИИ, который открыл халицин, иллюстрирует центральную роль процесса обучения. Когда исследователи МИТ разработали алгоритм машинного обучения для предсказания антибактериальных свойств молекул, обучив его на наборе данных из более чем 2 тыс. молекул, получилось то, чего не смог бы добиться ни один обычный алгоритм — и ни один человек. Связи, которые ИИ выявил между молекулой и ее свойствами антибиотика, непонятны людям и, что еще более важно, не поддаются выражению в виде правил. Это говорит о том, что алгоритм машинного обучения, который совершенствует модель на основе базовых данных, способен распознавать взаимосвязи, неуловимые для человека.

Как отмечалось ранее, это неточный ИИ — ему не нужно заранее задавать определенную связь между свойством и эффектом. Он может, например, выбрать наиболее вероятных кандидатов из большого набора возможностей. Эта способность отражает один из жизненно важных элементов современного ИИ. Используя машинное обучение для создания и корректировки моделей с использованием обратной связи из реального мира, современный ИИ может постепенно уточнять результаты и анализировать неоднозначные ситуации, которые поставили бы в тупик классические алгоритмы. Как и классический алгоритм, алгоритм машинного обучения состоит из последовательности точных шагов. Но, в отличие от классического алгоритма, эти шаги не приводят непосредственно к определенному результату. Скорее, современные алгоритмы ИИ измеряют качество результатов и позволяют улучшать эти результаты — это не выполнение точных инструкций, а процесс обучения.

Основной метод и движущая сила машинного обучения — нейронная сеть. В 1958 г. у Фрэнка Розенблатта, исследователя Авиационной лаборатории Корнелльского университета, возникла идея кодирования информации с помощью структуры «узлов» (аналог нейронов, которых в человеческом мозгу насчитывается около 100 млрд) и связей между ними, сила которых обозначалась весовыми коэффициентами (аналог квадриллионов синапсов, соединяющих нейроны). В течение десятилетий недостаток вычислительных мощностей и сложных алгоритмов замедлял развитие любых нейронных сетей, кроме самых простых. Прогресс последних лет в обеих областях освободил разработчиков ИИ от этих ограничений.

В случае с халицином нейронная сеть уловила связь между молекулами (вход) и их потенциальной возможностью подавления роста бактерий (выход). ИИ, открывший халицин, сделал это, не оперируя информацией о химических процессах или функциях лекарств, он обнаружил взаимосвязи между входными и выходными данными при помощи так называемого глубокого обучения, при котором слои нейронной сети, расположенные ближе к входу, отражают свойства входных данных, а слои, расположенные дальше, отражают более широкие обобщения, предсказывающие желаемый выход.

Глубокое обучение позволяет нейронным сетям улавливать сложные взаимосвязи, например между эффективностью антибиотиков и аспектами молекулярной структуры, отраженными в обучающих данных (молекулярный вес, химический состав, типы межатомных связей и т.д.), которые могут ускользнуть от человека. Когда ИИ сталкивается на этапе обучения с новыми данными, он корректирует весовые коэффициенты в нейронной сети, чтобы отразить новую информацию. Точность сети зависит от объема и качества данных, на которых она обучается. Чем больше объемы обучающих данных и чем больше слоев нейросети, тем точнее веса отражают взаимосвязи. В современных глубоких сетях обычно бывает до 10 слоев.

Для обучения нейронных сетей нужны огромные ресурсы. Этот процесс требует значительных вычислительных мощностей, большого количества энергии и сложных алгоритмов для анализа и адаптации к огромным объемам данных. В отличие от человека, большинство ИИ не могут одновременно обучаться и выполнять работу. Обучение и практическое применение — разные этапы функционирования ИИ. На этапе обучения алгоритмы измерения и повышения качества ИИ оценивают и корректируют свою модель для получения хороших результатов. В случае с халицином обучение заключалось в том, что ИИ выявлял взаимосвязи между молекулярными структурами и эффектами антибиотиков на основе данных обучающего набора. На следующем этапе исследователи поставили перед ИИ задачу определить молекулы с сильным антибиотическим эффектом. Этот ИИ не занимался рассуждениями — он делал выводы, применяя разработанную им модель.

Разные задачи — разные стили обучения

Для разных задач, выполняемых ИИ, требуются разные методы обучения. В этом заключается основная проблема внедрения машинного обучения. В зависимости от предполагаемого назначения того или иного ИИ разработчикам приходится использовать различные методы обучения. Из сочетания применяемых методов — алгоритмов машинного обучения, нейронных сетей и способов обучения — возникают новые возможности ИИ, например диагностика рака.

Сегодня можно выделить три основные формы машинного обучения: контролируемое обучение, неконтролируемое обучение и обучение с подкреплением. Контролируемое обучение позволило создать ИИ, который обнаружил халицин. Напомним, что в поисках потенциальных новых антибиотиков исследователи МТИ использовали базу данных из 2 тыс. молекул, чтобы обучить модель, в которой на входе была молекулярная структура, а на выходе — эффективность антибиотика. Исследователи предоставили ИИ сведения о молекулярных структурах, эффективность которых как антибиотиков была заранее известна. После этого ИИ смог оценить новый набор соединений.

Этот метод называется контролируемым обучением, поскольку на входе используется набор данных (в случае с халицином — молекулярных структур), индивидуально маркированных в соответствии с желаемым результатом (свойствами антибиотика). Разработчики используют контролируемое обучение для многих целей, например для создания ИИ, распознающих изображения. Для этого ИИ обучают на наборе предварительно атрибутированных изображений — например, изображений кошек с меткой «кошка». Кодируя связь между изображениями и метками, ИИ учится правильно идентифицировать новые изображения. Когда у разработчиков есть набор данных, указывающий желаемый результат для каждого из множества объектов на входе, контролируемое обучение работает особенно эффективно — полученные модели могут предсказывать результаты в ответ на новые входные данные.

Если у разработчиков нет ничего, кроме огромного количества данных, они используют неконтролируемое обучение. Сегодня предприятия, правительства и исследователи благодаря интернету и цифровизации располагают несметными объемами данных — у маркетологов оседает информация о клиентах, у биологов — об образцах ДНК, у банкиров — о финансовых операциях. Когда маркетологи формируют клиентские базы, а финансовые аналитики ищут потенциальные несоответствия в огромных массивах транзакций, неконтролируемое обучение позволяет ИИ выявлять закономерности или аномалии без какой-либо спецификации «правильных» ответов. Разработчики поручают алгоритму обучения создавать группы данных на основе определенных мер сходства. Например, видеосервисы, такие как Netflix, используют алгоритмы, которые определяют кластеры клиентов с похожими привычками просмотра, чтобы рекомендовать им подходящие фильмы. Настраивать такие алгоритмы непросто, поскольку у людей, как правило, много интересов и каждый зритель может попасть во множество кластеров.

ИИ, обученные с помощью неконтролируемого обучения, могут выявлять слишком тонкие закономерности, требующие слишком больших объемов данных для человека. Поскольку таким ИИ никто не диктует критерии «правильности» результатов, они, как и люди-самоучки, могут создавать удивительные инновационные идеи — или выдавать совершенно нелепые результаты.

И при неконтролируемом, и при контролируемом обучении ИИ решают такие задачи, как выявление тенденций, идентификация образов и составление прогнозов, на основе данных. Но если необходимо обучить ИИ работать в меняющейся среде, ограничиваться анализом данных нельзя. Поэтому появилась третья основная категория машинного обучения — обучение с подкреплением.

При обучении с подкреплением ИИ не ограничивается ролью пассивного наблюдателя, выявляющего взаимосвязи в массивах данных, — он активно функционирует в упрощенной контролируемой среде, наблюдая и фиксируя реакцию, вызванную его действиями. Как правило, используются симулированные среды, имитирующие некую упрощенную версию реальности. Например, легче смоделировать работу робота на сборочном конвейере, чем в хаосе переполненной городской улицы. Однако даже в такой упрощенной контролируемой среде, как шахматы, один ход может вызвать целый каскад возможностей и рисков. Поэтому для того, чтобы ИИ самостоятельно тренировался в искусственной среде, как правило, недостаточно обеспечить наилучшие показатели — необходим некий механизм обратной связи.

Такую обратную связь обеспечивает функция подкрепления, указывающая ИИ на то, насколько успешным был его подход. В цифровой среде человек не может эффективно давать обратную связь машине — ведь ИИ выполняет сотни, тысячи или миллиарды шагов в течение нескольких часов или дней. Поэтому функции вознаграждения автоматизируются — для этого разработчики определяют, каким образом имитируется реальность и как должно работать подкрепление. В идеале симулятор обеспечивает реалистичный опыт, а функция вознаграждения способствует принятию эффективных решений.

ИИ AlphaZero тренировался, играя против самого себя — точнее, против второго экземпляра ИИ, играющего за противника, — а для оценки своей работы использовал функцию подкрепления, которая оценивала его ходы в соответствии с создаваемыми ими возможностями. Как показывает этот пример, человек занимается созданием среды обучения ИИ с подкреплением, но не может обеспечивать обратную связь в процессе обучения. Человек определяет способ симуляции и функцию вознаграждения, а ИИ обучается. Поэтому для того, чтобы добиться нужных результатов, очень важно тщательно определить метод симуляции и функцию вознаграждения.

Мощь машинного обучения

Описанные «строительные блоки» обеспечивают широкое применение ИИ. В сельском хозяйстве ИИ способствует правильному применению пестицидов, обнаружению болезней сельскохозяйственных культур и прогнозированию урожайности. В медицине он помогает открывать новые лекарства, разрабатывать новые способы применения существующих препаратов, диагностировать и прогнозировать заболевания (например, уже есть случаи диагностики рака груди, ретинопатии, гипогликемии и наследственных заболеваний, выполненной ИИ раньше, чем врачами-людьми). В финансовой сфере ИИ может одобрять выдачу кредитов, слияния и поглощения, банкротства и т.п. или отказывать в них.

Самая убедительная иллюстрация работы ИИ — расшифровка голоса и перевод с иностранных языков. На протяжении тысячелетий человечество сталкивалось с проблемой разрыва в коммуникациях между представителями разных культур и языков. Взаимонепонимание и недоступность иноязычной информации приводили не только к недоразумениям — из-за них страдала торговля, а иногда начинались войны. История о Вавилонской башне — символ человеческого несовершенства, рассказ о горьком наказании за человеческую гордыню. Но теперь все идет к тому, что мощные методы перевода с помощью ИИ сделают межъязыковые коммуникации доступными для широкой аудитории и значительно большему числу людей станет легче общаться друг с другом.

В 1990-х гг. исследователи с переменным успехом разрабатывали системы машинного перевода на основе правил. Эти попытки не привели к созданию универсальных переводчиков. Изменчивость и тонкость языка невозможно было свести к набору правил. Все изменилось, когда в 2015 г. машинный перевод совершил серьезный прорыв с началом использования глубоких нейронных сетей. Но инновации появились не только благодаря применению нейронных сетей или методов машинного обучения — скорее они возникли благодаря новым творческим способам применения этих подходов. Они подчеркивают ключевую способность машинного обучения — делать открытия и внедрять блестящие инновации в процессе создания новых ИИ.

Чтобы переводить с одного языка на другой, переводчик улавливает определенные закономерности, последовательные зависимости. Стандартные нейронные сети различают шаблоны ассоциаций между входом и выходом — например, какими наборами химических свойств обычно обладают антибиотики. Но они не могут так же просто улавливать последовательные зависимости — такие, например, как вероятность появления того или иного слова в предложении с учетом предыдущих слов. Если предложение начинается со слов «пойду выгуливать», следующим словом будет скорее «собаку», чем «кошку» или «самолет». Чтобы обучить ИИ таким последовательным зависимостям, исследователи разработали сети, использующие в качестве входных данных пары «текст — перевод». Это позволяет ИИ определять следующее слово на основе последовательных зависимостей на языках, между которыми осуществляется перевод. Наиболее мощные из этих сетей — так называемые трансформеры, которым не требуется обрабатывать последовательности по порядку. Например, Google BERT — двунаправленный трансформер, предназначенный для улучшения поиска.

Кроме того, разработчики систем перевода с иностранных языков использовали так называемые параллельные корпусы. Это было значительным достижением по сравнению с традиционным контролируемым обучением, требующим конкретных соответствий между входными и выходными данными. При традиционном подходе разработчики обучали ИИ, используя тексты с уже существующими переводами, поскольку в таких парах был необходимый уровень детального соответствия между языками. Но такой подход значительно ограничивал объем обучающих данных, а также типы доступных текстов — ведь если официальные тексты правительств или литературные труды переводятся на другие языки достаточно часто, то огромные массивы текстов из СМИ, соцсетей, с веб-сайтов и т.п., как правило, остаются непереведенными.

Вместо того чтобы ограничивать ИИ обучением на предварительно переведенных текстах, разработчики использовали статьи и другие тексты на разных языках по одной и той же теме, не являющиеся прямым переводом друг друга. Эти похожие, но непереведенные тексты и есть параллельные корпусы. Такой процесс обучения сродни переходу от изучения языков на специализированных курсах к обучению методом погружения. При этом происходит менее точное обучение, зато значительно увеличивается объем доступных данных. В параллельные корпусы включают новостные статьи, напечатанные в газетах на разных языках, рассказы о знаменитостях, рецензии на книги и фильмы, истории путешествий — одним словом, практически любые официальные или неофициальные публикации на темы, широко освещаемые во всем мире. Успех этого подхода привел к более широкому использованию частично контролируемого обучения, при котором используется весьма приблизительная или частичная информация.

Когда система Google Translate стала использовать глубокие нейронные сети, обученные на параллельных корпусах, ее производительность повысилась на 60% — и продолжает расти.

Речь пока не идет о параллельном переводе устной речи — до робота C-3PO или вавилонской рыбки нам еще далеко. Но радикальное развитие письменного перевода обещает изменить бизнес, дипломатию, СМИ, науку и другие сферы, поскольку люди будут общаться на чужих языках легче, быстрее и с меньшими затратами, чем когда-либо прежде.

ИИ, о которых мы рассказывали до сих пор, умели находить решения: победу в шахматной партии, искомое лекарство, осмысленный перевод с иностранного языка. Отдельная область — создание новых текстов, изображений, звуков и т.п. На это способна другая технология — генеративные нейронные сети. Сначала они обучаются на основе существующих текстов или изображений, а затем создают новые тексты или изображения — искусственные, но реалистичные. Если стандартная нейронная сеть может распознать изображение человеческого лица, то генеративная сеть может создать подобное изображение, которое будет выглядеть как реальное. Это концептуально новая технология.

Перспективы применения генеративных нейронных сетей поражают воображение. Настроив такую сеть на создание программного кода или оригинальных текстов, автор может задать общую структуру, которую генеративная нейросеть заполнит деталями. Можно будет поручать таким нейросетям создавать, например, финальные тексты, рекламные ролики и фильмы на основе исходных материалов. Серьезная опасность кроется в возможности создания так называемых цифровых фабрикаций (deep fake) — неотличимых от реальности изображений людей, которые делают или говорят то, что реальные люди никогда не делали и не говорили. В перспективе генеративные нейросети могут значительно обогатить наше информационное пространство, но, если не контролировать эту деятельность, она может существенно размыть границу между реальностью и вымыслом.

Распространенный алгоритм обучения таких моделей — генеративно-состязательные сети (generative adversarial network, GAN). В них генеративная модель, которая генерирует образцы, соревнуется с дискриминаторной моделью, которая борется с созданием некачественных вариантов. Представьте, например, что генератору поручено проводить мозговые штурмы, а дискриминатору — оценить, какие из проведенных мозговых штурмов оказались полезны и результативны. Генеративная и дискриминаторная модели обучаются попеременно: сначала генеративная модель тренирует дискриминаторную, затем наоборот.

Обучение GAN может быть довольно сложным, оно выполняется на огромных объемах данных и часто дает плохие результаты, но ИИ, созданные с их помощью, могут решать замечательные задачи. ИИ, обученные с помощью GAN, могут дописывать начатые предложения (например, при составлении электронных писем) или дополнять запросы для поисковых систем. В перспективе такие ИИ, возможно, научатся завершать недописанные программы.

Одним из наиболее примечательных генеративных ИИ является GPT-3, упомянутый в главе 1 (другие генеративные модели могут создавать неотличимые от реальности изображения или видео). GPT-3 расширяет подход, который оказался таким удачным в машинном переводе. Взяв несколько слов, GPT-3 обнаруживает закономерности в идущих друг за другом элементах текста, после чего предсказывает и генерирует последующие элементы. Несколько слов GPT-3 может экстраполировать в предложение, а предложение — в абзац.

Обученные на массивах данных, взятых в основном из интернета, трансформирующие ИИ также могут преобразовывать текст в изображения и наоборот, расширять или сокращать описания и т.д. Иногда продукция GPT-3 и аналогичных ИИ кажется высокоинтеллектуальной, иногда — глупой или совершенно непонятной. Но в перспективе такие системы могут изменить многие области, включая творческие. Поэтому они вызывают большой интерес исследователей и разработчиков, изучающих их сильные стороны, ограничения и возможности применения.

Машинное обучение не просто расширило возможности применения ИИ — оно произвело революцию даже в тех областях, в которых люди ранее успешно обходились без ИИ. Именно методы машинного обучения позволили открыть совершенно новые шахматные стратегии. Разумеется, способность ИИ к открытиям не ограничивается играми. Как уже упоминалось, компания DeepMind создала ИИ, который понизил энергозатраты дата-центров Google на 40% после того, как они уже были оптимизированы отличными инженерами-людьми. Это означает, что такие ИИ не просто выполняют тест Тьюринга, показывая продуктивность, неотличимую от человеческой, — они выходят за его рамки, превосходя человеческую производительность и раздвигая границы нашего понимания. Такие достижения означают, что ИИ и дальше будет учиться решать новые задачи и спектр его применения будет расти — возможно, он действительно будет писать оригинальные тексты и разрабатывать программные коды.

Разумеется, чем мощнее становится технология и чем больше она распространяется, тем чаще ее преимущества сопровождаются проблемами. Наглядный пример — персонализация поиска. В главе 1 мы описали, чем отличается интернет-поиск, управляемый ИИ, от обычного интернет-поиска — первый может ограничить поле зрения пользователя предложениями только дизайнерской одежды, в то время как второй познакомит его с полным ассортиментом, доступным для приобретения в интернете. Поисковая система подстраивается под конкретного пользователя двумя способами: 1) получив запрос вроде «чем заняться в Нью-Йорке», ИИ может генерировать идеи, такие как «прогулка по Центральному парку» или «посещение бродвейских шоу»; 2) ИИ может запоминать как историю запросов, так и ответные идеи. Со временем он будет конкретизировать эти идеи, делая их (теоретически) все более полезными для пользователей. Онлайн-кинотеатры выполняют подобную задачу, используя ИИ, чтобы сделать телевизионные шоу и фильмы более подходящими для зрителей, которые хотели бы смотреть, например, более позитивные фильмы. Это путь к расширению возможностей. Такой ИИ будет прятать от детей взрослый контент и сможет рекомендовать им программы, соответствующие их возрасту и вкусам. Такой ИИ будет беречь всех зрителей от жесткого контента или слишком откровенных фильмов или историй, оскорбляющих чувства, — в зависимости от того, какие выводы о предпочтениях пользователей сделают алгоритмы, анализируя их предшествующие действия. По мере того как ИИ будет изучать аудиторию, он будет добиваться все более положительных результатов — например, онлайн-кинотеатры будут с большей вероятностью рекомендовать своим подписчикам именно те фильмы и сериалы, которые их заинтересуют, а не те, которые их оскорбят или смутят.

То, что такая фильтрация может помочь, нам всем уже знакомо на практике. Находясь в другой стране, мы можем нанять гида, который покажет нам те исторические места или достопримечательности, которые в большей степени соответствуют нашей религии, национальности или профессии. Это может превратиться в своего рода цензуру — ведь такой экскурсовод, вероятно, будет избегать трущоб или районов с высоким уровнем преступности. В авторитарных странах гиды могут показывать туристам только то, что разрешено правящим режимом. Что же касается киберпространства, то в нем такая фильтрация возникает и развивается сама по себе. Как только алгоритмы, персонализирующие поиск, начинают отбирать для нас новости, книги и другие источники информации, они неизбежно начинают педалировать одни темы и скрывать другие. В результате будут расти изоляция пользователей друг от друга и разногласия между ними. Реальность одного пользователя будет отличаться от реальности другого, реальность которого будет совсем непохожа на реальность третьего, — этот парадокс мы рассмотрим более детально в главе 6.

Чем шире будет распространяться ИИ, тем больше он будет создавать рисков, и по мере развития ИИ необходимо учиться управлять этими рисками.

Ограничения ИИ и управление им

В отличие от предыдущего поколения ИИ, основанных на человеческом понимании реальности, ИИ с машинным обучением моделируют реальность самостоятельно. При этом разработчики не могут попросить ИИ объяснить, чему он научился, как это можно сделать с учеником-человеком. Невозможно узнать, чему именно научился ИИ и как он это сделал, — мы можем лишь наблюдать результаты, которые ИИ выдает после завершения обучения. Это означает, что людям нужно выполнять противоположную работу. Когда ИИ выдает результат, люди должны проверять его, чтобы быть уверенными, что это тот результат, который им нужен.

Иногда ИИ может обнаруживать нечто совершенно неожиданное. Не имея человеческого опыта, ИИ может делать выводы, которые являются истинными, но при этом находятся за границами человеческого понимания. Такие неожиданные открытия ИИ могут ставить людей примерно в то же положение, в каком когда-то оказался Александр Флеминг, первооткрыватель пенициллина, — однажды в его лаборатории плесень случайно заселила чашку Петри, уничтожив болезнетворные бактерии, из чего Флеминг сделал вывод о существовании ранее неизвестного сильнодействующего соединения. Человечество тогда не имело понятия об антибиотиках и не знало, как действует пенициллин. Значение этого открытия трудно переоценить. ИИ делает такие же поразительные открытия, когда находит новые лекарства или новые стратегии победы в игре, — людям при этом остается понять значение этих открытий и интегрировать их в существующее знание.

При этом ИИ не может «осознавать» значение того, что он обнаруживает. На протяжении многих эпох люди переживали уроки, горести и крайности войны, а затем рефлексировали на эти темы — так появились многие величайшие произведения искусства, от «Илиады» Гомера до «Герники» Пикассо. ИИ на это не способен ни с морально-этической, ни с философской точки зрения. Он просто применяет свой метод и выдает результат — банальный или шокирующий, доброкачественный или вредоносный. ИИ не может «почувствовать» себя обязанным «размышлять» о значении своих действий, поскольку он попросту не может мыслить. Поэтому люди должны регулировать и контролировать ИИ.

То, что ИИ неспособен к контекстуализации или человеческой рефлексии, требует особенно пристального внимания к некоторым его недостаткам. Например, известно, что система распознавания изображений Google опознавала изображения людей как животных, а животных — как оружия. Эти ошибки любой человек счел бы элементарными, но они ускользнули от внимания ИИ. Зачастую подобные ошибки приходится устранять уже после развертывания систем.

Такие ошибки обусловлены несколькими причинами. Одной из проблем является необъективность данных, используемых для машинного обучения. ИИ не сможет выработать хорошие модели без данных, но критическая проблема заключается в том, насколько эти данные объективны (непредвзяты). Например, системы распознавания лиц часто обучались на наборах данных с непропорционально малым количеством изображений темнокожих людей, что приводило к низкой точности. Имеет значение не только количество, но и охват — неизбежны ошибки, если обучать ИИ на большом количестве очень похожих изображений. Нельзя недооценивать важность обучения маловероятным ситуациям, если они создают высокие риски. Если в наборе данных для обучения автомобилей с автопилотом будет мало таких примеров, как прыжок оленя через дорогу, ИИ не будет знать, как действовать в таких сценариях, — при том что именно в таких случаях он должен работать на пиковом уровне.

Кроме того, необъективность ИИ может быть результатом человеческой предвзятости при подборе обучающих данных. Это может произойти при маркировке выходных данных для контролируемого обучения: если маркировщик допустил ошибку, преднамеренную или нет, ИИ закодирует ее. Другой случай — если разработчик некорректно задает функцию вознаграждения для обучения с подкреплением. Представьте себе шахматный ИИ, обученный на симуляторе, разработчик которого маркировал определенные ходы как предпочтительные. ИИ будет использовать такие ходы, даже если они объективно неудачны.

Конечно, проблема необъективности в технологиях не ограничивается ИИ. Прибор пульсоксиметр, который с начала пандемии COVID-19 стал известен почти каждому, поскольку служит для измерения двух важнейших показателей здоровья — пульса и насыщения кислородом, завышает насыщение кислородом у темнокожих людей. Дело в том, что он ориентируется на степень поглощения света тканями и, считая показатели поглощения светлой кожей «нормальными», фактически предполагает, что показатели поглощения темной кожей «ненормальны». В пульсоксиметре нет ИИ, но даже такой простой прибор необъективен по отношению к значительной части населения. Нам обязательно нужно понимать ошибки ИИ — и не прощать их, а исправлять. Необъективность пронизывает все аспекты человеческого общества, и это серьезная проблема, с которой нужно бороться.

Другой источник ошибочной идентификации — ненадежность ИИ. Рассмотрим случай ошибочного распознавания животного как оружия. Изображение вводит ИИ в заблуждение, потому что оно содержит тонкие характеристики, невидимые для человека, но заметные для ИИ, которые сбивают ИИ с толку. ИИ не обладает «здравым смыслом», он может смешивать два объекта, которые человек различает легко и быстро. Уровень проверки ИИ и режимов его соответствия требованиям на момент подготовки этой книги не особенно высок, поэтому зачастую возникают совершенно неожиданные ошибки. В реальном мире вред, нанесенный неожиданным сбоем ИИ, может быть очень велик, а устранение последствий такого сбоя — слишком трудоемко, поскольку обществу сложнее бороться с тем, чего оно не ожидало.

Ненадежность ИИ отражает недостаток глубины обучения современных ИИ. Зависимости между свойствами входных и выходных данных, получаемые при контролируемом обучении или обучении с подкреплением, значительно отличаются от подлинно человеческого понимания — с его многочисленными уровнями концептуализации и опыта. Ненадежность также отражает факт отсутствия сознания у ИИ. Поскольку ИИ не является разумным, он не знает, чего именно он не знает, и не может избегать ошибок, очевидных для человека. Неспособность ИИ самостоятельно контролировать корректность своей работы говорит о жизненной важности разработки методов тестирования, позволяющих человеку определять пределы возможностей ИИ, анализировать сценарии, предлагаемые ИИ, и предсказывать, когда ИИ может потерпеть неудачу.

Аналогично, жизненно важно создать процедуры оценки того, работает ли ИИ так, как ожидалось. Пока движущей силой ИИ будет машинное обучение, люди по-прежнему не будут знать, чему учится ИИ, и не будут понимать, откуда он знает то, чему научился. Само по себе это нормально — человеческое обучение часто бывает таким же непрозрачным. Художники и спортсмены, писатели и механики, родители и дети — да, собственно, все люди часто действуют интуитивно и не могут сформулировать, что и откуда они знают. Именно поэтому общество разработало для людей множество программ профессиональной сертификации, правила и законы. Аналогичные методы могут быть применены к ИИ, причем общество может разрешить использование ИИ только после того, как создатели продемонстрируют его надежность в процессе тестирования. Поэтому важной задачей общества станет разработка программ «профессиональной сертификации», комплаенса и надзора для ИИ, а также обеспечение необходимой аудиторской экспертизы.

В промышленности существует широкий диапазон режимов проверки продукции перед ее эксплуатацией. Если разработчики приложений часто торопятся выпустить свой продукт на рынок, исправляя его недостатки в режиме реального времени, то аэрокосмические компании тщательнейшим образом испытывают свои самолеты до того, как хоть один человек ступит на борт. Эти различия зависят от множества факторов, включая степень риска, присущую отрасли, нормативный надзор и рыночные силы. Аналогичная картина, вероятно, будет иметь место и для различных ИИ, причем ИИ для автомобилей с автопилотом будет, по всей видимости, подлежать более жесткому надзору, чем ИИ для развлекательных платформ и соцсетей вроде TikTok.

Такой режим тестирования возможен для ИИ, которые обучаются до ввода в эксплуатацию. Если же ИИ продолжает учиться в процессе эксплуатации, он может демонстрировать неожиданное или нежелательное поведение, как это произошло с чат-ботом Microsoft Tay в 2016 г. Столкнувшись в интернете с проявлениями ненависти, Tay тут же начал подражать им и вскоре был отключен. Благодаря тому что эволюция большинства ИИ по завершении обучения останавливается, обученные модели (то есть параметры нейронной сети) в дальнейшем не меняются. Это позволяет тестировать ИИ, не опасаясь того, что после ввода в промышленную эксплуатацию он начнет вести себя неожиданным или нежелательным образом. Когда алгоритм фиксирован, автомобиль с автопилотом, обученным реагировать на сигналы светофора, не может внезапно «решить» проехать на красный свет. Это делает возможным всесторонние испытания и сертификацию ИИ — инженеры могут проверять поведение автопилота с ИИ в тестовой среде, прежде чем устанавливать его на реальный автомобиль, где ошибка может стоить жизни. Это не означает, что ИИ не будет вести себя неожиданным образом, если его поставить в новые условия, это означает только то, что предварительная проверка работы ИИ возможна. Еще одна возможность проверки качества — аудит наборов данных. Убедившись в том, что ИИ для распознавания лиц обучается на разнообразных наборах данных или что чат-бот использует для обучения тексты, из которых исключены проявления ненависти, разработчики могут понизить вероятность того, что ИИ даст сбой при вводе в эксплуатацию.

В любом случае ИИ действует в соответствии со своим кодом, что означает три вида ограничений. Во-первых, код задает параметры возможных действий ИИ. Эти параметры могут быть довольно широкими, допускающими значительный диапазон самостоятельности ИИ — а значит, и высокий уровень риска. ИИ автомобиля с автопилотом может тормозить, ускоряться и поворачивать, и любое из этих действий может привести к столкновению. Тем не менее параметры, задаваемые кодом, устанавливают некоторые ограничения поведения ИИ. Например, хотя AlphaZero и разработал новые поразительные шахматные стратегии, он не может нарушать шахматные правила — например, он не может сделать ход пешкой назад. Он попросту неспособен совершать действия, выходящие за рамки параметров его кода, — если некие действия изначально не заложены или непосредственно запрещены разработчиками, ИИ не сможет их совершать. Во-вторых, возможности ИИ зависят от его целевой функции. Эта функция определяет, какую именно задачу оптимизации решает ИИ. ИИ, открывший халицин, искал связь между химическими свойствами молекул и их антибиотическим потенциалом. Ограниченный своей целевой функцией, этот ИИ не мог бы попытаться найти молекулы лекарства против рака. Наконец, что наиболее очевидно, ИИ может обрабатывать только те входные данные, для распознавания и анализа которых он предназначен. На вход ИИ машинного перевода нельзя дать изображение — без вспомогательной программы оно покажется машине бессмыслицей.

Возможно, когда-нибудь ИИ смогут писать свой собственный код — уже известны зачаточные и весьма спорные попытки таких разработок. Но даже такие ИИ, скорее всего, не будут обладать самосознанием, их действия будут определяться их функциональностью и ограничениями. Они смогут писать код так же блестяще, как AlphaZero играет в шахматы, — но без размышлений и проявлений воли, в строгом соответствии с правилами. И несмотря на все эти ограничения, ИИ — это нечто поразительное.

Что ждет ИИ

Развитие алгоритмов машинного обучения в сочетании с большими объемами данных и значительными вычислительными мощностями обеспечило быстрый прогресс в применении ИИ, который, в свою очередь, подстегивал воображение и инвестиции. Разработка и внедрение ИИ, особенно в области машинного обучения, идут по всему миру, но главные центры этой деятельности — США и Китай. Университеты, исследовательские лаборатории, корпорации и стартапы обеих стран сейчас находятся на переднем крае разработки и внедрения машинного обучения для ИИ.

Многие аспекты ИИ и машинного обучения еще предстоит разработать и понять. Например, ИИ, основанный на машинном обучении, требует значительного объема обучающих данных, для которого, в свою очередь, нужна значительная вычислительная инфраструктура, что делает непомерно дорогим переобучение ИИ, даже если оно целесообразно. Поскольку требования к данным и оборудованию замедляют создание более совершенного ИИ, важным этапом станет разработка методов обучения с использованием меньших объемов данных и менее существенных вычислительных мощностей.

Кроме того, несмотря на значительные достижения в области машинного обучения, для ИИ по-прежнему представляют проблему сложные виды деятельности, совмещающие несколько задач. Например, таким видом деятельности остается управление автомобилем, которое требует одновременного решения ряда задач — от визуального восприятия до выбора маршрута и выполнения маневров, предотвращающих аварии. Хотя за последнее десятилетие в этой области был сделан огромный прогресс, достичь эффективности вождения на уровне человека все еще сложно. В настоящее время ИИ уже способен демонстрировать хорошее вождение на шоссе с ограниченным доступом или в пригородах — но не в хаотичных условиях, таких как городское движение в час пик. Кстати, вождение по шоссе представляется особенно перспективным, поскольку водители-люди в таких условиях могут расслабляться и отвлекаться. Возможно, в недалеком будущем ездить на большие расстояния с ИИ станет безопаснее, чем с водителем-человеком.

Темпы развития ИИ предсказать сложно. В 1965 г. инженер Гордон Мур предположил, что вычислительная мощность будет удваиваться каждые два года. Его предсказание оказалось удивительно верным, но ИИ развивается гораздо менее линейно. Например, ИИ для перевода с иностранных языков был в застое целые десятилетия, пока не начал бешеными темпами развиваться благодаря сочетанию новых методов с увеличением вычислительных мощностей. Всего за несколько лет люди создали ИИ, способный переводить не хуже обычного двуязычного человека. Сколько времени потребуется на то, чтобы ИИ начал переводить как действительно талантливый профессиональный переводчик, неизвестно — если это вообще когда-нибудь произойдет.

Не менее сложно предсказать темпы внедрения ИИ в новых областях. Очевидно лишь, что стоит ожидать значительного роста возможностей ИИ. Независимо от того, сколько лет (или десятков лет) на это уйдет, это неизбежно. ИИ-приложения станут более компактными, эффективными, недорогими, а значит, и более популярными, чем сегодня. ИИ будет все глубже внедряться в нашу повседневную жизнь как заметным, так и незаметным для нас образом.

Разумно ожидать, что ИИ будет развиваться с не меньшей скоростью, чем вычислительные мощности, то есть со скоростью удвоения каждые два года, — а это значит, что за 15–20 лет его возможности вырастут в миллион раз. Такой рост позволит создавать нейронные сети в масштабах, сравнимых с человеческим мозгом. Сегодня самые крупные сети, такие как GPT-3, имеют около 1011 связей, что в 105 раз меньше, чем число синапсов в человеческом мозге, — но этот разрыв может сократиться менее чем за десятилетие. Это не значит, что такие нейросети будут иметь интеллект, равный человеческому. Неизвестно, какой уровень возможностей будет поддерживать такая сеть, — ведь некоторые приматы имеют объем мозга не меньше или даже больше, чем у человека, но ничего похожего на человеческий интеллект у них нет. Скорее, результатом может быть появление очень мощных специализированных ИИ («ИИ-савантов»), значительно превосходящих человеческие показатели в определенных областях.

Пока расширяется применимость и повышается производительность ИИ, очень важно не забывать, что у ИИ нет никаких ценностей, мотиваций и целей. ИИ — просто сложные вычислительные модели реальных отношений, их можно использовать для прогнозирования неких событий или идентификации неких объектов. При правильном применении ИИ могут выполнять очень сложные задачи, такие как вождение автомобиля, игра в шахматы или перевод с других языков. Но они не могут выбирать, чем им заниматься, о чем размышлять и какие делать выводы.

Не исключено, что дальнейшее развитие методов машинного обучения приведет к созданию общего искусственного интеллекта (AGI). У AGI нет точного определения. Обычно под ним понимают ИИ, способный решать любые интеллектуальные задачи, свойственные человеку, в отличие от сегодняшних узкоспециализированных ИИ, разрабатываемых для решения конкретных задач. Но это не будет «богоподобный» ИИ, во всем превосходящий человеческий интеллект.

Машинное обучение будет еще важнее для развития AGI, чем сегодня — для современного ИИ. Кстати, поскольку даже всесторонне развитые люди все равно специализируются в определенных областях, не исключено, что AGI на практике тоже будет ограничен теми или иными сферами экспертизы. Один из возможных путей развития AGI предполагает обучение традиционных ИИ в нескольких областях, а затем своеобразное объединение их экспертной базы в единый ИИ. Такой ИИ может быть более разносторонним и надежным, чем нынешние ИИ, — то есть способным выполнять более широкий круг задач и не допускающим столь серьезных ошибок на границах своей компетенции.

Но пока неясно, возможен ли AGI в принципе и какими характеристиками он может обладать. Будет ли он больше похож на среднего человека, или он будет равняться на лучших? Если AGI будет развиваться вышеописанным способом, при помощи агрегации традиционных узкоспециализированных глубоко обученных ИИ, тяжело придется даже очень искушенным исследователям с очень щедрым финансированием. Разработка таких ИИ потребует огромных вычислительных мощностей и будет оцениваться в миллиарды долларов, что смогут позволить себе лишь немногие.

В любом случае неочевидно, что создание AGI существенно изменит курс, которым человечество идет сегодня, используя алгоритмы машинного обучения. Так или иначе, важную роль в создании и эксплуатации ИИ (или AGI) по-прежнему будут играть разработчики-люди. Именно люди в обозримом будущем станут определять алгоритмы, обучающие данные и цели машинного обучения. Методы машинного обучения будут совершенствоваться, но ИИ по-прежнему будут отражать ценности, мотивы, цели и суждения своих создателей — по крайней мере в ближайшей перспективе.

Независимо от того, появится ли AGI, ИИ будет распространяться все шире, и его мощь будет расти. По мере снижения стоимости разработки и внедрения ИИ будет появляться все больше управляемых им устройств. Благодаря Alexa, Siri и Google Assistant они уже стали повсеместными. ИИ будет все чаще встраиваться в транспортные средства, инструменты и приборы, контролируемые человеком. ИИ на цифровых устройствах и в интернете будет помогать потребителям и выводить предприятия на новый уровень. Наш мир станет более автоматизированным и более интерактивным — люди будут взаимодействовать с машинами, даже если они не похожи на роботов из кинофантастики. Жизнь станет менее опасной. Автомобили с автопилотом снизят смертность в ДТП, ИИ-диагносты будут раньше и точнее выявлять болезни, а ИИ-фармацевты — открывать новые лекарства и методы их доставки, снижая стоимость исследований, и это приведет к разработке методов лечения трудноизлечимых болезней и появлению лекарств от плохо изученных заболеваний. ИИ-пилоты будут управлять беспилотниками и даже истребителями. ИИ-программисты будут завершать программы, начатые разработчиками-людьми, а ИИ-писатели будут дописывать рекламные объявления, придуманные маркетологами-людьми. ИИ снизит транспортные и логистические расходы, а также потребление энергии и воздействие человека на окружающую среду. И в гражданской, и в военной сферах воздействие ИИ будет поразительным.

С другой стороны, трудно предсказать социальные последствия дальнейшего развития ИИ. Например, универсальный перевод устной речи и текстов должен способствовать сближению различных языков и народов и обеспечивать беспрецедентный межкультурный обмен. Но эта возможность приведет и к новым проблемам. Как социальные сети позволяют распространять не только ценные идеи, но и дезинформацию, провоцирующую вражду и ненависть, автоматический перевод может довести сближение различных языков и культур до взрывоопасной точки. На протяжении многих веков дипломаты тщательно контролировали межкультурные контакты, чтобы избегать случайных оскорблений, и наряду с обучением языкам практиковалось ознакомление с культурными особенностями разных народов. Мгновенный перевод устраняет эти буферы. Рост антагонизма и ксенофобии может начаться без всяких предисловий. Станут ли люди, полагающиеся на автоматический перевод, больше интересоваться особенностями других культур или, наоборот, будут ими пренебрегать, превыше всего ставя собственную культуру и национальную идентичность? Сможет ли автоматический перевод учитывать особенности культур, сглаживая слишком болезненные вопросы? Скорее всего, единого ответа не будет.

Понимая, как ИИ изменит мир, мы должны обратить внимание на организации, которые создают ИИ. Современный ИИ нельзя сделать в одиночку. Создание передовых ИИ требует огромных объемов данных, колоссальных вычислительных мощностей и лучших специалистов. Очевидно, что доступ к таким ресурсам могут иметь только самые передовые организации — они будут внедрять новейшие ИИ и становиться еще мощнее. Чем больше развивается ИИ, тем сильнее он влияет как на жизнь отдельных людей, так и на деятельность целых компаний и государств.

ИИ нуждается в самом пристальном внимании во всех своих аспектах. Во многих областях — от коммуникаций, торговли и безопасности до человеческого самосознания — ИИ изменит нашу жизнь и будущее.

Назад: Глава 2. Как мы здесь оказались. История человеческого мышления
Дальше: Глава 4. Глобальные сетевые платформы