Книга: Искусственный интеллект – надежды и опасения
Назад: Глава 22 Мечты «алгористов» об объективности
Дальше: Глава 24 Художественное применение кибернетических существ

Глава 23
Права машин

Джордж М. Черч
профессор-стипендиат генетики в Гарвардской медицинской школе, профессор медицинских наук и технологий в Гарварде и МТИ, автор (с Эдом Реджисом) книги «Регенезис: как синтетическая биология заново изобретает природу и нас самих».
В последнее десятилетие генная инженерия догнала в развитии компьютерные науки и вошла в число новых научных инициатив, определяющих нашу повседневную жизнь. Генетик Джордж Черч, лидер революции в изучении и описании биологии, является ключевой фигурой этого нового ландшафта идей. Он рассматривает человеческое тело как операционную систему, а инженеры, по его мнению, должны потеснить традиционных биологов в процедурах «переоснащения» компонентов организмов (от атомов до органов), как произошло в другой отрасли знаний в конце 1970-х годов, когда инженеры-электрики прокладывали путь к первым персональным компьютерам, компонуя печатные платы, жесткие диски, мониторы и т. д. Джордж затеял и возглавил проект «Персональный геном», который, единственный в мире, предоставляет открытую информацию о генетических, экологических и поведенческих данных (GET) и может считаться «первой ласточкой» растущей индустрии исследований ДНК.
Также Джордж в немалой степени причастен к разработке основ программы BRAIN (Brain Research through Advancing Innovative Neurotechnologies – исследование мозга посредством инновационных нейротехнологий) президента Обамы (2013), ориентированной на стимулирование человеческого мышления до степени, когда для выполнения большей части повседневных задач нам не понадобится (чреватая рисками) помощь ИИ. «Возможно, некоторые проекты инициативы BRAIN позволят нам обрести сознание, лучше соответствующее нашей этике и способное к решению сложных задач, обычно относимых к области искусственного интеллекта, – говорит Джордж. – На сегодняшний день надежнее всего побудить людей к выполнению все тех задач, которые они хотели бы поручить машинам, но мы пока не спешим встать на эту дорогу к безопасному будущему».
Средства массовой информации, писавшие о прорывах в генной инженерии, почему-то в целом проигнорировали недавнее, крайне важное и новаторское достижение Джорджа: он использовал локус CRISPR (а также методики, более совершенные, чем локусы CRISPR) для редактирования геномов человеческих клеток.
Отношение Джорджа к будущим формам общего искусственного интеллекта в целом позитивно, о чем свидетельствует и очерк ниже. При этом он никогда не упускает из вида проблему безопасности ИИ. Процитирую его замечание по этому поводу: «На мой взгляд, главный риск ИИ заключается не столько в том, сможем ли мы математически понять, о чем он думает, сколько в том, способны ли мы научить машину этическому поведению. Ведь мы едва способны научить такому поведению друг друга».

 

В 1950 году Норберт Винер в книге «Человеческое применение человеческих существ» проявил удивительную прозорливость, предупредив, что
…подобная джинну машина, способная к обучению и принятию решений на базе этого обучения, никоим образом не окажется обязанной принимать те решения, какие приняли бы мы сами или какие были бы приемлемыми для нас… Доверяем ли мы наши решения машинам из металла или тем машинам из плоти и крови, которые организуются в бюро, крупные лаборатории, армии и корпорации… Час почти пробил, выбор между добром и злом стоит у нашего порога.
Таков был главный посыл его книги, и шестьдесят восемь лет мы жили с этим ощущением, не располагая ни рецептами спасения, ни запретами, ни даже четко сформулированной «постановкой проблемы». С тех пор мы неоднократно слышали предупреждения об угрозе со стороны машин, даже адаптированные под широкие массы; вспомним такие фильмы, как «Колосс: проект Форбина» (1970), «Терминатор» (1984), «Матрица» (1999) и «Из машины» (2015). Но наконец настала пора серьезно обновить наши воззрения и рассмотреть новые перспективы – в особенности обобщить наши «человеческие» права и экзистенциальные потребности.
Общественная обеспокоенность проявляется обычно в противопоставлении «их [роботов] и нас», а также в страхе перед «серой слизью [нанотехнологии]» или перед «монокультурными клонами [биотехнологии]». Экстраполируем текущие тренды: а что произойдет, окажись мы в состоянии вырастить или сотворить почти что угодно и добиться любого желаемого уровня безопасности и эффективности? Любое мыслящее существо (состоящее из атомов) обретет тогда доступ ко всем технологиям.
Вероятно, нам следует меньше беспокоиться о противостоянии с «ними» и больше – о правах всех разумных на фоне возникающего беспрецедентного разнообразия разумов. Мы должны использовать это разнообразие для минимизации глобальных экзистенциальных рисков, будь то извержение супервулкана или прилет астероида.
Но правильно ли говорить «должны»? (Дисклеймер: в этом и во многих других случаях при описании развития общества, которое «могло бы», «должно» или «обязано» иметь место, технолог не обязательно излагает собственные соображения на сей счет. Нередко это предупреждение, неопределенность выбора или независимая оценка.) Робототехник Джанмарко Веруджо и другие специалисты с 2002 года поднимают вопросы роботоэтики; Министерство торговли и промышленности Великобритании и Институт будущего корпорации «РЭНД» изучают вопросы прав роботов с 2006 года.
«Есть» против «должно быть»
Принято говорить, что наука изучает то, что «есть», а не то, что «должно быть». Рассуждения Стивена Джея Гулда о «непересекающихся магистериях» подразумевают, что следует строго различать факты и ценности. Точно так же в манифесте «Наука и креационизм» (1999) Национальной академии наук США отмечается, что «наука и религия принадлежат двум разным сферам познания». Это разделение критиковали многие – эволюционный биолог Ричард Докинз, я сам и др. Можно обсуждать значение слова «следует» в формулировке «Следует сделать X, чтобы добиться Y». Какова приоритетная величина Y, не обязательно решается демократическим голосованием, зато может определиться в ходе дарвиновского «голосования». Системы ценностей и религии возникают и исчезают, диверсифицируются, расходятся и сливаются, подобно живым существам, то есть они подвержены отбору. Конечная «ценность» («следует») обеспечивается выживанием генов и мемов.
Немногие религии утверждают отсутствие каких бы то ни было связей между нашим физическим бытием и духовным миром. Чудеса задокументированы. Конфликты между церковной доктриной и учениями Галилея и Дарвина постепенно улаживаются. Вера и этика широко распространены среди людей и могут быть изучены с использованием научных методов, включая, помимо прочего, МРТ, психоактивные препараты, опросники и пр.
С практической точки зрения мы должны опираться на этические нормы, встроенные, усвоенные или вероятностно отобранные для все более интеллектуальных и разнообразных машин. Но возникает целый ворох проблем в духе проблемы вагонетки. При каком количестве людей в «очереди на смерть» компьютер должен принять решение и передвинуть конкретного человека вперед или назад? В конечном счете это задача глубинного обучения, когда придется принимать во внимание огромные базы данных и учитывать непредвиденные обстоятельства, что, казалось бы, не имеет прямого отношения к этике.
Например, компьютер может сделать вывод, что человек, который избежит смерти, если не вмешаться, является осужденным террористом-рецидивистом, способным распространить по миру смертоносный патоген, – или он станет святым POTUS, а также окажется звеном в цепочке гораздо более значимых событий в альтернативной реальности. Если какое-либо из приведенных описаний выглядит парадоксальным или нелогичным, возможно, начальные условия задачи сформулированы таким образом, что колебаний и нерешительности не избежать.
Либо можно использовать неправильное направление для настройки системы, дабы ошибочные режимы не попадали в фокус внимания. Например, в исходной формулировке проблемы вагонетки подлинно этическое решение было принято намного раньше, когда людям позволили выходить на рельсы – или еще раньше, когда мы предпочли расходы на развлечения расходам на обеспечение общественной безопасности. Вопросы, на первый взгляд нелепые и тревожные, например: «Кто владеет новыми умами и кто платит за их ошибки?», схожи с привычными законами, определяющими, кто владеет корпорациями и платит за их грехи.
Скользкие склоны
Мы можем (чрезмерно) упростить этику, предположив, что какие-то сценарии не реализуются никогда. Технические проблемы и «красные линии», которые невозможно пересечь, обнадеживают, но реальность такова, что, едва выгоды перевешивают риски (пусть на краткий срок и на чуть-чуть), «красная линия» немедленно смещается. Незадолго до рождения Луизы Браун в 1978 году многие люди ворчали, что ей суждено «стать настоящим маленьким монстром, уродливым, искалеченным, с которым что-то не так». Мало кто сегодня придерживается подобного взгляда на экстракорпоральное оплодотворение.
Какие технологии прокладывают путь к мультиплексной чувствительности? Дело не только в алгоритмах глубинного машинного обучения и «Большой железяке». Мы искусственно заставляем грызунов эффективно решать различные когнитивные задачи, а также проявлять другие значимые черты личности, скажем, настойчивость и умение сосредотачиваться. Применимы ли такие методики к животным, которые уже стоят на пороге человеческого (человекоподобного) интеллекта? Некоторые из них демонстрируют самопознание в зеркальном тесте (шимпанзе, бонобо, орангутанги, некоторые дельфины, киты и сороки).
Даже «красная линия» человеческого манипулирования людьми подвержена, судя по множеству признаков, смещениям вплоть до полного разрушения. Во всем мире ведется свыше 2300 одобренных клинических испытаний генной терапии. Основной медицинской целью заявлено лечение и профилактика ослабления когнитивных функций, что немаловажно с учетом быстрого старения человечества в глобальном масштабе. Некоторые методы лечения используют когнитивные «улучшатели» (лекарства, гены, клетки, трансплантаты, имплантаты и т. д.). Их наверняка будут применять не по назначению. Правила спортивных соревнований (например, запрет на стероиды и эритропоэтин) не распространяются на интеллектуальные состязания в реальном мире. Прогресс в борьбе с ослаблением когнитивных способностей, по определению, чреват побочными эффектами.
Еще одна передовая человеческого применения человеческих существ – «мозговые органоиды». Мы научились ускорять биологическое развитие. Процессы, которые обычно растягиваются на месяцы, в лаборатории возможно свести к четырем суткам при использовании правильных «рецептов» для факторов транскрипции. Мы можем создать мозг, который с повышенной точностью воспроизведет различия между людьми, страдающими от рождения аберрантными когнитивными расстройствами (например, микроцефалией). Добавим сюда «правильную» сосудистую сеть (вены, артерии и капилляры), отсутствовавшую ранее, и это позволит мозговым органоидам превзойти прежний субмикролитровый предел, возможно, даже оставить позади нынешний объем человеческого мозга (1,2 литра) – а то и 5-литровый мозг слона или 8-литровый мозг кашалота.
Обычные компьютеры против биоэлектронных гибридов
Сегодня, когда миниатюризация по закону Мура приближается к следующему скачку в мощности (безусловно, этот барьер отнюдь не сплошная стена), мы наблюдаем пределы стохастики атомов легирующей примеси в кремниевых пластинах и пределы уменьшения размеров на рубеже порядка 10 нанометров. Проблемы с энергопотреблением столь же очевидны: великий Watson, победитель в игре «Jeopardy!», требовал напряжения 85 000 ватт в режиме реального времени, тогда как человеческому мозгу достаточно 20 ватт. Впрочем, не станем передергивать: человеческому организму требуется 100 ватт для функционирования и двадцать лет развития, следовательно, он расходует около 6 триллионов джоулей энергии для «производства» зрелого человеческого мозга. Стоимость вычислений масштаба Watson аналогична. Так почему же люди не вытесняют компьютеры?
Во-первых, разумы игроков в «Jeopardy!» выполняли гораздо больше дел, чем просто поиск информации, причем программа Watson многие из них наверняка посчитала бы ненужным отвлечением (скажем, контроль улыбок мозжечком). Кроме того, человеческий мозг допускает, чтобы некоторые способности выскакивали, как чертик из коробки, и эта трансцендентность непостижима для Watson (вспомним пять знаменитых annus mirabilis Эйнштейна 1905 года). Вдобавок люди потребляют больше энергии, чем минимум (100 Вт), необходимый для жизни и размножения. В Индии тратят в среднем 700 Вт на человека, в США – до 10 000 Вт. Конечно, это меньше, чем 85 000 Вт системы Watson. Компьютеры могут стать более похожими на нас благодаря нейроморфным вычислениям – возможно, окажутся заметно ближе к нам. Но человеческий мозг тоже способен стать эффективнее. Органоидный «мозг в бутылке» может достичь предела в 20 Вт. Уникальные преимущества компьютеров в математике, хранении и поиске данных (свойства, не слишком-то востребованные нашими предками) можно спроектировать и развить заново в лабораториях.
Компания «Фейсбук», Агентство национальной безопасности США и прочие возводят хранилища площадью четыре гектара и с мегаваттной мощностью, а человеческая ДНК вмещает столько же данных в миллиграмме. Очевидно, что ДНК не является зрелой технологией хранения данных, но, учитывая, что «Майкрософт» и «Техниколор» планируют удвоить ее емкость, разумно обратить внимание на эти изыскания. Главной причиной расхода 6 триллионов джоулей энергии для получения продуктивного человеческого разума являются двадцать лет обучения.
Пускай суперкомпьютер может «обучать» своих клонов за считаные секунды, затраты на производство зрелого кремниевого клона сопоставимы. Инженерные (человеческие) чудеса мало ускоряют этот медленный процесс, но вот ускорение разработки и внедрения новой памяти (аналогичной ДНК или иной) может сократить время дупликации биокомпьютера до предела дупликации клеток (от одиннадцати минут до двадцати четырех часов). Дело в том, что, пусть нам неведомо, какое соотношение био-/гомо-/нано-/робогибридов будет доминирующим на каждом этапе нашей ускоряющейся эволюции, мы можем стремиться к высоким уровням гуманного, справедливого и безопасного обращения («применения» друг друга).
Английский «Билль о правах» датируется 1689 годом. Франклин Д. Рузвельт провозгласил «Четыре свободы» – свободу слова, свободу совести, свободу от страха и свободу от нужды. Всеобщая декларация прав человека ООН (1948) гарантирует право на жизнь, запрещает рабство, защищает права человека в случае их нарушения, гарантирует свободу перемещений, собраний, мысли, совести и веры, перечисляет социальные, экономические и культурные права, формулирует обязанности человека перед обществом и запрещает злоупотребление правами в нарушение целей и принципов Организации Объединенных Наций.
«Универсальный» характер этих прав отнюдь не является по-настоящему универсальным и подвергается широкой критике, а также нарушается. Как повлияет на ситуацию возникновение искусственного интеллекта? Что ж, можно предположить, что будет все труднее прятаться за интуицией при вынесении этических решений («Я узна́ю, когда увижу воочию», как высказался судья Верховного суда США Поттер Стюарт в 1964 году), за «мудростью отвращения» (так называемый фактор гадости Леона Касса, 1997 год), или за невнятными ссылками на «здравый смысл». Поскольку нам приходится иметь дело с чуждым разумом, причем порой чуть ли не в буквальном смысле с нашей точки зрения, нужно вести себя доходчиво – если хотите, алгоритмически.
Беспилотные автомобили и летательные аппараты, биржевые сделки, деятельность АНБ и все остальные сферы деятельности требуют быстрого и заранее одобренного принятия решений. Мы можем тем самым получить представление о многих аспектах этики, которые пытались выявить и объяснить на протяжении столетий. Тут предстоит учитывать конфликтующие приоритеты, а также укоренившиеся биологические, социологические и отчасти (наполовину) логические когнитивные предвзятости. Примечательно, что универсальным догмам прав человека прямо противоречат представления о неприкосновенности частной жизни и достоинстве личности, положенные в основу многих законов и руководящих принципов.
У людей может возникнуть желание изучить (и изменить) мышление компьютеров, чтобы понять, почему те принимают решения, противоречащие нашим человеческим инстинктам. Разве не справедливо будет со стороны машины захотеть того же от нас? Мы отмечаем стремление к прозрачности, позволяющее предотвращать потенциальные финансовые конфликты, распространение программного обеспечения с открытым исходным кодом, свободного аппаратного и «мозгового» обеспечения; нелишним будет вспомнить закон о равном доступе к науке и технологиям (FASTR) и деятельность фонда «Открытые люди».
В своей книге «Возможности вычислительных машин и человеческий разум» (1976) Джозеф Вейценбаум утверждал, что машины не должны заменять человека в ситуациях, требующих проявлений уважения, достоинства или заботы, но другие авторы – Памела Маккордак, ученые Джон Маккарти и Билл Хиббард – считают, что машины могут быть беспристрастнее, спокойнее и последовательнее, а также причинять меньше вреда, чем люди на соответствующих должностях.
Равенство
Что имел в виду тридцатитрехлетний Томас Джефферсон в 1776 году, когда писал: «Мы считаем самоочевидной истиной, что все люди созданы равными, что Создатель наделил их определенными неотъемлемыми правами, что среди оных – жизнь, свобода и поиски счастья»? Разнообразие нынешних людей потрясает. В 1776 году «людьми» не считались цветные и женщины. Даже сегодня люди с врожденными когнитивными или поведенческими проблемами удостаиваются неравного обращения (хотя в большинстве случаев к ним относятся с состраданием) – говорим ли мы о синдроме Дауна, болезни Тея – Сакса, синдроме хрупкости, церебральном параличе или чем-то еще.
А при смене географии обитания и при взрослении наши неравные права резко изменяются. Эмбрионы, младенцы, дети, подростки, взрослые, пациенты, преступники, гендеры в их идентичностях и предпочтениях, богачи и нищие – все обладают различными правами в различных социально-экономических реалиях. Скажем, один способ получения и сохранение за новыми разумами прав, аналогичных человеческой элите, состоит в возведении человеческого «щита» (подставной правитель или генеральный директор, подписывающий вслепую огромные технические документы, якобы принимающий важнейшие финансовые, медицинские, дипломатические и военные решения). Вероятно, нам будет очень трудно выдернуть вилку из розетки, модифицировать или стереть (убить) компьютер и его воспоминания, особенно если машина подружится с людьми и станет молить ее пощадить (как поступили бы, без сомнения, все люди в аналогичной ситуации).
Даже Скотт Адамс, создатель Дилберта, обратился к этой теме после экспериментов в университете Эйндховена в 2005 году и отметил, насколько восприимчивы люди к типажу робота-жертвы (сразу вспоминаются опыты Милгрэм в Йельском университете в 1961 году). С учетом прав корпораций, в том числе права собственности, кажется, что другие машины должны получить схожие права и нас ожидает борьба за сохранение неравенства в правах по многоосевым градиентам интеллекта и эрзац-чувств.
Радикально различающиеся правила для людей, «нелюдей» и гибридов
Отмеченное выше разделение в правах внутри вида Homo Sapiens перерастает в открытый бунт неравенства, едва речь заходит о сущностях, которые добавляются (или скоро добавятся) к многообразию человечества. В программе Google Street View лица людей и номерные знаки автомобилей размываются. Видеоустройства во многих присутственных местах, скажем, в судах и залах парламентских заседаний, запрещены. Переносные общедоступные камеры с программным обеспечением для распознавания лиц балансируют на грани запрета. Должны ли люди с гипертимезией или фотографической памятью подпадать под эти ограничения?
Разве людям с просопагнозией (синдром «неузнавания лиц») или забывчивостью не принесет пользу программное обеспечение для распознавания лиц и оптического распознавания символов? А чем эти люди лучше остальных? При наличии у каждого тех или иных инструментов разве не все вправе рассчитывать на некую выгоду?
Эти сценарии перекликаются с рассказом Курта Воннегута «Гаррисон Бержерон» (1981), по сюжету которого любая исключительная способность подавляется из уважения к посредственному общему знаменателю социума. Мысленные эксперименты наподобие «китайской комнаты» Джона Серла и «трех законов робототехники» Айзека Азимова отсылают к тем проявлениям интуиции, которые изводят человека и которые описаны Дэниелем Канеманом, Амосом Тверски и другими психологами. Эксперимент с «китайской комнатой» показывает, что разум, состоящий из механических и человеческих частей, не может быть сознательным, сколь бы компетентен в умном (китайском) разговоре он ни был, если только человек не в состоянии выявить источник сознания и его «почувствовать». Насильственное предпочтение Первого и Второго законов Азимова ставит человеческий разум выше любого другого, права которого скромно охраняет Третий закон (самосохранение).
Если сознание роботов не является копией человеческого, то это предлог предоставить им урезанные права; помнится, мы уже где-то слышали, что другие племена и народы нельзя считать полноценными людьми. Роботы демонстрируют свободу воли? Они осознают себя? Роботы Qbo прошли зеркальный тест на самопознание, а роботы NAO выдержали соответствующий тест на распознавание собственного голоса и сообщение о внутреннем состоянии, вслух или на экране.
Для свободы воли у нас есть алгоритмы, которые нельзя назвать ни полностью детерминированными, ни случайными, но которые направлены на почти оптимальное принятие вероятностных решений. Можно утверждать, что это практическое дарвиновское следствие теории игр. Для многих (не для всех) игр/задач полная предсказуемость и абсолютная случайность равнозначны поражению.
В чем же заключается привлекательность свободы воли? Исторически она позволяла нам грозить себе карами в контексте вознаграждения и наказания – на Земле или в загробной жизни. Наказание может подразумевать побуждение индивидуума к изменению приоритетов, дабы помочь выживанию вида. В предельных случаях это лишение свободы и другие ограничения, если позитивного/негативного подкрепления по Скиннеру оказывается недостаточно для защиты общества. Очевидно, что такие инструменты могут применяться к свободе воли в широком смысле – к любой машине, поведением которой мы хотели бы управлять.
Мы можем спорить о том, действительно ли робот испытывает некие субъективные ощущения, связанные со свободой воли и самосознанием, но то же самое касается и человека. Откуда мы знаем, что социопат, пациент в коме, человек с синдромом Уильямса или ребенок наделены той же свободой воли и тем же самосознанием, что и мы сами? И какое значение это имеет на практике? Если люди (любого типа) убедительно заявляют, что испытывают сознание, боль, экстаз, счастье, осознают амбиции и/или свою полезность для общества, должны ли мы лишать их прав, поскольку их гипотетические качества гипотетически отличаются от наших?
«Красные линии» запретов, которые нам категорически возбраняется пересекать, все чаще кажутся бессмысленными и заслуживающими стирания. Разрыв между человеком и машиной исчезает, ибо машины все больше похожи на людей, а люди становятся все более похожими на машины – и не только потому, что мы старательно следим за маршрутами, проложенными GPS, рефлекторно отвечаем на твиты и поддаемся на тщательно продуманные маркетинговые уловки, но и потому, что мы все лучше узнаем наше сознание и его механизмы и углубляемся в генетическое программирование. Инициатива BRAIN от Национального института здравоохранения (NIH BRAIN) стимулирует разработку и внедрение инновационных технологий для отслеживания ментальных связей мозга ради совершенствования электронного и синтетического нейробиологического оборудования.
Запреты отталкиваются от установок генетической исключительности, признающих гены постоянно наследуемыми (хотя обратимость процедуры доказана), зато всевозможные (и смертоносные) технологии, скажем, автомобили, признаются полезными и обязательными к применению вследствие влияния различных социальных и экономических сил. В рамках генетики «красные линии» побуждают нас запрещать или избегать генетически модифицированных продуктов питания, зато мы одобряем генетически модифицированные бактерии, вырабатывающие инсулин, и даже генетически модифицированных людей (вспомним митохондриальную терапию, которую в Европе прописывают взрослым и эмбрионам).
Это манипулирование зародышами выглядит менее разумным, чем обычная практика, сводящаяся к соображениям безопасности и эффективности. Брак двух (в остальном здоровых) носителей одного и того же генетического заболевания предлагает выбор: не заводить ребенка, рискнуть 25-процентной вероятностью гибели эмбриона в результате аборта (самопроизвольного или искусственного), 80-процентной вероятностью гибели эмбриона в результате оплодотворения in vitro – или потенциально нулевыми шансами эмбриона на гибель при использовании генной инженерии. Кажется преждевременным объявлять последний вариант «недостойным».
Что касается «исследований на людях», мы ссылаемся на Хельсинкскую декларацию 1964 года, имея в виду эксперименты в Таскиги 1932–1972 годов – возможно, наиболее печальную страницу в биомедицинской истории США. В 2015 году Проект по защите прав человека подал иск в Верховный суд штата Нью-Йорк от имени двух шимпанзе, оставленных для исследовательских целей в университете Стони Брук. Апелляционный суд постановил, что шимпанзе не должны рассматриваться как юридически дееспособные лица, поскольку они «не имеют обязанностей и ответственности перед обществом», сколько бы Джейн Гудолл и прочие ни утверждали обратное, и не принял во внимание довод, что это решение можно распространить на детей и инвалидов.
Что мешает распространению наших прав на других животных, органоидов, машины и гибридов? Мы (например, Хокинг, Маск, Таллинн, Вильчек, Тегмарк) добиваемся запрета на «автономное оружие» и тем самым ликвидировали минимум один тип «тупых» машин, однако другие машины – например, из множества Homo Sapiens, голосующих на выборах, – могут быть смертоноснее и ошибаться чаще.
Неужели трансгуманы уже бродят по Земле? Рассмотрим «неохваченные народы», так сказать, нынешние палеонароды – сентинельцев и прочих андаманцев в Индии, коровай в Индонезии, машко-пиро в Перу, пинтуби в Австралии, сурма в Эфиопии, рук во Вьетнаме, айорео-тотобьегосоде в Парагвае, химба в Намибии и десятки племен в Папуа – Новой Гвинее. Что ответят нам они и что ответили бы наши предки? Мы могли бы определить «трансгуманов» как людей и культуры, непостижимые для тех, кто обитает в современной, но атехнологичной культуре.
Таким современным людям каменного века будет крайне трудно понять, почему мы восторгаемся недавним открытием LIGO гравитационных волн, подтвердившим общую теорию относительности столетней давности. Они ломают голову над тем, зачем нам атомные часы и спутники GPS для нахождения дороги домой, ради чего и как мы сумели расширить зрение от узкой оптической полосы до полного спектра, а слух – до полной гаммы. Мы можем двигаться быстрее любого другого живого вида; на самом деле мы способны достичь скорости убегания и выживать в ледяном космическом вакууме.
Если эти признаки (и еще сотни других) не характеризуют трансгуманизм, то какие тогда нужны? Если мы считаем, что судить о трансгуманизме должны не представители палеокультур, но мы сами, то как вообще возможно говорить о каких-то трансгуманах? Мы, «нынешние люди», всегда можем оценить новый технологический этап и не удивляемся, когда слышим о достижении очередной сверхчеловеческой цели. Фантаст-пророк Уильям Гибсон утверждал: «Будущее уже здесь, оно просто распределяется не слишком равномерно». Он недооценивал следующий раунд «будущего», но, безусловно, миллионы из нас уже стали трансгуманами, а мы желаем большего. Вопрос «Кем был человек?» уже мутировал в вопрос «Сколько насчитывалось – насчитывается? – видов трансгуманов? И каковы их права?».
Назад: Глава 22 Мечты «алгористов» об объективности
Дальше: Глава 24 Художественное применение кибернетических существ