Книга: Искусственный интеллект – надежды и опасения
Назад: Глава 18 Станут ли компьютеры нашими повелителями?
Дальше: Глава 20 Сделать незримое зримым: ИИ и искусство

Глава 19
Человеческая стратегия

Алекс (Сэнди) Пентленд
профессор-стипендиат и профессор медиаискусства и наук в МТИ, директор научно-исследовательской лаборатории «Человеческая динамика и связь» и руководитель программы предпринимательства «Media Lab», автор книги «Социальная физика».
Алекс Сэнди Пентленд, представитель направления, которое он сам именует «социальной физикой», интересуется разработкой эффективной экологии взаимодействия ИИ с человеком. Кроме того, его тревожит потенциальная угроза, исходящая от систем принятия решений, в которых данные фактически передаются машинам в полное владение, а человеческое творчество отодвигается на задний план.
По его мнению, пришествие больших данных открыло перед нами возможность заново изобрести нашу цивилизацию: «Теперь мы можем реально изучить подробности социального взаимодействия, проанализировать, как они разворачиваются, и нам нет нужды ориентироваться на средние величины, будь то рыночные индексы или результаты выборов. Это поразительное изменение. Способность видеть подробности поведения рынков и мельчайшие детали политических революций заодно со способностью предсказывать их и контролировать, – это, безусловно, новый прометеевский огонь, которым можно воспользоваться во благо или во зло. Большие данные ведут нас в интересные времена».
На встрече нашей группы в Вашингтоне, штат Коннектикут, Алекс признался, что читать винеровские работы по контурам обратной связи для него «сродни чтению собственных мыслей».
«После Винера люди обнаружили тот факт – и сосредоточились на нем, – что имеются действительно хаотические системы, которые действительно непредсказуемы, – говорит он. – Но, если посмотреть на человеческие социально-экономические системы, мы увидим большой процент вариаций, которые можно объяснить и предсказывать… Сегодня мы получаем данные от множества цифровых устройств, фиксирующих все наши действия. Тот факт, что «датируется» все вокруг, означает, что мы можем проводить измерения в реальном времени и учитывать большинство аспектов человеческой жизни, а рано или поздно придем к изучению вообще всех аспектов. У нас имеются поразительные компьютеры и методы машинного обучения, из чего следует, что возможно строить прогностические модели человеческих систем, ранее попросту немыслимые».

 

За последние полвека идея искусственного интеллекта и интеллектуальных роботов утвердилась в размышлениях об отношениях между людьми и компьютерами. Частично это объясняется тем, что довольно просто придумывать истории об ИИ и роботах, а частично проистекает из ранних успехов дисциплины (например, вспомним устройства доказательства теорем, основанные на постулатах «Principia Mathematica» Рассела и Уайтхеда) и обильного финансирования этих исследований со стороны военных. Раннее, более широкое представление о кибернетике, трактовавшее искусственное как часть крупного контура обратной связи и взаимного влияния, фактически забылось, если говорить об осведомленности социума.
Впрочем, в минувшие годы кибернетика сама по себе постепенно проникала в коллективное знание и незаметно достигла нынешнего положения, когда она оказалась «у всех на устах». Современные исследования в большинстве инженерных дисциплин опираются на системы обратной связи, динамические и регулируемые потоками энергии. Даже ИИ ныне представляется как человекомашинная система-«советчик», а военные приступили к крупномасштабному финансированию этой области исследований (возможно, этот факт должен беспокоить нас больше, чем беспилотники и самостоятельные человекоподобные роботы).
Но, по мере того как наука и техника осваивали эту «кибернетическую» позицию, становилось ясно, что даже кибернетическое видение слишком заужено. Первоначально оно фокусировалось на встроенности отдельного актора, а не на формирующихся свойствах сети акторов. Это не вызывает удивления, поскольку математика сетей возникла лишь относительно недавно, так что количественное изучение сетевого поведения было невозможно. Теперь мы знаем, что изучение индивида не обеспечивает понимания системы в целом, за исключением некоторых простых случаев. Успехи последнего времени в этой области были предопределены осознанием того факта, что «хаос», наряду со «сложностью», есть типический пример поведения системы, а сегодня мы уже можем выйти за рамки таких статистических представлений.
У нас мало-помалу появляется возможность анализировать, прогнозировать и даже проектировать формирующееся поведение сложных гетерогенных сетей. Кибернетическое представление о «вовлеченном» индивидуальном акторе может быть расширено и охватывать сложные системы «вовлеченных» индивидов и машин, а понимание на основе подобного более широкого представления принципиально отличается от картины, основанной на базовом кибернетическом представлении. Мыслить о сети – все равно что мыслить о цельной экосистеме. Как бы вы заставили некую экосистему развиваться в правильном направлении? Что вы подразумеваете под «правильным» направлением? Такие вопросы выходят за рамки традиционного кибернетического мышления.
Возможно, наиболее важным является осознание того, что люди уже начинают использовать ИИ и машинное обучение для управления цельными экосистемами, включая человеческие экосистемы, и тем самым создают экологию взаимоотношений человека и искусственного интеллекта. Ныне, когда все становится «датируемым», мы можем проводить измерения большинства аспектов человеческой жизни – и стремимся к измерению вообще всех ее аспектов. С учетом появления новых и успешных техник машинного обучения это означает, что мы можем создавать модели указанных экологий, ранее невозможные. Хорошо известными примерами здесь выступают модели прогнозирования погоды и дорожного движения, расширяемые до прогнозирования глобального климата и планирования роста и обновления городов. Автоматизированное проектирование экологии уже сделалось реальностью.
Развитие экосистем человеко-искусственного интеллекта, возможно, на самом деле неизбежно для социального вида наподобие нас с вами. Мы социализировались еще в начале нашей эволюции, миллионы лет назад. Мы начали обмениваться информацией друг с другом, чтобы оставаться в живых и улучшать нашу приспосабливаемость. Мы создали письменность для обмена абстрактными и сложными идеями, а сравнительно недавно спроектировали и сотворили компьютеры для улучшения наших коммуникаций. Сейчас мы разрабатываем модели искусственного интеллекта и системы машинного обучения для экосистем и делимся прогнозами этих моделей, чтобы совместно сформировать новый мир через новые законы и международные соглашения.
Мы живем в уникальный исторический период, когда доступность огромного объема данных о человеческом поведении и достижения в машинном обучении позволяют решать сложные социальные проблемы посредством алгоритмического принятия решений. Возможности для человеко-искусственной экологии оказывать позитивное социальное воздействие посредством более справедливых и более прозрачных решений очевидны. Но имеются и риски «тирании алгоритмов», когда миром начнут заправлять никем не выбранные эксперты по обработке данных. Выбор, который мы делаем сегодня, даже более важен, быть может, нежели тот, который стоял перед нами в 1950-х годах, когда создавались ИИ и кибернетика. Проблемы выглядят похожими, но это обманчивое впечатление. Мы ушли далеко вперед, масштабы заметно увеличились. Речь уже не о роботизированном ИИ против людей, речь об ИИ, управляющем экологиями.
* * *
Как можно создать хорошую человеко-искусственную экосистему, которая будет не сугубо машинным обществом, а киберкультурой, в рамках которой найдется место для людей, – так сказать, культуру с человеческим лицом? Мы не желаем довольствоваться малым – например, рассуждать только о роботах и беспилотных автомобилях. Нет, нам нужна глобальная экология. Мы думаем с размахом «Скайнет». Но как сделать нечто в духе «Скайнет» с человеческими ресурсами?
Первый вопрос, который напрашивается: какая магия заставляет работать нынешний ИИ? В чем мы ошибаемся и в чем правы?
Хорошо то, что нынешний ИИ обладает так называемой функцией передачи ответственности. Это позволяет брать «тупые нейроны» – малые линейные функции – и выяснять в контексте большой сети, кто из них работает по-настоящему; эти «работяги» стимулируются. Мы словно берем случайную группу коммутаторов, подключенных друг к другу в сети, и наделяем их разумом через обратную связь о результатах деятельности. Звучит просто, но в основе этой процедуры лежат сложные вычисления. Вот магия, которая заставляет работать нынешний ИИ.
Скверно же то, что, поскольку эти крохотные нейроны и вправду глупы, сведения и опыт, которые они усваивают, не слишком хорошо обобщаются. Если ИИ видит что-то, чего не видел раньше, или если мир вокруг немного меняется, ИИ с немалой вероятностью допустит какую-нибудь нелепую ошибку. Он совершенно не умеет учитывать контекст. В некотором смысле это настолько далеко от первоначального представления Норберта Винера о кибернетике, насколько вообще возможно, потому что опыт не контекстуализируется; перед нами юный idiot savant .
Но вообразим, что мы устранили эти ограничения. Допустим, вместо использования тупых нейронов мы взяли нейроны, в которые заложено знание о реальном мире. Возможно, вместо линейных нейронов мы использовали нейроны, являющиеся функциями в физике, а затем попытались согласовать физические данные. Или, может быть, мы вложили в них обилие знаний о людях и человеческих способах взаимодействия друг с другом, то есть статистику и характеристики людей.
Когда мы добавляем эти базовые знания и применяем функцию передачи ответственности, возможно опереться на данные наблюдений и использовать указанную функцию для стимулирования тех, которые обеспечивают правильные ответы. В результате ИИ начнет действовать эффективно и научится обобщать. Например, при решении физических задач часто требуется всего несколько «шумных» точек данных для получения внятного описания какого-то явления, поскольку мы заложили в систему знания о том, как работает физика. Налицо резкий контраст с «обычным» ИИ, которому нужны миллионы обучающих примеров и который чрезвычайно чувствителен к шуму. Добавив соответствующие базовые знания, мы получаем развитый интеллект.
Как и в случае с физическими системами, если мы создаем нейроны, наделенные массой знаний об умении людей учиться друг у друга, то можно выявлять человеческие пороки и причуды и предсказывать тенденции поведения человека, причем поразительно точно и эффективно. Эта «социальная физика» работает потому, что поведение человека определяется как шаблонами нашей культуры, так и рациональным индивидуальным мышлением. Эти модели подлежат математическому описанию и могут быть использованы для точных прогнозов.
Именно концепция передачи ответственности, стимулирующей укрепление связей между нейронами, которые лучше прочих справляются со своим делом, составляет ядро современных исследований в области ИИ. Если сделать эти крошечные нейроны умнее, сам ИИ тоже поумнеет. Но что произойдет, если заменить нейроны людьми? Люди обладают множеством возможностей. Им многое известно о мире вокруг, они способны воспринимать мир широко, осознанно, чисто по-человечески. Что случится, возникни у нас сеть людей, где возможно укреплять полезные связи и минимизировать те, от которых нет пользы?
Очень похоже на некое общество или компанию, правда? Мы все живем в человеческой социальной сети. Мы укрепляем связи, делая то, что идет, как кажется, на пользу другим, и стараемся избегать поступков, которые осуждаются. Культура есть результат работы такого вот человеческого ИИ применительно к решению человеческих задач; это процесс построения социальных структур через укрепление полезных и уничтожение бесполезных связей. Едва становится понятным, что можно взять эту общую структуру ИИ и создать человеческий ИИ, возникает вопрос: как правильно это сделать? Безопасно ли это? Или совершенно безумно?
Мы с моими учениками изучаем человеческие способы принятия решений по гигантским базам финансовых данных, деловых решений и многих других разновидностей решений. Мы обнаружили, что люди часто принимают решения, как бы имитируя алгоритмы передачи ответственности ИИ и тем самым делают умнее сообщество в целом. Особенно любопытно в указанной работе то, что она затрагивает классическую проблему эволюции, известную как проблема выбора группы. Суть этой проблемы в следующем: как выбирать культуру в эволюции, когда воспроизводят себя именно индивиды? Здесь нужно что-то, позволяющее отбирать лучшие культуры и лучшие группы – а также лучших индивидов, поскольку это они передают гены.
Когда формулируешь задачу таким образом и берешься за математическую литературу, то обнаруживаешь, что имеется единственный общепризнанный способ это сделать. Речь о «распределенном сэмплировании Томпсона», математическом алгоритме, что используется при выборе из совокупности возможных действий с неизвестным результатом такого, которое максимизирует ожидаемое вознаграждение. Ключевым моментом выступает социальная выборка, способ объединения доказательств, исследования и эксплуатации одновременно. Это нетипичный подход, уникальный тем, что он может быть лучшей стратегией для отдельного человека и для группы в одно и то же время. Если отталкиваться от группы, которая затем либо уничтожается, либо усиливается, то мы при этом также отбираем подходящих индивидов. Если же отталкиваться от индивидов, каждый из которых делает то, что хорошо лично для него или для нее, то этот выбор автоматически становится наилучшим для группы. Налицо удивительное сочетание личного интереса и пользы, оно дает реальное понимание того, как культура «вписывается» в естественный отбор.
Социальная выборка, если совсем упрощенно, сводится к изучению действий окружающих, таких же как мы, выявлению наиболее популярных шагов и подражанию этим действиям, если они нас привлекают. Распространению идеи способствует функция популярности, но индивидуальное признание также связано с выяснением того, как эта идея воздействует на индивида (рефлексивное отношение). При объединении социальной выборки с личной оценкой получается превосходное решение. Это поистине удивительно, потому что теперь мы располагаем математическим «рецептом» для охвата людей всеми этими техниками ИИ, предназначенными для тупых компьютерных нейронов. У нас появляется способ собрать людей вместе для принятия наилучших решений на основании накапливаемого опыта.
Посмотрим, что происходит в реальном мире. Почему бы нам не поступать так постоянно? Что ж, люди в целом так себя и ведут, но порой что-то выходит из-под контроля. Например, возьмем рекламу, пропаганду и «поддельные новости» (фейки). Имеется множество способов навязать людям популярность, когда на самом деле ее нет и в помине, и это разрушает полезность социальной выборки. Навык «придания ума» человеческим группам, навык создания человеческого ИИ пригодится только при условии достоверной обратной связи. Вы должны твердо знать, достигли результата действия каждого человека или нет.
То же самое верно в отношении ИИ. Искусственный интеллект анализирует правильность своих действий. Если действия правильны, связь укрепляется; если нет – ликвидируется. Нам нужна достоверная обратная связь, чтобы человеческий механизм работал эффективно, и нужны надежные способы узнавать о действиях других людей, чтобы мы могли правильно оценивать популярность конкретных шагов и вероятность правильного выбора.
Следующим этапом будет прописывание функции передачи ответственности, функции обратной связи для человеческого общества, дабы мы могли создать эффективную человеко-искусственную экосистему – умную организацию и умную культуру. В некотором смысле нам необходимо дублировать ряд ранних идей, которые, например, легли в основу механизма переписи в США, чтобы выявить основные факты, не вызывающие отторжения ни у кого; передача знаний и культуры должна происходить таким образом, чтобы достоверная социальная выборка доказала свою эффективность.
Мы можем выстраивать функцию передачи ответственности в разнообразии условий. В компаниях, например, можно использовать цифровые именные бейджи, которые покажут, кто и с кем связан, благодаря чему удастся сопоставить схему связей с результатами компании в ежедневной или еженедельной перспективе. Функция передачи ответственности побуждает узнавать, помогают ли выявленные связи справляться с проблемами, изобретать новые решения, и усиливает полезные связи. Когда эту обратную связь получается выразить количественно – что непросто, поскольку очень и очень многое количественно не измерить, – тогда производительность и скорость внедрения инноваций в организации значительно улучшаются. Такова, скажем, основа метода «непрерывного совершенствования» в корпорации «Тойота».
Следующий шаг заключается в попытках проделать то же самое с увеличением масштаба и создать, как я это называю, доверительную сеть данных. Ее можно рассматривать как распределенную систему, подобную интернету, но со способностью количественного измерения и оценки качества человеческого общества (та же перепись в США довольно подробно рассказывает о численности населения и ожидаемой продолжительности жизни). Опытные образцы доверительных сетей тестируются сегодня сразу в нескольких странах, и за основу взяты данные и методы, изложенные в программе устойчивого развития ООН.
На горизонте маячит ви́дение того, как мы можем сделать человечество более разумным, создав человеческий ИИ. Это ви́дение формируется двумя картинами. Первая образована данными, которым все доверяют, – это данные, проверенные широким сообществом, данные, алгоритмы комбинирования которых известны и отслеживаются, во многом подобные данным переписи (ведь на последние мы полагаемся автоматически, признавая за ними хотя бы приближенную достоверность). Вторая картина образуется посредством объективной оценки общественных норм, политики и деятельности правительства на основе достоверных данных о текущей ситуации. Эта вторая картина зависит от доступности доверенных данных и потому едва начала проявляться. Надежные данные и оценка норм, политик и деятельности правительства на основе данных вместе порождают функцию передачи ответственности, которая повышает приспосабливаемость и интеллект общества в целом.
Именно в момент возникновения такого общественного интеллекта оказываются досадной помехой «поддельные новости», пропаганда и реклама. К счастью, доверительные сети позволяют надеяться на построение общества, более устойчивого к социальному «эху», к этим вывертам человеческого общежития и упражнениям в безумии. Мы начали разрабатывать новый способ проведения социальных измерений, рассчитывая избавиться от ряда заболеваний, свойственных современному обществу. Мы используем открытые данные из всех источников, тем самым поощряя честное описание человеческих предпочтений в рамках курируемой математической структуры, которая поможет подавить «эхо» и воспрепятствовать дальнейшим попыткам манипулирования.
О поляризации и неравенстве
Экстремальная поляризация и сегрегация по доходам сегодня распространились практически повсеместно и угрожают отчуждением правительств от гражданского общества. Средства массовой информации все чаще впрыскивают, так сказать, адреналин в погоне за отдачей от рекламы и утрачивают способность беспристрастно излагать факты и аргументированно их обсуждать, а очевидная деградация масс-медиа побуждает людей терять ориентиры. Мы больше не знаем, чему верить, и потому нами легко манипулировать. Налицо реальная потребность обосновать наши разнообразные культуры надежными, основанными на данных стандартами, с которыми мы все согласны, и умение выяснять, какие методы поведения и какие политики эффективны, а какие – нет.
При переходе к цифровому обществу обесцениваются традиционные представления об истине и справедливости. Ранее считалось, что справедливость преимущественно неформальна и нормативна. Мы ее благополучно формализовали – и одновременно сделали недоступной для большинства людей. Наши правовые системы подводят нас, как и раньше, именно потому, что ныне они более формальные, более цифровые и менее встроенные в общество.
Представления о справедливости сильно разнятся по всему миру. В частности, ключевое отличие таково: можете ли вы или ваши родители вспомнить, как пришли плохие ребята с оружием в руках и забрали все, что у вас было? Если да, значит, ваше отношение к справедливости отличается от отношения «типичного» читателя этого очерка. Вы принадлежите к социальной верхушке? Или к тем, кто видит канализацию изнутри? Взгляд на справедливость крайне зависит от личной истории.
Я составил общий тест для граждан США, которых спрашиваю, знаком ли им какой-нибудь владелец пикапа? Это самая продаваемая модель автомобиля в Соединенных Штатах Америки, и если вы не знакомы хотя бы с одним владельцем такой машины, то у вас нет связей минимум с 50 процентами американцев. Физическая сегрегация влечет за собой концептуальную. Бо́льшая часть населения Америки воспринимают справедливость, равный доступ и честность совершенно иначе, нежели, скажем, типичный обитатель Манхэттена.
Если изучить модели мобильности – маршруты перемещений – в типичном городе, выяснится, что люди верхнего квинтиля (семьи белых воротничков) и нижнего квинтиля (безработные или получающие социальное пособие) почти никогда не общаются друг с другом. Они не посещают одни и те же места, не обсуждают одно и то же. Номинально они все живут в одном и том же городе, но это как бы два совершенно разных города – вот, пожалуй, важнейшая причина сегодняшней «чумы поляризации».
О чрезмерном богатстве
Около двухсот богатейших людей мира пообещали отдать более 50 процентов своего богатства либо еще при жизни, либо после кончины, породив таким решением разноголосицу мнений на свой счет. Самым известным примером является, вероятно, Билл Гейтс, который фактически решил подменить собой правительство. Вам нужны москитные сетки? Пожалуйста. Необходимы противовирусные препараты? Получите. Мы побуждаем заинтересованных участников к учреждению различных фондов, призванных обеспечивать общественное благо, и у каждого из них есть собственное представление о том, что считать общественным благом. Это разнообразие целей породило много удивительных особенностей современного мира. Действия неправительственных организаций, подобных фондам Форда и Слоуна, которые берутся за дела, невозможные для остальных, изменили мир к лучшему.
Конечно, эти миллиардеры – люди со всеми присущими человеку недостатками, и далеко не всё сегодня так, как могло и должно было быть. С другой стороны, схожая ситуация наблюдалась сразу после прокладки железных дорог. Некоторые сколотили огромные состояния. Многие обанкротились. Обычные люди получили железные дороги. Это хорошо. То же самое относится к электроэнергии – и к прочим новым или бывшим когда-то новыми технологиям. Процесс «взбалтывания» подбрасывает кого-то вверх, а затем роняет обратно – самого «везунчика» или его наследников. Пузыри чрезмерного богатства возникали в конце 1800-х и начале 1900-х годов, когда внедрялись паровые машины, железные дороги и электрические фонари. Порожденные ими состояния исчезли за два-три поколения.
Будь США такими, как Европа, я бы начал беспокоиться. В Европе те же самые семьи, если присмотреться, владеют богатством на протяжении сотен лет, поэтому они укоренились не только в финансовой, но и в политической системе, а также в иных отношениях. Но Америке до сих пор удавалось не допустить появления такой наследственной классовой системы. Чрезмерное богатство краткосрочно, и это хорошо. Оно не должно задерживаться. Если вы выиграете в лотерею, то получите свой миллиард долларов, но пусть ваши внуки сами зарабатывают на жизнь.
Об ИИ и обществе
Люди боятся ИИ. Возможно, это правильно. Но надо понимать, что ИИ питается данными. Без данных он – ничто. Не стоит тратить время на наблюдения за ИИ; вместо этого следует изучать его «диету» и поступки. Структура доверительной сети, которую мы конструируем с государственной помощью ЕС и других стран, обеспечивает рамки, куда помещаются наши алгоритмы, куда встраивается наш ИИ; но мы должны контролировать ее входы и выходы, чтобы при необходимости спрашивать: это дискриминирующее решение? Это то, чего действительно хотят люди? Или оно выглядит странновато?
Наиболее показательная аналогия заключается в том, что нынешние регуляторы, бюрократия и правительства очень похожи на ИИ: они берут правила, которые мы называем законами и нормативами, используют накопленные государством данные и принимают решения, которые влияют на нашу жизнь. Недостаток нынешней системы заключается в том, что мы очень слабо контролируем эти министерства, органы регулирования и прочую бюрократию. Единственный способ контроля, доступный нам, – это выборы, возможность передать власть кому-то еще. Нужно добиваться более плотного и тщательного контроля. Нужно фиксировать данные, послужившие основой для каждого принятого решения, и анализировать результаты для всех заинтересованных сторон – наподобие того, как изначально предполагалось для выборных легислатур.
При наличии данных на входе и выходе всякого решения мы легко можем узнать, насколько честен алгоритм. Не составит труда выяснить, морален этот ИИ или аморален с нашей точки зрения. Такой подход принято называть «открытым алгоритмом»; вы воочию видите информацию на входе и оцениваете решение, основанное на этой информации. Тем самым появляется возможность понять, поступает ИИ правильно или неправильно. Оказывается, это несложно. Кто контролирует данные, тот контролирует ИИ.
Люди часто забывают упомянуть о том, что все тревоги по поводу ИИ аналогичны опасениям по поводу действий нынешних правительств. Применительно к большей части правительства – речь о системе правосудия и пр. – общество не обладает достоверными сведениями о конкретных действиях в конкретных ситуациях. Как узнать, справедлив суд или нет, если у нас нет входной и исходящей информации? Аналогичная проблема возникает с машинным ИИ, и ее следует трактовать схожим образом. Нужны достоверные данные, чтобы контролировать нынешние правительства в сфере обработки данных и принятий решений, – и машинный ИИ нисколько здесь не отличается.
ИИ следующего поколения
Современные алгоритмы машинного обучения по своей сути непроходимо глупы. Они используют метод грубой силы, поэтому им требуются сотни миллионов образцов и примеров. Они работают благодаря тому, что возможно аппроксимировать что угодно из множества малых элементов. Такова ключевая идея современных исследований ИИ: если используется обучение с подкреплением для обратной связи в передаче ответственности, то возможно на основании обилия малых фрагментов вывести любую произвольную функцию по желанию программиста.
Но использование неправильных функций для принятия решений означает, что способность ИИ принимать правильные решения не подлежит обобщению. Если мы зададим ИИ иные данные, система может принять другое, совершенно необоснованное решение. Или, если ситуация изменится, ее придется переучивать. Имеются забавные методики поиска «нулевого пространства» в системах ИИ. Речь об образцах, которые ИИ признает валидными, поскольку его обучили их распознавать (скажем, человеческие лица, кошек и т. д.), но для человека эти образцы покажутся полной нелепицей.
Нынешний ИИ ведет описательную статистику способом, который не является научным и который практически невозможно сделать научным. Чтобы построить эффективную систему, требуется некая наука в основе данных. Системы, которые я рассматриваю как ИИ следующего поколения, будут порождением такого научного подхода: если вы собираетесь создать ИИ для оперирования чем-то физическим, в него следует внедрить знание законов физики (описательных функций) вместо пресловутых тупых нейронов. Допустим, нам известно, что физика использует такие функции, как полиномы, синусоиды и экспоненты; значит, они, а не крохотные линейные нейроны, должны стать нашими базовыми функциями. При использовании этих более подходящих базовых функций понадобится гораздо меньше данных, намного легче подавлять шум, а результаты оказываются куда лучше.
Если, отталкиваясь от примера с физикой, мы хотим создать ИИ для работы с человеческим поведением, то нужно встраивать статистические свойства человеческих сетей в алгоритмы машинного обучения. При замене тупых нейронов на те, которые отражают основы человеческого поведения, возможно выявлять тенденции на основе крайне ограниченного количества данных и отсекать сильные шумы.
Тот факт, что люди обладают «здравым смыслом», с которым они подходят к решению большинства проблем, наводит на следующую мысль: перед нами, как я говорю, человеческая стратегия. Человеческое общество представляет собой сеть, аналогичную нейронным сетям, подготовленным для глубинного обучения, вот только «нейроны» человеческого общества намного умнее. Мы с вами наделены поразительно общими описательными способностями, которыми пользуемся для оценки и понимания широкого диапазона ситуаций. Мы в состоянии понять, какие связи следует укреплять. Это означает, что мы способны заставить наши социальные сети работать намного лучше и в итоге одолеть любой машинный ИИ на его поле.
Назад: Глава 18 Станут ли компьютеры нашими повелителями?
Дальше: Глава 20 Сделать незримое зримым: ИИ и искусство