Проблема создания разумных машин
Мы давно подозревали о том, что интеллект не является сугубо человеческим качеством, и вот уже более 75 лет мечтаем о создании машины, рассуждающей и обучающейся не хуже человека. С расцветом компьютерных вычислений стало казаться, что мы близки к своей цели, однако создание машины по нашему образу и подобию оказалось куда сложнее, чем мы думали.
Область ИИ – это наука и техника создания машин, способных действовать разумно. Здесь возникает сложный вопрос: а что такое «разумность»? В большинстве случаев «неразумные» машины уже в разы умнее нас. Но мы не называем компьютерную программу «умной» только потому, что она умеет умножать длинные числа или отслеживать тысячи банковских операций. Мы воспринимаем это как данность. А слово «умный» мы оставляем для описания уникальных человеческих качеств: узнавания знакомого лица, маневрирования на дороге в часы пик или освоения музыкального инструмента.
Почему же так сложно создать машину, которая сможет выполнять эти действия? Обычно программист знает, какую задачу будет решать запрограммированный им компьютер. Но в случае с ИИ перед программистом стоит другая задача – научить компьютер действовать правильно, при этом не зная, как именно.
В реальном мире неопределенность может принимать различные формы. Например, в лице соперника, мешающего вам достичь желаемой цели, в форме последствий принятых решений, которые не очевидны сразу (если вы пытаетесь уйти от столкновения на дороге, не убедившись в безопасности маневра), или в качестве новой информации, поступающей в процессе выполнения задачи. «Умная» программа должна уметь обрабатывать все новые данные и многое другое.
Чтобы приблизиться к человеческому интеллекту, системе нужно смоделировать не только задачу, но и саму ситуацию, при которой эта задача может возникнуть. Она должна улавливать окружающую среду и реагировать на нее, при необходимости изменяя и корректируя собственные действия. О разумности системы можно говорить только тогда, когда машина научится принимать правильные решения в ситуации неопределенности.
Предпосылки к искусственному интеллекту появились задолго до первых компьютеров. Еще Аристотель описывал формальный механический аргумент, названный силлогизмом, который позволял нам делать заключения на основании суждений. Одно из его правил разрешало следующий аргумент:
Некоторые лебеди – белые.
Все лебеди – птицы.
Поэтому некоторые птицы – белые.
Данная форма аргумента – некоторые Л являются Б, все Л являются П, поэтому некоторые П являются Б – может применяться к любым Л, Б и П. Эта схема позволяет сделать правильное умозаключение вне зависимости от исходных данных. На основании формулы Аристотеля можно выстроить механизм, который может действовать разумно и без подробного «справочника по человеческому интеллекту».
Предположение Аристотеля подготовило почву для более широкого исследования природы искусственного интеллекта. Однако лишь в середине XX века компьютеры стали достаточно «умны» для проверки гипотез. В 1948 году Грей Уолтер, исследователь из Бристольского университета, создал сеть автономных механических «черепашек», которые могли двигаться, реагировать на свет и были способны к обучению. Одна из них, по имени Элси, реагировала на окружающую обстановку снижением чувствительности к свету по мере разрядки аккумулятора. Столь сложное поведение делало ее непредсказуемой, на основании чего Уолтер проводил аналогию с поведением животных.
В 1950 году британский ученый Алан Тьюринг пошел еще дальше, заявив, что однажды машины научатся думать, как люди. Он предположил, что если компьютер способен поддержать разговор с человеком, тогда мы, «из вежливости», должны признать, что компьютер умеет «мыслить». Этот критерий оценки «разумности» позже стал известен как тест Тьюринга.
Что такое тест Тьюринга?
В своей работе «Вычислительные машины и разум», опубликованной в философском журнале Mind в 1950 году, Алан Тьюринг утверждал, что однажды компьютеры научатся думать, как люди. Но даже если это и случится, то как мы обо всем узнаем? Тьюринг полагал, что машина может считаться разумной в случае, если ее реакцию нельзя отличить от человеческой.
Тьюринг ссылался на свой метод определения разумности машины под названием «игра в имитацию». В предлагаемом им тесте экзаменаторы общаются с человеком и машиной письменно через экран компьютера или телетайп. Таким образом, экзаменатор мог идентифицировать своего собеседника (человек или машина) только по общению. Если экзаменатору не удавалось отличить машину от человека, то такая машина считалась разумной.
В 1990 году нью-йоркский филантроп Хью Лебнер предложил приз в 100 000 долларов за первый компьютер, который сможет пройти тест Тьюринга, и учредил ежегодную награду в размере 2000 долларов за лучшую систему из существующих. С тех пор сумма выросла до 4000 долларов. Пока что ни один бот не получил главный приз премии Лебнера.
Концепция теста Тьюринга понятна всем, кто имел дело с искусственным интеллектом (например, цифровым персональным помощником Siri от Apple или онлайн-чат-ботом). В настоящее время Siri еще далека от успешного прохождения теста. Временами чат-боты способны обмануть людей, но ограничения даже самых лучших из современных ИИ приводят к тому, что их быстро разоблачают. И все же Тьюринг предсказывал тот день, когда искусственный интеллект станет неотличимым от человеческого.