Книга: PRO парадоксы науки
Назад: Глава 26. Атомная энергетика
Дальше: Глава 28. Программные биоморфы

Глава 27. Искусственный интеллект

Кибернетика – это наука об управлении сложными динамическими системами. Термин «сложность» здесь применяется как философская категория. Динамические системы на производстве, в природе и в человеческом обществе – это системы, способные к развитию, к изменению своего состояния. Сложные динамические системы образуются множеством более простых или элементарных систем или элементов, взаимосвязанных и взаимодействующих…

Предметом кибернетики являются процессы управления, происходящие в сложных динамических системах. Подобные системы постоянно встречаются в производственной деятельности, в естествознании и обществе.

А. И. Берг.

Философские проблемы кибернетики



Рождение научного направления исследования искусственного интеллекта произошло в конце первой половины прошлого века после создания первых ЭВМ. У его истоков стоял Норберт Винер, замечательный американский математик и философ, которого часто называют отцом кибернетики. В семидесятых годах прошлого столетия произошло разделение искусственного интеллекта как отдельной области кибернетической науки на два основополагающих направления, связанных с моделированием умственной деятельности и разработки соответствующего программного обеспечения: нейрокибернетики и кибернетики черного ящика. Пока еще данные направления развиваются практически независимо, существенно различаясь самой методологией создания искусственного интеллекта. Хотя в последнее время наметились пути к их объединению в нейрокибернетических комплексах и системах.

Основатель отечественной информатики и робототехники академик А. Н. Колмогоров в предисловии к книге известного британского кибернетика У. Р. Эшби «Введение в кибернетику» писал, что кибернетика занимается изучением систем любой природы, способных воспринимать, хранить и перерабатывать информацию и использовать ее для управления и регулирования. При этом кибернетика широко пользуется математическим методом и стремится к получению конкретных специальных результатов, позволяющих как анализировать такого рода системы (восстанавливать их устройство на основании опыта обращения с ними), так и синтезировать их (рассчитывать схемы систем, способных осуществлять заданные действия). Благодаря этому своему конкретному характеру кибернетика ни в коей мере не сводится к философскому обсуждению природы «целесообразности» в машинах и философскому анализу изучаемого ею круга явлений.



Норберт Винер (1894–1964)





Говоря о нерешенных задачах теоретической науки по поиску иных подпространственных, миров-частиц, дополнительных измерений и «магических» точек омега-континуума как-то само собой предполагается, что во всех расчетах и построениях широко используются методы обработки информации с помощью электронно-вычислительной техники. Так мы приходим к актуальнейшей нерешенной задаче науки кибернетики – созданию полноценного «искусственного интеллекта».

Под словосочетанием «искусственный интеллект» обычно понимается особый раздел кибернетики, направленный на разработку аппаратно-программных средств, позволяющих оператору электронно-вычислительной машины ставить и решать интеллектуальные задачи эвристического плана.

Многие современные ученые, особенно те из них, кто далек от кибернетики, придерживаются восторженной точки зрения, будто создание искусственного интеллекта – дело буквально нескольких лет. Однако действительность оказалась намного сложнее.

Не на одном из магистральных направлений, таких как создание сложных кибернетических систем, увеличение памяти и быстродействия, нейрокомпьютеризации и квантового компьютинга не удалось даже близко приблизиться к тому, что мы понимаем под разумом, пусть даже в самом примитивном его значении.

Долгое время считалось, что лишь мозг человека способен к осмысленным передаче, приему и созданию информации. Но вот возникли первые системы искусственного интеллекта, и тут же в сферу влияния этого нового понятия попали компьютерные игры, логистика, интерактивное обучение, понимание письменной и устной информации, формирование стратегии и тактики поведения, поиск и доказательство правдоподобных решений, распознавание образов и т. п.

Сегодня наука об искусственном интеллекте является одной из самых быстроразвивающихся кибернетических дисциплин. Как и у всякой сравнительно молодой отрасли знания здесь существует много сложных проблем, среди которых выделяется «задача программистов»: как представить машине человеческие знания для последующего ввода в память интеллектуальной системы? Причем мы должны так научить кибернетическую систему, чтобы знания из самых различных областей в дальнейшем использовались при решении разнообразных задач. На этом пути очень важно понять, как смоделировать человеческие рассуждения и изучить различные схемы человеческих умозаключений, используемых в процессе решения, а в конечном итоге создать эффективные программы для реализации этих схем в вычислительных машинах.

Первым камнем преткновения здесь является разработка диалоговых процедур общения на общепонятном языке, обеспечивающих интеллектуальный контакт между ЭВМ-системой и оператором при решении самых разноплановых задач. Следующий этап должен содержать планирование целесообразной осознанной деятельности ЭВМ-систем по ранее заложенному программному обеспечению. Кто изучал иностранный язык и решал сложные логические задачи, должен прекрасно понимать сложность решения данных проблем.

Стратегическая цель исследований по искусственному интеллекту состоит в проникновении в тайны мышления человека. Здесь могут быть найдены новые решения многих задач, связанных с высшей нервной деятельностью человека и процессами мышления, которые непрерывно протекают в коре головного мозга на уровне подсознания, бессознательного и интуитивного.

Известный современный кибернетик Л. А. Ашкинази в своей книге «Может ли машина мыслить?» так описывает появление первых «тестов на разумность» для электронно-вычислительных машин:

Жил да был в середине прошлого века в Англии Алан Тьюринг, человек непонятно какой специальности. Математики с присущим им снобизмом не сочли бы его математиком, слова «кибернетик» тогда не было. Человек он был неординарный, увлекался и занимался множеством вещей, в том числе компьютерами. И хоть это была заря компьютерной эпохи, но уже тогда стало ясно, что компьютер – это вам не арифмометр. И для того, чтобы понять, как он работает и может работать, к нему надо относиться как к обычному сложному объекту научного исследования, то есть строить его модели. Одна из таких теоретических моделей «компьютера вообще» была придумана Тьюрингом, ее позже и назвали «машина Тьюринга».

Информационные процессы происходят в любом живом организме, начиная с вирусов: прекратите их обмен информации с окружающей средой – и они неминуемо погибнут или (в лучшем случае) полностью деградируют. В созданных машинах мы опять-таки наталкиваемся на информационные процессы, без которых машины не могут работать. Особенно ярко это проявилось в ЭВМ. Они не только потребляют информацию, но, как это ни казалось удивительно поначалу, могут творить свою, новую!

Ранее существовало два пути увеличения объема передаваемой информации. Первый предполагал увеличение вероятности появления сообщения, а второй – большее количество букв, символов. Получалось, что одинаковые по своему общему объему сообщения могли содержать совершенно разное количество информации. В то же время, чем больше знаков включало данное сообщение, тем выше был его уровень информативности.

На современном этапе развития кибернетики понятие «информация» продолжает исследоваться, углубляться и расширяться, иногда приобретая совершенно необычные формы, например – мироздания – вычислительной системы, оперирующей всей содержащейся во Вселенной информацией.

Между тем при передаче информации выявились и некоторые принципиальные черты, присутствующие практически во всех каналах связи между кибернетическими устройствами. Это наличие несущего колебания, которое модулируется содержимым информационной посылки, распространение в среде проводника или окружающего пространства в виде радиосообщений и последующий процесс детектирования.

Американский ученый Клод Шеннон взглянул на все виды информации с совершенно новой, единой позиции. Ведь информация несет уменьшение неопределенности в наших знаниях. Значит, процесс передачи информации можно рассматривать как процесс уменьшения неопределенности.

Принимая решение «да» или «нет», мы уменьшаем неопределенность ситуации вдвое. Если вероятности «да» и «нет» равны, то наше решение содержит ровно один бит информации. Например, при бросании монеты вероятности выпадения орла и решки равны и составляют пятьдесят процентов при многократном бросании монеты.

Если вероятности появления «да» и «нет» различны, картина меняется. Так, в лотерее вероятность «да» в миллионы раз меньше вероятности «нет»! Поэтому выигрышное число несет огромную информацию. Это даже можно считать своеобразным локальным информационным взрывом.

Именно Шеннон доказал парадоксальную вещь, что количество информации, которую несет один символ, зависит от вероятности его появления. Чем реже появляется символ, тем меньше его вероятность и тем больше он несет информации. Вот почему очень редкие неожиданные события врезаются в память на всю жизнь. Создаваемая ими информация столь велика, что она поражает наше сознание, и мозг надежно фиксирует их.

Подход Клода Шеннона полностью игнорирует содержание информации. Ведь посылки «да» и «нет» могут снять неопределенность в самых разных случаях. Было сделано несколько попыток найти меру содержательности информации для ее получателя, например, оценивать ее по увеличению знаний данного индивида в любой области. Также предлагалось измерять содержательность информации по увеличению вероятности достижения цели после получения информации субъектом или машиной.

Но оба этих остроумных подхода пока не настолько разработаны, чтобы решить сложнейшую задачу количественной оценки смыслового, или, как говорят специалисты, семантического, значения полученной потребителем информации.

Загадка информации не давала покоя не только физикам, математикам, инженерам, но отнимала сон и у философов. Ведь они давно установили, что основа всего сущего есть движущаяся материя и энергия, являющаяся общей мерой различных форм движения материи (механической, тепловой, электромагнитной, ядерной…). Куда же отнести информацию? Она и не материя, и не энергия.

В итоге философские дискуссии привели к новому значению слова «информация», оно заняло место среди фундаментальных понятий – «материя» и «энергия». Это связано с тем, что, кроме обмена информацией отдельными индивидуумами цивилизации, очень важным является обмен информацией, вырабатываемой всей цивилизацией с внешней средой. Он осуществляется трудом, экспериментом, наукой и техникой, т. е. производительной силой цивилизации.

Основной подход современных разработчиков кибернетических систем, наделенных искусственным интеллектом, заключается в том, чтобы углубленно изучать с помощью компьютерного моделирования во многом еще загадочную высшую нервную деятельность человека. Например, любой текст на незнакомом языке воспринимается как набор бессмысленных символических сочетаний букв, подобно иероглифам. Если существует сборник правил для правильного сочетания подобных иероглифов, то формально знать их значение вовсе необязательно.

Исторически сложилось, что главную роль в развитии электронно-вычислительных технологий сыграли компьютеры, построенные с использованием так называемой неймановской архитектуры. Слово «архитектура» здесь означает внутреннее строение и взаимную связь между основными электронными блоками компьютера.

В пятидесятых годах прошлого века Нейман присоединился к группе ученых, занятых разработкой компьютеров нового поколения. По результатам исследований Нейман подготовил отчет, который стал одной из первых научных работ по прикладной кибернетике, в которой анализировалась архитектура цифровых электронных компьютеров. Это исследование обратило на себя внимание многих специалистов, поскольку в ней впервые после работ Винера были сформулированы очень важные требования к компьютерным блокам и всей системе ЭВМ. Фактически именно с этого момента компьютерные исследования были признаны особо перспективными, а сами ЭВМ ученые начали называть машинами фон Неймана.

Таким образом, задача полной или хотя бы частичной интеллектуализации кибернетических устройств, несмотря на рекламу компьютерных компаний, сулящую многообещающие перспективы разрабатываемым им системам, еще очень далека от окончательного решения. Все созданные до настоящего момента программы функционирования искусственного интеллекта нельзя даже весьма приблизительно назвать «разумными» в привычном понимании этого термина. Сегодня даже самые сверхсложные кибернетические экспертные системы являются по своим возможностям узкоспециализированными и в лучшем случае напоминают хорошо дрессированных животных, никак не походя на человека с его эвристическим мышлением, широким кругозором и творческим развитием полученных результатов, не говоря уже о таких вещах, как талант, интуиция и подсознание.

Цифровые компьютеры просто манипулируют формальными символами согласно правилам, зафиксированным в программе. Получается, что умения манипулировать символами еще недостаточно, чтобы гарантировать знание, восприятие и понимание, т. е. первичные признаки мышления. И поскольку компьютеры – это устройства, манипулирующие символами по определенной программе, то нельзя говорить о наличии у них какого-либо знания.

Компьютерные программы просто определяют порядок работы с символами, именно благодаря этому ЭВМ является таким мощным орудием расчетов и анализа. Одна и та же программа может выполняться на машинах различной природы и одна и та же ЭВМ способна выполнять различные компьютерные программы.

Компьютер обрабатывает информацию, сначала кодируя ее в символических обозначениях, используемых в машине, а затем манипулирует символами в соответствии с набором строго определенных правил. Эти правила и представляют собой компьютерную программу. Компьютеры обладают удивительным свойством: любая представимая на естественном языке информация может быть закодирована и любая задача по обработке информации может быть решена путем применения правил, которые программируются.

Вопрос о том, может ли машина мыслить, часто подменяют другим вопросом: способна ли машина мыслить только за счет выполнения заложенной в нее компьютерной программы? Является ли программа основой мышления? Это принципиально иной вопрос, потому что он не затрагивает физических свойств электронного мозга ЭВМ, а относится лишь к тому, какие компьютерные программы может придумать коллектив программистов, лишь бы кибернетическая система была способна выполнить эти программы.

Многие ученые-кибернетики считают, что если составить правильные программы с правильными алгоритмами, они действительно создадут искусственный разум. Более того, они полагают, что имеют в своем распоряжении научный тест Тьюринга, с помощью которого можно судить об успехе или неудаче такой попытки. Напомним, что тест Тьюринга заключается в следующем: если компьютер способен демонстрировать поведение, которое эксперт не сможет отличить от поведения человека, обладающего определенными мыслительными способностями, то компьютер также обладает этими способностями. Следовательно, цель заключается лишь в том, чтобы создать программы, способные моделировать человеческое мышление таким образом, чтобы выдерживать тест. Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом в том же смысле, в котором человеческий разум – это разум.

Конечно, далеко не каждый специалист по искусственному интеллекту разделяет такие крайние идеи, более осторожный подход заключается в том, чтобы рассматривать компьютерные модели как полезное средство для изучения разума. Подобные взгляды часто суммируются следующим образом: «Разум по отношению к мозгу – это то же, что и программа по отношению к аппаратуре компьютера».

Сторонники «интеллектуальных» программ часто приводят пример параллельных систем ЭВМ, где информация обрабатывается сразу по нескольким каналам. Разумеется, у параллельных сетей есть интересные свойства, благодаря которым они могут лучше моделировать мозговые процессы по сравнению с машинами, имеющими традиционную последовательную архитектуру. Однако с точки зрения выполнения вычислений последовательные и параллельные архитектуры совершенно идентичны: любое вычисление, которое может быть произведено в машине с параллельным режимом работы, может быть выполнено машиной с последовательной архитектурой. Это справедливо в отношении любой вычислительной системы. На первых порах многие пионеры искусственного интеллекта верили, что через какой-нибудь десяток лет машины обретут высочайшие человеческие таланты. Предполагалось, что, преодолев период «электронного детства» и обучившись в библиотеках всего мира, хитроумные компьютеры благодаря быстродействию, точности и безотказной памяти постепенно превзойдут своих создателей. На протяжении всей своей короткой истории исследователи в области искусственного интеллекта всегда находились на переднем крае информатики. Многие ныне обычные разработки, в том числе усовершенствованные системы программирования, в значительной мере основаны на достижениях исследований по искусственному интеллекту.

Основным направлением создания в будущем кибернетических устройств с искусственным интеллектом является разработка специальных ЭВМ-комплексов на основе новых поколений высокоинтегральных микросхем – нейрочипов, моделирующих все основные аспекты умственной деятельности.

Назад: Глава 26. Атомная энергетика
Дальше: Глава 28. Программные биоморфы

Larryvew
Предоставляем услуги по нанесению микроцемента в квартирах, частных домах и коммерческих помещениях по доступным ценам в Москве и Московской области (до 60 км от МКАД)! ВНИМАНИЕ! АКЦИЯ! Замер + образцы = 0 руб! Скидка 20% на работы!
Larryvew
Предоставляем услуги по нанесению микроцемента в квартирах, частных домах и коммерческих помещениях по доступным ценам в Москве и Московской области (до 60 км от МКАД)! ВНИМАНИЕ! АКЦИЯ! Замер + образцы = 0 руб! Скидка 20% на работы!