Также принятие решений компьютеров определенно должно быть прозрачным процессом. Нам необходимо, чтобы машина не просто принимала справедливые решения, но чтобы этот акт был прозрачным и мы могли удостовериться в ее честности. Для современных ИИ это представляет серьезную проблему. Популярные подходы вроде глубинного обучения порождают системы, которые не могут связно объяснить собственные решения. Их поступки – часто продукт обучения на материале такого количества данных, которое человеку не освоить за всю жизнь.
Люди, разумеется, тоже не всегда прозрачны. Кроме того, мы склонны «придумывать» объяснения для собственных решений задним числом. Однако есть важное отличие. Людей можно привлечь к ответственности за их действия. Если мое решение было крайне неудачным и привело к чьей-либо смерти, я предстану перед судом по обвинению в непредумышленном убийстве. Машины нельзя точно так же привлечь к ответственности. Поэтому для них умение объяснять свои решения гораздо важнее.
Прозрачность поможет привнести в системы доверие. Если медицинское приложение рекомендует вам опасный курс химиотерапии, большинство из нас предпочтет, чтобы прозрачность системы позволяла ей объяснить, как она диагностировала ваш рак и почему химиотерапия – самый удачный выход. Прозрачность также поможет исправлять недостатки систем, если они будут ошибаться.
Безусловно, существуют сферы, в которых прозрачность – это не самое обязательное условие. Мы, вероятно, не станем требовать от программы, контролирующей ядерный реактор, объяснений, почему она его отключает. Мы, скорее всего, потерпим неудобства, связанные с потерей электроэнергии, если это поможет избежать катастрофы.
Как только мы начнем программировать ценности вроде справедливости в компьютерные системы, мы окажемся перед выбором: чьи ценности мы должны программировать? Безусловно, частично это будут продукты нашей юридической системы. К примеру, автономный автомобиль обязан будет соблюдать существующие правила дорожного движения. В Великобритании обгонять можно только по внешней полосе, а поворачивать нельзя, когда горит красный. В США обгонять можно по любой полосе, а в некоторых случаях разрешено поворачивать, даже если горит красный свет.
Не все наши ценности выражены в юридических формулировках. Даже в тех случаях, когда это так, существует множество законов, которые необходимо нарушить. Например, мы осознаём, что автономные машины не всегда должны следовать правилам дорожного движения. Исследование 2015 года исследовательского института транспорта Мичиганского Университета показало, что автономное вождение имеет показатель в 9,1 аварий на каждый миллион миль и 4,1 аварий для машин, за рулем которых находится человек. Хотя они попадали в большее количество происшествий, виноватыми автономные машины оказывались редко. Вероятно, к этим авариям косвенно привело их слишком буквальное следование закону. Большинство происшествий заключалось в том, что в автономные машины въезжали сзади. Если кто-то въезжает в вас сзади, почти всегда виноваты технически именно они. Однако резкое торможение, чтобы не проехать на желтый свет, скорее всего приведет к такому исходу. Многие водители слегка нарушают закон, например проезжают на желтый или превышают скорость при обгоне. Некоторые из этих правонарушений сокращают количество аварий. Автономным машинам придется учитывать и, может быть, даже совершать эти правонарушения.
Нам также необходимо будет запрограммировать некоторые ценности, которые слабо связаны с существующими законами. К примеру, в правилах дорожного движения не найдешь сведений о водительском этикете или привычках. Означает ли подмигивание фарами то, что другому водителю нужно отъехать с перекрестка? Или то, что впереди опасность? Или что с его машиной что-то не так? Автономным машинам нужно уметь это понимать и производить подобные действия, когда возникнет необходимость. Иногда такие действия будут связаны с трудным этическим выбором.
Этические дилеммы, связанные с автономными машинами, стали известны как «проблема вагонетки». Классическая задача включает в себя движущуюся вагонетку на рельсах. Вам необходимо принять сложное решение, связанное с жизнью и смертью. Вот как выглядит классический сценарий.
Пять человек привязаны к железнодорожным путям, по которым движется вагонетка. Вы стоите между людьми и вагонеткой, рядом с рычагом. Если за него потянуть, вагонетка съедет на параллельные пути. Все было бы просто, если бы к этим путям не был привязан еще один человек. У вас два варианта: ничего не делать и дать вагонетке убить пятерых или потянуть за рычаг и убить одного человека. Как бы вы поступили?
Существует множество вариаций этой задачи, в которых людей подталкивают на пути, пересаживают органы, чтобы спасти несколько жизней, или заключают людей в тюрьму. Варианты рассматривают этический выбор между действием и бездействием, точным и ожидаемым исходом, между прямыми эффектами и возможными побочными. В интернете вы можете попробовать самостоятельно решить такую задачку. «Моральная машина», разработанная Массачусетским технологическим институтом (МТИ), позволяет это сделать. С ее помощью можно даже придумать собственные этические дилеммы. Цель разработки – узнать общественное мнение о том, как должны поступать машины, когда принимают подобные сложные с этической точки зрения решения.
«Моральная машина» – отличный пример способности медиалаборатории МТИ привлекать общественное внимание. Однако не очень ясно, должны ли мы задавать для машины такие нормы поведения. Даже если «Моральная машина» собрала мнения более миллиона потенциальных палачей, есть множество причин, по которым машинам не стоит усваивать то, что говорят по этому поводу люди. Ответить на вопросы в интернете не то же самое, что вцепиться в руль и умышленно кого-нибудь переехать. Среди опрашиваемых наверняка есть люди, которые намеренно отвечают наоборот; однажды я попробовал узнать, что получится, если мое решение будет подразумевать необязательное убийство других людей. «Моральная машина» не собирает демографическую информацию, а значит, невозможно быть уверенным в том, что участники опроса представляют все слои населения в равных пропорциях. Даже если предположить, что это так или может быть так, хотим ли мы, чтобы машины отражали некое бесформенное среднестатистическое общество?
Есть мнение, что к 2062 году мы должны наделить машины более высокими нравственными стандартами, чем у людей. Потому что мы можем это сделать. Потому что машины могут быть точнее людей. Потому что они могут думать быстрее. Потому что они не повторяют наши ошибки.
Мы уж точно не хотим, чтобы наши предрассудки были запрограммированы. Как раз эти предубеждения и рассматривает «Моральная машина». И наконец, мы должны наделить машины более высокими этическими стандартами, потому что они могут и должны жертвовать собой ради нас.