Книга: Принцип «черного ящика». Как превратить неудачи в успех и снизить риск непоправимых ошибок
Назад: II Рейс United Airlines 173
Дальше: Часть 2 Когнитивный диссонанс

III
Парадокс успеха

1

15 января 2009 г. в 15:25 рейс US Airways 1549 получил разрешение на взлет с полосы 4 нью-йоркского аэропорта Ла Гуардия.
Стоял погожий день; в кабине командир экипажа Чесли Салленбергер и второй пилот Джеффри Скайлз, как положено, выполняли проверки по чек-листу. Они думали о предстоящем полете. Чего они и предположить не могли, так это того, что отправляются в один из самых известных рейсов в истории авиации [48].
Не прошло и двух минут после взлета, как внезапно справа от воздушного судна показалась стая гусей. Самолет сближался с ними столь быстро, что не было ни единого шанса избежать столкновения. Две птицы попали в правый двигатель и по крайней мере одна – в левый.
После серии сильных глухих ударов наступила зловещая тишина, словно самолет остановился. Двигатели потеряли тягу. Сердца пилотов бились как бешеные, поле внимания сузилось – классическая реакция на опасность. Они висели на высоте 1 км над Нью-Йорком в 70-тонном самолете Airbus A320, который вот-вот начнет падать.
Пилоты приняли несколько молниеносных решений. Сначала им предложили вернуться в Ла Гуардию, потом – полететь в Тетерборо, аэропорт в Нью-Джерси-Мидоулендз в нескольких километрах от них. Оба предложения были отвергнуты. Так далеко самолет не долетел бы. Он снижался слишком быстро.
В 15:29 Салленбергер произнес слова, которые впоследствии вынесли в заголовки многие газеты мира: «Мы летим на Гудзон».
В начале этой книги мы говорили в основном о неудачах в двух сферах, где вопрос безопасности очень важен: в авиации и здравоохранении. Мы видели, какими бывают реакция на неудачи и отношение к ним и как проводится расследование неудач. Теперь мы посмотрим на успех и нашу реакцию на него. Изучив, как именно люди добиваются успеха, мы поймем чуть больше о том, почему люди ошибаются.
Салленбергер в итоге посадил самолет весом 70 тонн на реку Гудзон. Это был великолепно выполненный маневр. Командир не допустил ошибок и после этого. Прежде чем покинуть воздушное судно, он дважды осмотрел салон, чтобы убедиться, что все пассажиры вышли на крылья – их отделяли от воды считаные сантиметры. При посадке никто не погиб.
Хладнокровие командира очаровало Америку. 57-летний Салленбергер получил звонок от избранного, но еще не вступившего в должность президента Обамы. Командира экипажа пригласили на президентскую инаугурацию. Журнал Time поместил его на второе место в разделе «Герои и кумиры» в спецвыпуске «Топ-100 2009 г.» [49]. Ученые противопоставляли новый тип подлинного героизма культуре поп-звезд. Общественность приняла случившееся как торжество личности: профессионализм и спокойствие одного человека спасли в чрезвычайной ситуации более сотни жизней.
Однако эксперты в области авиаперевозок придерживались другой точки зрения. Они отдавали должное не только личному профессионализму Салленбергера, но и системе, в рамках которой он действовал. Одни говорили об управлении ресурсами экипажа. Разделение обязанностей между Салленбергером и Скайлзом сработало безотказно. Через пару секунд после столкновения с птицами Салленбергер взял самолет под контроль, в то время как Скайлз сверялся с оперативным справочником для экипажа.
Коммуникационные каналы оставались открытыми до самых последних мгновений полета. Когда самолет падал, Скайлз сообщал командиру данные по скорости воздушных потоков и высоте, чтобы Салленбергер располагал как можно более полной информацией. За несколько секунд до столкновения с водой они не переставали разговаривать. «Есть идеи?» – спросил Салленбергер. «Вообще-то нет», – ответил Скайлз.
Другие эксперты по безопасности говорили о электродистанционной системе управления (сложная система автопилота, действующая во всех самолетах Airbus), которая скорректировала наклон самолета в сантиметрах от воды. Третьи хвалили чек-листы и правильный эргономический дизайн: то и другое помогло пилотам справиться со стрессом после столкновения самолета со стаей птиц.
Это увлекательное обсуждение шло вдали от общественности. Но даже оно отодвинуло на задний план самое важное. Новые инструкции появились после серии авиакатастроф 1930-х гг. Эргономический дизайн кабины экипажа был разработан после серии аварий самолетов B-17. Концепция управления ресурсами экипажа родилась после падения United Airline 173.
Таков парадокс успеха: он базируется на неудаче.
Поучительно также взглянуть на то, как по-разному реагировала общественность на действия Макбрума и Салленбергера. Макбрум, как мы помним, был отличным пилотом. Он не запаниковал, когда самолет DC-8 начал падать, пролетел между рядами деревьев, избежал падения на жилые дома, посадил 90-тонную машину с минимальным ударом о землю и спас жизни сотни людей.
Но после аварии Макбрума стали избегать. Коллегами двигало в основном желание извлечь из аварии уроки, однако общественность моментально осудила человека, который управлял самолетом, когда произошла катастрофа. Людей возмущало то, что опытный пилот разбил совершенно нормальный самолет, позабыв о том, что кончается топливо.
Вскоре Макбрум покинул авиацию. Через три года он разошелся с женой. Эйми Коннер, пассажир того рейса, увиделась с Макбрумом на встрече выживших за восемь лет до его смерти в 2004 г. и позднее рассказывала: «Он был сломлен… Он был опустошен. Он потерял лицензию пилота. Потерял семью. Его жизнь была разбита».
Трагедия Макбрума, если можно ее так назвать, заключалась в том, что в то время, когда он летал, не были глубоко изучены ни ограничения человеческого внимания, ни эффективность коммуникации. Он пилотировал United Airline 173 со скрытой ошибкой в системе – ошибкой, которая ждала своего часа. Такая же скрытая ошибка поджидала отличных врачей Эдвардса и Андертона в операционной близ Норт-Мэрстона более четверти века спустя.
Ирония судьбы: Салленбергер, которого поздравляли президенты, мог в тех же обстоятельствах совершить точно такую же ошибку. Он этого не сделал и оказался героем по простой, но важной причине: индустрия, в которой он работает, извлекает уроки из катастроф. Показательно, что Салленбергер, скромный и благородный человек, сам говорил об этом. В телеинтервью через несколько месяцев после чудесного приземления на Гудзоне он произнес:
Все, что мы знаем об авиации, каждое правило в каждой инструкции, каждая процедура – все это существует потому, что кто-то погиб… Эти уроки дались нам огромной ценой, они буквально оплачены кровью, поэтому мы обязаны сохранить всю накопленную информацию и передать ее последующим поколениям. У нас нет морального права забывать, чтобы впоследствии учиться на тех же ошибках.

2

Высказывание Салленбергера дает нам возможность радикально изменить восприятие неудачи. Это яркая, парадоксальная и глубокая мысль: успехи авиации в области безопасности выросли из-под обломков реальных катастроф. Она как откровение. Присмотревшись, мы обнаружим, что она приложима почти ко всем областям человеческой деятельности.
Возьмем науку, где обучение на ошибках – часть метода. Именно этот принцип отстаивал философ Карл Поппер, утверждавший, что прогресс в области науки идет благодаря реакции ученых на их же ошибки. Научная теория делает предсказания, которые можно проверить, и потому по определению уязвима. Это ее свойство можно рассматривать как слабость, однако Поппер осознал, что оно дает науке невероятную силу.
«История науки, подобно истории всех человеческих идей, есть история… ошибок, – писал Поппер. – Однако наука представляет собой один из немногих видов человеческой деятельности – возможно, единственный, – в котором ошибки подвергаются систематической критике и со временем довольно часто исправляются. Это дает нам основание говорить, что в науке мы часто учимся на своих ошибках и что прогресс в данной области возможен» [50].
В этом контексте мы рассмотрим эксперимент (вероятно, апокрифический), проведенный Галилеем в XVI в. в Италии. Много веков неоспоримой истиной на Западе считалась физика Аристотеля, как в медицине доминировали идеи Галена. Люди верили в греческого философа, и – до известной степени – спорить с ним считалось дерзостью. Аристотель среди прочего доказывал, что тяжелые объекты падают быстрее, чем легкие, и что ускорение прямо пропорционально их весу.
Был ли он прав? Чтобы выяснить это, Галилей провел эксперимент. Он взобрался на наклонную Пизанскую башню и сбросил с высоты два шара разной массы. Он обнаружил, что объекты падают с одинаковым ускорением, и понял, что теория Аристотеля неверна. Если использовать терминологию Поппера, Галилей «фальсифицировал» гипотезу Аристотеля.
Это была ошибка Аристотеля и болезненный удар для его последователей, многие из которых были возмущены экспериментом. Однако для науки это была самая настоящая победа. Аристотель оказался не прав, и этот факт побуждал ученых выяснять, почему он оказался не прав, и создавать новые теории, которые, в свою очередь, впоследствии могли быть фальсифицированы. Это одна из движущих сил развития науки.
То же самое произошло в свое время с теорией относительности Эйнштейна. В 1919 г. британский ученый Артур Эддингтон отправился в Африку, чтобы подвергнуть проверке одно из основных ее утверждений: свет притягивается небесными телами. Во время затмения Эддингтон сделал фотографии далекой звезды, чтобы выяснить, влияет ли гравитация на лучи света, движущиеся к Земле. Эксперимент подтвердил теорию [51]. Но главное здесь то, что он мог ее и опровергнуть. Теория относительности уязвима и может оказаться ложной. Она остается уязвимой по сей день [52].
Сравните эту готовность науки к неудаче с тем, как ведет себя псевдонаука, например астрология, чьи предсказания безнадежно туманны. В день, когда писались эти строки, я заглянул на сайт Horoscope.com, чтобы прочесть там гороскоп для Весов. «Дома или на работе назревают большие перемены», – сообщили мне. Это утверждение кажется проверяемым, но на деле предсказанию соответствует практически любое событие в жизни кого бы то ни было, будь он Весы или любой другой знак зодиака. У каждого из нас «назревают» перемены дома или на работе. Здесь и кроется соблазнительная сила астрологии: она не бывает «не права». Но цена, которую псевдонаука платит за невосприимчивость к неудачам, высока. За последние два века в астрологии не произошло никаких существенных изменений.
Или возьмите другую теорию, популярную в XIX в., – что мир был создан в 4004 г. до н. э. Казалось бы, эту теорию опровергали обнаруженные окаменелости, а также, позднее, определение возраста радиоуглеродным методом. Новые данные практически неоспоримо указывали на то, что возраст Вселенной значительно превышает 6 тысяч лет.
Однако в XIX в. британский натуралист Филип Генри Госсе в попытке защитить креационизм написал трактат «Омфалос» (Omp halos). Его аргументы были в высшей степени изобретательны. Госсе констатировал, что мир и правда был создан в 4004 г. до н. э., сразу вместе с окаменелостями, чтобы он выглядел старше, чем на самом деле. Он доказывал также, что Бог дал Адаму пупок, дабы тот выглядел как человек, рожденный от другого человека, в то время как в действительности Адам был создан из праха земного (слово «омфалос», давшее название книге, в переводе с греческого означает «пупок») [53].
С одной стороны, Госсе вроде бы защитил креационизм и гипотезу о Сотворении мира в 4004 г. до н. э. Хитроумным образом он примирил теорию и вновь открытые факты. С другой стороны, он сделал кое-что еще. Благодаря Госсе теория стала неуязвимой. Никакие факты, никакая информация, никакие открытия не смогут поколебать эту позицию. Любая новая информация, доказывающая, что мир сотворен прежде 4004 г. до н. э., будет воспринята как еще одно доказательство того, что Бог сыграл с нами божественную шутку. Теория подтвердится, что бы ни произошло. Иначе говоря, она никогда не сможет адаптироваться к новым данным.
Точно такая же история случилась с психотерапевтическими теориями Альфреда Адлера. Они были в моде в 1920-х гг. и остаются влиятельными до сих пор. Основная идея Адлера – «комплекс неполноценности»: утверждение, что поведение человека основано на его желании самоутвердиться.
В 1919 г. Карл Поппер встретился с Адлером, чтобы поговорить о случае, который, как казалось Попперу, не укладывался в рамки теорий психотерапевта. Сам по себе случай не столь важен, как реакция на него Адлера. Поппер писал:
Адлер легко проанализировал его [случай] в терминах своей теории неполноценности, хотя даже не видел ребенка, о котором шла речь. Слегка ошеломленный, я спросил его, почему он так уверен в своей правоте. «В силу моего тысячекратного опыта», – ответил он. Я не смог удержаться от искушения сказать ему: «Теперь с этим новым случаем, я полагаю, ваш тысячекратный опыт, по-видимому, стал еще больше!» [54]
Поппер говорит о том, что теории Адлера оказывались верными в любом случае. Если некий человек спасает тонущего ребенка, значит, по Адлеру, он доказывает себе, что достаточно храбр, чтобы рискнуть жизнью и прыгнуть в реку. Если тот же человек отказывается спасать тонущего ребенка, он доказывает себе, что более чем храбр, чтобы выдержать порицание общественности. В обоих случаях он преодолевает свой комплекс неполноценности. Теория подтверждается, что бы ни случилось. Как продолжает Поппер:
Я не смог бы придумать никакой формы человеческого поведения, которую нельзя было бы объяснить на основе каждой из этих теорий. И как раз этот факт – что они со всем справлялись и всегда находили подтверждение – в глазах их приверженцев становится наиболее сильным аргументом в пользу этих теорий. Однако у меня зародилось подозрение относительно того, а не является ли это выражением не силы, а, наоборот, слабости этих теорий?
Большинство замкнутых циклов существует, потому что мы отрицаем возможность ошибки или пытаемся ее проигнорировать. Проблема псевдонаук более структурна. Они созданы – сознательно или интуитивно – так, чтобы полностью исключить вероятность неудачи. Вот почему они столь привлекательны для своих адептов. Псевдонаука может объяснить любую ситуацию. А значит, она не в состоянии учиться ни на чем вообще.
Отсюда видна тонкая разница между подтверждением и опровержением. Науку часто рассматривают как поиск подтверждения. Ученые наблюдают за миром, формулируют теории, а затем пытаются доказать их, собрав как можно больше подтверждающих теории данных. Но теперь мы можем сказать, что это лишь часть правды. Наука связана не только с подтверждением, но и с опровержением. Прогресс в области знаний невозможен, если мы располагаем одной только подтверждающей информацией, нам нужно искать также информацию опровергающую.
Возьмем гипотезу, по которой вода закипает при 100 °C. Утверждение кажется верным. Однако, как мы знаем, эта гипотеза опровергается в местах, расположенных выше уровня моря. Находя обстоятельства, при которых теория терпит неудачу, мы создаем условия для создания новой, более мощной теории, которая объяснит, почему вода кипит при 100 °C на уровне моря и при другой температуре на возвышенности. Таков ход научного прогресса.
Заодно мы видим некоторую асимметрию между подтверждением и опровержением, между успехом и неудачей. Если вы тщательно ограничиваете свои наблюдения небольшими высотами и открытыми емкостями, в ваших силах найти бессчетные примеры того, что вода действительно кипит при 100 °C. Но ни одно из успешных «подтверждений» не расширит пределы нашего знания. Ни одно из них даже не увеличивает вероятность того, что утверждение «вода всегда кипит при 100 °C» правильно [55].
Данная идея была выдвинута шотландским философом Дэвидом Юмом в XVIII в. и популяризована в последние годы математиком и писателем Нассимом Николасом Талебом [56]. Как указывает Талеб, можно увидеть миллион белых лебедей, однако они не докажут правильность утверждения «все лебеди белые». Обнаружение единственного черного лебедя убедительно докажет, что это утверждение ложно.
Неудача, таким образом, является необходимой составляющей как логики, так и духа научного прогресса. Области, в которых человечество наиболее успешно, возникли благодаря противостоянию устоявшегося и новых идей, подвергавшихся проверке. Отдельные ученые могут быть догматиками, но ученое сообщество в целом признаёт, что научные теории, особенно самые передовые, часто являются ошибочными или неполными. Только подвергая теории сомнениям и проверяя их на ошибочность, мы создадим условия для роста.
Авиация не похожа на науку, но проникнута тем же духом. В конце концов, полет самолета представляет собой гипотезу, которая предполагает, что данное летательное средство такой конструкции, с этими пилотами и при помощи системы авиадиспетчерских служб долетит до пункта назначения в целости и сохранности. Катастрофа в определенном смысле представляет собой опровержение этой гипотезы. Вот почему авиакатастрофы столь важны для повышения безопасности системы – точно так же, как опровержение теории важно для развития науки.
То, что работает на уровне системы, верно и на уровне индивида. Обсуждаемый принцип объясняет один из глубочайших парадоксов современной психологии. Хорошо известно, что профессионалы, которые наработали тысячи часов практики, могут выполнять работу с почти чудесной точностью. Гроссмейстер моментально вычисляет оптимальный ход, профессиональный теннисист предсказывает, куда полетит мяч, еще до того, как противник по нему ударил, опытная медсестра почти сразу ставит диагноз, который потом неизменно подтверждается анализами.
У таких людей за спиной не недели и не месяцы, а годы опыта. Они медленно, но уверенно развивали в себе интуицию, которая позволяет им действовать с замечательной точностью. Отсюда следует вывод: компетентность – по крайней мере отчасти практика (так называемое «правило десяти тысяч часов»). Не у каждого есть потенциал, чтобы стать чемпионом мира, но почти все могут развить в себе мастерство путем тренировки и прилежания.
Более поздние исследования, кажется, противоречат этому выводу. Оказалось, что существует множество профессий, в которых практика и компетентность не дают никакого эффекта. Люди тренируются месяцами, иногда годами, и их навыки вообще не улучшаются.
Так, в области психотерапии стажеры добиваются тех же результатов, что и лицензированные «эксперты». Похожие выводы сделаны в отношении руководителей приемных комиссий учебных заведений, специалистов по отбору кадров и клинических психологов [57].
В чем причина? Почему опыт столь ценен в одних профессиях, но почти бесполезен в других?
Чтобы ответить на этот вопрос, вообразите, что вы играете в гольф. Вы на тренировочном поле и бьете по мячам, стараясь попасть в лунку. Вы сосредоточенны и всякий раз, когда мяч улетает в сторону, меняете технику удара, чтобы приблизиться к цели. Так практикуются спортсмены. Это процесс проб и ошибок.
Теперь представьте себе, что вы тренируетесь в ночное время суток – в полной темноте. В этих условиях вы можете практиковаться хоть десять лет, хоть десять тысяч лет – толку не будет никакого. Как вы можете улучшить технику, если понятия не имеете, куда в итоге попал мяч? С каждым ударом он может полететь на короткую или на длинную дистанцию, налево или направо. Каждый удар поглощается темнотой. У вас нет никаких данных, чтобы улучшить точность попадания.
Эта метафора объясняет загадку компетентности. Представьте, что вы играете в шахматы. Когда вы делаете плохой ход, вас тут же наказывает ваш противник. Теперь представьте, что вы – медсестра в больнице. Когда вы ставите ошибочный диагноз, на это вскоре указывает состояние пациента (а потом и результаты анализов). Интуитивные решения шахматистов и медсестер постоянно контролируются и поверяются их ошибками. Они вынуждены адаптироваться, они совершенствуются и реструктурируют свои суждения. Это признак того, что называют осмысленной практикой.
С психотерапевтами дела обстоят совсем иначе. Их работа – улучшать функционирование психики пациентов. Но может ли психотерапевт отличить удачное вмешательство от неудачного? Где тут обратная связь? Бо́льшая часть психотерапевтов оценивает реакцию пациента на лечение не по объективным данным, а наблюдая за пациентом в клинике. Однако эти наблюдения весьма ненадежны. В конце концов, пациенты могут быть склонны к преувеличению улучшения своего состояния, чтобы угодить врачу, – это явление в психотерапии хорошо известно.
На деле проблема еще глубже. Психотерапевты редко следят за тем, что происходит с пациентами после того, как курс лечения окончен. Иначе говоря, они не получают информации о том, каковы будут отдаленные последствия их вмешательства. Они понятия не имеют, успешны или нет их методы, если говорить о долгосрочном улучшении психического состояния пациента. Именно поэтому клинические результаты многих врачей со временем не улучшаются. По сути, эти люди играют в гольф в темноте [58].
Или возьмите радиологов, которые пытаются распознать раковые опухоли, изучая рентгеновские снимки молочных желез – маммограммы. Ставя диагноз «злокачественная опухоль», радиолог узнаёт о том, прав он или нет, только после диагностической операции, которая проводится спустя некоторое время. К этому моменту радиолог обычно забывает о том, почему поставил диагноз, и занимается новыми пациентками. Запаздывание обратной связи уменьшает эффективность улучшения интуитивных умозаключений.
Последствия могут быть и серьезнее. Представим себе, что врачу не удалось диагностировать рак – и пациент, обрадовавшись, ушел домой. Если через несколько месяцев или лет выяснится, что диагноз был неверным и раковая опухоль за это время увеличилась, радиолог может вообще не узнать о своей ошибке. Значит, и учиться на ошибках он не может. Это объясняет, хотя бы частично, почему врачи-стажеры учатся так медленно, постепенно приближаясь к 70-процентной точности диагнозов, но редко превышая этот показатель [59].
Если мы хотим улучшить суждения начинающих экспертов, сосредоточиться на традиционных проблемах вроде мотивации и обязательств недостаточно. Во многих случаях единственный способ подстегнуть прогресс – это найти способ «включить свет». Без доступа к «сообщению об ошибке» можно обучаться и работать годами – и ничего не добиться.
В случае с радиологами представьте себе обучающую систему, в которой студенты получают доступ к библиотеке оцифрованных маммограмм с уже подтвержденной корректностью диагнозов. Студенты могут каждый час ставить диагнозы и немедленно получать обратную связь. Они будут часто ошибаться, однако именно поэтому у них появится больше опыта. Библиотеку маммограмм можно снабдить указателем, тем самым побуждая студента изучать группы похожих случаев и учиться определять важные свойства или типы опухолей [60].
Вернемся теперь к науке, которая учится на своих ошибках. Вы только взгляните на число научных теорий, которые канули в Лету: эмиссионная теория зрения, Птолемеев закон преломления света, теория светоносного эфира, теория полой Земли, теория калорической жидкости, теория флогистона, миазматическая теория возникновения болезней, концепция телегонии и десятки других.
Некоторые из этих теорий на практике были ничуть не лучше астрологии. Однако важнейшее различие с псевдонаукой заключалось в том, что они выдвигали предположения, которые можно было проверить. Вот почему они были заменены более адекватными теориями. По сути, они стали основанием, на котором были созданы более успешные теории.
Отметим напоследок: студенты сегодня уже не изучают эти «неудачные» научные теории. Зачем? Наука и так слишком обширна, чтобы тратить время на идеи, отброшенные много лет назад. Однако эта тенденция создает «слепое пятно», зону некомпетенции. Рассматривая лишь выжившие теории, мы не замечаем ошибок, благодаря которым они появились.
Это слепое пятно важно не только для науки, оно – основное свойство нашего мира, которое по большому счету несет ответственность за перекос в нашем отношении к ошибкам. Успех – всегда вершина айсберга. Мы изучаем популярные теории, летаем в удивительно безопасных самолетах, поражаемся виртуозности настоящих экспертов…
Однако под поверхностью успеха – за пределами нашего зрения, а часто и осознания – кроется гора необходимых неудач.

3

В 2002 г. доктор Гэри С. Каплан, недавно назначенный исполнительным директором сети лечебных учреждений Virginia Mason Health System (Сиэтл), посетил с коллегами Японию. Помимо прочего, Каплан интересовался работой японских компаний, не связанных со здравоохранением: его волновало все, что могло изменить представление о рабочем процессе как у него, так и у других членов руководства.
На заводе Toyota Каплан испытал откровение. Эта компания использовала довольно необычный процесс производства. Если у работника на конвейере возникает проблема или он видит, что совершена ошибка, он нажимает кнопку – и производство по всему заводу приостанавливается.
Руководитель приходит на место, чтобы узнать, что именно пошло не так; если у работника возникли трудности с выполнением какой-либо операции, ему помогают. Ошибка оценивается, из нее извлекаются уроки, и система меняется. Это называется «производственной системой Toyota» (Toyota Production System, TPS), она является одной из самых успешных в истории промышленности.
«Система предназначена для изготовления автомобилей, это совсем не то же самое, что работа с людьми, – сказал Каплан в беседе со мной. – Но лежащий в основе этой системы принцип можно перенести в другие области. Если культура организации открыта и признаёт ошибки, на них может учиться вся система. Так можно улучшать качество оказываемых услуг».
У Каплана яркие глаза и неистощимое любопытство. Когда он говорит, его руки беспрестанно двигаются. «По возвращении из Японии мы внедрили разновидность этой системы в Сиэтле, – продолжает он. – Мы знали, что врачебные ошибки ежегодно губят тысячи американцев, и были полны решимости уменьшить число таких ошибок».
Одна из главных реформ Каплана мотивировала персонал сообщать об ошибках, которые могут повредить пациенту, всякий раз, когда кто-то их обнаруживает. Почти так же система сбора информации работает в авиации и на заводах Toyota. Каплан создал круглосуточную телефонную линию и организовал сбор данных онлайн. Он назвал свою систему оповещения «Безопасность пациента» (Patient Safety Alerts).
Для персонала новая система означала большой культурный сдвиг. Обычно в Virginia Mason на ошибки смотрели косо, как и повсюду в здравоохранении. Субординация была жесткой, медсестры и врачи-стажеры опасались сообщать о промахах начальства. Каплан был удивлен и разочарован тем, что информация об ошибках почти не поступала. Нововведение, предназначенное для оповещения, не выдержало столкновения с профессиональной культурой.
По словам Кэти Фёрмен, 14 лет занимающей в Virginia Mason пост первого вице-президента и отвечающей за качество, безопасность и соблюдение правовых норм, «профессиональная культура в здравоохранении построена на субординации и на том, чтобы избежать обвинений, и изменить здесь что-либо [может быть] очень трудно» [61].
Однако в ноябре 2004 г. все в Virginia Mason изменилось. Мэри Макклинтон (69 лет), мать четырех детей, умерла после того, как во время операции, связанной с аневризмой сосудов головного мозга, ей случайно ввели токсический антисептик хлоргексидин вместо безвредного маркерного красящего вещества. Две жидкости находились рядом в идентичных емкостях из нержавеющей стали, и шприц наполнили не из той емкости [62]. Пациентке ампутировали одну ногу, через 19 дней Мэри Макклинтон умерла от полиорганной недостаточности.
Гэри Каплан не стал ничего замалчивать и утаивать – он публично принес искренние извинения (совсем по-другому поступила больница после смерти Илэйн Бромили). «Словами не выразить того, как мы шокированы собственными действиями, – сказал он. – Мы ничего не скрываем, потому что то, что скрыто, невозможно осознать». Родственники покойной приняли извинения, благодаря им они осознали, что именно случилось с их близким человеком.
Смерть Мэри Макклинтон, кроме прочего, стала тревожным сигналом для 5500 работников Virginia Mason. «Нам всем было тогда тяжело, но эта смерть стала призывом сплотиться, – говорит Каплан. – Она дала необходимый нашей организации толчок к осознанию того, насколько все серьезно».
Внезапно система оповещения «Безопасность пациента» заработала. Те, кто отчитывался об ошибках, с удивлением узнавали, что за исключением ситуаций, когда они действительно пренебрегали правилами, их хвалили, а не наказывали. Доктор Генри Отеро, онколог, сообщил о промахе, за который его отчитал коллега: он не обратил внимания на низкий уровень магния в крови пациента. «Я пропустил этот показатель, – сказал он газете. – Не знаю, как это получилось. Но я понял, что не важно, что я чувствую, важно, чтобы все было в порядке с пациентом. Нужно, чтобы я перестал делать ошибки. Нужно, чтобы я мог сказать: возможно, я даю сбой, поправьте меня» [63].
Сегодня в Virginia Mason по каналам «Безопасность пациента» проходит до тысячи оповещений в месяц. Согласно отчету Министерства здравоохранения США, эти сигналы помогли выявить скрытые ошибки во всех медицинских услугах, от назначения лекарств до ухода. «После того как фармацевт и медсестра неверно интерпретировали неразборчиво написанный рецепт, что привело к причинению вреда пациенту, медицинский центр разработал пошаговый протокол, исключающий вероятность подобных ошибок», – сказано в отчете.
Другой сигнал касался медицинских браслетов: «После того как только что госпитализированный пациент получил браслет с цветовым кодом “не реанимировать”, вместо браслета с кодом, указывающим на лекарственную аллергию (по причине дальтонизма медсестры), медицинский центр стал добавлять на браслеты текст».
В 2002 г., когда Каплан возглавил Virginia Mason, эта больница была одной из лучших в Вашингтоне. В 2013 г. она превратилась в одну из наиболее безопасных больниц в мире. В том же году Virginia Mason получила премию «Выдающаяся больница» за достигнутые результаты и награду за лучшее обращение с пациентами, а влиятельная некоммерческая организация The Leapfrog Group восьмой раз подряд признала ее больницей года. После внедрения нового подхода страховые выплаты Virginia Mason уменьшились на 74 % [64].
Этот успех – не редчайший случай и не счастливая случайность, а метод. Правильно внедренная культура обучения на ошибках улучшила результаты больниц по всему миру. Скажем, после введения политики открытости и обнародования информации об ошибках количество исков к клинике Мичиганского университета упало с 262 в августе 2001 г. до 83 в 2007 г. [65]. Число обвинений в преступной халатности, которые предъявляются сотрудникам клиники Иллинойсского университета, через два года после появления системы информирования об ошибках стало меньше в два раза [66].
На примере больницы Virginia Mason мы узнаем важнейшую истину: обучение на ошибках состоит из двух компонентов. Первый – это система. Ошибки можно рассматривать как разрыв между тем, на что мы надеемся, и тем, что происходит на самом деле. Передовые организации всегда стараются сократить этот разрыв, но для этого нужно создать систему, позволяющую превратить ошибки в возможность обучения. Система может со временем меняться: многие эксперты уже пробуют методы, которые, как они надеются, превзойдут производственную систему Toyota. Однако основной структурой всякой системы являются механизмы, направляющие обучение и саморегулирование. И введение оповещения об ошибках само по себе не панацея. Даже идеально продуманная система не будет работать, если профессионалы не делятся информацией, которая позволяет такой системе функционировать. В Virginia Mason персонал поначалу не посылал оповещений. Работники больницы боялись обвинений и потери репутации так сильно, что утаивали информацию об ошибках. Механизмы, позволяющие учиться на ошибках, во многих аспектах бесполезны, если об этих ошибках не говорят. И только когда образ мысли организации изменился, система стала приносить великолепные результаты.
Вернемся на секунду к науке. Наука обладает саморегулирующейся структурой. Делая проверяемые предсказания, ученые могут осознать, что их теория неверна, и у них возникнет побуждение создать новую теорию. Если бы ученое сообщество игнорировало неудобную информацию, не доверяло ей или скрывало ее, оно ничего не достигло бы.
Таким образом, наука – не только метод, это еще и образ мысли. В лучших своих проявлениях она движима неугомонностью, интеллектуальным азартом, готовностью столкнуться с неудачей и не закрывать глаза на важную информацию, даже если та противоречит важным для ученого выводам. Наука – образ мысли и метод одновременно.
В здравоохранении научный подход, позволяющий учиться на ошибках, давным-давно применяется при создании новых лекарств, когда используется клиническое исследование и другие методы. Опыт Virginia Mason показывает, что точно так же можно и нужно подходить к сложной проблеме медицинских услуг, оказываемых реальными людьми, работающими в большой системе. Этот подход следовало внедрить в здравоохранении давным-давно, и тот факт, что никто этим не озаботился, во многом объясняет, почему предотвратимые ошибки убивают больше людей, чем автомобильные аварии.
Вот что пишет об этом Питер Проновост, профессор медицины Университета Джонса Хопкинса и главный врач Центра инноваций и качественной заботы о пациенте: «Фундаментальная проблема качества американской медицины в том, что мы так и не смогли превратить оказание медицинских услуг в науку. Мы находим генетические отклонения, мы находим методы лечения, но будут ли все эти открытия применены к конкретному пациенту – зависит только от нас… Пока что это катастрофа. Вот почему медицина вредит стольким людям» [67].
Проновост заинтересовался безопасностью пациентов, когда его отец скончался в 50 лет от медицинской ошибки. Ему ошибочно поставили диагноз «лейкемия», хотя на самом деле у него была лимфома. «Я учился на первом курсе медицинского факультета здесь, в Университете Джонса Хопкинса, и привел отца к одному из наших специалистов, чтобы тот перепроверил диагноз, – рассказывал Проновост в интервью газете New York Times. – Врач сказал: “Если бы вы пришли раньше, вам можно было бы пересадить костный мозг, но опухоль уже разрослась”. Слова “ошибка” он не произнес, но ситуация была ясна. Я был в шоке. Я злился на врачей и на себя. Я думал: “Медицина должна работать лучше”» [68].
Следующие несколько лет Проновост посвятил реформированию медицинской культуры. Он не собирался закрывать глаза на огромное число людей, умирающих каждый день в больницах США. Он не был готов рассматривать эти трагедии как неизбежные и считать, что это цена, которую вынуждена платить система, работающая в сложных условиях. Вместо этого Проновост стал изучать медицинские ошибки. Он собирал информацию. Он искал модели. Он оценивал методом проб и ошибок возможные изменения.
Одно из главных расследований Проновоста касалось огромного, от 30 до 60 тысяч в год, количества смертей от катетер-ассоциированных инфекций (речь о центральном катетере, который помещается в большую вену, чтобы вводить в организм лекарства, брать кровь на анализ и т. д.). Проновост обнаружил, что заражения возникают вследствие нескольких ошибок, в основном оттого, что врачи и медсестры не надевают масок или накладывают стерильную повязку уже после того, как катетер введен [69]. Если время поджимает, профессионалы пропускают обязательные действия.
Проновост составил чек-лист из пяти пунктов, чтобы нельзя было забыть ни об одном из обязательных действий, а главное, уполномочил медсестер сообщать о случаях, когда хирурги их не выполняют. Обычно медсестры не спешили доносить на врачей, однако их заверили, что в случае чего администрация будет на их стороне. Почти сразу число случаев катетер-ассоциированных инфекций упало на 11 %. В одном только штате Мичиган эта реформа спасла 1500 жизней и сэкономила более 100 млн долларов за полтора года. В 2008 г. журнал Time включил Проновоста в число ста самых влиятельных людей мира из-за того, что он помог предотвратить множество страданий.
В замечательной книге «Благополучные пациенты, умные больницы» (Safe Patients, Smart Hospitals) Проновост писал:
Мой папа напрасно страдал и умер в возрасте всего лишь 50 лет из-за врачебной ошибки и плохого качества медицинского обслуживания. Вдобавок страдали я и мои близкие. Став молодым врачом, я поклялся ради отца и семьи делать все, что будет в моих силах, чтобы улучшить качество и безопасность лечения пациентов… [Иначе говоря, чтобы] превратить оказание медицинской помощи в науку.
Гэри Каплан, чьими трудами больница Virginia Mason спасла тысячи жизней, выразился еще точнее: «Мы учимся на наших ошибках. Вот так просто – и вот так сложно».
Разница между авиацией и здравоохранением иногда формулируется на языке стимулов. Когда пилоты совершают ошибку, они расплачиваются за нее своими жизнями. Когда совершает ошибку врач, он платит за нее жизнью другого человека. Поэтому пилоты сильнее мотивированы избегать ошибок, чем врачи.
Однако это рассуждение упускает главное. Мы знаем, что на заре авиации пилоты гибли очень часто. Это происходило не потому, что у них не было стимула выжить, а потому, что в системе было множество просчетов. В сложном мире неудачи неизбежны. Именно поэтому учиться на ошибках – наша прямая обязанность.
Но от медицинских работников ожидают, что они будут работать без ошибок. Профессиональная культура подразумевает, что практикующие врачи непогрешимы. Стоит ли удивляться тому, что промахи клеймятся и система выстроена так, чтобы игнорировать и отрицать их, вместо того чтобы изучать ошибки и учиться на них?
Другими словами, во многих случаях стимул для улучшения эффективности работает только тогда, когда тот, на кого он воздействует, понимает, как именно улучшается эффективность. Вспомним о средневековых эскулапах, убивавших пациентов, включая своих родных, кровопусканием. Это происходило не потому, что им было все равно, а потому, что им было не все равно. Они считали, что этот метод лечения эффективен.
Они доверяли авторитету Галена больше, чем критике и экспериментам, которые могли бы указать на неустранимые ошибки в их методе и тем самым подготовить почву для прогресса. Пока мы не изменим восприятие неудачи, стимулирование успеха часто останется безрезультатным.

4

Virginia Mason и больницы Мичигана – лишь два из множества ярких примеров, которые появились в здравоохранении в последние годы. Есть и другие. В области анестезиологии, например, исследование медицинских ошибок в Массачусетсе выявило, что у половины анестезионных аппаратов поворот рукоятки по часовой стрелке приводил к увеличению дозы лекарств, а у другой половины поворот той же рукоятки уменьшал дозу.
Это проблема того же типа, что и одинаковые переключатели в кабине самолета B-17, ставшие причиной ряда катастроф в 1940-х гг. Однако ее не заметили по простой причине: ошибки не анализировались и вообще игнорировались.
После публикации исследования дизайн анестезионного аппарата был изменен, и смертность снизилась на 98 % [70]. Это может показаться чудом, но удивляться не следует. Вспомним о том, что новый дизайн панели В-17 почти полностью исключил вероятность аварий на взлетно-посадочной полосе.
Но не все так радужно. В Великобритании Мид-Стаффордширский фонд Национальной системы здравоохранения (НСЗ) более десяти лет не обращал внимания на ошибки врачей, результатом чего стали, по всей видимости, сотни смертей, которых можно было бы избежать. Тревожные сигналы, касающиеся халатности и пренебрежения правилами, поступали годами, но игнорировались персоналом больницы и всеми организациями, регулирующими деятельность НСЗ, включая Министерство здравоохранения [71].
Подобные случаи выявляют проблему профессиональной культуры здравоохранения во всей полноте. Не только сами врачи предпочитают замалчивать свои ошибки (а иногда и случаи халатности) – регулирующие структуры также воздерживаются от расследований.
Похожие проблемы вскрылись в результате скандала в больнице полуострова Фёрнисс на севере Англии. Неоднократные ошибки и ненадлежащий уход за пациентками в родильном отделении больницы замалчивались более 10 лет. Нашумевший 205-страничный доклад, опубликованный в 2015 г., выявляет «20 случаев существенных и фатальных нарушений, ставших причиной смертей трех матерей и 16 младенцев во время или сразу после родов» [72].
Но и эти вызвавшие общественный резонанс трагедии – вершина айсберга; проблема куда глубже, она в «рутинных» трагедиях, которые случаются каждый день в больницах по всему миру. Проблема в здравоохранении в целом. За пару недель до того, как моя книга отправилась в типографию, эпохальный доклад особого комитета палаты общин констатировал, что НСЗ по-прежнему не способна учиться на своих ошибках: «Независимая система расследования происшествий и извлечения уроков из наиболее серьезных клинических неудач не внедрена. Нет ни людей, ни организаций, которые были бы ответственны за качество клинических расследований и за то, что извлеченные уроки увеличивают уровень безопасности по всей НСЗ».
Комитет признал, что структуры, отвечающие за сообщения об ошибках и расследования инцидентов, созданы, однако подчеркнул, что нормальной работе этих структур мешает профессиональная культура здравоохранения. Вот лишь один пример: как свидетельствует Скотт
Морриш, из-за врачебной ошибки потерявший сына, последующие расследования проводилось с целью не выявить промахи, а скрыть их. «Имеющуюся у нас информацию мы по большей части получили не благодаря анализу или расследованию НСЗ, она всплыла вопреки НСЗ», – сказал Морриш на слушаниях комитета. Рассматривая деятельность английского отделения НСЗ в целом, комитет пришел к выводу: «Процесс расследования и обучения на ошибках слишком сложен, занимает слишком много времени и связан в основном с тем, чтобы либо найти виновного, либо избежать финансовых обязательств. По этой причине большинство расследований далеко не соответствует стандартам, которые вправе ожидать от них пациенты, их семьи и персонал НСЗ» [73].
В США наблюдается почти то же самое. В 2009 г. отчет Фонда Хёрста отметил, что «в 20 штатах медицинские ошибки не регистрируются вовсе», а «в 20 штатах, законы которых требуют регистрировать медицинские ошибки, больницы отчитываются лишь о малой доле таких ошибок, стандарты сильно различаются и законы почти не исполняются». В отчете говорится также, что «только в 17 штатах имеются системы систематической регистрации неблагоприятных действий, достаточно прозрачные, чтобы приносить пользу [пациентам]» [74].
Одна из специфических проблем здравоохранения – даже не собственно способность учиться на ошибках, а тот факт, что, когда ошибки уже выявлены, возможности для обучения возникают не на всех уровнях системы. Иногда говорят о «темпе восприятия» этих возможностей. Как мы видели, авиация выработала протоколы, позволяющие всем авиакомпаниям, пилотам и регуляторам получить доступ к новым данным практически в реальном времени. Данные доступны всем и каждому и быстро усваиваются по всему миру. Темп восприятия в авиации почти молниеносен.
Между тем в здравоохранении новое принимается далеко не сразу, как утверждает Майкл Гиллем, глава Microsoft Medical Media Lab. В 1601 г. английский капитан Джеймс Ланкастер поставил эксперимент по профилактике цинги, одной из самых ужасных проблем мореплавателей. На одном из четырех кораблей, плывших в Индию, капитан Ланкастер предписал команде принимать каждый день по три чайных ложки лимонного сока. Когда позади оставалась половина пути, на трех других кораблях умерло 110 человек из 278. На корабле, снабженном лимонами, выжили все.
Это было важнейшее открытие. Оно позволяло избежать сотен ненужных смертей во время будущих морских путешествий. Однако понадобилось 194 года, чтобы военный флот Великобритании внедрил новые требования к питанию. И только в 1865 г. британское Министерство торговли выпустило аналогичные предписания для торгового флота. Такой темп принятия нового напоминает таяние айсберга. «От момента, когда Ланкастер показал, как именно можно предотвратить заболевание цингой, до момента, когда Британская империя воспользовалась его открытием, прошло в сумме 264 года», – пишет Гиллем [75].
Сегодня новые идеи в области здравоохранения по-прежнему внедряются очень медленно. Исследование, касавшееся последствий значительных открытий (например, того факта, что пневмококковая вакцина защищает от респираторных инфекций не только детей, но и взрослых), выявило, что новые методы лечения доходят до половины американских пациентов в среднем за 17 лет. Обширный обзор, который опубликовал New England Journal of Medicine, утверждает, что всего половина американцев получает лечение, соответствующее государственным нормам США [76].
Проблема не в отсутствии информации, а в том, как эта информация подается. Вот что пишет об этом Атул Гаванде, врач и писатель:
Причина… обычно не в лени или недостатке готовности. Причина чаще в том, что необходимые знания не были переведены в простую, практичную и систематическую форму. Если бы люди, работающие в авиации, занимались исключительно изданием толстых журналов… на пилотов обрушивалась бы лавина информации – как на врачей, ежегодно вынужденных читать 700 тысяч научных статей медицинской тематики. Такой объем информации переварить невозможно. Вместо этого… те, кто расследуют авиакатастрофы, [извлекают] из информации практически применимую составляющую [77].
Может быть, самый показательный пример несовершенства профессиональной культуры здравоохранения – это отношение к аутопсии. Пока пациент жив, врач может поставить диагноз, полагаясь на интуицию, анализы, рентгеновскую томографию и многие другие данные. Однако вскрытие позволяет врачам на деле заглянуть внутрь тела и точно определить причину смерти. Аутопсия – медицинский эквивалент «черного ящика».
Аутопсия очевидным образом способствует прогрессу. В конце концов, если диагноз не подтверждается данными вскрытия, значит, пока пациент был жив, врач мог ошибиться и с выбором метода лечения. По итогам вскрытия врач может переосмыслить ход своих рассуждений, и его ошибка станет ценным уроком для него и его коллег. Она спасет жизни других пациентов.
Благодаря аутопсии стал возможен ряд открытий. Вскрытие использовали, чтобы понять причину туберкулеза, узнать, как сражаться с болезнью Альцгеймера и многими другими недугами. В армейской медицине аутопсия американских военных, погибших в Ираке и Афганистане после 2001 г., позволила собрать важнейшие данные о повреждениях, наносимых пулями, взрывами и шрапнелью.
Эти данные продемонстрировали недостатки экипировки солдат и бронирования военного транспорта. В итоге были усовершенствованы бронешлемы, защитное снаряжение и медицинское оборудование [78] (точно так же принцип «черного ящика», примененный Абрахамом Вальдом, усовершенствовал защиту бомбардировщиков во время Второй мировой войны). Однако до 2001 г. вскрытие погибших военных проводили редко, а значит, никто не учился на ошибках, и их товарищи могли получить точно такие же потенциально смертельные ранения.
Среди гражданского населения около 80 % семей, когда их просят разрешить вскрытие, дают согласие – главным образом чтобы узнать, отчего умер их родственник [79]. Увы, несмотря на готовность близких разрешить аутопсию, она проводится исключительно редко. В США, по статистике, аутопсию проводят менее чем в 10 % случаев [80]. Во многих больницах она не практикуется вообще. С 1995 г. у нас в принципе нет данных по вскрытиям, потому что Американский государственный центр медицинской статистики не собирает эту информацию [81].
Таким образом, вся ценная информация, по сути, исчезает. На огромный объем знаний, которые могли бы спасать чьи-то жизни, медики попросту махнули рукой. Между тем понять, почему врачи столь неохотно пользуются данными аутопсии, нетрудно: все дело в отношении к неудаче.
К чему проводить расследование, если оно может доказать, что вы совершили ошибку?

 

Эта часть книги писалась не для того, чтобы осуждать врачей, медсестер и других медицинских работников, которые героически трудятся каждый день. Всякий раз, когда я попадал в больницу, меня окружали сострадание и профессионализм. Нужно сказать, что и авиация несовершенна. Известно немало случаев, когда ее благородное стремление учиться на ошибках остается всего лишь стремлением.
Однако отличия профессиональной культуры авиации и здравоохранения жизненно важны. Без них мы не поймем, какова природа замкнутых циклов, почему они возникают в работе даже умных, хорошо мотивированных и прилежных профессионалов – и как нам от этих циклов избавиться.
Стоит отметить также, что к любым параллелям между здравоохранением и авиацией следует относиться с осторожностью. Для начала, здравоохранение устроено намного сложнее. Его оборудование более разнообразно: существует, скажем, 300 типов хирургических насосов, но всего две модели самолетов большой дальности полета. Как правило, медицинское оборудование требует ручного управления и очень редко снабжается «автопилотом», что делает ошибки более частыми.
Но все это приводит нас к самому большому парадоксу. Когда вероятность ошибиться велика, учиться на ошибках важнее, чем когда такая вероятность мала. По словам профессора Джеймса Ризона, одного из ведущих экспертов по безопасности систем, «ситуация поистине парадоксальна: здравоохранение по своей сути располагает к ошибкам, однако люди, охраняющие наше здоровье, клеймят ошибающихся позором и почти или вообще не учат ни работать с ошибками, ни распознавать их» [82].
Конечно, то, что безопасность одинаково важна для авиации и здравоохранения, еще не означает, что можно механически перенести процедуры из одной сферы в другую. Чек-листы, пришедшие из авиации, хорошо зарекомендовали себя в ряде медицинских систем, но нет никакой гарантии, что другие процедуры поведут себя так же. Однако ключевое понятие здесь – не перенос процедур, а перенос отношения.
Как сказал Гэри Каплан, директор Virginia Mason Health System: «У вас могут быть лучшие процедуры в мире, но они не будут работать, пока ваше отношение к ошибкам не изменится».
Основная проблема тут не связана ни с психологией, ни с мотивацией. По большому счету это проблема уровня понятий. Пока мы не станем по-другому думать о неудаче, практические успехи останутся призрачными, и не только в здравоохранении, но и в любой области жизни.

 

В мае 2005 г. настойчивость Мартина Бромили принесла плоды. Глава больницы, в которой умерла его жена, поручил провести расследование. Комиссию возглавил Майкл Хармер, профессор анестезиологии и реанимационной медицины медицинского факультета Университета Кардиффа.
30 июля Мартина вызвали в больницу, чтобы огласить результаты расследования. Отчет состоял из ряда рекомендаций. Все они словно были взяты из отчета Национального комитета по безопасности на транспорте по катастрофе United Airlines 173 – документа, составленного тридцатью годами ранее. Отчет призывал улучшить коммуникацию в операционных таким образом, чтобы «любой медработник мог без стеснения вносить предложения, касающиеся лечения».
Кроме того, отчет очертил проблему границ человеческого восприятия: «Учитывая проблему времени, которое для врачей бежало незаметно, на случай, если подобный инцидент произойдет вновь, необходимо вменить в обязанности одного из работников запись хронометража событий и извещение остальных о том, сколько времени прошло».
С одной стороны, выводы были очевидными. С другой, они были революционными. Бромили обнародовал этот отчет (изменив имена врачей, чтобы сохранить их анонимность). Он распространил его так широко, как мог. Он хотел, чтобы все медики прочли этот отчет и сделали для себя выводы. Бромили сумел даже уговорить BBC снять документальный телефильм об этом случае и его последствиях.
Затем он собрал группу людей, небезразличных к проблемам безопасности здравоохранения, и начал продвижение реформ. Эта группа занималась не только проблемой блокировки дыхательных путей, но и медицинским образованием в целом. Бромили по сей день на добровольных началах возглавляет эту организацию, Группу по проблемам человеческого фактора в медицине (Clinical Human Factors Group).
Вскоре Мартин начал получать письма от врачей. Сообщения поступали из больниц Великобритании, США, Азии, других регионов мира. Один врач пишет: «Не так давно впервые за мою карьеру я столкнулся с непредвиденным случаем, когда кислород не поступает, интубация невозможна. Несмотря на то что нас охватил ужас… мы вовремя решили провести хирургическую трахеостомию, и пациент очнулся без каких-либо неврологических расстройств».
Вот письмо врача из Техаса:
После длившейся пять часов операции мой пациент был перевернут на спину и стал задыхаться… Я вспомнил о случае вашей супруги и решил добраться до его дыхательных путей хирургическим путем. Была проведена экстренная трахеостомия… Пациента перевели в интенсивную терапию, и, когда наркоз отошел, он очнулся и реагировал адекватно. Позитивный исход в данном случает целиком и полностью зависел от информации, которую вы распространили среди медиков. Я хочу поблагодарить вас.
Другой врач писал: «Если бы не ваши неустанные попытки улучшить качество обучения в моей профессии, судьба моего пациента могла бы быть куда более печальной [врач только что провел экстренную трахеостомию]. Я перед вами в неоплатном долгу».
Окончательный 18-страничный отчет по итогам расследования смерти Илэйн Бромили можно найти в Google. В нем немало ценной медицинской информации. Несмотря на медицинские термины, отчет воспринимается прежде всего как искренняя дань памяти возлюбленной жене и матери.
На первой странице Мартин, один из самых талантливых вдохновителей, с которыми я когда-либо говорил, поставил девиз:
Чтобы другие могли научиться и чтобы больше жизней было спасено.
Назад: II Рейс United Airlines 173
Дальше: Часть 2 Когнитивный диссонанс

Жанна
Все