Как избежать катастрофы
Кэтрин Тинсли, Робин Диллон, Питер Мэдсен
Неудачи случаются. Но, если обращать внимание на опасные ситуации, в которых «пронесло», можно предвидеть и предотвратить кризис.
Большинство людей воспринимает опасные ситуации, которые чуть было не привели к катастрофе, как очень четкие признаки того, что все могло быть намного хуже: когда пожарный успевает покинуть здание за несколько секунд до обрушения, или когда ураган чудесным образом обходит городок, стоящий на его пути. События вроде этих – критические ситуации, из которых мы, глубоко потрясенные, пытаемся извлечь урок.
Но существует другой тип подобных ситуаций, и они более привычны и губительны. Это небольшие неудачи, промахи, которые мы часто не замечаем. Они пронизывают наши повседневные дела, но не приносят мгновенного вреда. Люди так устроены, что игнорируют или неправильно понимают предупреждения, связанные с такими случаями, поэтому те часто проходят незамеченными или, наоборот, видятся признаками стабильности систем и хорошего хода вещей. Однако эти, на первый взгляд безобидные, события часто служат предвестниками катастрофы, и при небольшом изменении условий или не вполне удачном стечении обстоятельств случается кризис.
Давайте вспомним аварию на буровой вышке BP в Мексиканском заливе. Это почти идеальный пример для изучения анатомии промахов и обстоятельств их неверного толкования. В апреле 2010 года произошел выброс газа в процессе цементирования скважины Deepwater Horizon. Началось возгорание, жертвами которого стали одиннадцать человек, скважину затопило, на сбор разлившейся под водой нефти ушли месяцы. К катастрофе привело множество непродуманных решений и опасных условий: на буровой установке не хватало центраторов для обеспечения правильного положения трубы, буровой раствор, служивший смазкой, выкачали слишком рано, а руководители неверно поняли жизненно важные результаты тестов, которые бы подтвердили утечку углеводородов из скважины. Кроме того, BP полагалась на устаревшую модель сложного аварийно-безопасного противовыбросового устройства, печально известную своей посредственной репутацией.
Почему же корпорация Transocean (владелец установки), сотрудники BP, буровая бригада и руководители установки пренебрегли предостерегающими знаками, даже тем, что на скважине постоянно возникали различные технические проблемы (а буровики называли ее «дырой в ад»)? Мы считаем, что история прошлых промахов в этой индустрии – случаев со счастливым исходом, где удача сыграла ключевую роль в предотвращении катастрофы, – внушила заинтересованным сторонам уверенность, обернувшуюся преступной халатностью. Количество сверхглубоких скважин росло, но масштабные разливы нефти и смертельные случаи были крайне редки. На многих скважинах в Мексиканском заливе происходили небольшие утечки при цементировании (десятки за прошедшие двадцать лет), однако каждый раз случайный фактор – удачное направление ветра, отсутствие сварочных работ поблизости в момент утечки – помогал предотвратить взрыв. И каждый промах воспринимался как свидетельство того, что существующие методы и протоколы безопасности работают.
За последние семь лет мы изучили промахи десятков компаний в различных сферах, от телекоммуникаций до автомобилестроения, а также в NASA и на лабораторных моделях. Исследования позволили выделить повторяющуюся схему: каждой катастрофе и кризису в бизнесе предшествовало множество маленьких промахов (они же ее и предвещали), и большинство из них было проигнорировано или неверно понято. Также исследование показало когнитивные искажения, вводящие руководителей в заблуждение относительно этих промахов. В нашей выборке их было два. Первое – «нормализация отклонений», тенденция со временем принимать аномалии, даже довольно опасные, за норму. Представьте рабочего и лестницу со сломанной ступенькой: чем чаще он будет взбираться на нее, не падая, тем большее спокойствие будет она ему внушать. Для организации такая нормализация может обернуться катастрофой. Социолог Дайан Воган из Колумбийского университета в своей книге The Challenger Launch Decision точно описывает организационное поведение, которое привело к тому, что явная механическая аномалия на космическом шаттле постепенно стала рассматриваться как нормальный полетный риск, что в итоге обрекло команду на смерть. Вторая когнитивная ошибка – так называемое отклонение в сторону результата. Когда люди видят удачные исходы, они начинают больше фокусироваться на результате, а не на (часто невидимых) сложных процессах, которые к нему привели.
Выявление опасных ситуаций и вынесение из них урока – не просто вопрос внимания, это действительно не свойственно человеческой природе. В этой статье мы рассмотрим несколько таких примеров и узнаем, как компании определяют наличие опасности и делают выводы. Видя в промахах то, чем они являются, – наглядные уроки, – руководители могут получить важную информацию и улучшить рабочий процесс, а также, возможно, предотвратить катастрофу.
Идея вкратце
Большинство деловых неудач, таких как инженерные катастрофы, неисправности приборов и падение репутации компании, предвещали промахи, опасные ситуации, которые по счастливой случайности закончились благополучно и не имели разрушительных последствий. Крушение шаттла «Колумбия», катастрофа на буровой платформе BP в Мексиканском заливе, застревание педали газа у автомобилей Toyota, даже отказ антенны в смартфонах iPhone 4 – всем им предшествовали близкие к провалу события, о которых для предотвращения кризиса следовало сообщить наверх. Проблема в том, что подобным ситуациям часто не придают значения или, наоборот, считают их признаком устойчивости и работоспособности системы. Руководителей часто вводят в заблуждение когнитивные искажения, как утверждают профессора Тинсли и Диллон из Университета Джорджтауна и Мэдсен из Университета Бригама Янга. Распознать опасные ситуации управляющим помогут семь стратегий: уделение особого внимания нехватке времени или средств, наблюдение за отклонениями от нормы в работе, выяснение их первопричин, взимание штрафов за промахи и опасные ситуации с сотрудников, ответственных за принятие решений, предвидение худшего сценария развития событий, постоянное выявление опасных ситуаций, маскирующихся под успешные, и награждение сотрудников за информацию о подобных ситуациях.