Принятие решений в неопределенности стр.296

Чрезмерно уверенные эксперты. К сожалению, эксперты, вынужденные выйти за пределы данных и опираться на суждения, могут быть так же склонны к чрезмерной уверенности, как и обыватели. Фишхофф, Словик и Лихтенштейн (Fischhoff, Slovic и Lichtenstein, 1978) повторили свое исследование по дереву ошибок (рис. 3) с профессиональными автомеханиками (в среднем, 15 лет опыта) и обнаружили, что эти эксперты также нечувствительны к упущениям из дерева (см. табл. 5). Хайнс и Ванмарк (Hynes и Vanmarcke, 1976) попросили семерых “всемирноизвестных” инженеров по геотехнике предсказать высоту плотины, которая приведет к обвалу глиняного фундамента, и определить границы уверенности по этой оценке, которые были бы достаточно широки, чтобы иметь 50% шанс включения действительной высоты, приводящей к разрушению. Ни одни из границ, опре деленные этими людьми, в действительности, все-таки не включали истинную высоту. Рисунок 4 показывает эти результаты.

Рис. 4. Пример чрезмерной уверенности в суждениях экспертов, представленный неспособностью ошибочных линий вместить действительное значение. Данные представляют оценки семи “всемирноизвестных” инженеров по геотехнике относительно высоты плотины, при которой она обвалится

Многомиллионное исследование безопасности реакторов (Комиссия по атомному регулированию Соединенных Штатов, 1975), оценивая вероятность плавления ядра в атомном реакторе, использовала ту же процедуру для установления границ уверенности, которая, как было показано в Главах 21 и 22, давала высокую степень чрезмерной уверенности. Фактически, “Комитет Льюиса” заключил свой обзор исследования безопасности реакторов замечанием, что, несмотря на огромные успехи этого исследования, “мы уверены, что ряды ошибок преуменьшены. Мы не можем сказать, насколько. Основания для этого включают неадекватные базы данных, плохую статистическую обработку неконтролируемое распространение неопределенностей в расчетах” (Комиссия по атомному регулированию, США, 1978).

Дальнейшие эпизодические свидетельства чрезмерной уверенности могут быть обнаружены во многих других оценках технического риска (Fischhoff, 1977а). Некоторые распространенные способы, по которым эксперты могут недосмотреть или неправильно вынести суждение о путях, ведущих к катастрофе, показаны в следующем списке:

Неспособность рассмотреть способы, по которым ошибки людей могут воздействовать на технологические системы. Пример: из-за неадекватного обучения и дизайна комнаты контроля, операторы Three Mile Island неоднократно неправильно диагностировали проблемы реактора и предпринимали несоответствующие действия (Sheridan, 1980; Президентская Комиссия, 1979).

Чрезмерная уверенность в текущих научных знаниях. Пример: использование передачи цифровых данных стало повсеместным и бесконтрольным даже до того, как ученые рассмотрели возможность побочных эффектов, которые сегодня сделали ее сомнительным и необратимым благом (Dunlap, 1978).

Неспособность оценить, как технологические системы функционируют в целом. Пример: DC-10 потерпел неудачу в нескольких предыдущих полетах, так как его проектировщики не осознали, что декомпрессия грузового отделения разрушит жизненно важные системы контроля (Hohenemser, 1975).

Медленное обнаружение хронических, совокупных воздействий. Пример: хотя несчастные случаи с шахтерами уже давно были признаны как одна из цен за использование ископаемого растительного топлива, воздействие кислотных дождей на экосистему обнаруживалось медленно.

Неспособность предвидеть ответные действия человека на меры безопасности. Пример: частичная защита, которую дают дамбы и плотины, приносит людям ошибочное ощущение безопасности и содействует разработке затопляемых территорий. Таким образом, хотя наводнения и редки, ущерб от них настолько велик, что среднегодовая потеря в деньгах больше, чем перед тем, как дамбы были построены. (Burton, Kates & White, 1978)


⇐ назад к прежней странице | | перейти на следующую страницу ⇒