Управление угрозами и ошибками tem

From Wikipedia, the free encyclopedia

Threat and error management model

In aviation safety, threat and error management (TEM) is an overarching safety management approach that assumes that pilots will naturally make mistakes and encounter risky situations during flight operations. Rather than try to avoid these threats and errors, its primary focus is on teaching pilots to manage these issues so they do not impair safety. Its goal is to maintain safety margins by training pilots and flight crews to detect and respond to events that are likely to cause damage (threats) as well as mistakes that are most likely to be made (errors) during flight operations.[1]

TEM allows crews to measure the complexities of a specific organization’s context — meaning that the threats and errors encountered by pilots will vary depending upon the type of flight operation — and record human performance in that context.[2] TEM also considers technical (e.g. mechanical) and environmental issues, and incorporates strategies from Crew Resource Management to teach pilots to manage threats and errors.

The TEM framework was developed in 1994 by psychologists at University of Texas based on the investigation of accidents of high capacity Regular Public Transport (RPT) airlines.[3] However, an evaluation method was needed to identify threats and errors during flight operations and to add information to existing TEM data.[4][5] A Line Operations Safety Audit (LOSA) serves this purpose and involves the identification and collection of safety-related information — on crew performance, environmental conditions, and operational complexity — by a highly trained observer.[5][6] LOSA data is used to assess the effectiveness of an organization’s training program and to find out how trained procedures are being implemented in day-to-day flights.

Importance of TEM[edit]

Threat and error management is an important element in the training of competent pilots that can effectively manage in-flight challenges.[1][7] Many strategies have been developed (e.g. training, teamwork, reallocating workload) that were focused on improving on stress, fatigue, and error. Flight crew training stressed the importance of operational procedures and technical knowledge, with less emphasis placed on nontechnical skills, which became isolated from the real-world operational contexts.[4] Safety training, including TEM, is important because a crew’s nontechnical (safety) knowledge helps more in managing errors effectively than crews’ familiarization with operations through experience.[8] Candidates who are shortlisted during selection and training processes must demonstrate analytical and coordination capabilities.[9] Possessing these nontechnical skills allows pilots and crew members to carry out their duties efficiently and effectively.

Components of TEM[edit]

The following components are methods that help provide data for the TEM.

LOSA observation training[edit]

Training for LOSA experts includes two sessions: education in procedural protocols, and TEM concepts and classifications.[10] A LOSA trainee is taught to find data first and then code them later for both sessions, during which a crew member must exhibit «LOSA Etiquette» — ability to notify the pilot as to why he or she was not able to detect an error or threat after a flight. The pilot’s responsibilities include his or her opinions on what safety issues could have had an adverse impact on their operations. A LOSA trainee must then record the specific responses of the pilot and thereafter code performance using behavioral markers. The order of the recording is as follows: a) record visible threats; b) identify error types, crew’s responses, and specific outcomes; and c) use CRM behavioral markers to rate crew.[11]

Observers will finally record a pilot’s overall response on a 4-point Likert scale: 1) poor, 2) marginal, 3) good, and 4) outstanding. The data are then quantified and tabulated as exemplified by the following format:[10]

Planning and execution of performance

Task Task Description Comments Rating
Monitor cross-check Active monitoring of crews Situational awareness maintained Outstanding
SOP briefing Carried out necessary briefings Thorough understanding of procedures
Contingency Management Communicate strategies Good management of threats and errors.
Identified Threats Managed Mismanaged *Frequency (N)
Air Traffic Control 17 2 19
Airline Operational Pressure 9 0 9
Weather 6 6 12

Frequency is the total number of threats that occurred and is denoted by N.

Categories of the LOSA[edit]

LOSA identifies three main categories that must be recorded:

  • Errors include procedural errors (mistakes or inadequacy of attention towards a task at hand), and violation of SOP (intentional or unintentional). Although crew members are encouraged not to be afraid of admitting their mistakes, they must be able to criticize themselves since the learning process helps them understand the potential danger presented other crew members.[1]
  • Undesired Aircraft States are aircraft configurations or circumstances that are caused either by human error or by external factors.[10] The management of unintended states is vital since they can result in serious aircraft accidents. For example, navigation problems on the cockpit display may lead a pilot to make an incorrect decisions, potentially causing injuries or fatality to passengers and crew members alike.

Safety change process[edit]

Safety change process (SCP), which is part of LOSA, is a formal mechanism that airlines can use to identify active and latent threats to flight operations.[12] It is a guideline that communicates in detail what is an imminent threat to current operations or who is causing the threat. In the past, SCP data were based on investigation of accidents or incidents, experiences, and intuitions but nowadays SCP focuses more on the precursors to accidents.[12] There are several steps involved in conducting SCP:[12]

Safety Change Process (SCP) model
1. Collect safety issues (LOSA expert) 2. Conduct detailed analysis of Risks/data 3. Identify improvement strategies
8. Revise any changes Safety Change Process 4. Risk Analysis
7. Observe the impact of changes 6. Apply changes to operations 5. Funding of changes

An unnamed airline conducted base-line observations from 1996 to 1998 using the defined SCP and LOSA data to improve its organization’s safety culture and the results were positive. The crew error-trapping rate was significantly increased to 55%, meaning that crews were able to detect about 55% of the errors they caused.[12] A 40% reduction in errors related to checklist performance and a 62% reduction in unstabilized approaches (tailstrikes, controlled flight into terrain, runway excursions, etc.) were observed.[12] A proper review and management of SCP and LOSA data can prevent further disasters in flight operations.

See also[edit]

  • Accident Classification
  • Aviation safety
  • Crew Resource Management
  • Pilot Error
  • Error Management
  • The curse of expertise

References[edit]

  1. ^ a b c Dekker, Sidney; Lundström, Johan (May 2007). «From Threat and Error Management (TEM) to Resilience». Journal of Human Factors and Aerospace Safety: 1. Retrieved 6 October 2015.
  2. ^ Maurino, Dan (18 April 2005). «Threat and Error Management (TEM)» (PDF). Coordinator, Flight Safety and Human Factors Programme — ICAO. Canadian Aviation Safety Seminar (CASS): 1. Retrieved 6 October 2015.
  3. ^ Banks, Ian. «Threat & Error Management (TEM) SafeSkies Presentation» (PDF). Retrieved 19 October 2015.
  4. ^ a b Thomas, Matthew (2004). «Predictors of Threat and Error Management: Identification of Core Nontechnical Skills and Implications for Training Systems Design». The International Journal of Aviation Psychology. 14 (2): 207–231. doi:10.1207/s15327108ijap1402_6. S2CID 15271960. Retrieved 24 October 2015.
  5. ^ a b Earl, Laurie; Murray, Patrick; Bates, Paul (2011). «Line Operations Safety Audit (LOSA) for the management of safety in single pilot operations (LOSA:SP) in Australia and New Zealand». Aeronautica (Griffith University Aerospace Strategic Study Centre) (1): 2.
  6. ^ Thomas, Matthew (2003). «Operational Fidelity in Simulation-Based Training: The Use of Data from Threat and Error Management Analysis in Instructional Systems Design» (PDF). Proceedings of SimTecT2003: Simulation Conference: 2. Retrieved 19 October 2015.
  7. ^ Martin, Wayne L. (2019). «Crew Resource Management and Individual Resilience». Crew Resource Management. Elsevier. pp. 207–226. doi:10.1016/b978-0-12-812995-1.00007-5.
  8. ^ Thomas, Matthew; Petrilli, Renee (Jan 2006). «Crew Familiarity: Operational Experience, NonTechnical Performance, and Error Management» (PDF). Aviation, Space, and Environmental Medicine. 77 (1). Retrieved 25 October 2015.
  9. ^ Sexton, J. Bryan; Thomas, Eric; Helmreich, Robert (March 2000). «Error, Stress, and Teamwork in Medicine and Aviation: Cross Sectional Surveys». British Medical Journal. 320 (7273): 745–749. doi:10.1136/bmj.320.7237.745. PMC 27316. PMID 10720356.
  10. ^ a b c Earl, Laurie; Bates, Paul; Murray, Patrick; Glendon, Ian; Creed, Peter (2012). «Developing a Single-Pilot Line Operations Safety Audit: An Aviation Pilot Study». Aviation Psychology and Applied Human Factors. 2: 49–61. doi:10.1027/2192-0923/a000027. hdl:10072/49214. Retrieved 24 October 2015.
  11. ^ Leva, M.C.; et al. (August 2008). «The advancement of a new human factors report – ‘The Unique Report’ – facilitating flight crew auditing of performance/operations as part of an airline’s safety management system». Ergonomics. 53 (2): 164–183. doi:10.1080/00140130903437131. PMID 20099172. S2CID 32462406.
  12. ^ a b c d e «Line Operations Safety Audit (LOSA)» (PDF). ICAO Journal (First Edition): 25–29. 2002. Retrieved 18 November 2015.

Управление угрозами и ошибками

Модель управления угрозами и ошибками (TEM)

Управление угрозами и ошибками ( TEM ) — это комплексный подход к управлению безопасностью полетов , который предполагает, что пилоты естественным образом будут совершать ошибки и сталкиваться с рискованными ситуациями во время полетов.

Принцип

Вместо того, чтобы пытаться избежать этих угроз и ошибок, его главная цель — научить пилотов справляться с этими проблемами, чтобы они не ставили под угрозу безопасность. Его цель состоит в том, чтобы поддерживать запасы безопасности путем обучения пилотов и летных экипажей обнаружению и реагированию на события, которые могут причинить вред (угрозы), а также наиболее вероятные ошибки (ошибки) во время полетов.

Исторический

Модель была разработана психологами Техасского университета на основе анализа авиакатастроф [ 1 ] .

Примечания и ссылки

  1. »  Управление угрозами и ошибками (TEM) SafeSkies Presentation  « [PDF]
  • декоративная икона Портал аэронавтики

Модель управления угрозами и ошибками

В авиационной безопасности , угрозы и ошибок ( ТЕМ ) является всеобъемлющий подход управления безопасностью полетов , которая предполагает , что пилоты , естественно , делать ошибки и сталкиваются рискованных ситуаций во время полетов. Вместо того, чтобы пытаться избежать этих угроз и ошибок, его основное внимание уделяется обучению пилотов управлять этими проблемами, чтобы они не снижали безопасность. Его цель — поддерживать запасы безопасности путем обучения пилотов и летных экипажей обнаружению событий, которые могут привести к повреждению (угрозам), а также ошибкам, которые с наибольшей вероятностью будут совершены (ошибки) во время выполнения полетов, и реагированию на них.

TEM позволяет экипажам измерять сложность контекста конкретной организации — а это означает, что угрозы и ошибки, с которыми сталкиваются пилоты, будут варьироваться в зависимости от типа полета, — и регистрировать действия человека в этом контексте. TEM также рассматривает технические (например, механические) и экологические проблемы и включает стратегии управления ресурсами экипажа, чтобы научить пилотов управлять угрозами и ошибками.

Структура TEM была разработана в 1994 году психологами Техасского университета на основе расследования происшествий с авиалиниями регулярного общественного транспорта (RPT) с высокой пропускной способностью . Однако был необходим метод оценки для выявления угроз и ошибок во время выполнения полетов и для добавления информации к существующим данным ТЕА. Аудит безопасности полетов (LOSA) служит этой цели и включает в себя идентификацию и сбор информации, связанной с безопасностью — о работе экипажа, условиях окружающей среды и сложности эксплуатации — высококвалифицированным наблюдателем. Данные LOSA используются для оценки эффективности программы обучения организации и для выяснения того, как обученные процедуры применяются в повседневных полетах.

Важность ТЕА

Управление угрозами и ошибками — важный элемент в обучении компетентных пилотов, которые могут эффективно решать проблемы в полете. Было разработано множество стратегий (например, обучение, командная работа, перераспределение рабочей нагрузки), которые были сосредоточены на устранении стресса , утомления и ошибок . При подготовке летных экипажей подчеркивалась важность эксплуатационных процедур и технических знаний с меньшим упором на нетехнические навыки, которые оказались изолированными от реальных эксплуатационных условий. Подготовка по вопросам безопасности, включая TEM, важна, потому что нетехнические знания экипажа (техники безопасности) помогают более эффективно управлять ошибками, чем знакомство экипажей с операциями на основе опыта. Кандидаты, попавшие в шорт-лист в процессе отбора и обучения, должны продемонстрировать аналитические и координационные способности. Обладание этими нетехническими навыками позволяет пилотам и членам экипажа эффективно и результативно выполнять свои обязанности.

Компоненты ТЕА

Следующие компоненты представляют собой методы, которые помогают предоставить данные для ТЕА.

Тренинг по наблюдению за LOSA

Тренинг для экспертов LOSA включает два занятия: обучение процедурным протоколам и концепциям и классификациям ТЕА. Стажер LOSA учится сначала находить данные, а затем кодировать их позже для обеих сессий, во время которых член экипажа должен продемонстрировать «Этикет LOSA» — способность уведомить пилота о том, почему он или она не смог обнаружить ошибку или угрозу. после полета. В обязанности пилота входит его или ее мнение о том, какие проблемы безопасности могли отрицательно повлиять на их работу. Затем стажер программы LOSA должен записать конкретные реакции пилота, а затем кодировать производительность, используя поведенческие маркеры. Порядок записи следующий: а) фиксировать видимые угрозы; б) идентифицировать типы ошибок, реакции экипажа и конкретные результаты; и c) использовать поведенческие маркеры CRM для оценки экипажа.

Наконец, наблюдатели фиксируют общий ответ пилота по 4-балльной шкале Лайкерта : 1) плохо, 2) незначительно, 3) хорошо и 4) отлично. Затем данные количественно оцениваются и заносятся в таблицу, как показано в следующем формате:

Планирование и исполнение выступления

Задача Описание задания Комментарии Рейтинг
Перекрестная проверка монитора Активный мониторинг экипажей Ситуационная осведомленность поддерживается Выдающийся
Брифинг СОП Провели необходимые брифинги Глубокое понимание процедур
Управление непредвиденными обстоятельствами Сообщайте стратегии Хорошее управление угрозами и ошибками.
Выявленные угрозы Удалось Неуправляемый * Частота ( N )
Управление воздушным движением 17 2 19
Эксплуатационное давление авиакомпании 9 0 9
Погода 6 6 12

Частота общего число угроз , которые имели место и обозначаются N .

Категории ЛОСА

LOSA выделяет три основные категории, которые необходимо регистрировать:

  • Угрозы — это внешние факторы или ошибки, которые не зависят от летных экипажей. Это увеличивает сложность обычных операций, поскольку может произойти неожиданно; пилоты и летные экипажи могут быть не в состоянии спланировать и полностью исследовать причину угрозы, если она возникает внезапно во время полета. Примерами угроз являются погода, местность, неисправности самолета и другие внешние ошибки, связанные с персоналом, отвечающим за выполнение полетов, кроме членов кабины экипажа. Нестандартный уход, ошибки стратегии принятия решений, процедурные ошибки и отклонения протокола также являются примерами внешних факторов. Эксперт LOSA, сидящий на откидном сиденье , должен фиксировать такие угрозы. Исследование производительности экипажа с использованием подхода ТЕА показало, что капитан, который спал менее 6 часов за день до обычного расписания полетов, плохо справлялся с угрозами. Первые сотрудники опытное разочарование и команды опытного Усиленные Эмоциональная активность (ВЭП) в результате ограниченного сна. Понимание HEA как основной части подхода TEM важно при выполнении обычных полетов.
  • Ошибки вызваны действиями или бездействием человека, которые увеличивают вероятность неблагоприятного события. Эти ошибки возникают из-за суждений экипажа и проблем со связью. Разница между ошибкой и угрозой заключается в том, что ошибка может быть быстро идентифицирована при тщательном внимании, а члены экипажа могут найти быстрые решения для ее устранения. Таким образом, влияние ошибки можно быстро уменьшить при правильном управлении. Примеры ошибок включают процедурные ошибки (ошибки или недостаточное внимание к выполняемой задаче) и нарушение СОП (преднамеренное или непреднамеренное). Хотя членам экипажа рекомендуется не бояться признавать свои ошибки, они должны уметь критиковать себя, поскольку процесс обучения помогает им понять потенциальную опасность, которую представляют другие члены экипажа.
  • Нежелательные состояния воздушного судна — это конфигурации или обстоятельства воздушного судна, вызванные либо ошибкой человека, либо внешними факторами. Управление непредвиденными состояниями жизненно важно, поскольку они могут привести к серьезным авиационным происшествиям. Например, проблемы с навигацией на дисплее в кабине могут привести к принятию пилотом неверных решений, что может привести к травмам или смертельному исходу как у пассажиров, так и у членов экипажа.

Процесс изменения безопасности

Процесс изменения безопасности полетов (SCP), который является частью LOSA, представляет собой официальный механизм, который авиакомпании могут использовать для выявления активных и скрытых угроз для выполнения полетов. Это руководство, в котором подробно рассказывается, что представляет собой непосредственную угрозу для текущих операций или кто ее создает. В прошлом данные SCP основывались на расследовании происшествий или инцидентов, опыте и интуиции, но в настоящее время SCP больше сосредотачивается на предшественниках несчастных случаев. Есть несколько этапов проведения SCP:

Модель процесса изменения безопасности (SCP)
1. Собирать вопросы безопасности (эксперт LOSA) 2. Провести подробный анализ рисков / данных. 3. Определите стратегии улучшения
8. Внесите изменения. Процесс изменения безопасности 4. Анализ рисков
7. Наблюдайте за влиянием изменений. 6. Примените изменения к операциям. 5. Финансирование изменений

Неназванная авиакомпания проводила базовые наблюдения с 1996 по 1998 год с использованием определенных данных SCP и LOSA для повышения культуры безопасности своей организации, и результаты были положительными. Уровень обнаружения ошибок экипажем был значительно увеличен до 55%, что означает, что экипажи смогли обнаружить около 55% ошибок, которые они вызвали. Наблюдалось 40% -ное сокращение ошибок, связанных с выполнением контрольных списков, и 62% -ное сокращение нестабилизированных заходов на посадку ( удары хвостом , контролируемый полет на местности , отклонения от взлетно-посадочной полосы и т. Д.). Надлежащий анализ данных SCP и LOSA и управление ими может предотвратить дальнейшие катастрофы при выполнении полетов.

Смотрите также

  • Классификация несчастных случаев
  • Авиационная безопасность
  • Управление ресурсами экипажа
  • Ошибка пилота
  • Управление ошибками
  • Проклятие опыта

использованная литература

Добавление 2 к главе 17

ОЦЕНКА РИСКА, СВЯЗАННОГО С ПРОЦЕДУРАМИ ОВД

1.ЦЕЛЬ

1.1Оценка процедур ОВД проводится для того, чтобы обеспечить выявление опасных факторов, связанных с управлением движением воздушных судов, и предпринятие действий по устранению соответствующих рисков.

1.2В данном добавлении содержатся общие рекомендации в отношении методов выявления опасных факторов и оценки риска, которые можно использовать при разработке и изменении процедур ОВД.

2.ВЫЯВЛЕНИЕ ОПАСНЫХ ФАКТОРОВ (HAZid)

2.1 HAZid является методом относительно глубокой «сквозной» оценки, предусматривающей разбивку деятельности по реализации процедур ОВД на более мелкие компоненты и выявление связанных с ними потенциальных режимов отказа с анализом их влияния на безопасность ОВД. В конкретном плане метод HAZid используется для выявления следующих факторов.

a)Связанные с ОВД опасные факторы. Опасный фактор определяется как источник потенциального вреда или ситуация, могущие привести к ущербу. К основным опасным факторам, связанным с ОВД, относятся:

1)столкновения в воздухе;

2)столкновения на земле;

3)случаи воздействия спутной струи;

4)турбулентность;

5)столкновения с землей.

b)Опасные сценарии. Опасные сценарии характеризуют конкретно рассматриваемый риск. Например, при рассмотрении риска столкновения в воздухе в аэропорту опасные сценарии могут включать:

1)столкновение в воздухе между вылетающим и прибывающим воздушными судами;

2)столкновение в воздухе между воздушными судами, заходящими на посадку по параллельным курсам.

c)Инициирующие события. К инициирующим событиям относятся общие причины возникновения опасных сценариев. Таким событием может быть отклонение от линий пути.

17-ДОБ 2-1

17-ДОБ 2-2

Руководство по управлению безопасностью полетов (РУБП)

Например, к инициирующим событиям возникновения опасных сценариев столкновения в воздухе между вылетающим и прибывающим воздушными судами относятся несоблюдение одним из воздушных судов ограничений по высоте или несоблюдение схем

SID или STAR.

d)Причины возникновения опасных факторов. Причины возникновения опасных факторов связаны с тем, как началось развитие инициирующего события. Инициирующие события могут вызываться внешними причинами, ошибкой человека, отказом оборудования или ошибками при разработке процедур, которые могут вызвать последовательность событий, способную привести к возникновению опасной ситуации. В случае отклонения воздушного судна от SID, причиной может быть отказ оборудования, например, управляющей системы или ошибка человека, например, пилота, выбравшего неправильную SID в системе управления полетом.

e)Факторы восстановления. К факторам восстановления относятся имеющиеся системы, позволяющие предотвратить или уменьшить возможность перерастания инициирующих событий в опасные сценарии. В случае столкновения в воздухе к факторам восстановления относятся предоставление услуг УВД, использование TCAS, использование пилотом метода «вижу и избегаю» и геометрия траектории полета.

f)Несрабатывание факторов восстановления. Задействование факторов восстановления может и не предотвратить столкновения в воздухе. В случае TCAS неэффективность факторов восстановления может обусловливаться тем, что на одном из воздушных судов не установлен приемопередатчик, или тем, что пилот не реагирует на предупреждающие сигналы.

2.2 Метод HAZid предусматривает использование ключевых слов или подсказок для систематического генерирования возможных отклонений от штатного состояния при выработке задач по ОВД и пилотированию. Затем производится анализ последствий каждого отклонения для безопасности воздушного движения.

Внешнее влияние

2.3 При использовании метода HAZid сначала рассматриваются элементы внешнего влияния на одиночное воздушное судно, выполняющее полет по фиксированной траектории. Источники такого внешнего влияния могут быть:

a)метеорологическими;

b)топографическими;

c)экологическими;

d)антропогенными.

Возможные отклонения от запланированной траектории полета

2.4 После того, как источники внешнего влияния на безопасность полета установлены и зарегистрированы, в рамках метода HAZid рассматриваются возможные отклонения от запланированной траектории полета и их возможная связь с внутренними производственными

Глава 17. Обслуживание воздушного движения

Добавление 2

17-ДОБ 2-3

факторами. Такие отклонения могут становиться инициирующими событиями для опасных сценариев. Типичные внутренние производственные факторы включают:

a)эшелонирование в рамках УВД;

b)навигационные средства;

c)схему аэропорта – ВПП;

d)организацию воздушного пространства;

e)конструкцию воздушных судов и их техническое обслуживание;

f)производство полетов воздушных судов.

2.5 Для систематического выявления возможных отклонений от запланированных траекторий полета используются ключевые слова или подсказки. Возможные отклонения анализируются путем «сквозного» рассмотрения следующих аспектов:

a)Используемые процедуры. Используемые процедуры увязаны с организацией воздушного пространства и схемами аэропортов, процедурами УВД и правилами полетов. Эти процедуры могут приводить к возникновению опасных сценариев даже без дополнительных отказов систем. Другими словами, опасные сценарии могут существовать и без наличия

отклонения от нормальных траекторий полета. К примеру, интервал вертикального эшелонирования у основания диспетчерского района (CTA) может составлять 150 м (500 фут). Однако эшелонирование с учетом турбулентности в следе применяется, когда воздушное судно выполняет полет по траектории, проходящей ниже вплоть до 300 м (1000 фут).

b)Задачи, решаемые человеком. Решаемые человеком задачи могут выполняться неправильно из-за различных допускаемых ошибок. Этот вопрос относится к области специальных знаний, поэтому следует консультироваться с соответствующими специалистами, работающими в сфере человеческого фактора.

c)Работа оборудования. Для анализа влияния отказов оборудования на работу системы ОВД обычно используется метод анализа режимов и последствий отказов (FMEA). Этот метод применяется на функциональном уровне ко всему оборудованию ОВД, бортовому связному оборудованию, навигационному оборудованию, оборудованию для наблюдения, системам управления полетом и силовым установкам.

d)Геометрические факторы. Могут существовать и другие факторы, которые не связаны с ошибкой человека или отказом оборудования, но наличие которых является обязательным элементом для возникновения опасности. Обычно это представляет собой описание геометрии опасного сближения.

3.АНАЛИЗ ОПАСНЫХ ФАКТОРОВ

3.1Существует ряд методов качественной и количественной оценки выявленных конкретных опасных факторов. Применение некоторых из таких методов требует участия узких специалистов. Анализ опасных факторов, как правило, включает:

17-ДОБ 2-4

Руководство по управлению безопасностью полетов (РУБП)

a)выработку графиков отказов;

b)построение дерева отказов (ошибок);

c)количественный анализ вероятности ошибки человека, отказа оборудования и срабатывания эксплуатационных факторов.

Таблицы отказов

3.2Таблицы отказов используются для регистрации результатов использования метода HAZid по каждому опасному сценарию. Примером опасного сценария может служить столкновение в воздухе между прибывающим и вылетающим воздушными судами из-за того, что прибывающее воздушное судно не вышло на курс курсового маяка.

3.3Инициирующим событием при таком сценарии является то, что прибывающее воздушное судно выходит на траекторию вылетающего воздушного судна. В таблице отказов (ошибок) будут указаны возможные причины такого инициирующего события, включающие отказ бортового или наземного оборудования, ошибку человека, допущенную пилотом или диспетчером УВД (например, путаница с позывными). Факторы восстановления включают имеющиеся или отсутствующие защитные факторы, призванные уменьшить вероятность возникновения инициирующего события, которое перерастает в опасный сценарий. Каждый фактор восстановления рассматривается с целью установить, почему он не сработал и не предотвратил опасное развитие ситуации.

Дерево отказов (ошибок)

3.4 Информацию из таблиц отказов (ошибок) можно использовать для построения дерева отказов (ошибок). Глубина анализа, необходимого для построения дерева отказов (ошибок), зависит от ситуации. Однако, как правило, на начальном этапе для определения вероятности ошибки человека, отказа оборудования и факторов эксплуатационного характера и, таким образом, степени подверженности эксплуатационным рискам следует использовать простую пессимистичную модель. Степень подверженности риску затем сравнивается с критериями риска для заданного уровня безопасности полетов. Если при использовании пессимистичной модели получен результат, который ниже заданных критериев, то дополнительного выделения ресурсов не требуется, поскольку это не приведет к изменению решения по управлению факторами риска.

Анализ последствий

3.5 Ущерб при оценке рисков, связанных с ОВД, обычно измеряется количеством возможных погибших в результате самого серьезного из возможных событий. Например, при простом анализе столкновений в воздухе и столкновений с землей предполагается, что в результате столкновения в воздухе погибнут все находящиеся на борту воздушных судов люди, а в результате столкновения с землей погибнет большинство.

4.ОЦЕНКА РИСКА

4.1Как отмечается в главе 6, ключевым элементом контроля факторов риска является оценка выявленных рисков. Официальная оценка риска должна выполняться:

Глава 17. Обслуживание воздушного движения

Добавление 2

17-ДОБ 2-5

a)при значительном изменении процедур ОВД по сравнению с действующими;

b)при внесении значительных изменений в оборудование, используемое для решения задач по ОВД;

c)в случае, если изменившиеся обстоятельства (например, возросшие объемы движения, различающиеся летно-технические характеристики воздушных судов) свидетельствуют о возможном несоответствии существующих процедур.

4.2В таблице 17-ДОБ 2-1 представлен ряд этапов оценки риска, связанного с опасными факторами, присущими процедурам ОВД.

Анализ риска

4.3 Степень риска рассчитывается с учетом вероятности опасных событий и последствий возникновения события. Анализ риска может быть количественным или качественным в зависимости от имеющейся информации и данных о риске, степени опасности и других факторов. Количественные данные помогают уточнить большинство решений, и их следует использовать, если они имеются, однако некоторые из наиболее важных факторов, с учетом которых принимается решение, трудно поддаются количественному выражению. К примеру, часто при изучении человеческого фактора и процедур, используемых при предоставлении услуг по эшелонированию, на практике приходится полагаться только на описание качественных характеристик и сравнительные шкалы. Следует стремиться к учету и таких факторов.

Контроль факторов риска

4.4 Принципы и элементы контроля факторов риска изложены в главе 6 настоящего руководства. Администрация должна решить:

a)не велик ли риск настолько, что от мероприятия следует полностью отказаться;

b)является ли существующий или допущенный риск столь малым, что его можно не принимать в расчет (однако необходимо предпринять любые действия, которые приведут к уменьшению риска и потребуют незначительных усилий или ресурсов);

c)находится ли степень риска между двумя указанными уровнями и снижена ли она до максимально возможного уровня, исходя из преимуществ, вытекающих из принятия такого риска, и учитывая затраты на любое его дальнейшее снижение.

17-ДОБ 2-6

Руководство по управлению безопасностью полетов (РУБП)

Таблица 17-ДОБ 2-1. Порядок оценки риска, связанного с ОВД

Этап 1

Определить, приводит ли данное изменение к изменению

процедуры

управления,

изменению оборудования или тому и другому.

Этап 2

Разбить процедуры на более мелкие компоненты. Например,

процедуры

управления

можно разбить на:

a)

процедуры передачи управления;

b)

процедуры координации действий;

c)

процедуры радиолокационного контроля;

d)

процедуры ожидания;

e)

процедуры контроля скорости;

f)

процедуры использования ВПП.

Процедуры пользователей оборудования можно разбить на:

a)

процедуры наладки;

b) работу в штатных и нештатных условиях;

c) работу в условиях полного или частичного отказа оборудования.

Этап 3

Выявить потенциально опасные факторы, влияющие на способность поддерживать

безопасное эшелонирование. Лучше всего это делать, задавая вопросы «Что может

произойти?» и «Что, если … ?» применительно к элементам, указанным для этапа 2.

Необходимо проанализировать последствия использования данной процедуры для всех

уровней способностей и опыта диспетчеров.

Этап 4

Определить обстоятельства или последовательность событий, при которых может

возникнуть опасность и вероятность события. После рассмотрения вероятности и

последствий события некоторые опасные факторы можно исключить как нереальные.

Причины такого исключения должны регистрироваться.

Этап 5

Произвести оценку серьезности опасного фактора.

Этап 6

Изучить обстоятельства, связанные с конкретным опасным фактором и инцидентом, и

определить необходимые и желательные меры, реализация которых позволит уменьшить

или устранить опасный фактор.

— — — — — — — —

Добавление 3 к главе 17

КОНТРОЛЬ ФАКТОРОВ УГРОЗЫ И ОШИБОК (TEM) ПРИ ОВД

1.ОБЩИЕ ПОЛОЖЕНИЯ

Всистеме TEM угроза не является проблемой сама по себе, но она может стать таковой, если ее

не контролировать надлежащим образом. Не каждая угроза приводит к ошибке, и не каждая ошибка приводит к возникновению нежелательного состояния, однако возможность такого превращения существует, и ее следует признавать. К примеру, наличие посетителей в операционном зале УВД является «угрозой»: само по себе их присутствие не составляет опасность, однако в том случае, если посетители разговаривают с диспетчерами или отвлекают их иным образом, это может привести к тому, что диспетчер допустит ошибку. Признание такой ситуации как угрозы позволит диспетчерам соответствующим образом контролировать ее и свести к минимуму или устранить любую возможность отвлечения диспетчеров от дела и таким образом не допустить уменьшения запаса безопасности в эксплуатационном контексте.

2.КАТЕГОРИИ УГРОЗЫ ПРИ УПРАВЛЕНИИ ВОЗДУШНЫМ ДВИЖЕНИЕМ

2.1Угрозы при УВД можно разбить на следующие 4 широкие категории:

a)внутренние для поставщика услуг ОВД;

b)внешние по отношению к поставщику услуг ОВД;

c)на борту;

d)связанные с окружающей средой.

2.2 Поскольку знание этих угроз помогает принятию индивидуальных и общих контрмер для поддержания запаса безопасности полетов в ходе штатной работы УВД, в приводимом ниже материале рассматриваются источники возникновения и характер условий, которые «угрожают» безопасному обслуживанию воздушного движения.

Внутренние источники угрозы для поставщика услуг ОВД

2.3 Часто источником угрозы для УВД является оборудование. В своей повседневной работе диспетчерам приходится в той или иной степени сталкиваться с несрабатыванием и конструктивными недоработками оборудования. Под эту категорию подпадают опасности, связанные с плохим качеством радиосвязи и плохой работой телефонной связи с другими центрами УВД. Источником угрозы могут стать автоматизированные системы, если при вводе необходимых данных система их не принимает, и диспетчер должен выяснить причину такого отказа и найти выход из сложившейся ситуации. Во многих районах мира источником угрозы для УВД является нехватка надлежащего оборудования. Значительную угрозу для УВД представляют работы по техническому обслуживанию (текущему или срочному), которые производятся одновременно с обычной деятельностью по УВД. Создаваемая работами по техническому обслуживанию опасность может также проявиться только при последующем вводе в эксплуатацию соответствующего оборудования.

17-ДОБ 3-1

17-ДОБ 3-2

Руководство по управлению безопасностью полетов (РУБП)

2.4К факторам рабочего места относятся блики, отражения, температура в зале, нерегулируемые стулья, сторонний шум и т. п. Работа диспетчера затруднена, если на экранах дисплеев отражаются источники внутреннего освещения. В ночное время у диспетчера могут возникнуть проблемы с визуальным наблюдением за движением, если источники внутреннего освещения отражаются на остеклении вышки. Сильный сторонний шум, например, от вентилятора системы охлаждения оборудования может затруднять правильное понимание приходящих радиосообщений. Он может также затруднять понимание исходящих сообщений их получателями.

2.5Источниками угрозы для УВД могут быть также процедуры. Это касается не только процедур управления движением, но также и процедур внутренней и внешней связи и/или координации. Следствием громоздких и явно ненужных процедур может быть стремление «срезать углы» с целью упростить организацию движения, что может приводить к ошибкам или вызывать нежелательные состояния.

2.6Источником угрозы могут быть также работающие рядом другие диспетчеры. Предлагаемые варианты решения возникающих сложных ситуаций могут не приниматься, намерения могут быть неправильно поняты или истолкованы, организация внутренней координации может быть неадекватной. Другие диспетчеры могут вовлекать диспетчера в разговоры, отвлекая его от слежения за воздушным движением. Сменяющий диспетчер может запаздывать. Другие диспетчеры той же смены могут работать с рейсами менее эффективно, чем положено, в результате чего они не могут принимать дополнительные рейсы, которые хотели бы передать им на управление другие диспетчеры.

Внешние источники угрозы для поставщика услуг ОВД

2.7Источником угрозы для операций по УВД могут быть схема и конфигурация аэропорта. В небольшом аэропорту лишь с одной короткой рулежной дорожкой, соединяющей перрон с серединой ВПП, службе УВД нужно предусматривать отруливание назад по ВПП для большинства прибывающих

ивылетающих воздушных судов. Необходимость в таком маневре на ВПП отсутствовала бы при наличии рулежной дорожки, проходящей параллельно ВПП и пересекающейся с ней с обоих концов. Некоторые аэропорты спроектированы и/или эксплуатируются таким образом, что возникает необходимость в частом пересечении ВПП воздушными судами под собственной тягой и буксируемыми воздушными судами или другими транспортными средствами.

2.8Угрозу для УВД могут создавать навигационные средства, снимаемые с эксплуатации внепланово (например, на техобслуживание), поскольку это может приводить к неточностям в навигации и затрагивать эшелонирование воздушных судов. Другим примером угрозы такого рода являются системы посадки по приборам (ILS), устанавливаемые для обслуживания с обоих направлений одной и той же ВПП. Обычно задействован только один комплект ILS, поэтому при изменении направления посадки ILS, обслуживающая другое направление, может быть еще не задействована, а диспетчерский орган уже разрешает заходы с этим курсом.

2.9Другим возможным источником угрозы для УВД может быть инфраструктура/организация воздушного пространства. При ограниченном пространстве для маневрирования работа по обслуживанию больших объемов движения усложняется. При наличии непостоянно действующих зон ограничений полетов или опасных зон они могут быть источником угрозы в том случае, если процедуры передачи диспетчерам информации о состоянии этих зон недостаточно проработаны. Обеспечение диспетчерского обслуживания движения в воздушном пространстве класса А в меньшей степени связано с опасностью, чем, например, в воздушном пространстве класса E, где могут быть неизвестные воздушные суда, которые создают угрозу движению, контролируемому органом УВД.

2.10Соседние диспетчерские органы. Диспетчеры из соседних органов могут забыть согласовать передачу на управление какого-либо воздушного судна. Такая передача может быть правильно согласована, но неправильно выполнена. Могут не соблюдаться границы воздушного

Глава 17. Обслуживание воздушного движения (ОВД)

Добавление 3

17-ДОБ 3-3

пространства. Диспетчер из соседнего органа может не согласиться с предложением о нестандартной передаче, в связи с чем возникнет необходимость поиска иного решения. Соседние центры могут не иметь возможности принять движение в том объеме, в каком их хочет передать им другой орган. У диспетчеров разных стран могут возникать языковые трудности.

Угрозы в воздухе

2.11Угроза для УВД может исходить от пилотов, которые не знакомы с воздушным пространством или аэропортом. Пилоты могут не сообщать органу УВД о некоторых маневрах, которые они могут быть вынуждены осуществить (например, для обхода опасных явлений погоды), что может быть фактором угрозы для УВД. Пилоты могут забыть доложить о прохождении какойлибо контрольной точки или высоты, они могут подтвердить какие-то действия, которые они впоследствии не предпримут. В контексте TEM ошибка пилота может служить фактором угрозы для УВД.

2.12Летно-технические характеристики воздушного судна. Диспетчерам знакомы обычные летно-технические характеристики большинства типов или категорий воздушных судов, с которыми им приходится работать, но иногда летно-технические характеристики могут отличаться от ожидаемых. Самолет типа «Боинг-747», вылетающий в пункт назначения, находящийся недалеко от пункта вылета, будет набирать высоту значительно быстрее и под более крутым углом, чем в случае, когда пункт назначения находится далеко. Ему также потребуется более короткий разбег. Некоторые турбовинтовые воздушные суда нового поколения демонстрируют на начальных этапах полета после взлета более совершенные характеристики, чем реактивные воздушные суда средних размеров. У производных типов воздушных судов скорость полета на конечном участке захода на посадку может быть значительно выше, чем у воздушных судов предыдущих серий.

2.13Радиотелефонная связь. Фактором угрозы для УВД являются допускаемые пилотами ошибки при повторе разрешений (аналогичным образом фактором угрозы для пилота является допускаемая диспетчером ошибка при прослушивании ответа). Процедура радиотелефонной связи разработана таким образом, чтобы можно было обнаруживать и исправлять такие ошибки (и таким образом устранять факторы угрозы), но на практике не все срабатывает идеально. Связь между пилотами и диспетчерами может затрудняться в связи с языковыми различиями. Факторами угрозы данного типа считаются также использование на одной и той же частоте двух языков или использование одной и той же частоты несколькими органами УВД.

2.14Воздушное движение. Диспетчерам знакомы обычные потоки воздушного движения в их районах и обычный порядок работы с ними. Факторами угрозы для работы с обычным воздушным движением являются такие дополнительные полеты, как, например, полеты с целью фотосъемки, геодезические полеты, калибровочные полеты (облет навигационных средств), полеты с выбросом парашютистов, полеты с целью контроля за дорожным движением и полеты с буксировкой рекламных щитов. Чем раньше диспетчер будет знать о дополнительных полетах, тем у него будет больше возможности для надлежащего устранения факторов угрозы.

Факторы угрозы, связанные с окружающей средой

2.15 Вероятно, наиболее общим источником факторов угрозы для всех видов деятельности авиации, включая работу органов УВД, является погода. Контролировать этот фактор угрозы проще, если знать текущую погоду и прогноз по крайней мере на период длительности смены диспетчера. К примеру, изменение направления ветра может вызвать необходимость смены ВПП. Чем интенсивнее движение, тем большее значение приобретает выбор правильного момента для смены ВПП. Диспетчер планирует смену ВПП таким образом, чтобы она прошла с минимальным нарушением потока движения. Для диспетчеров, обслуживающих воздушные суда на маршруте, знание особых

17-ДОБ 3-4

Руководство по управлению безопасностью полетов (РУБП)

явлений погоды поможет предвидеть просьбы в изменении маршрута полета или использовании обходного маршрута.

2.16Успешному контролю факторов угрозы, связанных с погодой, помогает надлежащее знание местных явлений погоды (например, турбулентности над горной местностью, областей формирования тумана, интенсивности гроз) и/или резких изменений погоды, таких, как сдвиг ветра или микропорывы.

2.17Географические условия. Факторы угрозы данной категории связаны с горной местностью или препятствиями в зоне ответственности диспетчера. Менее очевидные факторы угрозы могут быть связаны, например, с заселенными районами, полеты над которыми не должны выполняться на определенных высотах или в определенные часы. В некоторых аэропортах смена ВПП должна производиться в обязательном порядке в определенное время суток по условиям охраны окружающей среды.

3.ОШИБКИ ПРИ УПРАВЛЕНИИ ВОЗДУШНЫМ ДВИЖЕНИЕМ

3.1Ошибки такого рода можно определить как «действие или бездействие диспетчера управления воздушным движением, приводящие к отклонению от результата, задуманного или ожидаемого организацией или диспетчером воздушного движения». Неконтролируемые или неправильно контролируемые ошибки зачастую приводят к возникновению нежелательных состояний. Таким образом, ошибки в эксплутационном контексте могут приводить к уменьшению запаса безопасности и росту вероятности наступления нежелательных событий.

3.2Ошибки могут быть спонтанными (т. е. не имеющими прямой связи с конкретными очевидными факторами угрозы), связанными с факторами угрозы или являться частью цепи ошибок. Примеры ошибок: незамеченная ошибка, допущенная пилотом при подтверждении разрешения; выдача воздушному судну или транспортному средству разрешения использовать уже занятую ВПП; выбор неправильной функции в автоматизированной системе; неправильный ввод данных.

4.НЕЖЕЛАТЕЛЬНЫЕ СОСТОЯНИЯ ПРИ УПРАВЛЕНИИ ВОЗДУШНЫМ ДВИЖЕНИЕМ

4.1 Нежелательные состояния определяются как «эксплуатационные условия, при которых в результате возникновения непредусмотренной ситуации с воздушным движением сокращается запас безопасности полетов». Нежелательные состояния, возникающие в результате неэффективного контроля факторов угрозы и/или ошибок могут приводить к опасным ситуациям и сокращать запас безопасности полетов при УВД. Нежелательные состояния зачастую рассматриваются как последний этап перед инцидентом или авиапроисшествием, и они должны контролироваться диспетчерами УВД. Примером нежелательного состояния может служить воздушное судно, оказывающееся на эшелоне полета, где его не должно быть, или воздушное судно, выполняющее разворот в неправильном направлении. Такие события, как неправильное срабатывание оборудования или ошибки летного экипажа, также могут сокращать запас безопасности полетов при УВД, однако такие события будут относиться к факторам угрозы. Нежелательные состояния могут эффективно контролироваться с восстановлением запаса безопасности полетов, или же действия диспетчера УВД могут способствовать дополнительной ошибке, инциденту или авиапроисшествию.

Нежелательное состояние является для диспетчера первым признаком того, что меры контроля возникшего ранее фактора угрозы или ошибки были недостаточными.

From Wikipedia, the free encyclopedia

1994 Fairchild Air Force Base B-52 crash, caused by flying the aircraft beyond its operational limits. Here the aircraft is seen in an unrecoverable bank, a split second before the crash. This accident is now used in military and civilian aviation environments as a case study in teaching crew resource management.

Actual flight path (red) of TWA Flight 3 from departure to crash point (controlled flight into terrain). Blue line shows the nominal Las Vegas course, while green is a typical course from Boulder. The pilot inadvertently used the Boulder outbound course instead of the appropriate Las Vegas course.

Departure/destination airports and crash site location of Varig Flight 254 (major navigational error leading to fuel exhaustion). The flight plan was later shown to 21 pilots of major airlines. No fewer than 15 pilots committed the same mistake.

Map of the Linate Airport disaster caused by taking the wrong taxiing route (red instead of green), as control tower had not given clear instructions. The accident occurred in thick fog.

The Tenerife airport disaster now serves as a textbook example.[1] Due to several misunderstandings, the KLM flight tried to take off while the Pan Am flight was still on the runway. The airport was accommodating an unusually large number of commercial airliners, resulting in disruption of the normal use of taxiways.

The «three-pointer» design altimeter is one of the most prone to being misread by pilots (a cause of the UA 389 and G-AOVD crashes).

Pilot error generally refers to an accident in which an action or decision made by the pilot was the cause or a contributing factor that led to the accident, but also includes the pilot’s failure to make a correct decision or take proper action.[2] Errors are intentional actions that fail to achieve their intended outcomes.[3] Chicago Convention defines accident as «An occurrence associated with the operation of an aircraft […] in which […] a person is fatally or seriously injured […] except when the injuries are […] inflicted by other persons.»[4] Hence the definition of the «pilot error» does not include deliberate crash (and such crash is not an accident).

The causes of pilot error include psychological and physiological human limitations. Various forms of threat and error management have been implemented into pilot training programs to teach crew members how to deal with impending situations that arise throughout the course of a flight.[5]

Accounting for the way human factors influence the actions of pilots is now considered standard practice by accident investigators when examining the chain of events that led to an accident.[5][6]

Description[edit]

Modern accident investigators avoid the words «pilot error», as the scope of their work is to determine the cause of an accident, rather than to apportion blame. Furthermore, any attempt to incriminate the pilots does not consider that they are part of a broader system, which in turn may be accountable for their fatigue, work pressure, or lack of training.[6] The International Civil Aviation Organization (ICAO), and its member states, therefore adopted James Reason’s model of causation in 1993 in an effort to better understand the role of human factors in aviation accidents.[7]

Pilot error is nevertheless a major cause of air accidents. In 2004, it was identified as the primary reason for 78.6% of disastrous general aviation (GA) accidents, and as the major cause of 75.5% of GA accidents in the United States.[8][better source needed] There are multiple factors that can cause pilot error; mistakes in the decision-making process can be due to habitual tendencies, biases, as well as a breakdown in the processing of the information coming in. For aircraft pilots, in extreme circumstances these errors are highly likely to result in fatalities.[9]

Causes of pilot error[edit]

Pilots work in complex environments and are routinely exposed to high amounts of situational stress in the workplace, inducing pilot error which may result in a threat to flight safety. While aircraft accidents are infrequent, they are highly visible and often involve significant numbers of fatalities. For this reason, research on causal factors and methodologies of mitigating risk associated with pilot error is exhaustive. Pilot error results from physiological and psychological limitations inherent in humans. «Causes of error include fatigue, workload, and fear as well as cognitive overload, poor interpersonal communications, imperfect information processing, and flawed decision making.»[10] Throughout the course of every flight, crews are intrinsically subjected to a variety of external threats and commit a range of errors that have the potential to negatively impact the safety of the aircraft.[11]

Threats[edit]

The term «threat» is defined as any event «external to flight crew’s influence which can increase the operational complexity of a flight.»[12] Threats may further be broken down into environmental threats and airline threats. Environmental threats are ultimately out of the hands of crew members and the airline, as they hold no influence on «adverse weather conditions, air traffic control shortcomings, bird strikes, and high terrain.»[12] Conversely, airline threats are not manageable by the flight crew, but may be controlled by the airline’s management. These threats include «aircraft malfunctions, cabin interruptions, operational pressure, ground/ramp errors/events, cabin events and interruptions, ground maintenance errors, and inadequacies of manuals and charts.»[12]

Errors[edit]

The term «error» is defined as any action or inaction leading to deviation from team or organizational intentions.[10] Error stems from physiological and psychological human limitations such as illness, medication, stress, alcohol/drug abuse, fatigue, emotion, etc. Error is inevitable in humans and is primarily related to operational and behavioral mishaps.[13] Errors can vary from incorrect altimeter setting and deviations from flight course, to more severe errors such as exceeding maximum structural speeds or forgetting to put down landing or takeoff flaps.

Decision making[edit]

Reasons for negative reporting of accidents include staff being too busy, confusing data entry forms, lack of training and less education, lack of feedback to staff on reported data and punitive organizational cultures.[14] Wiegmann and Shappell invented three cognitive models to analyze approximately 4,000 pilot factors associated with more than 2,000 U.S. Navy aviation mishaps. Although the three cognitive models have slight differences in the types of errors, all three lead to the same conclusion: errors in judgment.[15] The three steps are decision-making, goal-setting, and strategy-selection errors, all of which were highly related to primary accidents.[15] For example, on 28 December 2014, AirAsia Flight 8501, which was carrying seven crew members and 155 passengers, crashed into the Java Sea due to several fatal mistakes made by the captain in the poor weather conditions. In this case, the captain chose to exceed the maximum climb rate for a commercial aircraft, which caused a critical stall from which he was unable to recover.[16]

Threat and error management (TEM)[edit]

TEM involves the effective detection and response to internal or external factors that have the potential to degrade the safety of an aircraft’s operations.[11] Methods of teaching TEM stress replicability, or reliability of performance across recurring situations.[17] TEM aims to prepare crews with the «coordinative and cognitive ability to handle both routine and unforeseen surprises and anomalies.»[17] The desired outcome of TEM training is the development of ‘resiliency’. Resiliency, in this context, is the ability to recognize and act adaptively to disruptions which may be encountered during flight operations. TEM training occurs in various forms, with varying levels of success. Some of these training methods include data collection using the line operations safety audit (LOSA), implementation of crew resource management (CRM), cockpit task management (CTM), and the integrated use of checklists in both commercial and general aviation. Some other resources built into most modern aircraft that help minimize risk and manage threat and error are airborne collision and avoidance systems (ACAS) and ground proximity warning systems (GPWS).[18] With the consolidation of onboard computer systems and the implementation of proper pilot training, airlines and crew members look to mitigate the inherent risks associated with human factors.

Line operations safety audit (LOSA)[edit]

LOSA is a structured observational program designed to collect data for the development and improvement of countermeasures to operational errors.[19] Through the audit process, trained observers are able to collect information regarding the normal procedures, protocol, and decision making processes flight crews undertake when faced with threats and errors during normal operation. This data driven analysis of threat and error management is useful for examining pilot behavior in relation to situational analysis. It provides a basis for further implementation of safety procedures or training to help mitigate errors and risks.[12] Observers on flights which are being audited typically observe the following:[19]

  • Potential threats to safety
  • How the threats are addressed by the crew members
  • The errors the threats generate
  • How crew members manage these errors (action or inaction)
  • Specific behaviors known to be associated with aviation accidents and incidents

LOSA was developed to assist crew resource management practices in reducing human error in complex flight operations.[12] LOSA produces beneficial data that reveals how many errors or threats are encountered per flight, the number of errors which could have resulted in a serious threat to safety, and correctness of crew action or inaction. This data has proven to be useful in the development of CRM techniques and identification of what issues need to be addressed in training.[12]

Crew resource management (CRM)[edit]

CRM is the «effective use of all available resources by individuals and crews to safely and effectively accomplish a mission or task, as well as identifying and managing the conditions that lead to error.»[20] CRM training has been integrated and mandatory for most pilot training programs, and has been the accepted standard for developing human factors skills for air crews and airlines. Although there is no universal CRM program, airlines usually customize their training to best suit the needs of the organization. The principles of each program are usually closely aligned. According to the U.S. Navy, there are seven critical CRM skills:[20]

  • Decision making – the use of logic and judgement to make decisions based on available information
  • Assertiveness – willingness to participate and state a given position until convinced by facts that another option is more correct
  • Mission analysis – ability to develop short and long term contingency plans
  • Communication – clear and accurate sending and receiving of information, instructions, commands and useful feedback
  • Leadership – ability to direct and coordinate activities of pilots & crew members
  • Adaptability/flexibility – ability to alter course of action due to changing situations or availability of new information
  • Situational awareness – ability to perceive the environment within time and space, and comprehend its meaning

These seven skills comprise the critical foundation for effective aircrew coordination. With the development and use of these core skills, flight crews «highlight the importance of identifying human factors and team dynamics to reduce human errors that lead to aviation mishaps.»[20]

Application and effectiveness of CRM[edit]

Since the implementation of CRM circa 1979, following the need for increased research on resource management by NASA, the aviation industry has seen tremendous evolution of the application of CRM training procedures.[21] The applications of CRM has been developed in a series of generations:

  • First generation: emphasized individual psychology and testing, where corrections could be made to behavior.
  • Second generation: featured a shift in focus to cockpit group dynamics.
  • Third evolution: diversification of scope and an emphasis on training crews in how they must function both in and out of the cockpit.
  • Fourth generation: CRM integrated procedure into training, allowing organizations to tailor training to their needs.
  • Fifth generation (current): acknowledges that human error is inevitable and provides information to improve safety standards.[22]

Today, CRM is implemented through pilot and crew training sessions, simulations, and through interactions with senior ranked personnel and flight instructors such as briefing and debriefing flights. Although it is difficult to measure the success of CRM programs, studies have been conclusive that there is a correlation between CRM programs and better risk management.[22]

Cockpit task management (CTM)[edit]

Multiple sources of information can be taken from one interface here, known as the PFD, or primary flight display from which pilots receive all of the most important data readings

Cockpit task management (CTM) is the «management level activity pilots perform as they initiate, monitor, prioritize, and terminate cockpit tasks.»[23] A ‘task’ is defined as a process performed to achieve a goal (i.e. fly to a waypoint, descend to a desired altitude).[23] CTM training focuses on teaching crew members how to handle concurrent tasks which compete for their attention. This includes the following processes:

  • Task initiation – when appropriate conditions exist
  • Task monitoring – assessment of task progress and status
  • Task prioritization – relative to the importance and urgency for safety
  • Resource allocation – assignment of human and machine resources to tasks which need completion
  • Task interruption – suspension of lower priority tasks for resources to be allocated to higher priority tasks
  • Task resumption – continuing previously interrupted tasks
  • Task termination – the completion or incompletion of tasks

The need for CTM training is a result of the capacity of human attentional facilities and the limitations of working memory. Crew members may devote more mental or physical resources to a particular task which demands priority or requires the immediate safety of the aircraft.[23] CTM has been integrated to pilot training and goes hand in hand with CRM. Some aircraft operating systems have made progress in aiding CTM by combining instrument gauges into one screen. An example of this is a digital attitude indicator, which simultaneously shows the pilot the heading, airspeed, descent or ascent rate and a plethora of other pertinent information. Implementations such as these allow crews to gather multiple sources of information quickly and accurately, which frees up mental capacity to be focused on other, more prominent tasks.

A military pilot reads the pre-flight checklist prior the mission. Checklists ensure that pilots are able to follow operational procedure and aids in memory recall.

Checklists[edit]

The use of checklists before, during and after flights has established a strong presence in all types of aviation as a means of managing error and reducing the possibility of risk. Checklists are highly regulated and consist of protocols and procedures for the majority of the actions required during a flight.[24] The objectives of checklists include «memory recall, standardization and regulation of processes or methodologies.»[24] The use of checklists in aviation has become an industry standard practice, and the completion of checklists from memory is considered a violation of protocol and pilot error. Studies have shown that increased errors in judgement and cognitive function of the brain, along with changes in memory function are a few of the effects of stress and fatigue.[25] Both of these are inevitable human factors encountered in the commercial aviation industry. The use of checklists in emergency situations also contributes to troubleshooting and reverse examining the chain of events which may have led to the particular incident or crash. Apart from checklists issued by regulatory bodies such as the FAA or ICAO, or checklists made by aircraft manufacturers, pilots also have personal qualitative checklists aimed to ensure their fitness and ability to fly the aircraft. An example is the IM SAFE checklist (illness, medication, stress, alcohol, fatigue/food, emotion) and a number of other qualitative assessments which pilots may perform before or during a flight to ensure the safety of the aircraft and passengers.[24] These checklists, along with a number of other redundancies integrated into most modern aircraft operation systems, ensure the pilot remains vigilant, and in turn, aims to reduce the risk of pilot error.

Notable examples[edit]

One of the most famous examples of an aircraft disaster that was attributed to pilot error was the night-time crash of Eastern Air Lines Flight 401 near Miami, Florida on 29 December 1972. The captain, first officer, and flight engineer had become fixated on a faulty landing gear light and had failed to realize that one of the crew had accidentally bumped the flight controls, altering the autopilot settings from level flight to a slow descent. Told by ATC to hold over a sparsely populated area away from the airport while they dealt with the problem (with, as a result, very few lights visible on the ground to act as an external reference), the distracted flight crew did not notice the plane losing height and the aircraft eventually struck the ground in the Everglades, killing 101 of the 176 passengers and crew. The subsequent National Transportation Safety Board (NTSB) report on the incident blamed the flight crew for failing to monitor the aircraft’s instruments properly. Details of the incident are now frequently used as a case study in training exercises by aircrews and air traffic controllers.

During 2004 in the United States, pilot error was listed as the primary cause of 78.6% of fatal general aviation accidents, and as the primary cause of 75.5% of general aviation accidents overall.[26] For scheduled air transport, pilot error typically accounts for just over half of worldwide accidents with a known cause.[8]

  • 28 July 1945 – A United States Army Air Forces B-25 bomber bound for Newark Airport crashed into the 79th floor of the Empire State Building after the pilot became lost in a heavy fog bank over Manhattan. All three crewmen were killed as well as eleven office workers in the building.
  • 24 December 1958 – BOAC Bristol Britannia 312, registration G-AOVD, crashed as a result of a controlled flight into terrain (CFIT), near Winkton, England, while on a test flight. The crash was caused by a combination of bad weather and a failure on the part of both pilots to read the altimeter correctly. The first officer and two other people survived the crash.
  • 3 January 1961 – Aero Flight 311 crashed near Kvevlax, Finland. All twenty-five occupants were killed in the accident, which was the deadliest in Finnish history. An investigation later determined that both pilots were intoxicated during the flight, and may have been interrupted by a passenger at the time of the crash.
  • 28 February 1966 – American astronauts Elliot See and Charles Bassett were killed when their T-38 Talon crashed into a building at Lambert–St. Louis International Airport during bad weather. A NASA investigation concluded that See had been flying too low on his landing approach.
  • 5 May 1972 — Alitalia Flight 112 crashed into Mount Longa after the flight crew did not adhere to approach procedures established by ATC. All 115 occupants perished. This is the worst single-aircraft disaster in Italian history.
  • 29 December 1972 – Eastern Air Lines Flight 401 crashed into the Florida Everglades after the flight crew failed to notice the deactivation of the plane’s autopilot, having been distracted by their own attempts to solve a problem with the landing gear. Out of 176 occupants, 75 survived the crash.
  • 27 March 1977 – The Tenerife airport disaster: a senior KLM pilot failed to hear, understand or follow instructions from the control tower, causing two Boeing 747s to collide on the runway at Tenerife. A total of 583 people were killed in the deadliest aviation accident in history.
  • 28 December 1978 – United Airlines Flight 173: a flight simulator instructor captain allowed his Douglas DC-8 to run out of fuel while investigating a landing gear problem. United Airlines subsequently changed their policy to disallow «simulator instructor time» in calculating a pilot’s «total flight time». It was thought that a contributory factor to the accident is that an instructor can control the amount of fuel in simulator training so that it never runs out.
  • 13 January 1982 – Air Florida Flight 90, a Boeing 737-200 with 79 passengers and crew, crashed into the 14th Street Bridge and careened into the Potomac River shortly after taking off from Washington National Airport, killing 75 passengers and crew, and four motorists on the bridge. The NTSB report blamed the flight crew for not properly employing the plane’s de-icing system.
  • 19 February 1985 – The crew of China Airlines Flight 006 lost control of their Boeing 747SP over the Pacific Ocean, after the No. 4 engine flamed out. The aircraft descended 30,000 feet in two-and-a-half minutes before control was regained. There were no fatalities but there were several injuries, and the aircraft was badly damaged.
  • 16 August 1987 – The crew of Northwest Airlines Flight 255 omitted their taxi checklist and failed to deploy the aircraft’s flaps and slats. Subsequently, the McDonnell Douglas MD-82 did not gain enough lift on takeoff and crashed into the ground, killing all but one of the 155 people on board, as well as two people on the ground. The sole survivor was a four-year-old girl named Cecelia Cichan, who was seriously injured.
  • 28 August 1988 – The Ramstein airshow disaster: a member of an Italian aerobatic team misjudged a maneuver, causing a mid-air collision. Three pilots and 67 spectators on the ground were killed.
  • 31 August 1988 – Delta Air Lines Flight 1141 crashed on takeoff after the crew forgot to deploy the flaps for increased lift. Of the 108 passengers and crew on board, fourteen were killed.
  • 8 January 1989 – In the Kegworth air disaster, a fan blade broke off in the left engine of a new Boeing 737-400, but the pilots mistakenly shut down the right engine. The left engine eventually failed completely and the crew were unable to restart the right engine before the aircraft crashed. Instrumentation on the 737-400 was different from earlier models, but no flight simulator for the new model was available in Britain.
  • 3 September 1989 – The crew of Varig Flight 254 made a series of mistakes so that their Boeing 737 ran out of fuel hundreds of miles off-course above the Amazon jungle. Thirteen died in the ensuing crash landing.
  • 21 October 1989 – Tan-Sahsa Flight 414 crashed into a hill near Toncontin International Airport in Tegucigalpa, Honduras, because of a bad landing procedure by the pilot, killing 131 of the 146 passengers and crew.
  • 14 February 1990 – Indian Airlines Flight 605 crashed into a golf course short of the runway near Hindustan Airport, India. The flight crew failed to pull up after radio callouts of how close they were into the ground. The plane struck a golf course and an embankment, bursting into flames. Of the 146 occupants on the plane, 92 died, including both flight crew. 54 occupants survived the crash.
  • 24 November 1992 – China Southern Airlines Flight 3943 departed Guangzhou on a 55-minute flight to Guilin. During the descent towards Guilin, at an altitude of 7,000 feet (2,100 m), the captain attempted to level off the plane by raising the nose and the plane’s auto-throttle was engaged for descent. However, the crew failed to notice that the number 2 power lever was at idle, which led to an asymmetrical power condition. The plane crashed on descent to Guilin Airport, killing all 141 on board.
  • 23 March 1994 – Aeroflot Flight 593, an Airbus A310-300, crashed on its way to Hong Kong. The captain, Yaroslav Kudrinsky, invited his two children into the cockpit, and permitted them to sit at the controls, against airline regulations. His sixteen-year-old son, Eldar Kudrinsky, accidentally disconnected the autopilot, causing the plane to bank to the right before diving. The co-pilot brought up the plane too far, causing it to stall and start a flat spin. The pilots eventually recovered the plane, but it crashed into a forest, killing all 75 people on board.
  • 24 June 1994 – B-52 crashes in Fairchild Air Force Base. The crash was largely attributed to the personality and behavior of Lt Col Arthur «Bud» Holland, the pilot in command, and delayed reactions to the earlier incidents involving this pilot. After past histories, Lt Col Mark McGeehan, a USAF squadron commander, refused to allow any of his squadron members to fly with Holland unless he (McGeehan) was also on the aircraft. This crash is now used in military and civilian aviation environments as a case study in teaching crew resource management.
  • 30 June 1994 – Airbus Industrie Flight 129, a certification test flight of the Airbus A330-300, crashed at Toulouse-Blagnac Airport. While simulating an engine-out emergency just after takeoff with an extreme center of gravity location, the pilots chose improper manual settings which rendered the autopilot incapable of keeping the plane in the air, and by the time the captain regained manual control, it was too late. The aircraft was destroyed, killing the flight crew, a test engineer, and four passengers. The investigative board concluded that the captain was overworked from earlier flight testing that day, and was unable to devote sufficient time to the preflight briefing. As a result, Airbus had to revise the engine-out emergency procedures.
  • 2 July 1994 – USAir Flight 1016 crashed into a residential house due to spatial disorientation. 37 passengers were killed and the airplane was destroyed.
  • 20 December 1995 – American Airlines Flight 965, a Boeing 757-200 with 155 passengers and eight crew members, departed Miami approximately two hours behind schedule at 1835 Eastern Standard Time (EST). The investigators believe that the pilot’s unfamiliarity with the modern technology installed in the Boeing 757-200 may have played a role. The pilots did not know their location in relation to a radio beacon in Tulua. The aircraft was equipped to provide that information electronically, but according to sources familiar with the investigation, the pilot apparently did not know how to access the information. The captain input the wrong coordinates, and the aircraft crashed into the mountains, killing 159 of the 163 people on board.
  • 8 May 1997 – China Southern Airlines Flight 3456 crashed into the runway at Shenzhen Huangtian Airport during the crew’s second go-around attempt, killing 35 of the 74 people on board. The crew had unknowingly violated landing procedures, due to heavy weather.
  • 6 August 1997 – Korean Air Flight 801, a Boeing 747-300, crashed into Nimitz Hill, three miles from Guam International Airport, killing 228 of the 254 people on board. The captain’s failure to properly conduct a non-precision approach contributed to the accident. The NTSB said pilot fatigue was a possible factor.
  • 26 September 1997 — Garuda Indonesia Flight 152, an Airbus A300, crashed into a ravine, killing all 234 people on board. The NTSC concluded that the crash was caused when the pilots turned the aircraft in the wrong direction, along with ATC error. Low visibility and failure of the GPWS to activate were cited as contributing factors to the accident.
  • 12 October 1997 – Singer John Denver died when his newly-acquired Rutan Long-EZ home-built aircraft crashed into the Pacific Ocean off Pacific Grove, California. The NTSB indicated that Denver lost control of the aircraft while attempting to manipulate the fuel selector handle, which had been placed in an inaccessible position by the aircraft’s builder. The NTSB cited Denver’s unfamiliarity with the aircraft’s design as a cause of the crash.
  • 16 February 1998 – China Airlines Flight 676 was attempting to land at Chiang Kai-Shek International Airport but had initiate a go-around due to the bad weather conditions. However, the pilots accidentally disengaged the autopilot and did not notice for 11 seconds. When they did notice, the Airbus A300 had entered a stall. The aircraft crashed into a highway and residential area, and exploded, killing all 196 people on board, as well as seven people on the ground.
  • 16 July 1999 – John F. Kennedy, Jr. died when his plane, a Piper Saratoga, crashed into the Atlantic Ocean off the coast of Martha’s Vineyard, Massachusetts. The NTSB officially declared that the crash was caused by «the pilot’s failure to maintain control of his airplane during a descent over water at night, which was a result of spatial disorientation». Kennedy did not hold a certification for IFR flight, but did continue to fly after weather conditions obscured visual landmarks.
  • 31 August 1999 – Lineas Aéreas Privadas Argentinas (LAPA) flight 3142 crashed after an attempted take-off with the flaps retracted, killing 63 of the 100 occupants on the plane as well as two people on the ground.
  • 31 October 2000 – Singapore Airlines Flight 006 was a Boeing 747-412 that took off from the wrong runway at the then Chiang Kai-Shek International Airport. It collided with construction equipment on the runway, bursting into flames and killing 83 of its 179 occupants.
  • 12 November 2001 – American Airlines Flight 587 encountered heavy turbulence and the co-pilot over-applied the rudder pedal, turning the Airbus A300 from side to side. The excessive stress caused the rudder to fail. The A300 spun and hit a residential area, crushing five houses and killing 265 people. Contributing factors included wake turbulence and pilot training.
  • 24 November 2001 – Crossair Flight 3597 crashed into a forest on approach to runway 28 at Zurich Airport. This was caused by Captain Lutz descending below the minimum safe altitude of 2400 feet on approach to the runway.
  • 15 April 2002 – Air China Flight 129, a Boeing 767-200, crashed near Busan, South Korea killing 128 of the 166 people on board. The pilot and co-pilot had been flying too low.
  • 25 October 2002 – Eight people, including U.S. Senator Paul Wellstone, were killed in a crash near Eveleth, Minnesota. The NTSB concluded that «the flight crew did not monitor and maintain minimum speed.
  • 3 January 2004 – Flash Airlines Flight 604 dived into the Red Sea shortly after takeoff, killing all 148 people on board. The captain had been experiencing vertigo and had not noticed that his control column was slanted to the right. The Boeing 737 banked until it was no longer able to stay in the air. However, the investigation report was disputed.
  • 26 February 2004 – A Beech 200 carrying Macedonian President Boris Trajkovski crashed, killing the president and eight other passengers. The crash investigation ruled that the accident was caused by «procedural mistakes by the crew» during the landing approach.
  • 14 August 2005 – The pilots of Helios Airways Flight 522 lost consciousness, most likely due to hypoxia caused by failure to switch the cabin pressurization to «Auto» during the pre-flight preparations. The Boeing 737-300 crashed after running out of fuel, killing all on board.
  • 16 August 2005 – The crew of West Caribbean Airways Flight 708 unknowingly (and dangerously) decreased the speed of the McDonnell Douglas MD-82, causing it to enter a stall. The situation was incorrectly handled by the crew, with the captain believing that the engines had flamed out, while the first officer, who was aware of the stall, attempted to correct him. The aircraft crashed into the ground near Machiques, Venezuela, killing all 160 people on board.
  • 3 May 2006 – Armavia Flight 967 lost control and crashed into the Black Sea while approaching Sochi-Adler Airport in Russia, killing all 113 people on board. The pilots were fatigued and flying under stressful conditions. Their stress levels were pushed over the limit, causing them to lose their situational awareness.
  • 27 August 2006 – Comair Flight 5191 failed to become airborne and crashed at Blue Grass Airport, after the flight crew mistakenly attempted to take off from a secondary runway that was much shorter than the intended takeoff runway. All but one of the 50 people on board the plane died, including the 47 passengers. The sole survivor was the flight’s first officer, James Polhinke.
  • 1 January 2007 – The crew of Adam Air Flight 574 were preoccupied with a malfunction of the inertial reference system, which diverted their attention from the flight instruments, allowing the increasing descent and bank angle to go unnoticed. Appearing to have become spatially disoriented, the pilots did not detect and appropriately arrest the descent soon enough to prevent loss of control. This caused the aircraft to break up in mid air and crash into the water, killing all 102 people on board.[27]
  • 7 March 2007 – Garuda Indonesia Flight 200: poor Crew Resource Management and the failure to extend the flaps led the aircraft to land at an «unimaginable» speed and run off the end of the runway after landing. Of the 140 occupants, 22 were killed.
  • 17 July 2007 – TAM Airlines Flight 3054: the thrust reverser on the right engine of the Airbus A320 was jammed. Although both crew members were aware, the captain used an outdated braking procedure, and the aircraft overshot the runway and crashed into a building, killing all 187 people on board, as well as 12 people on the ground.
  • 20 August 2008 – The crew of Spanair Flight 5022 failed to deploy the MD-82’s flaps and slats. The flight crashed after takeoff, killing 154 out of the 172 passengers and crew on board.
  • 12 February 2009 – Colgan Air Flight 3407 (flying as Continental Connection) entered a stall and crashed into a house in Clarence Center, New York, due to lack of situational awareness of air speed by the captain and first officer and the captain’s improper reaction to the plane’s stick-shaker stall warning system. All 49 people on board the plane died, as well as one person inside the house.
  • 1 June 2009 – Air France Flight 447 entered a stall and crashed into the Atlantic Ocean following pitot tube failures and improper control inputs by the first officer. All 216 passengers and twelve crew members died.
  • 10 April 2010 – 2010 Polish Air Force Tu-154 crash: during a descent towards Russia’s Smolensk North Airport, the flight crew of the Polish presidential jet ignored automatic warnings and attempted a risky landing in heavy fog. The Tupolev Tu-154M descended too low and crashed into a nearby forest; all of the occupants were killed, including Polish president Lech Kaczynski, his wife Maria Kaczynska, and numerous government and military officials.
  • 12 May 2010 – Afriqiyah Airways Flight 771 The aircraft crashed about 1,200 meters (1,300 yd; 3,900 ft) short of Runway 09, outside the perimeter of Tripoli International Airport, killing all but one of the 104 people on board. The sole survivor was a 9-year-old boy named Ruben Van Assouw. On 28 February 2013, the Libyan Civil Aviation Authority announced that the crash was caused by pilot error. Factors that contributed to the crash were lacking/insufficient crew resource management, sensory illusions, and the first officer’s inputs to the aircraft side stick; fatigue could also have played a role in the accident. The final report cited the following causes: the pilots’ lack of a common action plan during the approach, the final approach being continued below the Minimum Decision Altitude without ground visual reference being acquired; the inappropriate application of flight control inputs during the go-around and after the Terrain Awareness and Warning System had been activated; and the flight crew’s failure to monitor and control the flight path.
  • 22 May 2010 – Air India Express Flight 812 overshot the runway at Mangalore Airport, killing 158 people. The plane touched down 610 meters (670 yd) from the usual touchdown point after a steep descent. CVR recordings showed that the captain had been sleeping and had woken up just minutes before the landing. His lack of alertness made the plane land very quickly and steeply and it ran off the end of the tabletop runway.
  • 28 July 2010 – The captain of Airblue Flight 202 became confused with the heading knob and thought that he had carried out the correct action to turn the plane. However, due to his failure to pull the heading knob, the turn was not executed. The Airbus A321 went astray and slammed into the Margalla Hills, killing all 152 people on board.
  • 20 June 2011 – RusAir Flight 9605 crashed onto a motorway while on its final approach to Petrozavodsk Airport in western Russia, after the intoxicated navigator encouraged the captain to land in heavy fog. Only five of the 52 people on board the plane survived the crash.
  • 6 July 2013 – Asiana Airlines Flight 214 tail struck the seawall short of runway 28L at San Francisco International Airport. Of the 307 passengers and crew, three people died and 187 were injured when the aircraft slid down the runway. Investigators said the accident was caused by lower than normal approach speed and incorrect approach path during landing.
  • 23 July 2014 – TransAsia Airways Flight 222 brushed trees and crashed into six houses in a residential area in Xixi Village, Penghu Island, Taiwan. Of the 58 people on board the flight, only ten people survived the crash. The captain was overconfident with his skill and intentionally descended and rolled the plane to the left. Crew members did not realize that they were at a dangerously low altitude and the plane was about to impact terrain until two seconds before the crash.
  • 28 December 2014 — Indonesia AirAsia Flight 8501 crashed into the Java Sea as a result of an aerodynamic stall due to pilot error. The aircraft exceeded the climb rate, way beyond its operational limits. All 155 passengers and 7 crew members on board were killed.
  • 6 February 2015 – TransAsia Airways Flight 235: one of the ATR 72’s engines experienced a flameout. As airplanes are able to fly on one engine alone, the pilot then shut down one of the engines. However, he accidentally shut off the engine that was functioning correctly and left the plane powerless, at which point he unsuccessfully tried to restart both engines. The plane then clipped a bridge and plummeted into the Keelung river as the pilot tried to avoid city terrain, killing 43 of the 58 on board.

See also[edit]

  • Airmanship
  • Controlled flight into terrain
  • Environmental causes of aviation stress
  • Human factors in aviation safety
  • Human reliability
  • Jet lag
  • Korean Air Lines Flight 007
  • Pilot fatigue
  • Sensory illusions in aviation
  • Spatial disorientation
  • Stress in the aviation industry
  • Threat and error management
  • User error
  • Kenya Airways Flight 507

References[edit]

  1. ^ «TENERIFE DISASTER – 27 MARCH 1977: The Utility of the Swiss Cheese Model & other Accident Causation Frameworks». Go Flight Medicine. Retrieved 13 October 2014.
  2. ^ Pilot’s Handbook of Aeronautical Knowledge (2016). U.S. Department of Transportation. Federal Aviation Administration, Flight Standards Service pdf.
  3. ^ Error Management (OGHFA BN). Operator’s Guide to Human Factors in Aviation. Skybrary
  4. ^ How exactly should I understand the term «accidental hull loss»?. Aviation stack overflow
  5. ^ a b «Risk management handbook» (PDF) (Change 1 ed.). Federal Aviation Administration. January 2016. Chapter 2. Human behavior. Retrieved 16 November 2018.
  6. ^ a b Rural and Regional Affairs and Transport References Committee (May 2013). «Aviation Accident Investigations» (PDF). Government of Australia.
  7. ^ Investigating Human Error: Incidents, Accidents, and Complex Systems. Ashgate Publishing. 2004. ISBN 0754641228.
  8. ^ a b «Accident statistics». www.planecrashinfo.com. Retrieved 21 October 2015.
  9. ^ Foyle, D. C., & Hooey, B. L. (Eds.). (2007). Human performance modeling in aviation. CRC Press.
  10. ^ a b Helmreich, Robert L. (18 March 2000). «On Error Management: Lessons From Aviation». BMJ: British Medical Journal. 320–7237 (7237): 781–785. doi:10.1136/bmj.320.7237.781. PMC 1117774. PMID 10720367.
  11. ^ a b Thomas, Matthew J.W. (2004). «Predictors of Threat and Error Management: Identification of Core Nontechnical Skills and Implications for Training Systems Design». The International Journal of Aviation Psychology. 14 (2): 207–231. doi:10.1207/s15327108ijap1402_6. S2CID 15271960.
  12. ^ a b c d e f Earl, Laurie; Bates, Paul R.; Murray, Patrick S.; Glendon, A. Ian; Creed, Peter A. (January 2012). «Developing a Single-Pilot Line Operations Safety Audit». Aviation Psychology and Applied Human Factors. 2 (2): 49–61. doi:10.1027/2192-0923/a000027. hdl:10072/49214. ISSN 2192-0923.
  13. ^ Li, Guohua; Baker, Susan P.; Grabowski, Jurek G.; Rebok, George W. (February 2001). «Factors Associated With Pilot Error in Aviation Crashes». Aviation, Space, and Environmental Medicine. 72 (1): 52–58. PMID 11194994.
  14. ^ Stanhope, N.; Crowley-Murphy, M. (1999). «An evaluation of adverse incident reporting». Journal of Evaluation in Clinical Practice. 5 (1): 5–12. doi:10.1046/j.1365-2753.1999.00146.x. PMID 10468379.
  15. ^ a b Wiegmann, D. A., & Shappell, S. A. (2001). Human error perspectives in aviation. The International Journal of Aviation Psychology, 11(4), 341–357.
  16. ^ Stacey, Daniel (15 January 2015). «Indonesian Air-Traffic Control Is Unsophisticated, Pilots Say». The Wall Street Journal. Retrieved 26 January 2015
  17. ^ a b Dekker, Sidney; Lundström, Johan (May 2007). «From Threat and Error Management (TEM) to Resilience». Journal of Human Factors and Aerospace Safety. 260 (70): 1–10.
  18. ^ Maurino, Dan (April 2005). «Threat and Error Management (TEM)». Canadian Aviation Safety Seminar (CASS); Flight Safety and Human Factors Programme – ICAO.
  19. ^ a b «Line Operations Safety Audit (LOSA)». SKYbrary. Retrieved 24 August 2016.
  20. ^ a b c Myers, Charles; Orndorff, Denise (2013). «Crew Resource Management: Not Just for Aviators Anymore». Journal of Applied Learning Technology. 3 (3): 44–48.
  21. ^ Helmreich, Robert L.; Merritt, Ashleigh C.; Wilhelm, John A. (1999). «The Evolution of Crew Resource Management Training in Commercial Aviation». The International Journal of Aviation Psychology. 9 (1): 19–32. doi:10.1207/s15327108ijap0901_2. PMID 11541445.
  22. ^ a b Salas, Eduardo; Burke, Shawn C.; Bowers, Clint A.; Wilson, Katherine A. (2001). «Team Training in the Skies: Does Crew Resource Management (CRM) Training Work?». Human Factors. 43 (4): 641–674. doi:10.1518/001872001775870386. ISSN 0018-7208. PMID 12002012. S2CID 23109802.
  23. ^ a b c Chou, Chung-Di; Madhavan, Das; Funk, Ken (1996). «Studies of Cockpit Task Management Errors». The International Journal of Aviation Psychology. 6 (4): 307–320. doi:10.1207/s15327108ijap0604_1.
  24. ^ a b c Hales, Brigette M.; Pronovost, Peter J. (2006). «The Checklist — A Tool for Error Management and Performance». Journal of Critical Care. 21 (3): 231–235. doi:10.1016/j.jcrc.2006.06.002. PMID 16990087.
  25. ^ Cavanagh, James F.; Frank, Michael J.; Allen, John J.B. (April 2010). «Social Stress Reactivity Alters Reward and Punishment Learning». Social Cognitive and Affective Neuroscience. 6 (3): 311–320. doi:10.1093/scan/nsq041. PMC 3110431. PMID 20453038.
  26. ^ «2005 Joseph T. Nall Report» (PDF). Archived from the original (PDF) on 2 February 2007. Retrieved 12 February 2007.
  27. ^ «Aircraft Accident Investigation Report KNKT/07.01/08.01.36» (PDF). National Transportation Safety Committee, Indonesian Ministry of Transportation. 1 January 2007. Archived from the original (PDF) on 16 July 2011. Retrieved 8 June 2013. Aircraft Accident Investigation Report of Indonesian’s National Transportation Safety Committee

From Wikipedia, the free encyclopedia

1994 Fairchild Air Force Base B-52 crash, caused by flying the aircraft beyond its operational limits. Here the aircraft is seen in an unrecoverable bank, a split second before the crash. This accident is now used in military and civilian aviation environments as a case study in teaching crew resource management.

Actual flight path (red) of TWA Flight 3 from departure to crash point (controlled flight into terrain). Blue line shows the nominal Las Vegas course, while green is a typical course from Boulder. The pilot inadvertently used the Boulder outbound course instead of the appropriate Las Vegas course.

Departure/destination airports and crash site location of Varig Flight 254 (major navigational error leading to fuel exhaustion). The flight plan was later shown to 21 pilots of major airlines. No fewer than 15 pilots committed the same mistake.

Map of the Linate Airport disaster caused by taking the wrong taxiing route (red instead of green), as control tower had not given clear instructions. The accident occurred in thick fog.

The Tenerife airport disaster now serves as a textbook example.[1] Due to several misunderstandings, the KLM flight tried to take off while the Pan Am flight was still on the runway. The airport was accommodating an unusually large number of commercial airliners, resulting in disruption of the normal use of taxiways.

The «three-pointer» design altimeter is one of the most prone to being misread by pilots (a cause of the UA 389 and G-AOVD crashes).

Pilot error generally refers to an accident in which an action or decision made by the pilot was the cause or a contributing factor that led to the accident, but also includes the pilot’s failure to make a correct decision or take proper action.[2] Errors are intentional actions that fail to achieve their intended outcomes.[3] Chicago Convention defines accident as «An occurrence associated with the operation of an aircraft […] in which […] a person is fatally or seriously injured […] except when the injuries are […] inflicted by other persons.»[4] Hence the definition of the «pilot error» does not include deliberate crash (and such crash is not an accident).

The causes of pilot error include psychological and physiological human limitations. Various forms of threat and error management have been implemented into pilot training programs to teach crew members how to deal with impending situations that arise throughout the course of a flight.[5]

Accounting for the way human factors influence the actions of pilots is now considered standard practice by accident investigators when examining the chain of events that led to an accident.[5][6]

Description[edit]

Modern accident investigators avoid the words «pilot error», as the scope of their work is to determine the cause of an accident, rather than to apportion blame. Furthermore, any attempt to incriminate the pilots does not consider that they are part of a broader system, which in turn may be accountable for their fatigue, work pressure, or lack of training.[6] The International Civil Aviation Organization (ICAO), and its member states, therefore adopted James Reason’s model of causation in 1993 in an effort to better understand the role of human factors in aviation accidents.[7]

Pilot error is nevertheless a major cause of air accidents. In 2004, it was identified as the primary reason for 78.6% of disastrous general aviation (GA) accidents, and as the major cause of 75.5% of GA accidents in the United States.[8][better source needed] There are multiple factors that can cause pilot error; mistakes in the decision-making process can be due to habitual tendencies, biases, as well as a breakdown in the processing of the information coming in. For aircraft pilots, in extreme circumstances these errors are highly likely to result in fatalities.[9]

Causes of pilot error[edit]

Pilots work in complex environments and are routinely exposed to high amounts of situational stress in the workplace, inducing pilot error which may result in a threat to flight safety. While aircraft accidents are infrequent, they are highly visible and often involve significant numbers of fatalities. For this reason, research on causal factors and methodologies of mitigating risk associated with pilot error is exhaustive. Pilot error results from physiological and psychological limitations inherent in humans. «Causes of error include fatigue, workload, and fear as well as cognitive overload, poor interpersonal communications, imperfect information processing, and flawed decision making.»[10] Throughout the course of every flight, crews are intrinsically subjected to a variety of external threats and commit a range of errors that have the potential to negatively impact the safety of the aircraft.[11]

Threats[edit]

The term «threat» is defined as any event «external to flight crew’s influence which can increase the operational complexity of a flight.»[12] Threats may further be broken down into environmental threats and airline threats. Environmental threats are ultimately out of the hands of crew members and the airline, as they hold no influence on «adverse weather conditions, air traffic control shortcomings, bird strikes, and high terrain.»[12] Conversely, airline threats are not manageable by the flight crew, but may be controlled by the airline’s management. These threats include «aircraft malfunctions, cabin interruptions, operational pressure, ground/ramp errors/events, cabin events and interruptions, ground maintenance errors, and inadequacies of manuals and charts.»[12]

Errors[edit]

The term «error» is defined as any action or inaction leading to deviation from team or organizational intentions.[10] Error stems from physiological and psychological human limitations such as illness, medication, stress, alcohol/drug abuse, fatigue, emotion, etc. Error is inevitable in humans and is primarily related to operational and behavioral mishaps.[13] Errors can vary from incorrect altimeter setting and deviations from flight course, to more severe errors such as exceeding maximum structural speeds or forgetting to put down landing or takeoff flaps.

Decision making[edit]

Reasons for negative reporting of accidents include staff being too busy, confusing data entry forms, lack of training and less education, lack of feedback to staff on reported data and punitive organizational cultures.[14] Wiegmann and Shappell invented three cognitive models to analyze approximately 4,000 pilot factors associated with more than 2,000 U.S. Navy aviation mishaps. Although the three cognitive models have slight differences in the types of errors, all three lead to the same conclusion: errors in judgment.[15] The three steps are decision-making, goal-setting, and strategy-selection errors, all of which were highly related to primary accidents.[15] For example, on 28 December 2014, AirAsia Flight 8501, which was carrying seven crew members and 155 passengers, crashed into the Java Sea due to several fatal mistakes made by the captain in the poor weather conditions. In this case, the captain chose to exceed the maximum climb rate for a commercial aircraft, which caused a critical stall from which he was unable to recover.[16]

Threat and error management (TEM)[edit]

TEM involves the effective detection and response to internal or external factors that have the potential to degrade the safety of an aircraft’s operations.[11] Methods of teaching TEM stress replicability, or reliability of performance across recurring situations.[17] TEM aims to prepare crews with the «coordinative and cognitive ability to handle both routine and unforeseen surprises and anomalies.»[17] The desired outcome of TEM training is the development of ‘resiliency’. Resiliency, in this context, is the ability to recognize and act adaptively to disruptions which may be encountered during flight operations. TEM training occurs in various forms, with varying levels of success. Some of these training methods include data collection using the line operations safety audit (LOSA), implementation of crew resource management (CRM), cockpit task management (CTM), and the integrated use of checklists in both commercial and general aviation. Some other resources built into most modern aircraft that help minimize risk and manage threat and error are airborne collision and avoidance systems (ACAS) and ground proximity warning systems (GPWS).[18] With the consolidation of onboard computer systems and the implementation of proper pilot training, airlines and crew members look to mitigate the inherent risks associated with human factors.

Line operations safety audit (LOSA)[edit]

LOSA is a structured observational program designed to collect data for the development and improvement of countermeasures to operational errors.[19] Through the audit process, trained observers are able to collect information regarding the normal procedures, protocol, and decision making processes flight crews undertake when faced with threats and errors during normal operation. This data driven analysis of threat and error management is useful for examining pilot behavior in relation to situational analysis. It provides a basis for further implementation of safety procedures or training to help mitigate errors and risks.[12] Observers on flights which are being audited typically observe the following:[19]

  • Potential threats to safety
  • How the threats are addressed by the crew members
  • The errors the threats generate
  • How crew members manage these errors (action or inaction)
  • Specific behaviors known to be associated with aviation accidents and incidents

LOSA was developed to assist crew resource management practices in reducing human error in complex flight operations.[12] LOSA produces beneficial data that reveals how many errors or threats are encountered per flight, the number of errors which could have resulted in a serious threat to safety, and correctness of crew action or inaction. This data has proven to be useful in the development of CRM techniques and identification of what issues need to be addressed in training.[12]

Crew resource management (CRM)[edit]

CRM is the «effective use of all available resources by individuals and crews to safely and effectively accomplish a mission or task, as well as identifying and managing the conditions that lead to error.»[20] CRM training has been integrated and mandatory for most pilot training programs, and has been the accepted standard for developing human factors skills for air crews and airlines. Although there is no universal CRM program, airlines usually customize their training to best suit the needs of the organization. The principles of each program are usually closely aligned. According to the U.S. Navy, there are seven critical CRM skills:[20]

  • Decision making – the use of logic and judgement to make decisions based on available information
  • Assertiveness – willingness to participate and state a given position until convinced by facts that another option is more correct
  • Mission analysis – ability to develop short and long term contingency plans
  • Communication – clear and accurate sending and receiving of information, instructions, commands and useful feedback
  • Leadership – ability to direct and coordinate activities of pilots & crew members
  • Adaptability/flexibility – ability to alter course of action due to changing situations or availability of new information
  • Situational awareness – ability to perceive the environment within time and space, and comprehend its meaning

These seven skills comprise the critical foundation for effective aircrew coordination. With the development and use of these core skills, flight crews «highlight the importance of identifying human factors and team dynamics to reduce human errors that lead to aviation mishaps.»[20]

Application and effectiveness of CRM[edit]

Since the implementation of CRM circa 1979, following the need for increased research on resource management by NASA, the aviation industry has seen tremendous evolution of the application of CRM training procedures.[21] The applications of CRM has been developed in a series of generations:

  • First generation: emphasized individual psychology and testing, where corrections could be made to behavior.
  • Second generation: featured a shift in focus to cockpit group dynamics.
  • Third evolution: diversification of scope and an emphasis on training crews in how they must function both in and out of the cockpit.
  • Fourth generation: CRM integrated procedure into training, allowing organizations to tailor training to their needs.
  • Fifth generation (current): acknowledges that human error is inevitable and provides information to improve safety standards.[22]

Today, CRM is implemented through pilot and crew training sessions, simulations, and through interactions with senior ranked personnel and flight instructors such as briefing and debriefing flights. Although it is difficult to measure the success of CRM programs, studies have been conclusive that there is a correlation between CRM programs and better risk management.[22]

Cockpit task management (CTM)[edit]

Multiple sources of information can be taken from one interface here, known as the PFD, or primary flight display from which pilots receive all of the most important data readings

Cockpit task management (CTM) is the «management level activity pilots perform as they initiate, monitor, prioritize, and terminate cockpit tasks.»[23] A ‘task’ is defined as a process performed to achieve a goal (i.e. fly to a waypoint, descend to a desired altitude).[23] CTM training focuses on teaching crew members how to handle concurrent tasks which compete for their attention. This includes the following processes:

  • Task initiation – when appropriate conditions exist
  • Task monitoring – assessment of task progress and status
  • Task prioritization – relative to the importance and urgency for safety
  • Resource allocation – assignment of human and machine resources to tasks which need completion
  • Task interruption – suspension of lower priority tasks for resources to be allocated to higher priority tasks
  • Task resumption – continuing previously interrupted tasks
  • Task termination – the completion or incompletion of tasks

The need for CTM training is a result of the capacity of human attentional facilities and the limitations of working memory. Crew members may devote more mental or physical resources to a particular task which demands priority or requires the immediate safety of the aircraft.[23] CTM has been integrated to pilot training and goes hand in hand with CRM. Some aircraft operating systems have made progress in aiding CTM by combining instrument gauges into one screen. An example of this is a digital attitude indicator, which simultaneously shows the pilot the heading, airspeed, descent or ascent rate and a plethora of other pertinent information. Implementations such as these allow crews to gather multiple sources of information quickly and accurately, which frees up mental capacity to be focused on other, more prominent tasks.

A military pilot reads the pre-flight checklist prior the mission. Checklists ensure that pilots are able to follow operational procedure and aids in memory recall.

Checklists[edit]

The use of checklists before, during and after flights has established a strong presence in all types of aviation as a means of managing error and reducing the possibility of risk. Checklists are highly regulated and consist of protocols and procedures for the majority of the actions required during a flight.[24] The objectives of checklists include «memory recall, standardization and regulation of processes or methodologies.»[24] The use of checklists in aviation has become an industry standard practice, and the completion of checklists from memory is considered a violation of protocol and pilot error. Studies have shown that increased errors in judgement and cognitive function of the brain, along with changes in memory function are a few of the effects of stress and fatigue.[25] Both of these are inevitable human factors encountered in the commercial aviation industry. The use of checklists in emergency situations also contributes to troubleshooting and reverse examining the chain of events which may have led to the particular incident or crash. Apart from checklists issued by regulatory bodies such as the FAA or ICAO, or checklists made by aircraft manufacturers, pilots also have personal qualitative checklists aimed to ensure their fitness and ability to fly the aircraft. An example is the IM SAFE checklist (illness, medication, stress, alcohol, fatigue/food, emotion) and a number of other qualitative assessments which pilots may perform before or during a flight to ensure the safety of the aircraft and passengers.[24] These checklists, along with a number of other redundancies integrated into most modern aircraft operation systems, ensure the pilot remains vigilant, and in turn, aims to reduce the risk of pilot error.

Notable examples[edit]

One of the most famous examples of an aircraft disaster that was attributed to pilot error was the night-time crash of Eastern Air Lines Flight 401 near Miami, Florida on 29 December 1972. The captain, first officer, and flight engineer had become fixated on a faulty landing gear light and had failed to realize that one of the crew had accidentally bumped the flight controls, altering the autopilot settings from level flight to a slow descent. Told by ATC to hold over a sparsely populated area away from the airport while they dealt with the problem (with, as a result, very few lights visible on the ground to act as an external reference), the distracted flight crew did not notice the plane losing height and the aircraft eventually struck the ground in the Everglades, killing 101 of the 176 passengers and crew. The subsequent National Transportation Safety Board (NTSB) report on the incident blamed the flight crew for failing to monitor the aircraft’s instruments properly. Details of the incident are now frequently used as a case study in training exercises by aircrews and air traffic controllers.

During 2004 in the United States, pilot error was listed as the primary cause of 78.6% of fatal general aviation accidents, and as the primary cause of 75.5% of general aviation accidents overall.[26] For scheduled air transport, pilot error typically accounts for just over half of worldwide accidents with a known cause.[8]

  • 28 July 1945 – A United States Army Air Forces B-25 bomber bound for Newark Airport crashed into the 79th floor of the Empire State Building after the pilot became lost in a heavy fog bank over Manhattan. All three crewmen were killed as well as eleven office workers in the building.
  • 24 December 1958 – BOAC Bristol Britannia 312, registration G-AOVD, crashed as a result of a controlled flight into terrain (CFIT), near Winkton, England, while on a test flight. The crash was caused by a combination of bad weather and a failure on the part of both pilots to read the altimeter correctly. The first officer and two other people survived the crash.
  • 3 January 1961 – Aero Flight 311 crashed near Kvevlax, Finland. All twenty-five occupants were killed in the accident, which was the deadliest in Finnish history. An investigation later determined that both pilots were intoxicated during the flight, and may have been interrupted by a passenger at the time of the crash.
  • 28 February 1966 – American astronauts Elliot See and Charles Bassett were killed when their T-38 Talon crashed into a building at Lambert–St. Louis International Airport during bad weather. A NASA investigation concluded that See had been flying too low on his landing approach.
  • 5 May 1972 — Alitalia Flight 112 crashed into Mount Longa after the flight crew did not adhere to approach procedures established by ATC. All 115 occupants perished. This is the worst single-aircraft disaster in Italian history.
  • 29 December 1972 – Eastern Air Lines Flight 401 crashed into the Florida Everglades after the flight crew failed to notice the deactivation of the plane’s autopilot, having been distracted by their own attempts to solve a problem with the landing gear. Out of 176 occupants, 75 survived the crash.
  • 27 March 1977 – The Tenerife airport disaster: a senior KLM pilot failed to hear, understand or follow instructions from the control tower, causing two Boeing 747s to collide on the runway at Tenerife. A total of 583 people were killed in the deadliest aviation accident in history.
  • 28 December 1978 – United Airlines Flight 173: a flight simulator instructor captain allowed his Douglas DC-8 to run out of fuel while investigating a landing gear problem. United Airlines subsequently changed their policy to disallow «simulator instructor time» in calculating a pilot’s «total flight time». It was thought that a contributory factor to the accident is that an instructor can control the amount of fuel in simulator training so that it never runs out.
  • 13 January 1982 – Air Florida Flight 90, a Boeing 737-200 with 79 passengers and crew, crashed into the 14th Street Bridge and careened into the Potomac River shortly after taking off from Washington National Airport, killing 75 passengers and crew, and four motorists on the bridge. The NTSB report blamed the flight crew for not properly employing the plane’s de-icing system.
  • 19 February 1985 – The crew of China Airlines Flight 006 lost control of their Boeing 747SP over the Pacific Ocean, after the No. 4 engine flamed out. The aircraft descended 30,000 feet in two-and-a-half minutes before control was regained. There were no fatalities but there were several injuries, and the aircraft was badly damaged.
  • 16 August 1987 – The crew of Northwest Airlines Flight 255 omitted their taxi checklist and failed to deploy the aircraft’s flaps and slats. Subsequently, the McDonnell Douglas MD-82 did not gain enough lift on takeoff and crashed into the ground, killing all but one of the 155 people on board, as well as two people on the ground. The sole survivor was a four-year-old girl named Cecelia Cichan, who was seriously injured.
  • 28 August 1988 – The Ramstein airshow disaster: a member of an Italian aerobatic team misjudged a maneuver, causing a mid-air collision. Three pilots and 67 spectators on the ground were killed.
  • 31 August 1988 – Delta Air Lines Flight 1141 crashed on takeoff after the crew forgot to deploy the flaps for increased lift. Of the 108 passengers and crew on board, fourteen were killed.
  • 8 January 1989 – In the Kegworth air disaster, a fan blade broke off in the left engine of a new Boeing 737-400, but the pilots mistakenly shut down the right engine. The left engine eventually failed completely and the crew were unable to restart the right engine before the aircraft crashed. Instrumentation on the 737-400 was different from earlier models, but no flight simulator for the new model was available in Britain.
  • 3 September 1989 – The crew of Varig Flight 254 made a series of mistakes so that their Boeing 737 ran out of fuel hundreds of miles off-course above the Amazon jungle. Thirteen died in the ensuing crash landing.
  • 21 October 1989 – Tan-Sahsa Flight 414 crashed into a hill near Toncontin International Airport in Tegucigalpa, Honduras, because of a bad landing procedure by the pilot, killing 131 of the 146 passengers and crew.
  • 14 February 1990 – Indian Airlines Flight 605 crashed into a golf course short of the runway near Hindustan Airport, India. The flight crew failed to pull up after radio callouts of how close they were into the ground. The plane struck a golf course and an embankment, bursting into flames. Of the 146 occupants on the plane, 92 died, including both flight crew. 54 occupants survived the crash.
  • 24 November 1992 – China Southern Airlines Flight 3943 departed Guangzhou on a 55-minute flight to Guilin. During the descent towards Guilin, at an altitude of 7,000 feet (2,100 m), the captain attempted to level off the plane by raising the nose and the plane’s auto-throttle was engaged for descent. However, the crew failed to notice that the number 2 power lever was at idle, which led to an asymmetrical power condition. The plane crashed on descent to Guilin Airport, killing all 141 on board.
  • 23 March 1994 – Aeroflot Flight 593, an Airbus A310-300, crashed on its way to Hong Kong. The captain, Yaroslav Kudrinsky, invited his two children into the cockpit, and permitted them to sit at the controls, against airline regulations. His sixteen-year-old son, Eldar Kudrinsky, accidentally disconnected the autopilot, causing the plane to bank to the right before diving. The co-pilot brought up the plane too far, causing it to stall and start a flat spin. The pilots eventually recovered the plane, but it crashed into a forest, killing all 75 people on board.
  • 24 June 1994 – B-52 crashes in Fairchild Air Force Base. The crash was largely attributed to the personality and behavior of Lt Col Arthur «Bud» Holland, the pilot in command, and delayed reactions to the earlier incidents involving this pilot. After past histories, Lt Col Mark McGeehan, a USAF squadron commander, refused to allow any of his squadron members to fly with Holland unless he (McGeehan) was also on the aircraft. This crash is now used in military and civilian aviation environments as a case study in teaching crew resource management.
  • 30 June 1994 – Airbus Industrie Flight 129, a certification test flight of the Airbus A330-300, crashed at Toulouse-Blagnac Airport. While simulating an engine-out emergency just after takeoff with an extreme center of gravity location, the pilots chose improper manual settings which rendered the autopilot incapable of keeping the plane in the air, and by the time the captain regained manual control, it was too late. The aircraft was destroyed, killing the flight crew, a test engineer, and four passengers. The investigative board concluded that the captain was overworked from earlier flight testing that day, and was unable to devote sufficient time to the preflight briefing. As a result, Airbus had to revise the engine-out emergency procedures.
  • 2 July 1994 – USAir Flight 1016 crashed into a residential house due to spatial disorientation. 37 passengers were killed and the airplane was destroyed.
  • 20 December 1995 – American Airlines Flight 965, a Boeing 757-200 with 155 passengers and eight crew members, departed Miami approximately two hours behind schedule at 1835 Eastern Standard Time (EST). The investigators believe that the pilot’s unfamiliarity with the modern technology installed in the Boeing 757-200 may have played a role. The pilots did not know their location in relation to a radio beacon in Tulua. The aircraft was equipped to provide that information electronically, but according to sources familiar with the investigation, the pilot apparently did not know how to access the information. The captain input the wrong coordinates, and the aircraft crashed into the mountains, killing 159 of the 163 people on board.
  • 8 May 1997 – China Southern Airlines Flight 3456 crashed into the runway at Shenzhen Huangtian Airport during the crew’s second go-around attempt, killing 35 of the 74 people on board. The crew had unknowingly violated landing procedures, due to heavy weather.
  • 6 August 1997 – Korean Air Flight 801, a Boeing 747-300, crashed into Nimitz Hill, three miles from Guam International Airport, killing 228 of the 254 people on board. The captain’s failure to properly conduct a non-precision approach contributed to the accident. The NTSB said pilot fatigue was a possible factor.
  • 26 September 1997 — Garuda Indonesia Flight 152, an Airbus A300, crashed into a ravine, killing all 234 people on board. The NTSC concluded that the crash was caused when the pilots turned the aircraft in the wrong direction, along with ATC error. Low visibility and failure of the GPWS to activate were cited as contributing factors to the accident.
  • 12 October 1997 – Singer John Denver died when his newly-acquired Rutan Long-EZ home-built aircraft crashed into the Pacific Ocean off Pacific Grove, California. The NTSB indicated that Denver lost control of the aircraft while attempting to manipulate the fuel selector handle, which had been placed in an inaccessible position by the aircraft’s builder. The NTSB cited Denver’s unfamiliarity with the aircraft’s design as a cause of the crash.
  • 16 February 1998 – China Airlines Flight 676 was attempting to land at Chiang Kai-Shek International Airport but had initiate a go-around due to the bad weather conditions. However, the pilots accidentally disengaged the autopilot and did not notice for 11 seconds. When they did notice, the Airbus A300 had entered a stall. The aircraft crashed into a highway and residential area, and exploded, killing all 196 people on board, as well as seven people on the ground.
  • 16 July 1999 – John F. Kennedy, Jr. died when his plane, a Piper Saratoga, crashed into the Atlantic Ocean off the coast of Martha’s Vineyard, Massachusetts. The NTSB officially declared that the crash was caused by «the pilot’s failure to maintain control of his airplane during a descent over water at night, which was a result of spatial disorientation». Kennedy did not hold a certification for IFR flight, but did continue to fly after weather conditions obscured visual landmarks.
  • 31 August 1999 – Lineas Aéreas Privadas Argentinas (LAPA) flight 3142 crashed after an attempted take-off with the flaps retracted, killing 63 of the 100 occupants on the plane as well as two people on the ground.
  • 31 October 2000 – Singapore Airlines Flight 006 was a Boeing 747-412 that took off from the wrong runway at the then Chiang Kai-Shek International Airport. It collided with construction equipment on the runway, bursting into flames and killing 83 of its 179 occupants.
  • 12 November 2001 – American Airlines Flight 587 encountered heavy turbulence and the co-pilot over-applied the rudder pedal, turning the Airbus A300 from side to side. The excessive stress caused the rudder to fail. The A300 spun and hit a residential area, crushing five houses and killing 265 people. Contributing factors included wake turbulence and pilot training.
  • 24 November 2001 – Crossair Flight 3597 crashed into a forest on approach to runway 28 at Zurich Airport. This was caused by Captain Lutz descending below the minimum safe altitude of 2400 feet on approach to the runway.
  • 15 April 2002 – Air China Flight 129, a Boeing 767-200, crashed near Busan, South Korea killing 128 of the 166 people on board. The pilot and co-pilot had been flying too low.
  • 25 October 2002 – Eight people, including U.S. Senator Paul Wellstone, were killed in a crash near Eveleth, Minnesota. The NTSB concluded that «the flight crew did not monitor and maintain minimum speed.
  • 3 January 2004 – Flash Airlines Flight 604 dived into the Red Sea shortly after takeoff, killing all 148 people on board. The captain had been experiencing vertigo and had not noticed that his control column was slanted to the right. The Boeing 737 banked until it was no longer able to stay in the air. However, the investigation report was disputed.
  • 26 February 2004 – A Beech 200 carrying Macedonian President Boris Trajkovski crashed, killing the president and eight other passengers. The crash investigation ruled that the accident was caused by «procedural mistakes by the crew» during the landing approach.
  • 14 August 2005 – The pilots of Helios Airways Flight 522 lost consciousness, most likely due to hypoxia caused by failure to switch the cabin pressurization to «Auto» during the pre-flight preparations. The Boeing 737-300 crashed after running out of fuel, killing all on board.
  • 16 August 2005 – The crew of West Caribbean Airways Flight 708 unknowingly (and dangerously) decreased the speed of the McDonnell Douglas MD-82, causing it to enter a stall. The situation was incorrectly handled by the crew, with the captain believing that the engines had flamed out, while the first officer, who was aware of the stall, attempted to correct him. The aircraft crashed into the ground near Machiques, Venezuela, killing all 160 people on board.
  • 3 May 2006 – Armavia Flight 967 lost control and crashed into the Black Sea while approaching Sochi-Adler Airport in Russia, killing all 113 people on board. The pilots were fatigued and flying under stressful conditions. Their stress levels were pushed over the limit, causing them to lose their situational awareness.
  • 27 August 2006 – Comair Flight 5191 failed to become airborne and crashed at Blue Grass Airport, after the flight crew mistakenly attempted to take off from a secondary runway that was much shorter than the intended takeoff runway. All but one of the 50 people on board the plane died, including the 47 passengers. The sole survivor was the flight’s first officer, James Polhinke.
  • 1 January 2007 – The crew of Adam Air Flight 574 were preoccupied with a malfunction of the inertial reference system, which diverted their attention from the flight instruments, allowing the increasing descent and bank angle to go unnoticed. Appearing to have become spatially disoriented, the pilots did not detect and appropriately arrest the descent soon enough to prevent loss of control. This caused the aircraft to break up in mid air and crash into the water, killing all 102 people on board.[27]
  • 7 March 2007 – Garuda Indonesia Flight 200: poor Crew Resource Management and the failure to extend the flaps led the aircraft to land at an «unimaginable» speed and run off the end of the runway after landing. Of the 140 occupants, 22 were killed.
  • 17 July 2007 – TAM Airlines Flight 3054: the thrust reverser on the right engine of the Airbus A320 was jammed. Although both crew members were aware, the captain used an outdated braking procedure, and the aircraft overshot the runway and crashed into a building, killing all 187 people on board, as well as 12 people on the ground.
  • 20 August 2008 – The crew of Spanair Flight 5022 failed to deploy the MD-82’s flaps and slats. The flight crashed after takeoff, killing 154 out of the 172 passengers and crew on board.
  • 12 February 2009 – Colgan Air Flight 3407 (flying as Continental Connection) entered a stall and crashed into a house in Clarence Center, New York, due to lack of situational awareness of air speed by the captain and first officer and the captain’s improper reaction to the plane’s stick-shaker stall warning system. All 49 people on board the plane died, as well as one person inside the house.
  • 1 June 2009 – Air France Flight 447 entered a stall and crashed into the Atlantic Ocean following pitot tube failures and improper control inputs by the first officer. All 216 passengers and twelve crew members died.
  • 10 April 2010 – 2010 Polish Air Force Tu-154 crash: during a descent towards Russia’s Smolensk North Airport, the flight crew of the Polish presidential jet ignored automatic warnings and attempted a risky landing in heavy fog. The Tupolev Tu-154M descended too low and crashed into a nearby forest; all of the occupants were killed, including Polish president Lech Kaczynski, his wife Maria Kaczynska, and numerous government and military officials.
  • 12 May 2010 – Afriqiyah Airways Flight 771 The aircraft crashed about 1,200 meters (1,300 yd; 3,900 ft) short of Runway 09, outside the perimeter of Tripoli International Airport, killing all but one of the 104 people on board. The sole survivor was a 9-year-old boy named Ruben Van Assouw. On 28 February 2013, the Libyan Civil Aviation Authority announced that the crash was caused by pilot error. Factors that contributed to the crash were lacking/insufficient crew resource management, sensory illusions, and the first officer’s inputs to the aircraft side stick; fatigue could also have played a role in the accident. The final report cited the following causes: the pilots’ lack of a common action plan during the approach, the final approach being continued below the Minimum Decision Altitude without ground visual reference being acquired; the inappropriate application of flight control inputs during the go-around and after the Terrain Awareness and Warning System had been activated; and the flight crew’s failure to monitor and control the flight path.
  • 22 May 2010 – Air India Express Flight 812 overshot the runway at Mangalore Airport, killing 158 people. The plane touched down 610 meters (670 yd) from the usual touchdown point after a steep descent. CVR recordings showed that the captain had been sleeping and had woken up just minutes before the landing. His lack of alertness made the plane land very quickly and steeply and it ran off the end of the tabletop runway.
  • 28 July 2010 – The captain of Airblue Flight 202 became confused with the heading knob and thought that he had carried out the correct action to turn the plane. However, due to his failure to pull the heading knob, the turn was not executed. The Airbus A321 went astray and slammed into the Margalla Hills, killing all 152 people on board.
  • 20 June 2011 – RusAir Flight 9605 crashed onto a motorway while on its final approach to Petrozavodsk Airport in western Russia, after the intoxicated navigator encouraged the captain to land in heavy fog. Only five of the 52 people on board the plane survived the crash.
  • 6 July 2013 – Asiana Airlines Flight 214 tail struck the seawall short of runway 28L at San Francisco International Airport. Of the 307 passengers and crew, three people died and 187 were injured when the aircraft slid down the runway. Investigators said the accident was caused by lower than normal approach speed and incorrect approach path during landing.
  • 23 July 2014 – TransAsia Airways Flight 222 brushed trees and crashed into six houses in a residential area in Xixi Village, Penghu Island, Taiwan. Of the 58 people on board the flight, only ten people survived the crash. The captain was overconfident with his skill and intentionally descended and rolled the plane to the left. Crew members did not realize that they were at a dangerously low altitude and the plane was about to impact terrain until two seconds before the crash.
  • 28 December 2014 — Indonesia AirAsia Flight 8501 crashed into the Java Sea as a result of an aerodynamic stall due to pilot error. The aircraft exceeded the climb rate, way beyond its operational limits. All 155 passengers and 7 crew members on board were killed.
  • 6 February 2015 – TransAsia Airways Flight 235: one of the ATR 72’s engines experienced a flameout. As airplanes are able to fly on one engine alone, the pilot then shut down one of the engines. However, he accidentally shut off the engine that was functioning correctly and left the plane powerless, at which point he unsuccessfully tried to restart both engines. The plane then clipped a bridge and plummeted into the Keelung river as the pilot tried to avoid city terrain, killing 43 of the 58 on board.

See also[edit]

  • Airmanship
  • Controlled flight into terrain
  • Environmental causes of aviation stress
  • Human factors in aviation safety
  • Human reliability
  • Jet lag
  • Korean Air Lines Flight 007
  • Pilot fatigue
  • Sensory illusions in aviation
  • Spatial disorientation
  • Stress in the aviation industry
  • Threat and error management
  • User error
  • Kenya Airways Flight 507

References[edit]

  1. ^ «TENERIFE DISASTER – 27 MARCH 1977: The Utility of the Swiss Cheese Model & other Accident Causation Frameworks». Go Flight Medicine. Retrieved 13 October 2014.
  2. ^ Pilot’s Handbook of Aeronautical Knowledge (2016). U.S. Department of Transportation. Federal Aviation Administration, Flight Standards Service pdf.
  3. ^ Error Management (OGHFA BN). Operator’s Guide to Human Factors in Aviation. Skybrary
  4. ^ How exactly should I understand the term «accidental hull loss»?. Aviation stack overflow
  5. ^ a b «Risk management handbook» (PDF) (Change 1 ed.). Federal Aviation Administration. January 2016. Chapter 2. Human behavior. Retrieved 16 November 2018.
  6. ^ a b Rural and Regional Affairs and Transport References Committee (May 2013). «Aviation Accident Investigations» (PDF). Government of Australia.
  7. ^ Investigating Human Error: Incidents, Accidents, and Complex Systems. Ashgate Publishing. 2004. ISBN 0754641228.
  8. ^ a b «Accident statistics». www.planecrashinfo.com. Retrieved 21 October 2015.
  9. ^ Foyle, D. C., & Hooey, B. L. (Eds.). (2007). Human performance modeling in aviation. CRC Press.
  10. ^ a b Helmreich, Robert L. (18 March 2000). «On Error Management: Lessons From Aviation». BMJ: British Medical Journal. 320–7237 (7237): 781–785. doi:10.1136/bmj.320.7237.781. PMC 1117774. PMID 10720367.
  11. ^ a b Thomas, Matthew J.W. (2004). «Predictors of Threat and Error Management: Identification of Core Nontechnical Skills and Implications for Training Systems Design». The International Journal of Aviation Psychology. 14 (2): 207–231. doi:10.1207/s15327108ijap1402_6. S2CID 15271960.
  12. ^ a b c d e f Earl, Laurie; Bates, Paul R.; Murray, Patrick S.; Glendon, A. Ian; Creed, Peter A. (January 2012). «Developing a Single-Pilot Line Operations Safety Audit». Aviation Psychology and Applied Human Factors. 2 (2): 49–61. doi:10.1027/2192-0923/a000027. hdl:10072/49214. ISSN 2192-0923.
  13. ^ Li, Guohua; Baker, Susan P.; Grabowski, Jurek G.; Rebok, George W. (February 2001). «Factors Associated With Pilot Error in Aviation Crashes». Aviation, Space, and Environmental Medicine. 72 (1): 52–58. PMID 11194994.
  14. ^ Stanhope, N.; Crowley-Murphy, M. (1999). «An evaluation of adverse incident reporting». Journal of Evaluation in Clinical Practice. 5 (1): 5–12. doi:10.1046/j.1365-2753.1999.00146.x. PMID 10468379.
  15. ^ a b Wiegmann, D. A., & Shappell, S. A. (2001). Human error perspectives in aviation. The International Journal of Aviation Psychology, 11(4), 341–357.
  16. ^ Stacey, Daniel (15 January 2015). «Indonesian Air-Traffic Control Is Unsophisticated, Pilots Say». The Wall Street Journal. Retrieved 26 January 2015
  17. ^ a b Dekker, Sidney; Lundström, Johan (May 2007). «From Threat and Error Management (TEM) to Resilience». Journal of Human Factors and Aerospace Safety. 260 (70): 1–10.
  18. ^ Maurino, Dan (April 2005). «Threat and Error Management (TEM)». Canadian Aviation Safety Seminar (CASS); Flight Safety and Human Factors Programme – ICAO.
  19. ^ a b «Line Operations Safety Audit (LOSA)». SKYbrary. Retrieved 24 August 2016.
  20. ^ a b c Myers, Charles; Orndorff, Denise (2013). «Crew Resource Management: Not Just for Aviators Anymore». Journal of Applied Learning Technology. 3 (3): 44–48.
  21. ^ Helmreich, Robert L.; Merritt, Ashleigh C.; Wilhelm, John A. (1999). «The Evolution of Crew Resource Management Training in Commercial Aviation». The International Journal of Aviation Psychology. 9 (1): 19–32. doi:10.1207/s15327108ijap0901_2. PMID 11541445.
  22. ^ a b Salas, Eduardo; Burke, Shawn C.; Bowers, Clint A.; Wilson, Katherine A. (2001). «Team Training in the Skies: Does Crew Resource Management (CRM) Training Work?». Human Factors. 43 (4): 641–674. doi:10.1518/001872001775870386. ISSN 0018-7208. PMID 12002012. S2CID 23109802.
  23. ^ a b c Chou, Chung-Di; Madhavan, Das; Funk, Ken (1996). «Studies of Cockpit Task Management Errors». The International Journal of Aviation Psychology. 6 (4): 307–320. doi:10.1207/s15327108ijap0604_1.
  24. ^ a b c Hales, Brigette M.; Pronovost, Peter J. (2006). «The Checklist — A Tool for Error Management and Performance». Journal of Critical Care. 21 (3): 231–235. doi:10.1016/j.jcrc.2006.06.002. PMID 16990087.
  25. ^ Cavanagh, James F.; Frank, Michael J.; Allen, John J.B. (April 2010). «Social Stress Reactivity Alters Reward and Punishment Learning». Social Cognitive and Affective Neuroscience. 6 (3): 311–320. doi:10.1093/scan/nsq041. PMC 3110431. PMID 20453038.
  26. ^ «2005 Joseph T. Nall Report» (PDF). Archived from the original (PDF) on 2 February 2007. Retrieved 12 February 2007.
  27. ^ «Aircraft Accident Investigation Report KNKT/07.01/08.01.36» (PDF). National Transportation Safety Committee, Indonesian Ministry of Transportation. 1 January 2007. Archived from the original (PDF) on 16 July 2011. Retrieved 8 June 2013. Aircraft Accident Investigation Report of Indonesian’s National Transportation Safety Committee

Ошибки пилотов. Научный подход к авиации.

Рассмотреть причины всех ошибок пилота невозможно даже в очень большой книге. Далее будут рассмотрены самые трудные для расследования ошибки, совершенные в консустальном состоянии, т.е. тогда, когда и условия полета, и состояние пилота были совершенно нормальными. О сложности расследования такого рода ошибок говорит, в частности, следующий факт.

Когда мы просили пилотов-инструкторов объяснить, почему иногда пилоты забывают выпустить шасси на посадке, они в один голос отвечали, что такого в принципе быть не может, что это мистика какая-то и объяснению эти случаи не поддаются. Сами пилоты, забывшие выпустить шасси, тоже говорили, что ума не приложат, как это могло случиться.

Полезные ссылки:

  • Классификации и подходы в исследованиях факторов ошибок пилотов

  • Идентификации ошибок пилота

  • Определение и классификация ошибок пилота

  • Решения принимаемые оператором и пилотом. (формулы)

  • Экология ресурсов пилота. «Человеческий фактор».

  • Психологическая характеристика ошибочный действий пилота

  • Слабоволие пилота

  • Индикативное состояние пилота. Виртуальное состояние пилота.

  • Коллизия образов у пилота самолета

  • Консуетальное состояние пилота

  • Психическое состояние пилота

  • Разбор инцидента типа посадки с невыпущенным шасси

  • Разбор инцидента — уход на второй круг

  • Инцидент типа — уборка шасси на пробеге

  • Экспериментально-психологическое моделирование ошибок пилота

  • Принцип операционализации — принцип в борьбы с ошибками в авиации

  • Операционализация за счет субъективных средств в авиации. Пример.

  • Принцип усложненных элементов управления самолета. Научно.

  • Примеры операционализации в авиационном мире.

Ошибки пилотов

Ошибки пилотов

Существует много разных ошибок, совершенных в консуетальном состоянии. Все они связаны с вполне объективными, т.е. не зависящими от сознания и воли пилота нарушениями функционирования образа полета. Рассмотрим некоторые из них.

Функциональные нарушения — это несоответствие образа его месту. Например, замена одного образа другам: при отказе двигателя пилот правильно совершает все положенные процедуры по отключению двигателя, но с элементами управления другого — работающего — двигателя.

Нарушения состояния — образ или какой-либо его элемент слишком слаб или слишком силен (энергетически насыщен) в сравнении с другими образами или его же элементами для того, чтобы выполнять надлежащую роль. Например, ощущение накрененности горизонта при восприятии неровной кромки облаков иногда бывает столь сильным, что создает у пилота ощущение накрененности самолета, хотя он реально находится в горизонтальном полете, и тем самым вынуждает пилота накренить самолет.

Элементарные нарушения — нарушения на уровне элементов. В качестве таковых можно, например, привести такое образование, как псевдодействие (о нем см. ниже).

Структурные нарушения — недостаточность или избыточность элементов и связей между ними. Например, бывает так, что при полете на тренажере индикатор высоты уже давно стоит на нулевой отметке, а пилот продолжает управлять самолетом. Это означает, что значения высоты в образе полета нет.

Нарушения целостности — отсутствие четких (непрерывных) границ образа. Например, при пролете облака в гомогенной среде, когда глазу не за что ”зацепиться”, иногда у пилота создается впечатление падения самолета. Причем падения не по законам аэродинамики (пикирование или планирование с потерей высоты), а как в лифте — вертикально вниз, но в самолете, находящемся в горизонтальном положении. Этот мираж пилот часто не может отличить от реальности, т.е. образуется образ, сочетающий в себе элементы и образа полета (нахождения самолета в воздухе, его определенного положения в пространстве), и образа падения.

Процессуальные нарушения — нарушения процесса актуализации образа. Пример тому — виртуальные состояния.

Средовые нарушения — нарушения взаимосвязи со средой. Например, ”случайное” отключение исправного двигателя при запуске отказавшего, совершенное вследствие определенной биомеханики движения и конструкции пульта управления

Каждый акт деятельности в процессе своего осуществления проходит три фазы:

  • еще не выполнен
  • выполняется
  • уже выполнен

Каждой из этих фаз соответствует определенное состояние сознания:

  • невыполненному — ожидание (намерение выполнить)
  • выполняемому — актуальность
  • выполненному — достигнутость.

 В процессе профессиональной деятельности текущий акт может быть неожиданно прерван необходимостью выполнения какого-то другого экстренного акта. Это прерывание приводит к появлению структурно неполноценных актов, как прерванного, так и прерывающего. В принципе незавершенность акта заставляет человека вновь вернуться к прерванному действию. Однако бывает так, что сочетание одного неполноценного акта с другим порождает такой комплекс, который структурно является целостным. Такие комплексы называются псевдодействиями. Псевдодействие приводит к неадекватному осознанию осуществляемой деятельности. Так, состояние намерения совершить штатный акт может быть напряжено с состоянием актуальности и достигнутое™ другого акта, неожиданно прервавшего первый, и породить уверенность в совершении штатного акта.

Ошибки пилотов

Ошибки пилотов

Таким образом, одним из механизмов появления ошибок в консуетальном состоянии пилота является образование псевдодействий, переживаемых пилотом как целостные акты, т.е. ожидаемые — актуализируемые — с достигнутым результатом. Псевдодействие есть результат сопряжения взаимно дополнительных фрагментов разных актов. Основным условием такого сопряжения является высокая операционализация одного из актов.

Акты бывают двух видов: действие и операция.

  • Действие — такой акт, который полностью контролируется сознанием, находится в центре внимания.
  • Операция лишь частично контролируется, находится на периферии внимания. Человек может по своему произволу или по необходимости переводить акт из центра внимания на периферию и наоборот.

Этим операция отличается от автоматизма, который никогда не меняет своего статуса автоматического акта. Выполнение акта на уровне, операции дает возможность человеку выполнять два акта одновременно — за счет неполноценности контроля выполнения одного из них. В рассматриваемых нами случаях акт, в котором возникла ошибка, выполняется на уровне операции и контролируется лишь его структурная полнота. А так как образуется псевдодействие — структурно полноценный акт, то ошибочное действие переживается как правильно выполненное.

Поэтому оператор не осознает такие ошибки и не возвращается к прерванной деятельности, будучи уверенным, что все сделал правильно.

Рассмотрены психологические причины ошибочных действий пилотов, приведена классификация ошибок. Специальному анализу подвергнуты случаи посадки самолета на фюзеляж. Предложены психологические и технические средства предупреждения ошибок не выпуска шасси при посадке и уборке шасси на пробеге.

Для пилотов, инструкторов-методистов, преподавателей летных училищ, а также специалистов в области психологии и эргономики.

Уже само по себе частое упоминание в научной и публицистической литературе об ошибках человека является свидетельством того, что с проблемой далеко не все благополучно. Не раздалось еще ни одного утверждения о том, что ошибки уже не актуальны и что средства борьбы с ними найдены, хотя работ по проблеме ошибок написано, наверное, не меньше, чем совершено самих ошибок.

Конечно, ошибки человек совершал всегда. Но до некоторой поры они человечество не интересовали, поскольку считалось, что если человек умеет нечто делать правильно, то все нарушения есть следствие его собственной неблагоразумное, за которую он либо сам и пострадал, либо его следует наказать. Другими словами, ориентация была на правильность, на обеспечение условий и возможностей правильной деятельности, а ошибка рассматривалась, как недоразумение. Но отношение к ошибкам резко изменилось, как только было осознано, что человек неизбежно будет совершать ошибки в своей работе. Это осознание связано с появлением сложных видов деятельности, в которых ошибки сказываются не только на самом лице, допустившем ошибку, но и на других совершенно ни в тем неповинных людях. Первой такой сложной деятельностью была профессия машиниста паровоза.

Ошибка машиниста может приводить к массовым человеческим жертвам, к потере дорогостоящего оборудования и нарушению нормальной социальной жизни (например, нарушению связи между городами). Работа машиниста настолько сложна, что ни за кого нельзя поручиться в том, что он никогда не совершит ошибку в своей работе. Такая ситуация потребовала изменения отношения к организации деятельности: стало очевидным, что нельзя обеспечить абсолютную правильность деятельности, а нужно осуществлять какие-то мероприятия, нейтрализующие возникновение ошибок и их последствия.

Одним из первых в России против ошибочную программу разработал инженер-железнодорожник И. Рихтер в 80-х годах XIX столетия. Таким образом, проблеме операторских ошибок более 100 лет. С появлением новых операторских профессий и их значительным усложнением в сравнении с деятельностью машиниста паровоза актуальность темы все более возрастала. Например, с появлением самолетов с убирающимся шасси появились и случаи посадки на фюзеляж вследствие того, что пилот не выпустил шасси на посадке. С этого же времени стали возникать различные объяснения причин не выпуска шасси и предложения по предупреждению такого рода происшествий. Но несмотря на то большое внимание, которое уделено этим инцидентам, они до сих пор происходят. Это означает, что в их анализе упущен какой-то существенный момент.

Ошибки пилотов 2

Ошибки пилотов

С психологической точки зрения таким упущением является отсутствие анализа субъективной картины происшествия. Обычно забывается, что пилот обладает сознанием, а следовательно, значимость различных факторов определяется не столько их наличием, сколько характером их осознания. Поэтому при анализе ошибок необходимо описание как внешних по отношению к сознанию’ факторов, так и внутренних, т.е. необходим анализ характера отражения ситуации в сознании пилота. К сожалению, этот момент очень часто игнорируется.

Доверительное обращение к пилоту дает очень ценную информацию.

Так, наше обращение к пилотам, по чьей вине не было выпущено шасси, позволило обнаружить ряд существенных и совершенно неизвестных фактов, играющих важную роль в возникновении инцидентов, а именно: чувство уверенности пилота, совершившего ошибку, в том, что он этой ошибки не совершал.

Углубленный анализ содержания сознания пилотов возможен только при подходе к инциденту как особому единичному событию, соединяющему в неповторимый узор всю совокупность факторов: и технических, и психологических. Только такой подход продуктивен во многих случаях. Но дело в том, что в настоящее время преобладает другой подход, при котором предметом анализа являются общие свойства разных ошибок, В этом случае все специфическое нивелируется, особенно субъективные факторы. При этом теряется суть инцидента, его конкретные причины.

Avia.pro

Самые распространенные ошибки пилотов гражданской авиации

Ошибки, совершенные пилотами самолетов во время гражданских авиаперевозок, стоят человеческой жизни. Высокая цена платы за невнимательность, нарушение правил пилотирования, является актуальным вопросом и сегодня.

Типичные ошибки пилотов

К основным причинам авиакатастроф относятся:

• несоблюдение рекомендаций АТС. Так, 28.03.1969 года авиалайнер УГА Ан-2, следуя по рейсу Душанбе — Калай-Хумб, потерпел катастрофу из-за нарушения экипажем правил полетов);
• отклонение от заданного маршрута, высоты. 25.12.2016 года авиалайнер Ту-154, следующий из Москвы в Латакию, разбился после 70-секундного пребывания в воздухе. Причина – дезориентация пилота, которая привела к тому, что вместо продолжения набора высоты, летчик начал снижение;
• частичное ознакомление с документацией, в том числе и техническими инструкциями, инструктажами и т.д., их невыполнение. Так, примером может стать 02.10.1996 года катастрофа Boeing 757 под Лимой. Одной из причин падения самолета стало заклеивание лентой систем датчиков скорости-высоты Э. Чакалиаса, который временно выполнял роль ревизора, и не знал всей важности порученной ему стандартной процедуры. Он попросту забыл снять изоляционную ленту;
• ошибки в системах программирования FMS. Такой сбой произошел в планшетах iPad, используемых экипажами. Это привело к задержке 20 авиарейсов. Проанализировав ситуацию, специалисты по безопасности подтвердили, что ошибки в программном обеспечении самолетов «Боингов-787» однозначно привели бы к полной потере управления воздушным кораблем.

По частоте такие нарушения эксплуатации авиатехники уступают только ошибкам, вызванным необходимостью одновременного выполнения нескольких обязанностей пилотом. Многочисленные доклады ASRS свидетельствуют о том, что пилоты являются ответственными лицами в 1/3 всех происходящих инцидентов в воздухе. Главная причина такой статистики – нехватка времени.

Судьбоносная спешка летчиков

В процессе предполетной подготовки нехватка времени на сборы – залог рассеянности, некорректного выполнения обязанностей. Суета возникает, например, в связи с необходимостью принять топливо, внести поправки в базу от синоптической службы, связаться с экспертами-специалистами по контролю техобслуживания самолета, обсудить MEL-ограничения с главным пилотом и т.д. Эти все мероприятия выполняются одновременно, поэтому неудивительно, что можно упустить какой-либо важный момент.

Еще одной «природной» ошибкой пилотов является их «мысленная предрасположенность к спешке». Согласно докладам ученых-исследователей, Мак-Эльхеттона, а также Дрю, 64% от общего числа опрошенных пилотов, включая даже самых опытных, имеют такую эмоциональную склонность.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Adblock
detector

Патрик Р. ВЕЙЛЕТТ
Сегодня вы выполнили четыре полета. Плохая погода накрыла весь Северо-Восток, и задержки с вылетом заставили вас на 90 минут выбиться из расписания. Пока вы подруливаете к наземному комплексу обслуживания бизнес-авиации (FBO), приходит сообщение о том, что вам добавлен пятый полет, причем предполагалось, что вы должны были вылететь 10 минут назад.
Едва заглушив двигатели, вы просите второго пилота заняться подготовкой салона, пока вы зайдете в FBO заказать заправку и прихватить питание для пассажиров. Именно в тот момент, когда выясняется, что продовольствие было доставлено в другой FBO, вы встречаете своих пассажиров, уже проявляющих заметные признаки нетерпения. Давно пора лететь! Главный пассажир, не дожидаясь, пока вы представитесь, раздраженно напоминает вам о времени вылета. Вы быстро захлопываете дверь самолета, забираетесь в кабину, запускаете двигатели и сосредотачиваетесь на рулении, обнаруживая себя в конце длинной очереди самолетов, ожидающих взлета. Во время предполетного доклада один из пассажиров уже пристает к вам с вопросом, где найти открывалку для бутылок. Темпы выдачи авиадиспетчерами разрешений на взлет только добавляют напряжения.
Еще один напряженный день из жизни бизнес-авиации. И все мы знаем, что такое развитие событий приводит к досадным ошибкам, таким как забытый багаж или отклонение от заданных высот при выполнении имеющей скверную репутацию пятой схемы вылета из Тетерборо (при этом возникает риск столкновения с самолетами, идущими на посадку в международный аэропорт Ньюарк. — Прим. АТО). Большинство подобных ошибок можно пережить. Большинство, но не все.
Самая серьезная по последствиям катастрофа, случавшаяся когда-либо в авиации, — столкновение двух Boeing 747 в тумане на взлетно-посадочной полосе аэропорта Тенерифе (Канарские острова) в марте 1977 г. — была напрямую связана с проблемой нехватки времени. Экипаж лайнера компании KLM был озабочен необходимостью успеть вернуться в Амстердам до окончания своей рабочей смены, а туман мог сгуститься. Опытнейший КВС, шеф-пилот KLM Якоб ван Зантен, подгонял своих подчиненных: «Поскорее, иначе погода снова ухудшится, на сей раз окончательно». Последовавшее за этим столкновение взлетавшего самолета с рулившим по взлетно-посадочной полосе Boeing 747 компании Pan American унесло жизни 583 человек.
Проведенное Национальным агентством транспортной безопасности (NTSB) исследование 37 крупных авиакатастроф с участием самолетов американских авиакомпаний, случившихся в 1978-1990 гг., показало, что более половины вовлеченных в них бортов вылетело с опозданием или шло с нарушением расписания еще до рокового рейса. В заключении NTSB есть такие слова: «Пилоты должны быть предупреждены о том, что по мере нарастания напряжения и увеличения скорости работы с целью не выбиться из расписания полета, может возрасти и вероятность совершения ошибки».
В докладе «Человеческий фактор и предполетная проверка», опубликованном в 1990 г. исследовательским центром NASA — Ames, Эрл Винер, в прошлом военный летчик и президент Общества по изучению человеческого фактора, утверждает, что стремление любой ценой не выбиться из графика порождает многие ошибки, побуждая экипаж к неправильным действиям, когда пилоты стремятся поскорее завершить предполетную проверку машины. Кроме того, попытки сэкономить время нередко вовсе отодвигают эту проверку на второй план; некоторые пилоты могут просто пропускать часть процедуры проверки.
Кристофер Уикенс, бывший глава отделения работы с человеческим фактором университета Иллинойса в Урбана-Шампейн, выявил очень четкую связь между временем реакции и частотой появления ошибок. Когда пилоты из-за недостатка времени бросают лишь беглый взгляд на приборные щитки, точность их восприятия снижается, что увеличивает вероятность появления ошибок. Более того, Джеймс Ризон, известный в мире исследователь ошибок, вызванных человеческим фактором, установил, что нехватка времени увеличивает вероятность ошибки приблизительно в 11 раз. Если рассматривать наиболее важные факторы, увеличивающие вероятность ошибки человека, то спешка будет стоять на втором месте, уступая лишь общему незнанию задачи.

Жанна Мак-Эльхеттон и Чарльз Дрю, исследователи из баттельского института, проанализировали 125 рапортов из Системы информации о состоянии безопасности полетов NASA (ASRS), поданных экипажами регулярных авиакомпаний; данный анализ проводился в рамках специального исследования для центра Ames. В своем итоговом докладе «Нехватка времени как причина происшествий, связанных с нарушением безопасности полетов: cиндром спешки» они пишут: «Оказавшись перед лицом сложных и порой сбивающих с толку внешних обстоятельств, пилоты в спешке пытаются поскорее уладить требования, прямо или косвенно связанные с их собственной деятельностью. Так, они могут откладывать или игнорировать проведение обязательных проверок и сокращать или изменять процесс планирования полета, в результате чего многие важные задачи остаются невыполненными или выполняются неправильно».
Изучив 250 докладов ASRS в рамках исследования качества выполнения предполетных проверок, я выяснил, что нарушения таких проверок, связанные с нехваткой времени, по своей частоте уступают только нарушениям, вызванным невнимательностью или необходимостью одновременного выполнения нескольких обязанностей.
Вне всяких сомнений, торопливость пилотов представляет собой потенциально опасную угрозу, которую необходимо надлежащим образом контролировать.
В соответствии с имевшейся у меня подборкой докладов ASRS от пилотов чартерной и бизнес-авиации плотное расписание полетов фигурирует в качестве основной причины спешки, поскольку оставляет недостаточно времени для проведения всех наземных операций. Во многих докладах приводились примеры того, как уже существующие причины для спешки усугублялись уплотнением трафика со стороны наземных служб, как правило, случающимся во время проведения спортивных состязаний высокого уровня или на популярных отпускных направлениях в соответствующий сезон. В такое время заранее подготовившиеся к работе наземные службы могут цениться буквально на вес золота.
Подавляющее большинство докладов свидетельствует о том, что пилоты попадают в цейтнот сразу по нескольким причинам, в частности из-за проблем, связанных с обслуживанием пассажиров, таких как их опоздание, изменение маршрута полета или вида перевозимого груза, наличие сверхнормативного багажа.
Система управления воздушным движением ответственна примерно за треть всех инцидентов, происходящих вследствие недостатка времени. Порой проблемы возникают за счет изменения интервалов между вылетами, запросов на взлет с пересекающегося направления, ускоренного руления, уточненных разрешений или сложных разрешений, требующих провести много времени со склоненной головой для программирования FMS (системы управления полетом).
Последствия нехватки времени могут быть самыми разными, и зачастую в докладах отмечается сразу несколько. Например, иногда экипаж самолета не соблюдает высоту, предписанную в схеме вылета, а также обнаруживает, что в предполетной спешке осталось незамеченным одно из сообщений диспетчера. Так что количество последствий превышает 250 событий, зарегистрированных ASRS.
Из всех нежелательных последствий спешки наиболее частым является отклонение от указаний УВД. Очень часто это принимает форму отклонения от заданной высоты во время взлета. Так, 57 из 159 отмеченных отклонений от рекомендаций УВД включали в себя неправильный набор высоты, а 38 — отклонение от заданного маршрута.
Вторым, наиболее неприятным следствием поспешности является небрежное изучение соответствующей полетной документации. Будучи достаточно распространенным, этот недочет связан с важными рабочими моментами, в том числе с полетами вопреки ограничениям, установленным MEL (перечнем минимального оборудования). К подобным нарушениям относятся вход в воздушное пространство RVSM с неработающим автопилотом или планирование полета в аэропорт с обледеневшей взлетно-посадочной полосой с заблокированным реверсом. Сюда же относятся недостаточно внимательное изучение и оценка погодных условий по маршруту следования и в пункте прибытия, а также возможного влияния на полет гроз, молний и обледенения. Некоторые ошибки из этой категории связаны с экипажами, которые только после взлета обнаруживают, что погодные условия в аэропорту назначения ниже установленного метеоминимума или что аэропорт закрыт для проведения воздушного шоу; либо выясняется, что ВПП, на которую планировалась посадка, закрыта, а никто из членов экипажа не удосужился перед вылетом прочитать телеграммы NOTAM. Наконец, следует упомянуть инциденты, когда отправленная документация содержала ошибки — такие, как неверный номер ВС, неверные вес и балансировка или неправильные имена членов экипажа — в спешке оставшиеся незамеченными.
В раздел «Прочие ошибки» попадают забытое бортовое питание или кофейные чашки, получение разрешения на вылет самолета, который забыли дозаправить или, как это произошло в нескольких конфузных случаях, попытки тронуться с места в момент, когда аэродромный пусковой агрегат все еще оставался подсоединенным к самолету. Остальные сделанные в спешке ошибки представляют собой неустановку закрылков во взлетное положение и/или использование неправильного взлетного режима, приводящее к нежелательному поведению самолета при взлете. Несмотря на то что ни одна из этих ошибок, признанных самими пилотами, не привела к трагедии, они вполне были способны ее вызвать.
Многие из участников опроса доложили об ошибках, результат которых проявился гораздо позднее момента их совершения, — уже в полете. Наиболее типичной из них является программирование экипажем неправильной точки маршрута в FMS, происходящее еще на земле; о совершенной ошибке экипаж узнает, только когда слышит голос диспетчера: «Борт такой-то, куда это вы летите?»

Ошибки на разных этапах полета

Фаза полета

Количество самолетов

Количество инцидентов

Предполетная подготовка

224

24

Руление

176

78

Взлет

77

31

Набор высоты

14

84

Крейсерский полет

11

21

Снижение

33

9

Заход на посадку

10

15

Приземление

9

14

Руление

24

11

Послеполетная проверка

3

22

Исследование показало, что в подавляющем большинстве случаев (224 из 250) ошибки, вызванные нехваткой времени, совершались во время предполетной подготовки, однако были замечены гораздо позже, уже в полете, чаще всего во время набора высоты.
После изучения ошибок, совершаемых летными экипажами, Лукия Лукопулос, авиационный специалист ВМФ, и Кей Дисмьюкс, старший исследователь группы изучения человеческого фактора в Ames, заметили, что большинство задач в ходе полета выполняется последовательно, то есть одна задача всегда следует за другой. Например, перевод двигателей на взлетный режим сопровождается его контролем по датчикам.
Предполетная подготовка, наоборот, не отличается четко выраженной последовательностью действий и задач. Так, продовольствие может прибыть на борт одновременно с подвозом топлива. В то же время может потребоваться проверить свежие данные о погоде, внести поправки в план полета, быстро урегулировать вопрос принятия на борт дополнительного топлива на случай возможных задержек в пути, связаться со специалистами по контролю технического обслуживания по поводу проведения такового, обсудить MEL-ограничения с главным пилотом и т. д. Все эти события происходят снова и снова совершенно хаотическим образом, и их непредсказуемость во многом определяет возникновение недостатка времени.
Разработка стандартной последовательности действий для ранжирования подобных задач и правильной расстановки приоритетов является практически невыполнимой задачей; как отмечают доктора Лукопулос и Дисмьюкс, крайне редко случается так, что одна проблема, возникающая в ходе предполетной подготовки, требовала бы обязательного предварительного решения какой-то другой проблемы. Такое положение дел в значительной мере способствует появлению ошибок.
Сотрудники баттельского института Мак-Эльхеттон и Дрю выдвигают иную причину того, почему ошибки гораздо чаще случаются именно во время предполетной подготовки; по их мнению, виной всему разделение экипажа. «Во время выполнения полета экипаж сидит в одной кабине и имеет неограниченную возможность общения между собой; люди находятся недалеко друг от друга и легко могут вступить в контакт. Это облегчает практику распределения ресурсов внутри экипажа (CRM), — отмечают они. — Однако во время предполетной подготовки физическая изолированность членов экипажа друг от друга и отвлечение их внимания на различные постоянно изменяющиеся внешние источники информации могут снизить интенсивность и эффективность межличностной коммуникации». Кроме того, Мак-Эльхеттон и Дрю отмечают, что внешние отвлекающие моменты и боязнь выбиться из графика в значительной степени предрасполагают экипаж к совершению ошибок, что наиболее явно выражено именно во время проведения предполетной подготовки.
Экипажи, подавшие включенные в выборку рапорты, в 176 случаях признали совершение ошибок во время выруливания самолета на взлетно-посадочную полосу, причем 78 из них непосредственно привели самолет в нежелательное состояние. Кстати, некоторые из совершенных ошибок привели к потенциально весьма серьезным инцидентам на взлетно-посадочной полосе.
Как уже было отмечено ранее, большинство экипажей допускает не одну, а несколько ошибок (в среднем 2,3 ошибки на экипаж), а в некоторых случаях количество ошибок доходит до пяти. Совершенно очевидно наличие четкой связи: чем больше спешит экипаж, тем больше ошибок он допускает.
В 64% случаев из 125 проанализированных Мак-Эльхеттон и Дрю докладов была замечена «мысленная или эмоциональная предрасположенность к спешке», ставшая основной причиной ошибок. Далее авторы исследования отмечают: летный экипаж часто позволяет себе поддаваться давлению со стороны диспетчеров компании, наземных служб и технического персонала или агентов, работающих с пассажирами; в свою очередь сами эти люди подвержены разнообразному внешнему давлению, направленному на своевременное выполнение всех предполетных и полетных операций.
Итак, теперь, когда мы знаем своего главного врага, что мы можем посоветовать предпринять экипажу для того, чтобы лучше справиться с этой проблемой? В своем исследовании Мак-Эльхеттон и Дрю рекомендуют авиаперевозчикам сделать предполетные операции более структурированными. Однако, что касается бизнес-авиации, то выполнить эти рекомендации довольно тяжело.
Разумеется, лучше всего не поддаваться спешке, хотя довольно трудно размеренно и методически работать, когда большой начальник прибывает к самолету с опозданием и требует подняться в воздух немедленно! На самом деле многие пилоты, подающие отчеты в ASRS, отмечают, как они чувствуют, что, если они не поторопятся со своим обедом, их работа окажется под угрозой. В то время как экипажи рейсовых авиалиний избавлены от давления со стороны пассажиров благодаря профсоюзным правилам и закрытой двери пилотской кабины, пилоты, работающие в бизнес-авиации, как правило, в этом отношении лишены всякой защиты. Хуже всего приходится летчикам санитарной авиации, потому что они знают, что от быстроты их действий зависит чья-то жизнь.
Остальные рекомендации, разработанные по итогам исследования представителей баттельского института, применить в бизнес-авиации гораздо проще. Они включают в себя постоянный учет возможности возникновения синдрома спешки во время предполетной подготовки и выруливания на взлетно-посадочную полосу. Пилоты должны быть особенно осмотрительны в случае, если на этих этапах они испытывают нехватку времени. В такой ситуации они должны иметь достаточно времени для переоценки своих действий и выделения приоритетных задач. Экипаж должен применять надежные методы управления отношениями с партнерами с целью предотвращения потенциальных ошибок: он должен строго придерживаться правил проведения проверок во время предполетной подготовки и выруливания на взлетно-посадочную полосу. Работы, связанные с оформлением документации и прочими несущественными операциями, должны выполняться на менее загруженных этапах работы.
Все исследования приводят к совершенно очевидному выводу: когда мы торопимся, мы склонны совершать ошибки. Поскольку в наши дни авиация все чаще испытывает нехватку времени, излишняя спешка представляет собой угрозу, требующую тщательного рассмотрения со стороны как самого пилота, так и его начальства, и менеджеров отделов по обеспечению полетов.

1994 крушение базы ВВС Фэйрчайлд B-52, вызванные полетом воздушного судна за пределы его эксплуатационных возможностей. Здесь самолет находится в невосстановимом крене за доли секунды до крушения. Этот инцидент теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.

Фактическая траектория полета (красный цвет) из TWA, рейс 3 от вылета до места крушения (управляемый полет на местности ). Синяя линия показывает номинальное поле Лас-Вегаса, а зеленое — типичное поле из Боулдера. Пилот случайно использовал исходящий курс Боулдера вместо соответствующего курса Лас-Вегаса.

Аэропорты вылета / назначения и местонахождение места крушения Вариг Рейс 254 (основная навигационная ошибка, приводящая к исчерпанию топлива). Позже план полета был показан 21 пилоту крупной авиакомпании. Такую же ошибку совершили не менее 15 пилотов.

Карта Катастрофа в аэропорту Линате вызвано неправильным маршрутом руления (красным вместо зеленого), поскольку диспетчерская не давала четких инструкций. Авария произошла в густом тумане.

В Катастрофа в аэропорту Тенерифе теперь служит примером из учебника.[1] Из-за нескольких недоразумений рейс KLM попытался взлететь, пока рейс Pan Am еще находился на взлетно-посадочной полосе. Аэропорт принимал необычно большое количество коммерческих авиалайнеров, что нарушало нормальное использование рулежных дорожек.

Трехстрелочный высотомер — один из наиболее подверженных ошибкам показаний пилотов (причина UA 389 и Г-АОВД вылетает).

Исторически термин ошибка пилота использовался для описания несчастный случай в котором действие или решение, принятое пилот была причиной или способствовавшим фактором, приведшим к аварии, но также включает неспособность пилота принять правильное решение или предпринять надлежащие действия.[2] Ошибки — это преднамеренные действия, которые не приводят к желаемым результатам.[3] Чикагская конвенция определяет авиационное происшествие как «происшествие, связанное с полетом […] воздушного судна, в котором […] человек получил смертельное или серьезное ранение […] кроме случаев, когда […] телесные повреждения причинены другими лицами «.[4] Следовательно, определение «ошибки пилота» не включает преднамеренное столкновение (и такое падение не является несчастным случаем).

Причины ошибки пилота включают психологические и физиологические ограничения человека. Различные формы управление угрозами и ошибками были внедрены в программы обучения пилотов, чтобы научить членов экипажа, как справляться с надвигающимися ситуациями, возникающими в ходе полета.[5]

Учет пути человеческие факторы влияние на действия пилотов теперь считается стандартной практикой для следователей авиационных происшествий при изучении цепочки событий, приведших к аварии.[5][6]

Описание

Современные специалисты по расследованию авиационных происшествий избегают слов «ошибка пилота», поскольку их работа заключается в установлении причины аварии, а не в распределении виновных. Более того, любая попытка обвинить пилотов не означает, что они являются частью более широкой системы, которая, в свою очередь, может быть причиной их усталости, рабочего напряжения или отсутствия подготовки.[6] В Международная организация гражданской авиации (ИКАО) и ее государства-члены поэтому приняли предложение Джеймса Ризона модель причинно-следственной связи в 1993 году, чтобы лучше понять роль человеческого фактора в авиационных происшествиях.[7]

Тем не менее, ошибка пилота является основной причиной авиационных происшествий. В 2004 году она была определена как основная причина 78,6% катастрофических авиационных происшествий в авиации общего назначения (GA) и как основная причина 75,5% авиационных происшествий в авиации общего назначения. Соединенные Штаты.[8][нужен лучший источник ] Есть несколько факторов, которые могут вызвать ошибку пилота; Ошибки в процессе принятия решений могут быть вызваны привычными тенденциями, предвзятостями, а также сбоями в обработке поступающей информации. Для пилотов самолетов в экстремальных обстоятельствах эти ошибки могут привести к гибели людей.[9]

Причины ошибки пилота

Пилоты работают в сложных условиях и регулярно подвергаются значительному ситуационному стрессу на рабочем месте, вызывая ошибку пилота, которая может привести к угрозе безопасности полета. Хотя авиационные происшествия случаются нечасто, они хорошо заметны и часто приводят к значительному количеству погибших. По этой причине исследования причинных факторов и методологий снижения риска, связанного с ошибкой пилота, являются исчерпывающими. Ошибка пилота является следствием физиологических и психологических ограничений, присущих человеку. «Причины ошибки включают усталость, загруженность и страх, а также когнитивная перегрузка, бедный межличностное общение несовершенный обработка информации, и неправильное принятие решений «.[10] На протяжении каждого полета экипажи по своей сути подвергаются множеству внешних угроз и совершают ряд ошибок, которые могут отрицательно повлиять на безопасность самолета.[11]

Угрозы

Термин «угроза» определяется как любое событие, «внешнее по отношению к экипаж самолета влияние, которое может увеличить операционную сложность полета ».[12] Угрозы могут быть далее разбиты на угрозы окружающей среде и угрозы авиакомпаний. Угрозы окружающей среде в конечном итоге не зависят от членов экипажа и авиакомпании, поскольку они не имеют никакого влияния на «неблагоприятные» погодные условия, управления воздушным движением недостатки, удары птиц и пересеченная местность ».[12] И наоборот, летный экипаж не может управлять угрозами авиакомпании, но может контролироваться руководством авиакомпании. К этим угрозам относятся «сбои в работе самолета, перебои в работе кабины, рабочее давление, ошибки / события на земле / на рампе, события и прерывания в кабине, ошибки наземного обслуживания и несоответствие руководств и схем».[12]

Ошибки

Термин «ошибка» определяется как любое действие или бездействие, ведущее к отклонению от командных или организационных намерений.[10] Ошибка возникает из-за физиологических и психологических ограничений человека, таких как болезнь, прием лекарств, стресс, злоупотребление алкоголем / наркотиками, усталость, эмоции и т. Д. Ошибка неизбежна для человека и в первую очередь связана с операционными и поведенческими сбоями.[13] Ошибки могут отличаться от неправильных установка высотомера и отклонения от курса полета до более серьезных ошибок, таких как превышение максимальных скоростей конструкции или забывание опустить закрылки для посадки или взлета.

Принятие решений

Причины отрицательного сообщения об авариях включают чрезмерную занятость персонала, запутанные формы ввода данных, отсутствие обучения и недостаточного образования, отсутствие обратной связи с персоналом по сообщаемым данным и карательную организационную культуру.[14] Вигманн и Шаппелл изобрели три когнитивные модели для анализа примерно 4000 факторов пилотов, связанных с более чем 2000 авиационными происшествиями ВМС США. Хотя три когнитивные модели имеют небольшие различия в типах ошибок, все три приводят к одному и тому же выводу: ошибки в суждениях.[15] Три шага — это ошибки принятия решений, постановки целей и выбора стратегии, и все они были тесно связаны с первичными авариями.[15] Например, 28 декабря 2014 г. Рейс 8501 авиакомпании AirAsia, на борту которого находились семь членов экипажа и 155 пассажиров, упал в Яванское море из-за нескольких фатальных ошибок, допущенных капитаном в плохих погодных условиях. В этом случае капитан решил превысить максимальную скорость набора высоты для коммерческого самолета, что привело к критическому срыву, из которого он не смог выйти.[16]

Управление угрозами и ошибками (TEM)

ТЕМ включает эффективное обнаружение и реагирование на внутренние или внешние факторы, которые могут снизить безопасность полетов воздушного судна.[11] Методы обучения воспроизводимости стресса ТЕА или надежности работы в повторяющихся ситуациях.[17] ТЕА направлена ​​на подготовку экипажей с «координационными и когнитивными способностями, чтобы справляться как с рутинными, так и с непредвиденными неожиданностями и аномалиями».[17] Желаемый результат обучения ТЕА — развитие «устойчивости». В данном контексте отказоустойчивость — это способность распознавать нарушения, которые могут возникнуть во время выполнения полетов, и действовать в соответствии с ними. Обучение ТЕА происходит в различных формах с разным уровнем успеха. Некоторые из этих методов обучения включают сбор данных с использованием аудит безопасности линейных операций (LOSA), внедрение управления ресурсами экипажа (CRM), управление задачами кабины (CTM) и интегрированное использование контрольных списков в обоих коммерческий и авиация общего назначения. Некоторые другие ресурсы, встроенные в большинство современных самолетов, которые помогают минимизировать риски и управлять угрозами и ошибками: бортовые системы столкновения и предотвращения столкновения (БСПС) и системы предупреждения о приближении к земле (GPWS).[18] За счет консолидации бортовых компьютерных систем и проведения надлежащей подготовки пилотов авиакомпании и члены экипажа стремятся снизить неотъемлемые риски, связанные с человеческим фактором.

Аудит безопасности линейных операций (LOSA)

LOSA — это структурированная программа наблюдений, предназначенная для сбора данных для разработки и улучшения мер противодействия эксплуатационным ошибкам.[19] Благодаря процессу аудита обученные наблюдатели могут собирать информацию о стандартных процедурах, протоколе и процессах принятия решений, которые летные экипажи выполняют при столкновении с угрозами и ошибками во время нормальной эксплуатации. Этот управляемый данными анализ управления угрозами и ошибками полезен для изучения поведения пилота в связи с ситуационным анализом. Он обеспечивает основу для дальнейшего внедрения процедур безопасности или обучения, чтобы помочь уменьшить ошибки и риски.[12] Наблюдатели на проверяемых рейсах обычно наблюдают следующее:[19]

  • Возможные угрозы безопасности
  • Как члены экипажа устраняют угрозы
  • Ошибки, которые порождают угрозы
  • Как члены экипажа справляются с этими ошибками (действие или бездействие)
  • Определенное поведение, которое, как известно, связано с авиационными происшествиями и инцидентами

LOSA была разработана, чтобы помочь методам управления ресурсами экипажа уменьшить количество человеческих ошибок при выполнении сложных полетов.[12] LOSA предоставляет полезные данные, которые показывают, сколько ошибок или угроз встречается в каждом полете, количество ошибок, которые могли привести к серьезной угрозе безопасности, и правильность действий или бездействия экипажа. Эти данные оказались полезными при разработке методов CRM и определении того, какие проблемы необходимо решать в процессе обучения.[12]

Управление ресурсами экипажа (CRM)

CRM это «эффективное использование всех доступных ресурсов отдельными лицами и экипажами для безопасного и эффективного выполнения миссии или задачи, а также выявления и управления условиями, которые приводят к ошибке».[20] Обучение CRM интегрировано и является обязательным для большинства программ обучения пилотов и является общепринятым стандартом для развития навыков человеческого фактора для летных экипажей и авиакомпаний. Хотя универсальной программы CRM не существует, авиакомпании обычно настраивают свое обучение в соответствии с потребностями организации. Принципы каждой программы обычно тесно связаны. По данным ВМС США, существует семь важнейших навыков CRM:[20]

  • Принятие решений — использование логики и суждений для принятия решений на основе доступной информации
  • Напористость — готовность участвовать и высказывать свою позицию до тех пор, пока не убедятся фактами, что другой вариант более правильный
  • Анализ миссии — способность разрабатывать краткосрочные и долгосрочные планы действий в чрезвычайных ситуациях
  • Общение — ясная и точная отправка и получение информации, инструкций, команд и полезных отзывов
  • Лидерство — способность направлять и координировать действия пилотов и членов экипажа
  • Адаптивность / гибкость — способность изменять образ действий в связи с изменением ситуации или появлением новой информации
  • Ситуационной осведомленности — способность воспринимать окружающую среду во времени и пространстве и понимать ее значение

Эти семь навыков составляют критически важную основу для эффективной координации работы экипажей. С развитием и использованием этих основных навыков летные экипажи «подчеркивают важность выявления человеческих факторов и динамики команды для уменьшения человеческих ошибок, которые приводят к авиационным сбоям».[20]

Применение и эффективность CRM

С момента внедрения CRM примерно в 1979 году, в связи с необходимостью расширения исследований по управлению ресурсами со стороны НАСА, в авиационной отрасли произошла огромная эволюция применения процедур обучения CRM.[21] Приложения CRM разрабатывались в нескольких поколениях:

  • Первое поколение: акцентировал внимание на индивидуальной психологии и тестировании, где можно было исправить поведение.
  • Второе поколение: показал смещение акцента на динамику группы кабины.
  • Третья эволюция: диверсификация возможностей и акцент на обучении экипажей тому, как они должны действовать как в кабине, так и вне ее.
  • Четвертое поколение: CRM интегрировала процедуру в обучение, что позволяет организациям адаптировать обучение к своим потребностям.
  • Пятое поколение (нынешнее): признает, что человеческая ошибка неизбежна, и предоставляет информацию для повышения стандартов безопасности.[22]

Сегодня CRM реализуется посредством тренировок пилотов и экипажей, моделирования, а также посредством взаимодействия с высокопоставленным персоналом и летными инструкторами, таких как брифинг и разбор полетов. Хотя трудно измерить успех программ CRM, исследования показали, что существует корреляция между программами CRM и улучшенным управлением рисками.[22]

Управление задачами в кабине (CTM)

Здесь можно получить несколько источников информации из одного интерфейса. Пилоты могут получить информацию по индикатору ориентации, высоте или воздушной скорости за одно сканирование.

Управление задачами из кабины (CTM) — это «пилотные операции на уровне управления, которые выполняют, когда они инициируют, отслеживают, устанавливают приоритеты и завершают задачи из кабины».[23] «Задача» определяется как процесс, выполняемый для достижения цели (например, перелет к путевой точке, снижение до желаемой высоты).[23] Обучение CTM фокусируется на обучении членов экипажа тому, как выполнять параллельные задачи, требующие их внимания. Сюда входят следующие процессы:

  • Инициирование задачи — при наличии соответствующих условий
  • Мониторинг задач — оценка прогресса и статуса задачи
  • Приоритезация задач — в зависимости от важности и срочности для безопасности
  • Распределение ресурсов — распределение человеческих и машинных ресурсов для задач, которые необходимо выполнить
  • Прерывание задачи — приостановка выполнения задач с более низким приоритетом для выделения ресурсов задачам с более высоким приоритетом
  • Возобновление задачи — продолжение ранее прерванных задач
  • Завершение задачи — завершение или незавершение задачи

Потребность в обучении CTM является результатом способности человеческого внимания и ограничений рабочей памяти. Члены экипажа могут посвятить больше умственных или физических ресурсов конкретной задаче, которая требует приоритета или требует немедленной безопасности воздушного судна.[23] CTM интегрирован в программу обучения пилотов и идет рука об руку с CRM. Некоторые операционные системы самолетов достигли прогресса в помощи CTM, объединив приборы на одном экране. Примером этого является цифровой указатель ориентации, который одновременно показывает пилоту курс, воздушную скорость, скорость снижения или всплытия и множество другой соответствующей информации. Подобные реализации позволяют командам быстро и точно собирать информацию из нескольких источников, что высвобождает умственные способности, позволяющие сосредоточиться на других, более важных задачах.

Перед полетом военный летчик читает предполетный контрольный список. Контрольные списки гарантируют, что пилоты могут соблюдать рабочие процедуры и помогают вспомнить.

Контрольные списки

Использование контрольных списков до, во время и после полетов обеспечило сильное присутствие во всех типах авиации как средство управления ошибками и снижения вероятности риска. Контрольные списки строго регламентированы и состоят из протоколов и процедур для большинства действий, необходимых во время полета.[24] Цели контрольных списков включают «вспоминание, стандартизацию и регулирование процессов или методологий».[24] Использование контрольных списков в авиации стало отраслевым стандартом, и заполнение контрольных списков по памяти считается нарушением протокола и ошибкой пилота. Исследования показали, что увеличение количества ошибок в суждениях и когнитивной функции мозга, а также изменения в функция памяти Вот некоторые из последствий стресса и усталости.[25] Оба эти фактора неизбежны в сфере коммерческой авиации. Использование контрольных списков в аварийных ситуациях также способствует устранению неполадок и обратному изучению цепочки событий, которые могли привести к конкретному инциденту или аварии. Помимо контрольных списков, выпущенных регулирующими органами, такими как FAA или ИКАО, или контрольные списки, составленные производителями самолетов, у пилотов также есть личные контрольные списки качества, предназначенные для проверки их пригодности и способности управлять самолетом. Примером может служить Я В БЕЗОПАСНОСТИ контрольный список (болезнь, лекарства, стресс, алкоголь, усталость / еда, эмоции) и ряд других качественных оценок, которые пилоты могут выполнять до или во время полета для обеспечения безопасности самолета и пассажиров.[24] Эти контрольные списки, наряду с рядом других дублирующих элементов, интегрированных в большинство современных систем эксплуатации самолета, обеспечивают бдительность пилота и, в свою очередь, направлены на снижение риска ошибки пилота.

Известные примеры

Одним из самых известных примеров авиакатастрофы, вызванной ошибкой пилота, была авиакатастрофа в ночное время. Рейс 401 Eastern Air Lines около Майами, Флорида 29 декабря 1972 года. Капитан, старший помощник и бортинженер зациклились на неисправном фонаре шасси и не смогли понять, что один из членов экипажа случайно ударил рычаги управления полетом, изменив автопилот настройки от горизонтального полета до медленного спуска. Получив приказ УВД держаться над малонаселенным районом вдали от аэропорта, пока они занимаются проблемой (в результате, на земле было видно очень мало огней, которые могли бы служить внешним ориентиром), отвлеченный летный экипаж не заметил самолет потерял высоту, и самолет в конце концов врезался в землю Эверглейдс, погиб 101 из 176 пассажиров и членов экипажа. Последующие Национальный совет по безопасности на транспорте (NTSB) в отчете об инциденте обвинил летный экипаж в том, что он не следил за приборами самолета должным образом. Подробности инцидента теперь часто используются в качестве практического примера в учениях экипажей и авиадиспетчеров.

В 2004 г. Соединенные Штаты, ошибка пилота была указана как основная причина 78,6% смертельных исходов. авиация общего назначения авиационных происшествий и в качестве основной причины 75,5% авиационных происшествий общего назначения.[26] Для регулярный воздушный транспорт на ошибку пилота обычно приходится чуть более половины мировых аварий с известной причиной.[8]

  • 28 июля 1945 г. — Бомбардировщик B-25 ВВС США граница для Ньюарк аэропорт врезался в 79-й этаж Эмпайр Стейт Билдинг после того, как пилот заблудился в густом тумане, Манхэттен. Все три члена экипажа погибли, а также одиннадцать служащих в здании.
  • 24 декабря 1958 г. — BOAC Бристоль, Британия 312, регистрация Г-АОВД, разбился в результате управляемого полета на местности (CFIT ), недалеко от Винктона, Англия, во время испытательного полета. Крушение было вызвано сочетанием плохой погоды и неспособности обоих пилотов правильно прочитать показания высотомера. Первый офицер и двое других выжили в катастрофе.
  • 3 января 1961 г. — Рейс 311 Аэро разбился рядом Квевлакс, Финляндия. Все двадцать пять пассажиров погибли в результате аварии, которая стала самой смертоносной в истории Финляндии. Позднее расследование установило, что оба пилота были в состоянии алкогольного опьянения во время полета и могли быть прерваны пассажиром во время крушения.
  • 28 февраля 1966 г. — Американец космонавты Эллиот Си и Чарльз Бассетт были убиты, когда их Т-38 Talon врезался в здание в Lambert – St. Международный аэропорт Луи в непогоду. А НАСА расследование пришло к выводу, что See летел слишком низко при заходе на посадку.
  • 5 мая 1972 г. — Рейс 112 авиакомпании Alitalia врезался в гору Лонга после того, как летный экипаж не соблюдал процедуры захода на посадку, установленные УВД. Все 115 оккупантов погибли. Это самая страшная катастрофа с участием одного самолета в истории Италии.
  • 29 декабря 1972 г. — Рейс 401 Eastern Air Lines врезался в Флорида Эверглейдс после того, как летный экипаж не заметил выключения самолета автопилот, отвлекшись на собственные попытки решить проблему с шасси. Из 176 пассажиров 75 выжили.
  • 27 марта 1977 г. Катастрофа в аэропорту Тенерифе: старший KLM пилот не слышал, не понимал или не выполнял инструкции с диспетчерской вышки, в результате чего два Боинг 747 столкнуться на взлетно-посадочной полосе в Тенерифе. В результате самой смертоносной авиакатастрофы в истории погибло 583 человека.
  • 28 декабря 1978 г. — Рейс 173 United Airlines: а симулятор полета капитан-инструктор разрешил Дуглас DC-8 чтобы закончилось топливо при исследовании проблемы с шасси. Впоследствии United Airlines изменила свою политику, запретив «время инструктора симулятора» при расчете «общего времени полета» пилота. Считалось, что одной из причин аварии является то, что инструктор может контролировать количество топлива во время тренировки на симуляторе, чтобы оно никогда не кончалось.
  • 13 января 1982 г. — Рейс 90 авиакомпании Air Florida, а Боинг 737-200 с 79 пассажирами и экипажем, врезался в 14-я улица, мост и устремился в Река Потомак вскоре после взлета из Вашингтонский национальный аэропорт, погибло 75 пассажиров и членов экипажа, а также четыре автомобилиста на мосту. В отчете NTSB обвинили летный экипаж в неправильном использовании антиобледенение система.
  • 19 февраля 1985 г. — Экипаж Рейс 006 авиакомпании China Airlines потеряли контроль над своими Боинг 747SP над Тихий океан, после того, как загорелся двигатель №4. Самолет снизился на 30 000 футов за две с половиной минуты, прежде чем был восстановлен контроль. Погибших нет, но несколько раненых, самолет сильно поврежден.
  • 16 августа 1987 г. — Экипаж Рейс 255 Northwest Airlines пропустили свой контрольный список для такси и не смогли открыть закрылки и предкрылки самолета. Впоследствии Макдоннелл Дуглас MD-82 не набрал достаточной подъемной силы при взлете и врезался в землю, в результате чего погибли все, кроме одного из 155 человек на борту, а также два человека на земле. В единственный выживший была четырехлетняя девочка по имени Сесилия Чичан, которая была серьезно ранена.
  • 28 августа 1988 г. Катастрофа на авиашоу Рамштайн: член итальянской пилотажной группы неправильно оценил маневр, в результате чего произошло столкновение в воздухе. Три пилота и 67 зрителей на земле погибли.
  • 31 августа 1988 г. — Рейс 1141 авиакомпании Delta Air Lines разбился при взлете после того, как экипаж забыл развернуть закрылки для увеличения подъемной силы. Из 108 пассажиров и членов экипажа, находившихся на борту, четырнадцать погибли.
  • 8 января 1989 г. Авиакатастрофа в Кегворте, в левом двигателе нового Боинг 737-400, но летчики по ошибке заглушили правый двигатель. Левый двигатель в конечном итоге полностью отказал, и экипаж не смог перезапустить правый двигатель до того, как самолет разбился. Приборы на 737-400 отличались от более ранних моделей, но имитатор полета для новой модели не был доступен в Великобритании.
  • 3 сентября 1989 г. — Экипаж Вариг Рейс 254 совершили ряд ошибок, так что их Боинг 737 закончилось топливо в сотнях миль от курса над джунглями Амазонки. Тринадцать человек погибли в результате аварийной посадки.
  • 21 октября 1989 г. — Рейс 414 Тан-Сахса врезался в холм возле Международный аэропорт Тонконтин в Тегусигальпе, Гондурас, из-за неправильной процедуры посадки пилотом, погиб 131 из 146 пассажиров и членов экипажа.
  • 14 февраля 1990 г. — Рейс 605 авиакомпании Indian Airlines врезался в поле для гольфа недалеко от взлетно-посадочной полосы недалеко от аэропорта Индостан, Индия. Экипаж не смог подъехать после того, как по рации сообщили, насколько близко они были к земле. Самолет врезался в поле для гольфа и набережную, загорелся. Из 146 пассажиров самолета 92 погибли, включая оба экипажа. В результате аварии выжили 54 человека.
  • 24 ноября 1992 г. — Рейс 3943 авиакомпании China Southern Airlines вылетел из Гуанчжоу в Гуйлинь за 55 минут. Во время снижения в направлении Гуйлиня на высоте 7000 футов (2100 м) капитан попытался выровнять самолет, подняв нос, и автоматический дроссель самолета был задействован для снижения. Однако экипаж не заметил, что силовой рычаг № 2 был на холостом ходу, что привело к асимметричному состоянию. Самолет разбился при спуске в аэропорт Гуйлиня, в результате чего погибли все находившиеся на борту 141 человек.
  • 23 марта 1994 г. — Рейс 593 Аэрофлота, Airbus A310-300, разбился на пути к Гонконг. Капитан Ярослав Кудринский пригласил двоих своих детей в кабину и разрешил им сесть за штурвал, что противоречит правилам авиакомпании. Его пятнадцатилетний сын Эльдар Кудринский случайно отключил автопилот, в результате чего самолет накренился вправо перед погружением. Второй пилот слишком сильно завел самолет, из-за чего он заглох и начал вращаться. Пилоты в конце концов нашли самолет, но он врезался в лес, в результате чего погибли все 75 человек на борту.
  • 24 июня 1994 г. — B-52 аварии на базе ВВС Фэйрчайлд. Авария была в значительной степени связана с личностью и поведением Lt Col Артур «Бад» Холланд, командир, и отложенная реакция на более ранние инциденты с участием этого пилота. После прошлой истории подполковник Марк МакГихан, командир эскадрильи ВВС США, отказался разрешить кому-либо из членов своей эскадрильи лететь с Голландией, если он (МакГихан) также не был в самолете. Эта авария теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.
  • 30 июня 1994 г. — Рейс 129 Airbus Industrie, сертификационный испытательный полет Airbus A330-300, разбился в Тулуза-Бланьяк: аэропорт. При моделировании аварийной ситуации с остановкой двигателя сразу после взлета с экстремальным центр гравитации локации пилоты выбрали неправильные ручные настройки, из-за которых автопилот не мог удерживать самолет в воздухе, и к тому времени, когда капитан восстановил ручное управление, было уже слишком поздно. Самолет был разрушен, погибли летный экипаж, инженер-испытатель и четыре пассажира. Комиссия по расследованию пришла к выводу, что капитан был перегружен предыдущими летными испытаниями в тот день и не смог уделить достаточно времени предполетному инструктажу. В результате Airbus пришлось пересмотреть порядок действий в аварийной ситуации при неработающем двигателе.
  • 2 июля 1994 г. — Рейс 1016 USAir врезался в жилой дом из-за пространственной дезориентации. Двадцать пассажиров и экипаж погибли, самолет был уничтожен.
  • 20 декабря 1995 г. — Рейс 965 American Airlines, а Боинг 757-200 со 155 пассажирами и восемью членами экипажа вылетел из Майами примерно на два часа позже расписания в 1835 по восточному стандартному времени (EST). Следователи полагают, что незнание пилота современной техники, установленной в Boeing 757-200, могло сыграть свою роль. Пилоты не знали свое местонахождение относительно радиомаяка в Тулуа. Самолет был оборудован для передачи этой информации в электронном виде, но, согласно источникам, знакомым с расследованием, пилот, очевидно, не знал, как получить доступ к информации. Капитан ввел неверные координаты, и самолет врезался в горы, в результате чего погибли 159 из 163 человек на борту.
  • 8 мая 1997 г. — Рейс 3456 авиакомпании China Southern Airlines врезался в взлетно-посадочную полосу на Шэньчжэнь Хуантьян аэропорт во время второй попытки ухода на второй круг, в результате которой погибли 35 из 74 человек на борту. Экипаж по незнанию нарушил порядок посадки из-за плохой погоды.
  • 6 августа 1997 г. — Рейс 801 Korean Air, а Боинг 747-300, врезался в Нимиц-Хилл, в трех милях от Международный аэропорт Гуама, погибли 228 из 254 человек на борту. Неспособность капитана правильно выполнить неточный заход на посадку поспособствовала аварии. В NTSB сказал усталость пилота был возможным фактором.
  • 26 сентября 1997 г. — Гаруда Индонезия, рейс 152, Airbus A300, врезался в овраг, погибли все 234 человека на борту. В NTSC пришел к выводу, что авария произошла из-за того, что пилоты повернули самолет в неправильном направлении вместе с ошибкой УВД. Факторами, способствовавшими аварии, были названы низкая видимость и невозможность активации GPWS.
  • 12 октября 1997 — Певица Джон Денвер умер, когда его новоприобретенный Рутан Лонг-EZ Самодельный самолет упал в Тихий океан недалеко от Пасифик Гроув, Калифорния. NTSB сообщил, что Денвер потерял контроль над самолетом при попытке манипулировать рукояткой переключателя топлива, которая была помещена в недоступное положение изготовителем самолета. NTSB сослался на незнание Денвера конструкции самолета как причину крушения.
  • 16 февраля 1998 г. — Рейс 676 авиакомпании China Airlines пытался приземлиться в Международный аэропорт Чан Кайши но совершил уход на второй круг из-за плохих погодных условий. Однако летчики случайно отключили автопилот и не заметили этого в течение 11 секунд. Когда они это заметили, Airbus A300 вошел в стойло. Самолет врезался в шоссе и жилой район и взорвался, в результате чего погибли все находившиеся на борту 196 человек, а также семь человек на земле.
  • 16 июля 1999 г. — Джон Ф. Кеннеди-младший. умер когда его самолет, Пайпер Саратога, врезался в Атлантический океан от побережья Виноградник Марты, Массачусетс. В NTSB официально заявили, что авария была вызвана «неспособностью пилота сохранить контроль над своим самолетом во время ночного снижения над водой, что было результатом пространственная дезориентация «. Кеннеди не имел сертификата на IFR полет, но продолжал лететь после того, как погодные условия скрыли визуальные ориентиры.
  • 31 августа 1999 года — Lineas Aéreas Privadas Argentinas (LAPA) рейс 3142 разбился после попытки взлета с закрылками, в результате чего погибли 63 из 100 пассажиров самолета, а также два человека на земле.
  • 31 октября 2000 г. — Рейс 006 Singapore Airlines был Боинг 747-412 который взлетел не с той взлетно-посадочной полосы в тогдашнем международном аэропорту Чан Кайши. Он столкнулся со строительной техникой на взлетно-посадочной полосе, загорелся и погибли 83 из 179 пассажиров.
  • 12 ноября 2001 г. — Рейс 587 American Airlines столкнулся с сильной турбулентностью, и второй пилот слишком сильно нажал на педаль руля направления, поворачивая Airbus A300 из стороны в сторону. Чрезмерное напряжение привело к отказу руля. Самолет A300 развернулся и врезался в жилой район, разрушив пять домов и убив 265 человек. Включаемые факторы турбулентность в следе и подготовка пилотов.
  • 24 ноября 2001 г. — Рейс 3597 Crossair врезался в лес на подходе к ВПП 28 на Цюрих аэропорт. Это было вызвано тем, что капитан Лутц снизился ниже минимальной безопасной высоты 2400 футов на подходе к взлетно-посадочной полосе.
  • 15 апреля 2002 г. — Рейс 129 авиакомпании Air China, а Боинг 767-200, разбился рядом Пусан, Южная Корея погибли 128 из 166 человек на борту. Пилот и второй пилот летели слишком низко.
  • 25 октября 2002 г. — восемь человек, в том числе Сенатор США Пол Веллстон, погибли в аварии рядом с Эвелет, Миннесота. NTSB пришел к выводу, что «летный экипаж не контролировал и не поддерживал минимальную скорость».
  • 26 февраля 2004 — А Бук 200 несущий македонский Президент Борис Трайковский разбился, в результате чего погибли президент и восемь других пассажиров. Расследование крушения постановило, что авария была вызвана «процедурными ошибками экипажа» при заходе на посадку.
  • 3 января 2004 г. — Рейс 604 авиакомпании Flash Airlines нырнул в красное море вскоре после взлета погибли все 148 человек на борту. Капитан переживал головокружение и не заметил, что его контрольная колонка наклонена вправо. Boeing 737 терпел крен до тех пор, пока он больше не мог оставаться в воздухе. Однако отчет о расследовании был оспорен.
  • 14 августа 2005 г. — пилоты Рейс 522 авиакомпании Helios Airways потерял сознание, скорее всего, из-за гипоксия вызвано отказом переключить наддув кабины на «Авто» во время предполетной подготовки. В Боинг 737-300 разбился после того, как закончилось топливо, погибли все на борту.
  • 16 августа 2005 г. — Экипаж Рейс 708 West Caribbean Airways неосознанно (и опасно) снизил скорость Макдоннелл Дуглас MD-82, заставляя его войти в стойло. Ситуация была неправильно обработана экипажем: капитан полагал, что двигатели загорелись, в то время как первый офицер, который знал о сваливании, попытался исправить его. Самолет врезался в землю рядом с Machiques, Венесуэла, погибли все 160 человек на борту.
  • 3 мая 2006 г. — Рейс 967 Армавиа не справился с управлением и упал в Черное море при приближении к аэропорту Сочи-Адлер в России, в результате чего погибли все 113 человек на борту. Пилоты устали и летели в напряженных условиях. Их уровень стресса был превышен пределом, в результате чего они потеряли ситуационную осведомленность.
  • 27 августа 2006 г. — Рейс 5191 компании Comair не смог подняться в воздух и разбился на Голубая трава аэропорт, после того, как летный экипаж по ошибке попытался взлететь с вспомогательной взлетно-посадочной полосы, которая была намного короче предполагаемой взлетно-посадочной полосы. Все, кроме одного, из 50 человек на борту самолета погибли, в том числе 47 пассажиров. Единственным выжившим оказался первый офицер полета Джеймс Полхинке.
  • 1 января 2007 г. — Экипаж Рейс 574 авиакомпании Adam Air были озабочены неисправностью инерциальная система отсчета, что отвлекало их внимание от пилотажных приборов, позволяя не замечать увеличивающийся угол снижения и крена. Похоже, что они стали пространственно дезориентированными, пилоты не обнаружили и надлежащим образом остановили снижение достаточно быстро, чтобы предотвратить Потеря контроля. В результате самолет развалился в воздухе и упал в воду, в результате чего погибли все 102 человека на борту.[27]
  • 7 марта 2007 г. — Гаруда Индонезия, рейс 200: бедный Управление ресурсами экипажа а из-за того, что закрылки не были выпущены, самолет приземлился с «невообразимой» скоростью и после приземления вылетел за пределы взлетно-посадочной полосы. Из 140 оккупантов 22 погибли.
  • 17 июля 2007 г. — Рейс 3054 авиакомпании ТАМ: реверсор тяги на правом двигателе Airbus A320 заклинило. Хотя оба члена экипажа знали, что капитан использовал устаревшую процедуру торможения, и самолет пролетел мимо взлетно-посадочной полосы и врезался в здание, в результате чего погибли все 187 человек на борту, а также 12 человек на земле.
  • 20 августа 2008 г. — Экипаж Рейс 5022 Spanair не удалось раскрыть закрылки и предкрылки МД-82. Самолет потерпел крушение после взлета, в результате чего погибли 154 из 172 пассажиров и членов экипажа, находившихся на борту.
  • 12 февраля 2009 г. — Рейс 3407 авиакомпании Colgan Air (летает как Continental Connection) вошел в стойло и врезался в дом в Кларенс-центре, Нью-Йорк, из-за отсутствия ситуационной осведомленности о воздушной скорости капитаном и первым помощником, а также из-за неправильной реакции капитана на систему предупреждения о сваливании палки в самолете. . Все 49 человек на борту самолета погибли, а также один человек, находившийся в доме.
  • 1 июня 2009 г. — Рейс 447 авиакомпании Air France вошел в стойло и врезался в Атлантический океан следующий трубка Пито отказы и неправильные управляющие воздействия со стороны первый офицер. Все 216 пассажиров и двенадцать членов экипажа погибли.
  • 10 апреля 2010 г. — 2010 крушение Ту-154 ВВС Польши: при спуске в сторону России Смоленск Северный аэропорт, летный экипаж польского президентский самолет проигнорировал автоматические предупреждения и попытался приземлиться в сильном тумане. В Туполев Ту-154М спустился слишком низко и врезался в ближайший лес; все оккупанты были убиты, включая президента Польши Лех Качиньский, его жена Мария Качиньская, и многочисленные правительственные и военные чиновники.
  • 12 мая 2010 г. — Рейс 771 авиакомпании Afriqiyah Airways Самолет разбился примерно на 1200 метров (1300 ярдов; 3900 футов) от взлетно-посадочной полосы 09, за пределами периметра международного аэропорта Триполи, в результате чего погибли все, кроме одного, из 104 человек на борту. В единственный выживший был 9-летний мальчик по имени Рубен Ван Ассоу. 28 февраля 2013 года Управление гражданской авиации Ливии заявило, что причиной крушения стала ошибка пилота. Факторами, которые способствовали крушению, были отсутствие / недостаточное управление ресурсами экипажа, сенсорные иллюзии и действия первого офицера на бортовую рукоять самолета; Усталость также могла сыграть роль в аварии. В окончательном отчете указаны следующие причины: отсутствие у пилотов единого плана действий во время захода на посадку, последний заход на посадку продолжается ниже минимальной высоты принятия решения без получения визуального ориентира с земли; ненадлежащее применение входных сигналов управления полетом во время ухода на второй круг и после активации системы осведомленности и предупреждения о местности; и неспособность летного экипажа отслеживать и контролировать траекторию полета.
  • 22 мая 2010 г. — Рейс 812 авиакомпании Air India Express пролететь мимо взлетно-посадочной полосы на Мангалор аэропорт, погибло 158 человек. Самолет приземлился в 610 метрах (670 ярдов) от обычной точки приземления после крутого снижения. Записи CVR показали, что капитан спал и проснулся за несколько минут до приземления. Его недостаток бдительности заставил самолет приземлиться очень быстро и круто, и он вылетел за край взлетно-посадочной полосы.
  • 28 июля 2010 г. — капитан Рейс 202 Airblue запутался с ручкой управления курсом и подумал, что он выполнил правильное действие, чтобы повернуть самолет. Однако из-за того, что он не потянул ручку управления курсом, поворот не был выполнен. Самолет Airbus A321 сбился с пути и врезался в холмы Маргалла, в результате чего погибли все 152 человека на борту.
  • 20 июня 2011 г. — Рейс 9605 RusAir врезался в автостраду на последнем подходе к Петрозаводск аэропорт на западе Россия, после того как пьяный штурман предложил капитану приземлиться в сильном тумане. Лишь пятеро из 52 человек, находившихся на борту самолета, выжили в катастрофе.
  • 6 июля 2013 г. — Рейс 214 авиакомпании Asiana Airlines хвост ударился о дамбу незадолго до взлетно-посадочной полосы 28L на Международный аэропорт Сан-Франциско. Из 307 пассажиров и членов экипажа три человека погибли и 187 получили ранения, когда самолет съехал с взлетно-посадочной полосы. Следователи заявили, что авария была вызвана более низкой, чем обычно, скоростью захода на посадку и неправильной траекторией захода на посадку.
  • 23 июля 2014 г. — Рейс 222 авиакомпании TransAsia Airways задел деревья и врезался в шесть домов в жилом районе в деревне Сиси на острове Пэнху, Тайвань. Из 58 человек, находившихся на борту самолета, только десять человек выжили. Капитан был самоуверен в своем мастерстве и намеренно снизился и откатил самолет влево. Члены экипажа не осознавали, что они находились на опасно малой высоте и самолет собирался столкнуться с землей за две секунды до крушения.
  • 28 декабря 2014 г. — Рейс 8501 авиакомпании Indonesia AirAsia упал в Яванское море в результате аэродинамический срыв из-за ошибки пилота. Самолет превысил скороподъемность, намного превышающую эксплуатационные пределы. Все находившиеся на борту 155 пассажиров и 7 членов экипажа погибли.
  • 6 февраля 2015 г. — Рейс 235 авиакомпании TransAsia Airways: загорелся один из двигателей ATR 72. Поскольку самолеты могут летать только на одном двигателе, пилот затем выключает один из двигателей. Однако он случайно выключил двигатель, который работал нормально, и оставил самолет без мощности, после чего безуспешно пытался запустить оба двигателя. Затем самолет перерезал мост и рухнул в реку Килунг, когда пилот пытался уклониться от городской местности, в результате чего 43 из 58 находившихся на борту самолета погибли.

Смотрите также

  • Летное мастерство
  • Управляемый полет на местности
  • Экологические причины авиационного стресса
  • Человеческий фактор в авиационной безопасности
  • Человеческая надежность
  • Расстройство суточного биоритма в связи с дальним перелетом
  • Рейс 007 Korean Air Lines
  • Усталость пилота
  • Сенсорные иллюзии в авиации
  • Пространственная дезориентация
  • Стресс в авиационной отрасли
  • Управление угрозами и ошибками
  • Ошибка пользователя

использованная литература

  1. ^ «Бедствие в Тенерифе — 27 марта 1977 года: полезность модели швейцарского сыра и других основ причинно-следственных связей». Go Flight Medicine. Получено 13 октября 2014.
  2. ^ Справочник пилота по аэронавигационным знаниям (2016 г.). Министерство транспорта США. Федеральное управление гражданской авиации, Служба летных стандартов pdf.
  3. ^ Управление ошибками (OGHFA BN). Руководство оператора по человеческому фактору в авиации. Skybrary
  4. ^ Как именно понимать термин «случайная потеря корпуса» ?. Переполнение авиационного стека
  5. ^ а б «Справочник по управлению рисками» (PDF) (Изм. 1-е изд.). Федеральная авиационная администрация. Январь 2016. Глава 2. Человеческое поведение.. Получено 16 ноября 2018.
  6. ^ а б Справочный комитет по сельским и региональным делам и транспорту (май 2013 г.). «Расследование авиационных происшествий» (PDF). Правительство Австралии.
  7. ^ Расследование человеческой ошибки: инциденты, аварии и сложные системы. Издательство Ashgate. 2004 г. ISBN  0754641228.
  8. ^ а б «Статистика несчастных случаев». www.planecrashinfo.com. Получено 21 октября 2015.
  9. ^ Фойл, Д. К., и Хуи, Б. Л. (ред.). (2007). Моделирование деятельности человека в авиации. CRC Press.
  10. ^ а б Хельмрайх, Роберт Л. (18 марта 2000 г.). «Об управлении ошибками: уроки авиации». BMJ: Британский медицинский журнал. 320-7237 (7237): 781–785. Дои:10.1136 / bmj.320.7237.781. ЧВК  1117774. PMID  10720367.
  11. ^ а б Томас, Мэтью Дж. (2004). «Предикторы управления угрозами и ошибками: определение основных нетехнических навыков и их значение для проектирования систем обучения». Международный журнал авиационной психологии. 14 (2): 207–231. Дои:10.1207 / s15327108ijap1402_6.
  12. ^ а б c d е ж Эрл, Лори; Бейтс, Пол Р .; Мюррей, Патрик С .; Глендон, А. Ян; Крид, Питер А. (январь 2012 г.). «Разработка однопилотного аудита безопасности производства». Авиационная психология и прикладные человеческие факторы. 2 (2): 49–61. Дои:10.1027 / 2192-0923 / a000027. HDL:10072/49214. ISSN  2192-0923.
  13. ^ Ли, Гохуа; Бейкер, Сьюзан П .; Grabowski, Jurek G .; Ребок, Джордж У. (февраль 2001 г.). «Факторы, связанные с ошибкой пилота при авиакатастрофах». Авиация, космос и экологическая медицина. 72 (1): 52–58.
  14. ^ Stanhope, N .; Кроули-Мерфи, М. (1999). «Оценка сообщений о неблагоприятных инцидентах». Журнал оценки в клинической практике: 5–12.
  15. ^ а б Вигманн, Д. А., и Шаппелл, С. А. (2001). Человеческая ошибка перспективы в авиации. Международный журнал авиационной психологии, 11 (4), 341–357.
  16. ^ Стейси, Дэниел (15 января 2015 г.). «Пилоты говорят, что управление воздушным движением в Индонезии не изощренно». Журнал «Уолл Стрит. Проверено 26 января 2015 г.
  17. ^ а б Деккер, Сидней; Лундстрем, Йохан (май 2007 г.). «От управления угрозами и ошибками (TEM) к устойчивости». Журнал человеческого фактора и аэрокосмической безопасности. 260 (70): 1–10.
  18. ^ Маурино, Дэн (апрель 2005 г.). «Управление угрозами и ошибками (ТЕМ)». Канадский семинар по безопасности полетов (CASS); Программа безопасности полетов и человеческого фактора — ИКАО.
  19. ^ а б «Аудит безопасности полетов на линиях (LOSA)». SKYbrary. Получено 24 августа 2016.
  20. ^ а б c Майерс, Чарльз; Орндорф, Дениз (2013). «Управление ресурсами экипажа: больше не только для авиаторов». Журнал прикладных технологий обучения. 3 (3): 44–48.
  21. ^ Helmreich, Robert L .; Merritt, Ashleigh C .; Вильгельм, Джон А. (1999). «Эволюция обучения управлению ресурсами экипажа в коммерческой авиации». Международный журнал авиационной психологии. 9 (1): 19–32. Дои:10.1207 / s15327108ijap0901_2. PMID  11541445.
  22. ^ а б Салас, Эдуардо; Берк, Шон С.; Бауэрс, Клинт А .; Уилсон, Кэтрин А. (2001). «Командное обучение в небе: работает ли обучение по управлению ресурсами экипажа (CRM)?». Человеческие факторы. 43 (4): 641–674. Дои:10.1518/001872001775870386. ISSN  0018-7208.
  23. ^ а б c Чжоу, Чжун-Ди; Мадхаван, Дас; Функ, Кен (1996). «Исследования ошибок управления задачами кабины пилота». Международный журнал авиационной психологии. 6 (4): 307–320. Дои:10.1207 / s15327108ijap0604_1.
  24. ^ а б c Хейлз, Бриджет М .; Проновост, Питер Дж. (2006). «Контрольный список — инструмент для управления ошибками и производительности». Журнал интенсивной терапии (21): 231–235.
  25. ^ Cavanagh, Джеймс Ф .; Франк, Майкл Дж .; Аллен, Джон Дж. Б. (апрель 2010 г.). «Реакция на социальный стресс изменяет обучение, основанное на вознаграждении и наказании». Социальная когнитивная и аффективная нейробиология. 6 (3): 311–320. Дои:10.1093 / сканирование / nsq041. ЧВК  3110431. PMID  20453038.
  26. ^ «Отчет Джозефа Т. Нолла 2005 г.» (PDF). Архивировано из оригинал (PDF) 2 февраля 2007 г.. Получено 12 февраля 2007.
  27. ^ «Отчет о расследовании авиационных происшествий KNKT / 07.01 / 08.01.36» (PDF). Национальный комитет по безопасности на транспорте, Министерство транспорта Индонезии. 1 января 2007 г. Архивировано с оригинал (PDF) 28 июня 2011 г.. Получено 8 июн 2013. Отчет о расследовании авиационных происшествий Национального комитета по безопасности на транспорте Индонезии

По данным Межгосударственного авиационного комитета за 2018 год, в 11 странах, входящих в МАК, произошло 20 авиапроисшествий, связанных с человеческим фактором, и только четыре — из-за отказа техники. Но даже человеческий фактор почти всегда предполагает и другие слагаемые.

Чем руководствовались пилоты «Сухого»

Деятельность пилотов по управлению самолётом регламентируют не только федеральные законы и подзаконные акты, но и специальная инструкция, так называемое РЛЭ (FCOM) — руководство по лётной эксплуатации, в нашем случае RRJ-95 «Сухого Суперджета». Инструкция — служебный документ. В ней содержатся все технические характеристики воздушного судна, алгоритмы действия экипажа в штатных ситуациях. Нормы показателей, при которых должны осуществляться подготовка к взлёту, взлёт, посадка и другие стандартные эксплуатационные процедуры. И главное, чётко прописаны действия в аварийных ситуациях. Содержание документа является собственностью ЗАО «Гражданские самолёты Сухого» и не может быть использовано без согласия компании. Это указано прямо на обложке РЛЭ. Впрочем, этот ведомственный документ можно легко отыскать в свободном доступе на просторах Интернета.

Строгий регламент или импровизация?

Фото: © Следственный комитет РФ

Фото: © Следственный комитет РФ

Лайф попросил командира воздушного судна и автора телеграм-канала Flying Upside Down ответить, какая из версий катастрофы, по его мнению, наиболее вероятна.

Что касается причин воспламенения топлива и разрушения конструкции воздушного судна, то здесь всё очевидно. В процессе посадки было допущено четыре повторных отделения и превышение максимальной вертикальной скорости на касании. В случае, если пилоты испытывали проблемы с пилотированием самолёта по причине нарушения балансировки или управляемости, они должны были сообщить об этом. Этого сделано не было, поэтому распространённое мнение о сложности управления самолётом — лишь домыслы.

Лайф: По правилам, посадку проводит второй пилот. Задача командира воздушного судна — принимать решения и контролировать действия напарника. Кто управлял лайнером при посадке — КВС Денис Евдокимов или помощник?

— Думаю, в подобной ситуации ни один КВС не доверит выполнение посадки второму пилоту.

Лайф: Четыре повторных отделения и превышение максимальной скорости — это ошибка экипажа?

— Безусловно, да. Думаю, что истерия «SuperJet — г…но» не имеет под собой никаких оснований, поскольку до момента жёсткой посадки самолёт прекрасно летел, а значит, обеспечивал безопасность экипажа и пассажиров.

Заслуженный лётчик-испытатель Герой России Магомед Толбоев специально для Лайфа проанализировал действия пилотов.

— Лётчики на момент посадки уже не управляли самолётом, у них началась паника. Самолёт садился на слишком большой скорости, и они его искусственно ударили, просто не знали, что с ним делать.

Должностные инструкции устанавливают правила, по которым, например, главным пилотом может стать лицо, имеющее высшее профессиональное (лётное) образование и стаж работы на командно-лётных должностях не менее трёх лет, а вторым пилотом — лицо, имеющее высшее профессиональное (лётное) образование и стаж лётной работы не менее двух лет.

Командир злополучного «суперджета» Денис Евдокимов, 1976 года рождения, окончил Балашовское лётное училище в 1998-м. После выпуска проходил службу в частях авиации Пограничных войск ФСБ. Летал на Ил-76. В целом налетал 6800 часов, из них на «Сухом» — 1400 часов.

Второй пилот «суперджета», Максим Кузнецов, 1983 года рождения, окончил Ульяновский филиал Сасовского лётного училища в 2016 году и сразу устроился в «Аэрофлот». Никаких нареканий по работе у второго пилота не было.

Ранее Лайф рассказывал о человеческом факторе в авиации, когда жертвами неверно принятого решения экипажа Boeing 737 чуть было не стали 170 человек. Тогда в Сочинском аэропорту самолёт выкатился за пределы ВПП, а впоследствии загорелся. Так что же мешает нынешним пилотам действовать в соответствии с регламентом, держать себя в руках и принимать верные решения в критической ситуации?

Необкатанные джеты. Недоученные люди

Фото: © AP Photo / Marina Lystseva

Фото: © AP Photo / Marina Lystseva

На специализированных авиафорумах действующие капитаны воздушных судов описывают джет как абсолютно безопасный и ни в чём не уступающий другим самолёт. Круче Airbus и Boeing, но недоработанный. Лётчики жалуются, что инженеров и техников по обслуживанию SSJ тоже не хватает. Недоработки по «детским болезням» самолёта мелкие — но много. Недостаточный налёт у джетов может быть не только из-за длительного техобслуживания, но и из-за нехватки главных пилотов. А пилоты проходят подготовку для джетов на тренажёре.

По мнению лётчика-испытателя Магомеда Толбоева, тренажёр пилоту даёт мало и даже может навредить. Теряется реальность, связь с землёй и небом. Опасность ещё и в том, что снижается ответственность, ведь симулятор позволяет разбиться сколько угодно раз, и, когда такой лётчик пересаживается на настоящую технику, психика пилота воспринимает реальность как детскую игру.

На форумах, посвящённых воздушному судну «Сухой», пилоты отмечают, что переучиться, например, на 777-й (имеется в виду Boeing. — Прим. Лайфа) без командирского опыта и общего налёта в размере 4000 часов невозможно.

Лётчик-испытатель Толбоев прокомментировал Лайфу подготовку молодых пилотов: «Не знаю, как в «Аэрофлоте», это уважаемая авиакомпания, но всё можно за деньги. Откуда, например, в 23 года 27 000 налёта? Приписывают нули. Толбоев отмечает и разницу в подготовке пилотов: «Раньше, в СССР, до такого уровня самолёта, как Ту-134 (примерный уровень нынешнего джета. — Прим. Лайфа), ввод лётчика в строй составлял 8 лет. Сейчас — 8 месяцев«.

Портрет российского лётчика на фоне всех проблем

Фото: © flickr / SuperJet International

Пилоты и авиаэксперты сходятся в одном — проблем у Росавиации немало. Дефицит пилотов гражданской авиации, госмонополия на обучение, хотя уровень государственного образования, мягко говоря, хромает. Как лётчик научится летать, если отсутствует техника? В Ульяновском лётном институте, например, отрабатывают навыки пилотирования на западных маленьких самолётах. Больших просто нет. И закупаются в основном западные самолёты. Самые опытные пилоты уходят к иностранцам, которые переманивают большими деньгами именно рейтинговых лётчиков.

— Как я вижу современного лётчика… Стоит самолёт, стоит пилот с компьютером. Лётчик ничего не знает о самолёте перед ним: ни технические характеристики, ни практику. Думает — ничего страшного, спрошу у компьютера. Сколько весит «Сухой джет«? Компьютер отвечает. Это как внук деду телефон купил и на кнопки научил тыкать, но ни знаний, ни понятия процессов нет. Лётчик сейчас — не лётчик, а обыкновенный оператор. Вывод — так можно из крупных технических вузов взять айтишников, посадить в кабину самолёта. Самолёт сам рулит, сам летает. Зачем тратить такие деньги на обучение, если разницы нет, — раздражённо пояснил Лайфу лётчик-испытатель Толбоев.

Следствие рассматривает ошибку пилота в качестве основной версии, к тому же склоняются и эксперты. Но трагедия явно сложилась ещё из пары реалий: недоработанность нового самолёта, помноженная на все проблемы российской авиации.

Понравилась статья? Поделить с друзьями:
  • Управление ошибками направлено на
  • Управление областями сети ошибками конфигурацией доступа
  • Управление дисками произошла ошибка при выполнении операции
  • Унарк длл вернул код ошибки 14
  • Умышленно допущенная логическая ошибка