top of page

Facteurs Humains 

Si la dimension psychomotrice du pilotage reste l’un des axes fondamentaux de la compétence, on met beaucoup plus qu’hier l’accent sur la façon dont le pilote exploite les moyens humains et techniques mis à sa disposition. Avec l’amélioration de la fiabilité des matériels, les Facteurs Humains ont donné d’excellents résultats puisque, entre les années 1980 et 2010, le nombre d’accidents est resté relativement stable alors qu’entre-temps le trafic aérien a été multiplié par plus de trois.

 

  • Même si certains soulignent l’importance du « blabla » dans la formation Facteurs Humains, faut-il la poursuivre ? 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Lire le chapitre

 

 

Afin d’améliorer la sécurité aérienne, le facteur humain a été développé pour proposer des solutions plus efficaces.

 

Historique

 

Cette gestion des ressources humaines, appelée « Facteurs humains », qui fait l’inventaire des faiblesses et des forces d’un opérateur pilote, a pour but de présenter des comportements individuels et collectifs sûrs, et faire en sorte que la compétence collective soit supérieure à la somme des compétences individuelles (1+1>2).

La naissance de cette nouvelle discipline est attribuée à la NASA, en 1979, lors d’une conférence, animée par le psychologue John Lauber[1], qui portait sur les accidents du transport aérien[2].

Il fut demandé à un parterre de scientifiques comment des hommes et des femmes – civils et militaires, a priori en pleine possession de leurs moyens, bien entraînés, pilotant des avions en bon état et souvent par beau temps –, avaient pu provoquer des accidents ? Parmi les exemples présentés, le plus significatif était l’accident de Tenerife qui a fait 583 morts deux ans plus tôt (collision au sol entre deux B747[3] de KLM et Pan Am). Il reste encore à ce jour la catastrophe aérienne la plus meurtrière de tous les temps, un Big One selon Amalberti, capable de remettre en cause ce modèle de transport qui est stratégique, particulièrement pour les Américains avec leur pays continent. De plus, le commandant n’était autre que l’un des chefs pilotes de KLM, un responsable des plus compétents dans le domaine de la sécurité.

L’enjeu était donc de taille, et les experts se sont intéressés à la gestion des ressources du cockpit appelée CRM (Cockpit Resource Management). D’abord à l’adresse des pilotes, le CRM a ensuite évolué pour englober la cabine de l’avion, c’est-à-dire les hôtesses et stewards, puis il s’est enfin étendu à l’ensemble de la compagnie tout en conservant le même sigle[4]. « Dans le concept de “facteur humain”, l’homme devient ainsi un “facteur” au même titre que les autres éléments du dispositif sécuritaire » (Poirot-Delpech[5]). Par la suite le CRM s’intégrera dans une discipline plus généraliste appelée les Facteurs humains (FH).

 

La première compagnie aérienne à mettre en pratique ce nouveau concept a été United Airlines, en 1981, après avoir perdu un avion[6] trois ans plus tôt. Une simple panne d’indication de sortie du train d’atterrissage du DC-8 a été à l’origine d’un accident ayant fait dix morts, dont le mécanicien navigant et la chef de cabine. Durant l’approche de l’aéroport de Portland Oregon, le commandant de bord a mis l’avion en attente afin de traiter la panne (ampoule récalcitrante sur la position du train d’atterrissage) et, obnubilé par ce problème, n’a pas pris en compte les inquiétudes du mécanicien navigant au sujet du faible niveau de carburant restant. Finalement l’avion s’est écrasé.

Aujourd’hui les Facteurs humains sont totalement intégrés dans le processus de formation, d’évaluation et de contrôle des pilotes. Et face à un problème de voyant de train d’atterrissage, il serait incompréhensible que l’équipage ne se fixe pas une butée d’attente (horaire) avant de se poser en urgence, train totalement sorti ou pas.

En 1986, l’OACI a formellement reconnu l’importance des Facteurs humains[7]. Cependant, si l’impulsion des besoins en FH est venue des États-Unis, les écoles européennes se sont distinguées avec le Danois Jens Rasmussen[8], l’Anglais James Reason[9] et le Français René Amalberti[10].

 

Pourquoi cette nouvelle discipline ?

 

Si la dimension psychomotrice du pilotage reste l’un des axes fondamentaux de la compétence, on met beaucoup plus qu’hier l’accent sur la façon dont le pilote exploite les moyens mis à sa disposition : les systèmes avion, la documentation, le contrôle aérien, le reste de l’équipage et l’équipe au sol, mais également ses propres ressources, sa mémoire, ses connaissances, ses capacités de compréhension et de décision. Une bonne « gestion des ressources » au sens large est devenue la compétence première du pilote, du moins telle que l’histoire des accidents nous le montre. Les sciences humaines nous expliquent à l’aide de mots plus précis et de concepts plus structurés que la gestion efficace des ressources disponibles passe par un ensemble d’opérations : projet d’action clair avec anticipation et régulation de la charge de travail, gestion des priorités, délégation, communication, coopération, détection et récupération des erreurs, contrôle de la fatigue et du stress, et gestion des situations anormales[11].

En fait, les FH relèvent de l’utilisation de bonnes pratiques, et, à l’image de Monsieur Jourdain[12], les pilotes y avaient déjà recours de façon empirique. L’apport des sciences cognitives a permis de les regrouper, de les formaliser et d’en faire une discipline à part entière. Au début, elle n’a pas été acceptée par tous les pilotes, et aujourd’hui encore certains la considèrent comme contenant beaucoup de « bla-bla[13] ». Cependant les FH associés aux nouvelles technologies ont déjà donné d’excellents résultats puisque, entre les années 1980 et 2010, le nombre d’accidents est resté relativement stable alors qu’entre-temps le trafic aérien a été multiplié par plus de trois.

Les préoccupations de sécurité qui demeurent, découlent de questions complexes que l’OACI a prises en compte, car les risques forment une pierre angulaire de l’approche de son système de gestion de la sécurité (SGS). Les politiques de sécurité ont suscité de nouvelles attentes concernant le comportement des équipages, et l’automatisation de la gestion du vol a amplifié cette évolution.

 

Gérer l’imprévu, se préparer à être surpris

 

Avant d’aborder ce sujet, je rappelle que les pilotes doivent parfaitement maîtriser les procédures d’urgences[14] afin d’être en mesure de rétablir une situation potentiellement dangereuse. Malgré les efforts déployés par les constructeurs pour couvrir un maximum de situations anormales, ceux-ci ne peuvent pas développer des checklists pour toutes celles qui sont possibles et imaginables et, en particulier, pour les cas de pannes multiples.

Cependant, si l’industrie veut continuer à progresser en termes de sécurité aérienne pour faire face à l’augmentation du trafic aérien qui devrait doubler d’ici à 2030, il est nécessaire d’aborder la question des situations imprévues et inattendues. Pourtant, par définition, imaginer l’imprévisible n’est pas représentable.

En effet, face à l’imprévu ou à l’inattendu, des comportements de pilotes se sont avérés être à l’opposé de ceux attendus. Le temps de réaction consécutif à l’effet de surprise, voire de sidération, a pénalisé grandement les chances de rétablir rapidement une situation critique.

Lors d’évènements complexes, qui semblent inextricables, le commandant doit faire preuve de leadership et agir rapidement tout en respectant la règle de base « voler/naviguer/communiquer ». Celle-ci vise à s’assurer que l’avion vole correctement, adapter une navigation sûre à court et moyen terme, communiquer entre pilotes pour définir la meilleure stratégie en s’aidant des contrôleurs aériens et des autres membres d’équipage si nécessaire.

Le pilotage et la navigation d’un avion qui ne fonctionne plus correctement nécessitent beaucoup d’énergie de la part des pilotes. Dans une telle phase dynamique, il est illusoire de vouloir élucider en peu de temps une situation qui pourrait ne pas avoir de solution idéale.

Ainsi l’incident grave du Qantas 32, en 2010[15], après l’explosion d’un de ses moteurs, a mis l’avion en grande difficulté à cause d’une multitude de pannes (52). Par chance, il y avait ce jour-là, dans le cockpit, cinq pilotes expérimentés pour gérer l’incident qui s’est produit en début de vol, de jour et dans de bonnes conditions météorologiques. Cela aurait pu avoir lieu en fin de vol, de nuit et avec seulement deux pilotes fatigués.

La logique très normative du transport aérien freine l’équipage dans la recherche de solutions autres que celles prescrites et enseignées. Et pourtant celui-ci doit faire face à l’essentiel en fonction de ses capacités cognitives du moment et sous l’effet de la pression temporelle, comme un médecin urgentiste agit pour la survie de son patient, même si de meilleures solutions existent.

Sans siège éjectable ni parachute, le pilote n’a d’autre choix que de gérer la situation jusqu’au bout, c’est-à-dire jusqu’à l’immobilisation de l’avion au sol. C’est dans l’adversité que nos qualités se révèlent. Les astronautes et les cosmonautes[16] sont préparés à faire face aux situations inattendues les plus extrêmes, dont les pilotes pourraient s’inspirer. L’espace reste encore une terre d’aventure, et la NASA a fait plusieurs fois la démonstration de ses capacités d’improvisation, comme le sauvetage d’Apollo 13 en 1970. Malgré un entraînement intensif, Claudie Haigneré[17], la première Française à être allée dans l’espace, citait l’expression des cosmonautes russes qui partaient en mission : « De toute façon, ça ne se passera pas comme prévu. »

En effet, « Le sujet qui nous occupe aujourd’hui finalement tourne autour d’une contradiction fondamentale, c’est que d’une part on demande aux équipages d’être tout à fait rigoureux, d’appliquer des procédures à la lettre, d’y adhérer, strictement, de ne jamais en dévier, sauf que, de temps en temps, on leur dit : “Ah, mais, face à l’imprévu, il faut devenir créatif.” Et toute la contradiction de notre métier est là ! » (Rosay, pilote d’essai chez Airbus[18]).

 

Improviser face à l’imprévu : le cas de la panne totale de commandes de vol

 

La panne de l’ensemble des systèmes hydrauliques – nécessaires aux commandes de vol – d’un avion de transport est jugée trop peu probable par l’administration pour être prise en compte pour la certification de l’avion.

Voici pourtant trois évènements de panne totale de commandes de vol qui auraient dû se terminer en catastrophe sans la dextérité des équipages qui, face à une situation imprévue, ont improvisé le pilotage par la seule utilisation de la poussée des moteurs.

 

DC-10-10 d’American Airlines, Detroit, 1972

Pour ne pas se faire distancer par le Boeing 747, McDonnell-Douglas avait obtenu la certification de son trimoteur DC-10 bien que certains problèmes n’aient pas été résolus.

Le commandant Bryce McCormick, qui venait d’être nommé sur le nouvel appareil, avait demandé à s’entraîner, au simulateur, à la panne totale des commandes de vol, panne qui n’était pas prévue au programme d’instruction. Il avait justifié à l’époque sa demande par l’arrivée de la nouvelle génération d’avions « tout hydraulique », comme aujourd’hui les avions sont « tout électrique ». Auparavant, les premiers avions long-courriers à réaction (B707, DC-8) avaient encore des commandes de vols actionnées par des câbles – même si elles étaient assistées par des servomoteurs –, tandis que celles de la génération du DC-10 utilisent des vérins hydrauliques actionnés par les câbles du manche et du palonnier. Autrement dit, il y a un intermédiaire (le vérin hydraulique) entre les commandes du pilote et les gouvernes de l’avion.

Le 12 juin 1972, après la perte de la porte de la soute arrière, le commandant et son équipage ont réussi l’atterrissage d’urgence du DC-10, à Detroit, sans faire de victime, en s’aidant de la poussée des moteurs pour piloter l’avion.

Cet incident grave a été le précurseur de la catastrophe du DC-10 de la Turkish Airlines, dans la forêt d’Ermenonville, au nord de Paris, qui a fait 345 victimes en 1974. L’avion a également perdu sa porte de soute arrière, ce qui a sectionné l’ensemble des commandes de vol par l’effondrement du plancher, et six passagers ont été éjectés. Cette porte cargo faisait partie des problèmes à régler, et pour qu’elle soit correctement fermée, le personnel du sol devait suivre les instructions d’une notice en anglais afin qu’elle soit bien verrouillée[19]. Après cet accident, les portes ont été rapidement modifiées, et la FAA a exigé qu’il y ait des caissons de décompression au niveau du plancher, entre la cabine passager et les soutes de l’avion[20], pour éviter, en cas de brutale dépressurisation, d’endommager le plancher qui supporte des servitudes importantes.

 

​

​

​

​

​

 

 

 

 

 

 

 

 

 

 

DC-10-10 d’United Airlines, Sioux City, 1989

Malgré ces améliorations, le 19 juillet 1989, le commandant Al Haynes, un vétéran et instructeur d’United Airlines, s’est trouvé en panne totale d’hydraulique après avoir subi la désintégration du fan du moteur numéro 2 (situé à l’arrière et au-dessus du fuselage), endommageant les trois circuits hydrauliques. Le trimoteur volait à 37 000 pieds (11 200 m), et la pression des systèmes est rapidement tombée à zéro. Le commandant avait d’abord demandé au mécanicien navigant la checklist pour traiter la panne du premier système hydraulique, puis celle des deux systèmes, mais il n’en existait aucune pour la panne des trois systèmes !

Grâce à l’utilisation des deux moteurs restants, un sous chaque aile, les pilotes et le mécanicien navigant ont réussi à piloter l’avion sans avoir recours aux commandes de vols. Le vol n’a pu se faire que par virage à droite, car l’explosion du moteur avait aussi endommagé le fuselage, créant une distorsion aérodynamique.

Disposant du temps nécessaire – l’avion avait encore plusieurs heures d’autonomie et se trouvait à haute altitude –, l’équipage technique, aidé par un pilote de la compagnie qui était en cabine, a pu gérer l’approche, permettant aux hôtesses et stewards de préparer la cabine et ses passagers en vue d’un atterrissage forcé. Sur les 298 personnes à bord, 187 (63 %) ont été sauvées. Un film produit pour la télévision, en 1992, retrace cet évènement, Crash Landing: The Rescue of Flight 232.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Airbus 300 DHL Bagdad, 2003 

Le 22 novembre 2003, aux abords de l’aéroport de la capitale irakienne et devant des journalistes[21], un commando islamiste a tiré un missile portatif[22] sur un Airbus 300 cargo de DHL qui décollait de Bagdad. L’explosion a mis le feu au réservoir de carburant de l’aile gauche endommageant les trois circuits hydrauliques qui ont alors rapidement perdu de leur puissance.

L’Airbus n’était qu’à 10 000 ft d’altitude (3 050 m), et l’équipage a dû intervenir rapidement pour contrôler la trajectoire de l’avion grâce aux deux moteurs.

Le commandant Éric Genotte s’était alors remémoré une émission télévisée sur le pilotage sans commande de vol du DC-10 de Sioux City : en utilisant simultanément la poussée des deux moteurs, l’avion monte ou descend, et en jouant sur la différence de poussée, il tourne. Comme pour le DC-10, les manettes de gaz de l’Airbus sont reliées par des câbles directement aux moteurs et n’ont pas besoin d’assistance hydraulique. La sortie du train d’atterrissage s’est faite par gravité en débloquant les verrous de retenue, cela a stabilisé l’avion en vol, entré en oscillation phugoïde[23]. Sans hydraulique, il n’est pas possible de sortir les becs de bord d’attaque et les volets de courbure des ailes pour augmenter la portance et réduire la vitesse d’approche, ce qui signifie que la vitesse est bien plus élevée qu’au cours d’une approche normale, augmentant d’autant le risque d’atterrissage brutal et long.

Après 25 minutes de vol, l’équipage est parvenu à poser l’avion qui, faute de freins, s’est immobilisé en dehors des pistes dans une zone non déminée de l’aéroport…

Ces avions, d’ancienne génération, nécessitaient la présence à bord d’un mécanicien navigant qui a alors été d’un grand secours.

Après le shoot de l’Airbus 300 à Bagdad, la communauté aéronautique s’est interrogée sur l’introduction de la procédure de panne totale de commandes de vol pour faire face à un tir de missile, ou à une explosion à bord (attentat), qui neutraliserait les circuits hydrauliques. Pourtant cette procédure existe et s’appelle Thrust Only Control (TOC) ; elle a été développée par la NASA et utilisée avec succès chez les militaires américains, après avoir été victimes de tirs en vol. Mais cette procédure n’est toujours pas enseignée aux compagnies aériennes.

En revanche, la future génération d’avions pourrait être en partie pilotée par la méthode TOC, car l’utilisation des commandes de vol génère toujours de la traînée aérodynamique. Toutefois les commandes de vol devraient toujours être utilisées au cours des phases de décollage et d’atterrissage, ou en cas de turbulences, pour réagir plus rapidement et en secours.

 

Pour faire face aux évènements imprévisibles, il est nécessaire d’analyser les risques considérés comme rares et incertains afin de développer une « méthode d’adaptation rapide » en combattant l’idée reçue que « ça ne peut pas arriver ». Malheureusement la réalité dépasse parfois la fiction, et nombreux sont les exemples à le démontrer : en 2001 les attaques des Twin Tower, à Manhattan, et du Pentagone par des avions de ligne ; des appareils qui ne sont pas censés décrocher mais qui tombent quand même ; ou bien le Malaysia Airlines 370[24] qui s’est volatilisé des écrans radars, en mars 2014, sans laisser de message et pour lequel les recherches ont été plusieurs fois interrompues.

Ainsi, l’instructeur au simulateur pourrait créer une situation nouvelle, inconnue des pilotes stagiaires. L’objectif étant de gérer l’effet de surprise – même si les exercices ne sont pas tous reproductibles ou si les capacités du simulateur de vol ne permettent pas de recréer, avec suffisamment de réalisme, certaines situations comme le décrochage –, ce qui compte alors c’est de mettre en place une stratégie, une technique (par exemple respiratoire) pour libérer rapidement des ressources cognitives afin que les pilotes puissent analyser le problème qui met l’avion en difficulté.

Peu de temps après la publication du troisième rapport d’étape du BEA sur l’accident de Rio – Paris, AF447 (2009), les commentaires ont été tout à la fois instructifs et décevants. Le Syndicat national des pilotes de ligne (SNPL[25]) notait que les pilotes avaient été confrontés à une situation complexe et « totalement inédite pour laquelle le constructeur n’avait jamais prévu de les former, avec peu de temps pour la diagnostiquer ».

Dans une situation dynamique qui ne laisse pas le temps nécessaire à l’analyse, les pilotes doivent agir rapidement pour retrouver la maîtrise de l’avion dans sa phase de vol. Au moment de l’incident, il peut être inutile et dangereux de vouloir faire une analyse causale approfondie. En effet, comprendre en situation dynamique n’a rien à voir avec la compréhension que l’on peut avoir, installé à son bureau devant une tasse de café.

« Plus généralement, le double échec des réponses procédurales prévues montre les limites du modèle de sécurité actuel. Lorsqu’une action de l’équipage est attendue, il est toujours supposé qu’il aura une capacité de maîtrise initiale de la trajectoire et de diagnostic rapide permettant d’identifier la bonne entrée dans le dictionnaire de procédures. Un équipage peut être confronté à une situation imprévue entraînant une perte momentanée mais profonde de compréhension. Si, dans ce cas, les capacités supposées de maîtrise initiale puis de diagnostic sont perdues, alors le modèle de sécurité se retrouve en ‘‘défaut de mode commun’’. Lors de cet évènement, l’incapacité à maîtriser initialement la trajectoire a aussi rendu impossible la compréhension de la situation et l’accès à la solution prévue[26]. »

Comment peut-on expliquer qu’un équipage expérimenté n’ait pas entendu l’alarme décrochage Stall retentir plus de soixante-dix fois ? L’examen des mécanismes neuronaux impliqués dans la prise de décision sous stress met en évidence des biais d’inhibitions (blocages) où la surdité non intentionnelle est plus courante que la cécité. Les résultats des neurologues définissent celle-ci comme un phénomène cognitif essentiel pour la sécurité aérienne. Une pré-exposition à un évènement critique déclenchant une alarme auditive peut améliorer la détection de l’alarme quand une situation similaire est rencontrée par la suite[27].

Aujourd’hui, le professeur Frédéric Dehais[28] veut utiliser les neurosciences pour étudier les biais émotionnels engendrés par le stress dû à une surcharge de travail, afin d’éliminer les signaux d’alerte qui ne fonctionnent pas (comme une annonce de décrochage) et les remplacer par une animation qui apparaîtrait sur un écran (de navigation) montrant la procédure ou l’action à entreprendre, afin de sortir l’avion de la situation de danger[29]. Dehais se base sur le modèle écologique EID[30] qui vise à rendre compréhensible une situation particulière afin qu’elle soit visible et audible par un utilisateur qui pourrait être en situation de stress. La hiérarchie d’abstraction est utilisée pour déterminer quel type d’information devrait être affichée sur l’interface du système et comment elle devrait être présentée.

Dans le cadre d’un travail universitaire, l’ancien pilote d’essai Jean Pinet[31] a souligné l’apparent décalage entre la haute technicité rationnelle des matériels, placés dans les mains des pilotes et, ce qu’il appelle, « la multitude des recettes de tous genres à appliquer pour les maîtriser ». Avec « l’impression un peu désagréable de devoir utiliser des sciences “douces ou molles” pour gérer un milieu de sciences exactes, dans lequel on baigne depuis son éducation de base. » Pinet rappelle que des situations soudaines, rapides, potentiellement dangereuses, surviennent quotidiennement mais ne sont pas connues, tout simplement parce qu’elles sont maîtrisées par les pilotes. Si la technologie est devenue la panacée pour résoudre les problèmes routiniers qui se présentent à eux, il conviendrait de rationaliser les comportements et de « permettre à des ingénieurs de bureaux d’études de concevoir des systèmes [mieux] adaptés aux humains devant les utiliser. »

Indirectement, cela évoque le travail universitaire de l’équipe d’Alain Gras, Face à l’automate, le pilote, le contrôleur et l’ingénieur (1994), référence implicite au peu de communication qui existe entre les utilisateurs pilotes, les interprètes psychologues et les concepteurs ingénieurs, ainsi qu’une absence de vocabulaire commun où le monde (des informaticiens) n’est pas régi par des processus strictement rationnels[32]. La recherche de solutions efficaces ne reposant que sur le socle de valeurs communes.

L’objectif opérationnel du travail sur le « contexte » peut se résumer en une phrase : « avoir la bonne information au bon moment sous le bon format » (Pinet[33]). Finalement le dernier niveau de conscience s’acquiert en lisant et relisant les manuels, en imaginant les pièges et en développant des stratégies personnelles, des techniques et des habitudes pour en sortir. L’élaboration de matériels mieux adaptés aux situations exceptionnelles devrait être une priorité par ceux qui pensent les avions de demain.

 

Aide à la décision

 

Il existe plusieurs outils d’aide à la prise de décision[34] afin de ne rien oublier. Ils ont été mis en place par différentes compagnies, tel le FOR-DEC (Facts, Options, Risks & Benefits, Decision, Execution, Check) développé par Lufthansa et utilisé, entre autres, par Air France. La première partie (la plus lourde) consiste à faire le bilan de l’état de l’avion (ou d’un autre problème : passager, terrorisme, etc.) et d’évaluer les différentes solutions avec leurs avantages et inconvénients, ce qui facilite la prise de décision. C’est alors le plus jeune des copilotes, s’il y en a plusieurs, qui doit s’exprimer le premier et proposer une solution. Le commandant, en principe le plus expérimenté et qui a peut-être déjà une solution, s’exprime le dernier pour éviter d’aliéner toutes les autres solutions qu’il n’aurait pas imaginées. En effet, un copilote inexpérimenté aura tendance à proposer des solutions, même les plus improbables, qui pourraient s’avérer meilleures. Cependant, cet outil demande du temps et beaucoup de ressources, il n’est pas adapté par exemple au cas de panne moteur au décollage, sauf si l’atterrissage au même endroit n’est pas possible.

 

Ce travail de recherche comportementale à l’adresse des opérateurs pilotes que sont les Facteurs humains a permis de maintenir un niveau élevé de sécurité ; il ne devra toutefois pas être appréhendé de la même façon pour un opérateur au sol gérant un avion sans pilote.

 

 

* * *

​

​

[1]. John Lauber a étudié les processus de communication dans les cockpits pendant plusieurs années. Tout en maintenant une hiérarchie de commandement, le concept était destiné à favoriser une culture moins autoritaire dans le poste de pilotage, où les copilotes étaient encouragés à interroger les commandants lorsqu’ils commettaient des erreurs.

[2]. NASA research into the causes of air transport accidents, COOPER, WHITE and LAUBER, 1980.

[3]. Collision au sol sur la piste de décollage entre deux Boeing 747 de KLM et de Pan Am le 27 mars 1977 (voir Annexe II).

[4]. La lettre C a évolué de Cockpit, à Cabin et Company.

[5]. POIROT-DELPECH Sophie, Mémoire et histoires de l’automatisation du contrôle aérien, L’Harmattan, Logiques Sociales, 2009, p. 16.

[6]. Le vol 173 United Airlines assurait la liaison entre New York et Portland via Denver. Il s’écrasa sur un quartier résidentiel de Portland le 28 décembre 1978.

[7]. L’OACI a adopté la résolution A26-9 sur la sécurité des vols et les Facteurs humains, suivie d’une série de recueils portant sur ce thème, et, par la suite, en 1998, le Manuel d’instruction sur les Facteurs humains (Doc 9683).

[8]. RASMUSSEN Jens, Information processing and human-machine interaction: an approach to cognitive engineering, ‪North-Holland, 1986. Rasmussen a développé le modèle-cadre SRK (Skills, Rules, Knowledge, ou Habiletés, Règles, Connaissances) pour aider les concepteurs à organiser en informations les exigences d’un système et les aspects de la cognition humaine. (1983). Le modèle SRK définit trois types de comportement ou de processus psychologique présents dans le traitement de l’information de l’opérateur.

[9]. REASON James, L’erreur humaine, 1993. Reason a élaboré un modèle de plaques de protection (comme plusieurs filets de sécurité superposés) représentant les différents acteurs qui impactent la sécurité des vols. Chaque plaque a ses qualités propres de résistance et la capacité de stopper la progression d’une menace qui se propage dans le système.

Si la menace n’est pas arrêtée par cet alignement de plaques, alors l’accident se réalise. Chaque acteur doit être clairement identifié et ses responsabilités bien définies. Le système commence avec les législateurs, viennent ensuite les exploitants et enfin les pilotes. Les menaces externes (météo, infrastructures, sûreté, etc.) doivent être prises en compte. Voici un exemple d’identification de plaques de Reason : OACI, administrations (EASA, DGAC pour la France), compagnies (managériale DS, SGS, formation des personnels, entretien des avions), prestataires de services externes (contrôle aérien, navigation, aéroports, etc.).

[10]. AMALBERTI René, La conduite de systèmes à risques, Puf, 1996, et Piloter la sécurité, Springer, 2012. J’ai eu le plaisir d’avoir ce professeur de médecine, très actif dans les milieux aéronautiques et médicaux, dans le cadre de mon DU dans les FH en 2000.

[11]http://www.academia.edu/1738295/Facteur_Humain_Cours

[12]. MOLIÈRE, Le Bourgeois gentilhomme,  1670 : « Je disais de la prose sans que je n’en susse rien. »

[13]. Auparavant, et de façon caricaturale, on pouvait dire que le pilote commandant des années 1960 était autocratique (vieille école), « laisser-faire » après Mai-68 et individualiste vers 1990 (génération Game Boy) avec l’arrivée des « glass cockpit ». (Pierre Eyssette, ancien responsable des FH chez Air France). Ces comportements critiquables sont maintenant enseignés : le laisser-faire peut être toléré, par exemple, durant la phase de croisière d’un vol lorsque l’activité est réduite ; quant à l’acte d’autorité il est parfois nécessaire pour débloquer une situation, recentrer le travail ou éviter certaines dérives.

[14]. Panne moteur, remise de gaz, descente d’urgence, sortie de décrochage et de positions inusuelles, gestion des alarmes GPWS, TCAS, Windshear, accélération, arrêt, évacuation passagers…

[15]. Voir Annexe II.

[16]. BAUDRY Patrick, Le rêve spatial inachevé, éditions Tallandier, 2001.

[17]. Scientifique à bord de la station Mir pour les missions TM24 (1996) et TM33 (1999).

[18]. Auteur de Aux commandes de l’A380, Le premier pilote d’essais raconte, 2009.

[19]. Le dysfonctionnement provenait de l’indication erronée du verrouillage de la porte, alors que le voyant était éteint au cockpit.

[20]. Qui s’est ensuite généralisé aux nouveaux avions.

[21]. De Paris Match.

[22]. SA-14.

[23]. L’oscillation phugoïde résulte d’un échange entre l’énergie cinétique et potentielle, combinaison de la trajectoire et de la vitesse de l’avion, qui par un déséquilibre change l’assiette de l’avion et modifie sa pente.

 

[24]. Juste un flaperon retrouvé plus de 16 mois après le drame,  à 5 000 km du lieu estimé de sa disparition.

[25]. Jean-Louis Barder, président du Syndicat national des pilotes de ligne.

[26]. BEA, Rapport final accident de l’AF 447 Rio - Paris, Juillet 2012, p. 208.

[27]. “Failure to Detect Critical Auditory Alerts in the Cockpit: Evidence for Inattentional Deafness”, Human Factors Vol. 56, nº 4, June 2014, p. 631– 644. 

[28]. Recherche en Facteurs humains de l’Institut supérieur de l’aéronautique et de l’espace (ISAE) de Supaéro à Toulouse.

[29]. Flight International 17-23 March 2015. Frédéric Dehais, chercheur en Facteurs humains de l’Institut supérieur de l’aéronautique et de l’espace à Toulouse, étudie les réactions du cerveau lorsque celui-ci est sollicité intensément sous stress. Les réactions cérébrales réduisent leurs amplitudes lorsque le stress augmente, autrement dit, il y a une ségrégation en faveur du cortex visuel au détriment du cortex auditif.

[30]. Ecological Interface Design (EID) est un concept d’interface destiné aux systèmes techniques complexes et dynamiques. L’EID est basée sur deux concepts-clés issus de la recherche cognitive, le modèle SRK et la hiérarchie d’abstraction (AH).

[31]. Ingénieur Arts et Métiers, ingénieur civil de l’aéronautique, pilote d’essais aux côtés d’André Turcat, il a été le premier pilote à franchir le mur du son avec le Concorde. Jean Pinet a entrepris, à 82 ans, une thèse de doctorat sur le comportement des pilotes dans des situations inattendues d’extrême urgence (30 juin 2011, université de Toulouse II-Le Mirail).

[32]. POIROT-DELPECH Sophie, Mémoire et histoires de l’automatisation du contrôle aérien, Logiques Sociales, L’Harmattan 2009, p. 16.

[33]. BOY Guy, PINET Jean, L’être Techno-Logique » une discussion entre un chercheur et un pilote d’essais, L’Harmattan, 2008, p. 243.

[34]. DECIDE (US FAA: Detect, Estimate, Choose, Identify, Do, Evaluate). NMATE (Boeing: Navigate, Manage, Alternatives, Take Action, Evaluate). DODAR (British Airways: Diagnose, Options, Decide, Assign, Review). SAFE (State the Problem, Analyze the Problem, Fix the Problem, Evaluate the Result), etc.

2018 Par Alexandre AUBIN

Join my mailing list

bottom of page