Archives d’Auteur : Frédéric Jugé

Avant de faire de l’IA, range ta chambre !

1er juin 2009. Le vol AF447 décolle de Rio de Janeiro à 19h29. 216 passagers à bord et 12 membres d’équipage. Le vol se déroule normalement jusqu’à 2h du matin, à l’approche de la zone de convergence intertropicale, une région de fortes turbulences au-dessus de l’Atlantique.

2 co-pilotes sont dans le cockpit. Celui qui pilote (PF) a émis des inquiétudes auprès du commandant de bord, et souhaitait évoluer au niveau supérieur pour éviter les nuages, ce qu’a refusé le commandant… qui est allé dormir. Comme la plupart des passagers .

A 2h10, les sondes Pitot, qui indiquent la vitesse réelle de déplacement dans l’air, givrent. Des alarmes se déclenchent dans le cockpit. Les mesures de vitesse deviennent incohérentes. La vitesse indiquée est supérieure à la vitesse réelle. Le pilote automatique se désengage, ainsi que le réglage automatique de la poussée des réacteurs.

Or, l’avion est parfaitement stable, sa vitesse est normale, son assiette et sa trajectoire également. Mais les pilotes sont désormais « en manuel » et celui qui est aux commandes va prendre une décision catastrophique : se croyant en survitesse, il tire sur le sidestick pour cabrer l’avion, ce qui va le ralentir, et lui faire perdre sa portance. L’alarme de décrochage imminent se déclenche.

Mais les 2 pilotes ne comprennent pas pourquoi l’alarme se déclenche. Et l’avion continue de réduire sa vitesse du fait de son incidence élevée. L’Airbus décroche et devient irrécupérable. La seule bonne décision aurait été de faire piquer l’avion au contraire, pour retrouver de la vitesse, et donc de l’énergie cinétique.

Perte de compétence

Mais les pilotes n’apprennent plus à piloter réellement, une fois à l’altitude de croisière. Ils apprennent à surveiller les automatismes mis en place par le constructeur de l’avion. Ce sont des ordinateurs qui font voler l’avion. Seules les phases de décollage et d’approche font l’objet d’entraînements réguliers, mais jusqu’à cet accident, apprendre à gérer ce genre de situations en altitude de croisière était jugé inutile.

Les seules situations de décrochage étaient enseignées en simulateur, à basse altitude, de jour, avec un pilote qui sait ce qui l’attend. Sur le vol AF447, le vol était de nuit, à haute altitude, et les pilotes ont été saturés d’alarmes contradictoires.

Ce que souligne le rapport du BEA : « Les conditions d’entraînement actuelles ne permettent pas de pallier une pratique du vol manuel et le manque d’expérience sur avions conventionnels. En outre, elles limitent la capacité des pilotes à acquérir ou maintenir des compétences de base de pilotage »

Le BEA précise : « il a été mis en évidence que les copilotes n’avaient pas été entraînés au pilotage manuel, à l’approche et à la récupération du décrochage à haute altitude »

Les conditions du vol AF447 ont été rejouées dans des simulateurs de vols, avec des profils variés. Des pilotes de ligne, des pilotes d’essai et des pilotes de chasse. Les pilotes de ligne de l’époque ont majoritairement crashé le vol, en réagissant comme les pilotes de l’AF447. En revanche, les pilotes de chasse, ou de voltige, ou des instructeurs, comme Jean-Pierre Otelli, confrontés à la même situation, ont tous sauvé l’appareil :  « Le comportement de l’avion ressemblait clairement à un décrochage. J’ai volé dans ces conditions, je sais ce que ça donne »

Évidemment, de nombreuses dispositions ont depuis été prises pour former davantage au pilotage réel en régime de croisière, mais cela ne ramènera pas les 228 morts : « la compréhension de la physique globale du vol à haute altitude aurait pu considérablement aider les pilotes à anticiper la dégradation rapide de la situation »

L’IA, le nouvel Eldorado

Pas un jour ne se passe sans que l’on nous bombarde d’un nouvel outil d’IA générative. L’engouement est total. Ne pas implémenter l’IA dans son entreprise vous fait immédiatement passer pour un ringard totalement dépassé. Un client chez qui j’interviens de temps en temps a placé dans ses « priorités stratégiques » la mise en place de l’IA. Il a dû assister à un petit-déjeuner sur le sujet, ou des collaborateurs ont dû lui montrer que ChatGPT pouvait traiter des notes de frais ou analyser une feuille excel.

Mais pendant ce temps, l’entreprise laisse de côté les fondamentaux : la maîtrise des processus, l’excellence opérationnelle, les standards, le management, l’expérience client, la qualité du produit. Alors que les stocks regorgent de références invendues, que les clients se plaignent de factures fausses ou de commandes incomplètes, que les délais ne sont pas respectés, etc, etc…

Tout comme ce DRH qui ne sait plus calculer un taux de turn-over, ou ce logisticien qui panique parce que son WMS est planté. Ou ce manager qui ne lit plus les CV, préférant faire confiance à l’algorithme. Ou cette entreprise qui a confié sa stratégie achats à un logiciel qui s’est mis à devenir fou, sans que personne ne comprenne comment il fonctionne.

Danone a mis en place un outil de machine Learning il y a une dizaine d’années, pour améliorer ses prévisions de ventes, mais il est d’abord passé par une totale remise à plat de ses standards, des interactions entre départements, et un nettoyage massif des données. Et les résultats ont été impressionnants : -20% sur les erreurs de prévisions, -30% sur les ventes perdues, et +10 points de ROI sur les promotions. Un succès total.

A l’inverse, au Canada, une grande entreprise de 5000 personnes dans les services financiers a mis en place un chatbot RH, pour répondre aux questions des salariés. Mais avec des processus non standardisés entre les services, un système documentaire incomplet et l’absence de supervision. Bilan : devant des réponses incohérentes, fausses voire ubuesques, le personnel a perdu confiance et adopté le plan B : téléphoner à « Julie des RH », quand ils avaient une question.

Une baisse des capacités cognitives

Mais il y a pire. Car l’IA à haute dose provoque également un déclin cognitif, et une baisse de la connectivité neuronale. La pré-étude du MIT, récemment publiée, est édifiante. Elle démontre clairement que l’utilisation régulière de l’IA dégrade de façon significative nos capacités d’analyse et de synthèse. Elle dégrade également la mémoire. A force de ne plus réfléchir, on ne sait plus réfléchir. Ce phénomène a été qualifié de « dette cognitive » par les chercheurs du MIT

Qui a encore une carte routière dans sa voiture à l’heure de Waze ? Qui sait encore naviguer en mer sans GPS ? Lors de mes formations, je vois régulièrement des participants sortir leur smartphone pour calculer 64 + 25.

Et c’est probablement ce qui guette nombre d’entreprises qui se sont lancées dans la quête du Saint-Graal qu’est l’IA. Il n’est pas question de remettre en question les bénéfices incroyables qu’apportent ces technologies, mais de comprendre que l’IA n’est qu’un accélérateur.

L’IA n’est pas là pour piloter l’avion. Ni pour gérer l’entreprise. Ni pour réfléchir à notre place. L’IA devrait simplement accélérer ce que l’on maîtrise déjà. Mais si les processus ne sont pas maîtrisés, si les compétences ne sont pas acquises, si les organisations ne sont pas optimisées, l’IA ne trouvera pas les solutions. Au contraire, elle accélérera le chaos. Garbage In, Garbage Out.

Avant de faire de l’IA, range ta chambre et apprends à faire ton lit !

Sources
Le rapport du BEA sur le vol AF447. 2012
L’article de Jeff Wise sur les causes du crash AF447. 2011.
L’étude du MIT qui démontre les effets de l’IA sur le cerveau. Juin 2025.
L’étude de cas Danone, de mise en place de l’IA. Best Pratices AI.
« Entrées précédentes Derniers articles »