top of page

MIEUX DECIDER EN SITUATION DE CRISE

Dernière mise à jour : 21 oct. 2022

L’Histoire regorge d’exemples de moments de bascule ou en quelques instants, un leader est devenu un paria, une organisation solide a fait faillite, ou des personnes formées à la gestion de situations complexes ont commis des erreurs stratégiques.


La crise appelle à une prise de décision rapide dans un contexte d’incertitude extrême. Une erreur de décision peut ainsi être fatale pour l’organisation. Elle amplifie les effets précédemment constatés (impacts directs de l’événement subi) et expose l’entreprise à de nouvelles menaces (réputation, finance, humain, opérationnel notamment).


En 5 minutes, la crise balaie vos certitudes, analyses et documents et vous pousse à prendre trois décisions fondamentales et singulières :


1. Dois-je agir sur l’évènement ?

2. Dois-je le faire maintenant ?

3. Dois-je agir de cette manière ou d’une autre ?


Ainsi, ce qui compte le plus sera toujours votre capacité à prendre la bonne décision au bon moment sur la base d’une compréhension juste et rapide d’un événement.


Pour cela, mieux vaut comprendre les phénomènes qui vous induisent en erreur tant dans votre analyse d’une situation que dans la réponse que vous choisissez d’apporter. Il s’agit, en effet, d’éviter plusieurs biais tels qu’expliqués dans cet article.

 

TEMPS 1 : IDENTIFIER LES RISQUES

DES FAUSSES ROUTES EN MATIERE D’ANALYSE


Nous l’avons vu ces deux dernières années, les crises ne sont pas toutes liées à la survenance d’un risque référencé dans une cartographie des risques. De nombreux biais méthodologiques et cognitifs entachent notre capacité à prévoir les crises.


METHODE


Dans un premier temps, les analyses sont souvent basées sur des statistiques de sinistralité et non sur une approche probabiliste des événements. Nous considérons souvent que le passé se répète et que les crises d’hier font celles de demain. Les américains parlent de biais rétrospectifs (« hindsight bias ») pour évoquer cette tendance à s’appuyer sur des éléments du passé afin d’établir des indicateurs projectifs.


Ensuite les analyses de risque sont souvent plus politiques que méthodiques. Elles nous servent à rassurer les parties prenantes internes et externes, faire valider des projets de transformation plus facilement et bien souvent à conquérir de nouveaux marchés via l’obtention de nouvelles certifications (ISO 27001, ISO 22301, etc.).


PERCEPTION


En matière de perception, nous rencontrons aussi des difficultés à analyser ce que nous ne maîtrisons pas et analysons ainsi rarement les éléments hors cœur de métier ou volatiles pour lesquels nous appréhendons souvent grossièrement la matérialisation des impacts.


Nos analyses sous-estiment certains risques au regard des gains qu’ils pourraient générer pour l’organisation (changement de SI, nouveau marché) car l’appât du gain renforce la confiance dans nos décisions.


D’autre part nous avons tendance à considérer que si une caractéristique d’un système est bonne alors l’ensemble est satisfaisant et penser que ce que nous jugeons critique pour l’organisation est inévitablement partagé par tous.


L’analyse de risques n’est donc pas une science exacte. Sous un verni logique, méthodique, parfois mathématique, elle donne l’illusion de vérité et de neutralité malgré des biais cognitifs majeurs. Ainsi lorsqu’ un événement défavorable survient, c’est l’étonnement. Les procédures de maîtrise mises en place s’écroulent et seule compte notre capacité à :


  1. COMPRENDRE LE PROBLEME

  2. DECIDER D UNE REPONSE ADAPTEE ET RAPIDE

 

TEMPS 2 : COMPRENDRE LE PROBLEME

DES BIAIS DANS NOTRE MANIERE D APPREHENDER UN EVENEMENT


Si les biais cognitifs s’immiscent dans notre capacité à prévenir les crises, ils nous orientent aussi dans notre capacité à évaluer une situation inhabituelle. Il convient donc d’en détecter quelques-uns pour comprendre les mécanismes invisibles qui nous emmènent vers telle ou telle interprétation de l’évènement.


PARIS IN THE

THE SPRING


Tout d’abord, notre capacité à appréhender une situation dépend du type d’intelligence sollicitée pour en analyser l’événement : une intelligence dite « lente » par opposition à une intelligence dite « rapide ».


Pour illustrer mon propos je vous propose relire le titre écrit juste au-dessus en gras. Avez-vous perçu immédiatement la redondance du mot « the » dans la phrase « Paris in the the spring » ? si vous l’avez vu, vous avez utilisé ce que Kahneman dans son livre « Thinking Fast & Slow » appelle l’intelligence lente basée sur la logique et la rationalité, en opposition à l’intelligence rapide basée sur un système autopiloté, nourri d’émotions et d’intuitions.


Par ce concept Kahneman nous explique ainsi indirectement que dans toute organisation (du niveau opérationnel au niveau cellule de crise) les deux tendances existeront et se manifesteront. Elles interfèreront sur notre capacité à identifier, évaluer, agir et à interagir face à un événement donné. Selon le contexte, nous serons plus aptes individuellement à faire valoir l’une ou l’autre des tendances et à les observer chez nos interlocuteurs.


C’est l’exemple proposé par Christian Morel dans son livre « les décisions absurdes » lorsqu’un pilote privilégie l’intelligence rapide et décide de couper le moteur gauche alors que tous les indicateurs techniques et humains lui indiquent de couper le droit.


WYSIATIS


Si le pilote a utilisé son intelligence rapide, basée sur ses émotions et son intuition il a aussi adhéré au principe WYSIATIS pour “What You See Is All There Is” / tout ce que l’on voit est tout ce qui est l’essentiel.


Concept majeur en gestion de crise il concerne cette tendance à penser que ce que nous nous voyons est l’essentiel. Nous pourrions l’associer à ce fameux adage « je ne crois que ce que je vois ». Ainsi si je vois de la fumée sur la gauche du cockpit c’est que le réacteur gauche est en panne.


Or, comme on le voit dans cette illustration, l’essentiel n’est pas toujours dans ce que nous voyons. Ainsi, la fumée n’est pas forcément représentative d’un incendie, la chute de liquide provenant du ciel, pas forcément de l’eau.

Pour compléter mon propos, souvenez vous de l’image de la vieille dame et de la jeune femme ou encore des escaliers de M.C. Escher.



Ces illustrations montrent qu’il est impossible de voir immédiatement les deux personnages dans le premier dessin et l ensemble des orientations des escaliers dans le deuxième. C’est seulement après une deuxième analyse, une prise de recul que nous sommes en mesure de distinguer une autre facette de l’illustration.


Penser que l’essentiel est dans ce que nous voyons entraîne chez nous une interprétation rapide d’une situation (je ne vois que la vieille dame ou que des escaliers à l’endroit) et des actions immédiates, amplificatrices de risques ou inefficaces.


BEST PRACTICES


Ensuite la notion de « best practices » dans le monde du Conseil est intéressante et risque de faire se crisper mes collègues et amis consultants. Elle renvoie au biais cognitif « d’illusion de supériorité ». C’est-à-dire du sentiment de supériorité d’un groupe ou d’une organisation qui l’éloigne de toute remise en question, prise de recul et, par conséquent, de toute capacité d’adaptation, face à une situation de crise.


Il reflète la tendance à penser que notre manière d’appréhender une situation est nécessairement la bonne car nous sommes les seuls à pouvoir dire quelles sont les meilleures pratiques dans toutes les situations données puisque toute approche innovante et pertinente passe par notre validation.


Comme vous l’avez compris nous construisons des tours bancales issues d’erreurs d’analyse ou d'une perception faussée d’une situation. Ces illusions de vérité s’additionnent entre elles et altèrent notre capacité à évaluer notre exposition réelle aux risques et la gravité d’un événement. Nous verrons dans un temps 3 que d’autres biais spécifiques à nos modes de résolution d’un problème, complètent ceux précédemment cités dans ce premier article sur les biais cognitifs en gestion des risques.

19 vues0 commentaire
bottom of page