Résoudre l’incertitude grâce à l’IA, ou l’illusion scientiste du management
« Les Israéliens ont l’habitude de savoir exactement ce que font les Palestiniens, dans les moindres détails, grâce à leurs moyens d’espionnage sophistiqués. » Ainsi écrivait le diplomate américain Martin Indyk, dans son analyse de l’attaque du 7 octobre 2023 qui venait de prendre les services israéliens totalement par surprise. Ce n’était pas la première fois, et certainement pas la dernière, que l’accumulation de données tactiques au moyen de technologies sophistiquées n’avait pas empêché un aveuglement stratégique catastrophique, quand elle ne l’avait pas causé en premier lieu.
Oui, l’IA peut aider à mieux gérer l’incertitude, mais elle ne la supprime pas ; elle modifie surtout la manière dont on la perçoit et dont on agit face à elle. Voici quelques idées de base sur ce sujet complexe. Première idée: l’IA permet de remplacer des prédictions uniques par des estimations probabilistes et des ensembles de scénarios. Elle n’annonce pas ce qui va se produire; elle indique ce qui est plus ou moins probable, ce qui aide à préparer plusieurs réponses possibles plutôt qu’un seul plan rigide. Cela rend l’incertitude plus explicite et plus « gérable », sans pour autant la faire disparaître.
Deuxième idée : l’IA est capable de repérer des régularités et des signaux faibles dans de très grands volumes de données, ce qui permet parfois de détecter des changements de tendance, des anomalies ou des risques émergents. En ce sens, elle peut réduire l’incertitude à court terme, sur des questions opérationnelles, par exemple en anticipant une rupture de stock, une fraude, ou une dégradation de performance, là où l’humain serait submergé par la quantité d’informations. La clé ici est la continuité: elle permet de définir des modèles stables qui reflètent les causes intrinsèques du phénomène à partir desquels on peut identifier des variations suspectes. Sans continuité, cela ne fonctionne pas.
Troisième idée : l’IA peut soutenir la prise de décision en incertitude en simulant des futurs possibles et en testant virtuellement des choix alternatifs. On ne cherche plus la décision optimale dans un monde prévisible, mais la décision la plus robuste dans plusieurs scénarios plausibles. Cela déplace la rationalité vers la gestion de la variabilité plutôt que vers la recherche d’une certitude illusoire.
Quatrième idée, souvent oubliée : l’IA ne travaille que sur des données formalisées sous forme digitale, alors qu’une grande partie de l’information pertinente, celle qui compte vraiment, n’existe pas sous cette forme. Les intentions, les motivations, les conflits latents, les sentiments, la confiance, la peur, la culture locale, les rapports de pouvoir informels ou les signaux politiques faibles sont rarement bien captés par des données quantitatives. Dans une entreprise, par exemple, les tensions entre équipes, la perte de motivation ou la créativité naissante ne sont que très imparfaitement visibles dans des indicateurs chiffrés. En géopolitique, les décisions peuvent dépendre d’éléments psychologiques, symboliques ou idéologiques qui échappent largement aux modèles. En médecine, le vécu subjectif du patient, sa manière de décrire sa douleur ou ses contraintes sociales ne se réduit pas à des constantes biologiques. Cela signifie que l’IA peut donner une impression de maîtrise alors qu’elle ignore des facteurs décisifs, non digitalisés, pour comprendre ce qui va réellement se passer.
Cinquième idée : même lorsque l’information est digitale, les données sont souvent ambiguës, incomplètes, biaisées, voire fausses. Elles reflètent des instruments de mesure imparfaits, des choix de catégorisation subjectifs, des comportements stratégiques ou des erreurs humaines. Sur les réseaux sociaux, par exemple, une partie du contenu est performatif, exagéré ou manipulé, ce qui peut fausser l’analyse des opinions. En économie, certains indicateurs masquent des réalités très hétérogènes derrière des moyennes trompeuses. En santé, les bases de données peuvent sous-représenter certains groupes de population. En outre, les données peuvent être délibérément faussées, et ce de façon massive (fake news). Si l’IA peut apprendre très efficacement à partir des données, elle apprend aussi leurs distorsions, ce qui peut produire des prédictions précises mathématiquement mais fragiles, voire erronées, sur le plan du sens. Comme disent les informaticiens, « Garbage in, garbage out ».
Sixième idée : l’IA est fondamentalement tournée vers le passé, puisqu’elle infère le futur à partir de régularités observées. C’est la limite de l’induction. Lorsque le contexte change brutalement — crises, ruptures technologiques, changements politiques, pandémies, attaques surprise — les modèles peuvent être pris en défaut. Dans ces situations, l’incertitude n’est pas seulement statistique, elle est structurelle : les règles du jeu elles-mêmes changent. L’IA gère mal ce type d’inconnu radical, car il ne ressemble à rien de déjà observé. Ces changements brutaux sont sans doute rares, mais leur impact est très important, ce qui rend l’échec de leur anticipation catastrophique. Ce sont les fameux cygnes noirs identifiés par Nicholas Taleb.
Lire la suite sur Philippesilberzahn
Commentaires
Enregistrer un commentaire