Blog Anvie

IA générative : pourquoi la réalité déçoit si souvent

De Nicolas Treuvey

Le mercredi 3 septembre 2025

Malgré l’enthousiasme et des investissements massifs, la plupart des projets d’intelligence artificielle peinent à produire les résultats attendus. Pedro Gomes Lopes, doctorant au Centre de Recherche en Gestion (i3-CRG) de l’École Polytechnique et directeur de The Swarm Initiative, et Quentin Panissod, directeur conseil de la même entreprise, analysent les raisons de ces échecs récurrents : manque d’ancrage métier, données insuffisantes, storytelling technologique… autant de pièges qui expliquent l’écart persistant entre les promesses de l’IA et son intégration effective dans les organisations.

Penser l’intelligence artificielle entre définitions, imaginaires et gestion de l’incertitude

Il est très difficile définir de manière univoque ce qu’est l’IA. L’IA a d’abord été pensée comme un dispositif imitant l’intelligence du vivant, une conception issue des travaux fondateurs de la conférence de Dartmouth (1956). Dans une perspective plus appliquée, notamment en sciences de gestion, elle est définie comme la capacité d’un système à interpréter des données externes, à apprendre de ces données et à adapter ses comportements pour atteindre des objectifs spécifiques. Cette approche met en avant l’automatisation flexible des tâches, notion couramment mobilisée dans le monde managérial.

 

Au-delà de ces définitions conceptuelles, l’IA renvoie également à une réalité technique : des logiciels qui combinent données et algorithmes, ces derniers n’étant que des suites d’opérations élaborées par des humains pour traiter l’information. Selon cette lecture, l’"intelligence" est entièrement humaine, car elle repose sur la capacité des concepteurs à structurer les données et à construire des modèles pertinents.

 

L’IA regroupe par ailleurs un ensemble de techniques issues de champs de recherche spécifiques : réseaux de neurones, systèmes experts, apprentissage profond, grands modèles de langage. Ces outils permettent de mettre en œuvre des fonctions proches de celles attribuées aux humains, la reconnaissance faciale par exemple.

 

Mais l’absence de définition stable de l’IA – au même titre que l’intelligence tout court - rend la technologie particulièrement sensible aux projections. Cette plasticité en fait une technologie marquée par une incertitude structurelle, tant sur sa nature que sur sa capacité à réaliser les promesses qui l’entourent.

 

Toujours est-il que l’enthousiasme face à cette technologie est là. Les entreprises spécialisées lèvent des fonds records, et toutes les grandes entreprises investissent dans l’IA. On attend beaucoup de cette dernière… mais sans trop savoir quoi. En effet, les cadres d’analyse habituels peinent à rendre compte de l’évolution actuelle de l’IA. Les projets en cours mêlent considérations concrètes, attentes pratiques et espoirs nourris par des imaginaires puissants. Avec, souvent, de grosses déceptions à l’arrivée.

Dépasser la hype, dépasser l’injonction technologique

L’écart entre les promesses portées par l’intelligence artificielle et la réalité des projets déployés reste, de fait, une question centrale dans les organisations. L’essor de l’IA a généré une forte injonction à "faire de l’IA", parfois sans corrélation avec les véritables besoins métiers. Chatbots, interfaces utilisateurs « augmentées » par l’IA… sont ainsi mis en place, mais sans réel ancrage dans une problématique opérationnelle. L’organisation peut alors affirmer qu’elle est « au rendez-vous de l’IA » mais ne s’est interrogé ni sur le ROI, ni sur le besoin métier.

Réussir un projet d’IA : quelques fondamentaux

L’implication d’un sponsor fort est essentielle, en particulier lorsque des décisions stratégiques doivent être prises rapidement. L’expertise métier s’avère également incontournable. Elle permet non seulement d’orienter les cas d’usage, mais aussi d’évaluer la pertinence et la performance des résultats. On peut mentionner à ce titre un projet mené à Mayotte sur la programmation urbaine, où des simulations étaient générées à partir d’images satellitaires et de données climatiques. Sans la participation active d’urbanistes et d’architectes pour évaluer la cohérence des résultats, il aurait été impossible d’estimer la valeur du projet.

 

La question de la donnée constitue un autre pilier. Selon les secteurs, les situations varient fortement : là où la banque-assurance dispose de données souvent bien structurées, le domaine de la construction souffre d’une faible standardisation. Il est donc indispensable d’évaluer en amont la qualité et la disponibilité des données pour éviter des impasses. La mise en place de "Go / No Go" constitue une bonne pratique à ce sujet : si les données, l’expertise métier ou le soutien stratégique font défaut, le projet ne doit pas être lancé.

 

Autre enjeu, celui de l’approche organisationnelle. Trop souvent, les projets se limitent à une preuve de concept, sans démarche d’apprentissage collectif. À l’inverse, certaines organisations valorisent les enseignements issus des expérimentations, même lorsqu’elles n’aboutissent pas. Cette logique d’apprentissage organisationnel – où les résultats sont partagés et documentés – favorise la montée en maturité sur le long terme.

L’IA générative, entre transformation stratégique et réalités biaisées

Les promesses associées à l’IA générative suscitent autant d’enthousiasme que de prudence. La difficulté majeure reste l’écart entre les gains annoncés et les résultats réellement observables. Le cas de Builder.ai constitue un exemple de tension entre discours technologique et réalité opérationnelle, voire de dérives du secteur. Cette entreprise avait promis la génération instantanée de services informatiques complets, allant bien au-delà de la simple écriture de code. Forte d’un discours marketing puissant et de soutiens prestigieux, dont Microsoft, la société a levé près de 500 millions d’euros avant de faire faillite. Malgré une promesse technologique ambitieuse, son chiffre d’affaires réel n’a jamais dépassé les 50 millions d’euros. Une partie de cette débâcle s’explique par un système de facturation fictive entre entités partenaires, mais surtout par une profonde dissonance entre le discours de l’entreprise et sa réalité opérationnelle.

 

Cette « affaire Builder.ai » met ainsi en lumière une dérive fréquente : la confusion entre innovation technique réelle et storytelling technologique. L’IA générative n’échappe pas à cette logique d’emballement, renforcée par des effets d’annonce et des montages communicationnels. La "due diligence" devient donc essentielle, non seulement en matière financière, mais aussi pour évaluer les limites concrètes des services promus. Ce cas illustre également combien les biais d’interprétation liés à l’imaginaire de l’automatisation – voire de la magie technologique – sont encore bien ancrés dans les usages et les discours.

Une technologie encore mal intégrée dans les organisations

Malgré la puissance symbolique que revêt l’IA générative, sa valeur ajoutée peine encore à se concrétiser au sein des entreprises. Une étude menée par le Boston Consulting Group (BCG) en 2024 révèle que… 74 % des entreprises éprouvent des difficultés à en tirer une réelle valeur. Les causes de ces échecs sont largement organisationnelles : seulement 10 % sont imputables aux modèles d’IA eux-mêmes, et 20 % aux questions de traitement ou de qualité des données. En revanche, 70 % résultent de problèmes liés à la structuration interne des entreprises. Cette donnée réaffirme un constat déjà établi dans les cycles d’innovation précédents : l’intégration d’une technologie dépend moins de sa performance brute que de sa capacité à s’insérer dans un environnement humain, culturel et opérationnel.

Une étude complémentaire menée par la Chaire FIT2 apporte un éclairage plus qualitatif sur les pratiques effectives. Deux cabinets de conseil ayant expérimenté l’IA générative dans leurs processus ont été observés. Le résultat est sans appel : des gains de temps ont été repérés à l’échelle individuelle, notamment dans la génération de premiers jets de contenus, la synthèse de documents ou la préparation de présentations. Mais, comme le souligne l’enquête, ces bénéfices « sont complètement diffus et ne produisent pas de gains d’efficacité globale ». En somme, les gains individuels ne suffisent pas à transformer les performances d’ensemble.

Une dynamique portée par les imaginaires plus que par les résultats

L’un des biais les plus puissants liés à l’IA générative réside dans les imaginaires qui l’entourent. Dans de nombreux projets, le discours technologique prime sur l’analyse rationnelle des impacts.  Par ailleurs, la valeur ajoutée de l’IA générative reste souvent revendiquée à travers des effets d’annonce, mais disparaît une fois les outils intégrés. On constate d’ailleurs un certain paradoxe : quand un projet d’IA fonctionne, on arrête généralement de parler d’IA, celle-ci devenant alors un simple logiciel métier, désenchanté de sa charge symbolique, et jugé sur ses résultats réels plus que sur sa nature technologique.

Cette déconnexion entre discours et pratique s’explique aussi par le manque de dispositifs d’analyse des risques. Très peu de projets intègrent une évaluation systématique des conséquences potentielles : biais, dépendances, impacts organisationnels, ou même effets sociaux. Pour pallier cette lacune, certains chercheurs proposent des outils combinant opportunités et menaces. Ces grilles de lecture, encore embryonnaires, sont pourtant indispensables pour permettre un pilotage plus rationnel et moins influencé par les effets de mode.

PARTAGEZ !