95% des projets IA échouent. Et si le problème n’était pas l’IA ?
Pourquoi 30 à 40 milliards de dollars d’investissement ne produisent rien, et ce que font les 5% qui réussissent. Série "L'IA qui Rapporte" — Article 1/6
Vous êtes dirigeant, manager, ou responsable de la transformation digitale. Chaque semaine, un éditeur de logiciel ou un consultant vous promet que l’intelligence artificielle va révolutionner votre entreprise. “40% de gains de productivité”, “ROI en 3 mois”, “transformation radicale de vos opérations”.
Puis vous regardez la réalité. Votre pilote IA traîne depuis six mois. Les équipes ne l’utilisent pas. Le budget a dérapé. Et quand vous demandez au DSI de chiffrer l’impact réel, un silence gêné s’installe dans la salle de réunion.
Vous n’êtes pas seul. Vous faites partie d’une majorité écrasante.
Le verdict des chiffres
En juillet 2025, le MIT a publié un rapport qui a fait l’effet d’une douche froide dans l’industrie tech. L’étude, menée par le projet NANDA (Networked Agents and Decentralized Architecture), s’appuie sur l’analyse de plus de 300 initiatives IA publiques, des entretiens avec 52 organisations et un sondage auprès de 153 dirigeants. Sa conclusion est sans appel : malgré 30 à 40 milliards de dollars investis dans l’IA générative par les entreprises, 95% des pilotes ne produisent aucun impact mesurable sur le compte de résultats. Seuls 5% des projets intégrés génèrent une valeur significative.
(Source : MIT NANDA, “The GenAI Divide: State of AI in Business 2025”, juillet 2025)
Ce chiffre n’est pas isolé. Il s’inscrit dans un faisceau de données convergentes :
S&P Global Market Intelligence a publié en 2025 une enquête auprès de plus de 1 000 entreprises en Amérique du Nord et en Europe. Résultat : 42% des entreprises ont abandonné la majorité de leurs initiatives IA cette année. Ce chiffre était de 17% l’année précédente. En un an, le taux d’abandon a plus que doublé. L’organisation moyenne abandonne 46% de ses preuves de concept avant qu’elles n’atteignent la production.
La RAND Corporation confirme que plus de 80% des projets IA échouent, soit environ le double du taux d’échec des projets informatiques traditionnels.
Gartner, en février 2025, a publié une prédiction qui a fait le tour des directions informatiques : d’ici 2026, les organisations abandonneront 60% de leurs projets IA non soutenus par des données “AI-ready”. L’enquête sous-jacente montre que 63% des organisations n’ont tout simplement pas les bonnes pratiques de gestion de données pour supporter l’IA.
Et puis il y a le chiffre McKinsey. En novembre 2025, le cabinet a publié son enquête annuelle “The State of AI”, basée sur les réponses de 1 993 cadres dirigeants dans 105 pays. Le constat est implacable : 88% des entreprises disent utiliser l’IA dans au moins une fonction. Mais seulement 39% rapportent un quelconque impact sur leurs résultats financiers (EBIT). Parmi celles-ci, la grande majorité indique un impact inférieur à 5% de leur EBIT total.
Autrement dit : la quasi-totalité des entreprises a acheté le billet. Presque personne n’a fait le voyage.
(Sources : S&P Global 2025 ; RAND Corporation 2024 ; Gartner Press Release, fév. 2025 ; McKinsey “The State of AI: Global Survey”, nov. 2025)
Le réflexe qui tue : accuser la technologie
Face à ces chiffres, la réaction instinctive est de pointer du doigt la technologie. “Les modèles ne sont pas assez matures, ils hallucinent trop.” “Claude n’est pas fiable pour nos cas d’usage.” “L’infrastructure n’est pas prête.”
C’est confortable mais c’est faux.
Le rapport MIT NANDA est catégorique sur ce point. La ligne de fracture entre les 5% qui réussissent et les 95% qui échouent n’est déterminée ni par la qualité des modèles, ni par la réglementation, ni par le budget investi. Elle est déterminée par l’approche.
Les chercheurs du MIT identifient ce qu’ils appellent le “Learning Gap” : les outils déployés en entreprise ne retiennent pas le feedback, ne s’adaptent pas au contexte et ne s’améliorent pas dans le temps. Mais ce problème n’est pas fondamentalement technologique. Il découle d’un défaut organisationnel plus profond : les entreprises tentent de greffer de l’IA sur des processus qu’elles n’ont jamais pris la peine de comprendre, de mesurer, ni d’optimiser.
Je répète un mantra depuis des années : “On ne peut pas améliorer ce qu’on ne peut pas mesurer.” Cette vérité s’applique doublement à l’IA. Si vous ne savez pas précisément ce que fait votre processus aujourd’hui (combien de temps prend chaque étape, où sont les goulots d’étranglement, quelles sont les sources d’erreur) comment pouvez-vous espérer qu’un algorithme fasse mieux ?
L’IA ne structure pas le chaos. Elle s’y noie.
Ce que font les 5% qui réussissent
McKinsey définit les “high performers” comme les organisations qui rapportent un impact EBIT supérieur à 5% attribuable à l’IA et déclarent en tirer une valeur significative. Ils représentent environ 6% des répondants.
Voici la découverte qui devrait changer votre façon de penser tout projet IA :
Parmi 25 facteurs organisationnels testés, le prédicteur numéro un de succès IA est le redesign de workflow.
Pas le modèle choisi. Pas le budget alloué. Pas la taille de l’équipe data science. Le redesign de workflow.
Les high performers sont près de trois fois plus susceptibles que les autres d’avoir fondamentalement redesigné leurs processus de travail dans le cadre de leur déploiement IA. Ce n’est pas un détail méthodologique. C’est, selon l’analyse de McKinsey, le facteur ayant la contribution la plus forte à l’atteinte d’un impact business significatif.
(Source : McKinsey, “The State of AI: Global Survey”, nov. 2025 — analyse de poids relatifs sur 31 variables)
Le rapport MIT NANDA converge vers la même conclusion par un chemin différent. Il observe que plus de la moitié des budgets IA sont orientés vers des fonctions visibles comme les ventes et le marketing, alors que le meilleur retour sur investissement se trouve dans l’automatisation du back-office : réduction des coûts d’externalisation, élimination des frictions opérationnelles, accélération des processus de clôture comptable. Les fonctions juridiques, achats et finance offrent des gains moins spectaculaires mais beaucoup plus durables.
Le MIT note également que les outils développés par des partenaires spécialisés externes réussissent environ deux fois plus souvent que les développements internes. Ce chiffre est contre-intuitif pour beaucoup de DSI qui pensent que la construction interne garantit un meilleur ajustement aux besoins. La réalité est que la plupart des équipes internes sous-estiment la complexité de l’intégration workflow et sur-estiment leur capacité à construire des systèmes adaptatifs.
Le problème fondamental : automatiser le gaspillage
Henry Ford écrivait en 1922 cette phrase devenue célèbre : “Beaucoup de gens s’affairent à trouver de meilleures façons de faire des choses qui ne devraient pas être faites du tout.”
Un siècle plus tard, Deloitte cite cette même phrase dans son rapport sur l’IA agentique 2025. Parce que le problème n’a pas changé. Il s’est simplement accéléré.
Dans la pratique du Lean Six Sigma, nous appelons “Muda” tout ce qui constitue du gaspillage : une étape inutile, un rapport que personne ne lit, une validation redondante, un transfert d’information qui n’ajoute pas de valeur. Le système de production Toyota a identifié sept formes de gaspillage il y a plus de cinquante ans. Ces formes existent toujours, amplifiées par le numérique.
Automatiser un Muda avec de l’IA ne supprime pas le gaspillage. Cela ne fait qu’accélérer la production de déchets à une échelle industrielle.
Prenons un exemple concret. Imaginez que votre équipe produit chaque semaine un rapport de 20 pages destiné à la direction. Personne ne le lit en entier. Les deux seules métriques qui comptent pourraient tenir dans un email de trois lignes. Mais le rapport existe depuis cinq ans, “parce qu’on a toujours fait comme ça”.
Maintenant, vous déployez un agent IA pour générer ce rapport automatiquement. Résultat ? Le rapport est produit en 10 minutes au lieu de 4 heures. Mais il reste un rapport que personne ne lit. Vous avez juste économisé 4 heures sur une tâche qui n’aurait jamais dû exister et vous avez ajouté un coût API, un coût de maintenance, et un coût de supervision pour vérifier que l’agent n’hallucine pas.
C’est précisément ce que le MIT appelle la “Shadow AI Productivity Illusion” : la productivité individuelle augmente, mais cela se traduit rarement en rentabilité réelle parce que les gains ne sont pas systématisés dans des processus repensés.
La hiérarchie qui change tout
Mon expérience m’a conduit à formaliser une approche en trois niveaux que j’appelle l’Échelle de l’Efficacité. C’est une hiérarchie stricte, et l’ordre compte.
Niveau 1 : Le Lean — Supprimer avant d’automatiser
Avant toute chose, on questionne l’utilité. Si une tâche est un gaspillage, on ne l’automatise pas, on la supprime. On assainit les flux pour qu’ils soient fluides et logiques.
C’est l’étape que 95% des projets IA sautent et c’est la raison principale de leur échec.
Le test est simple. Pour chaque tâche candidate à l’automatisation, posez une seule question : “Si on arrêtait de faire ça pendant trois semaines, quelle décision ne pourrait plus être prise / qui s’en apercevrait ?” Si la réponse est “aucune / personne”, la tâche est un Muda. La supprimer coûte zéro euro et rapporte immédiatement.
Niveau 2 : L’automatisation classique — Fiabiliser les règles
Une fois le processus nettoyé, on automatise ce qui peut l’être par des règles strictes : scripts, macros, RPA (Robotic Process Automation). C’est l’étape où l’on garantit une fiabilité de 100% à un coût marginal.
McKinsey estime qu’environ 40% des tâches de bureau n’ont pas besoin d’IA. Elles peuvent être automatisées par des scripts classiques. Un script Python de 50 lignes qui copie des données d’un fichier Excel vers un CRM coûte quelques centimes par exécution, ne produit jamais d’hallucination et s’exécute en millisecondes. Un appel API à un LLM pour la même tâche coûte dix à cent fois plus, prend plusieurs secondes et peut occasionnellement inventer des données.
Niveau 3 : L’IA agentique — Augmenter l’humain sur l’imprévu
Ce n’est qu’en dernier lieu qu’on déploie un agent IA, et uniquement sur ce qui résiste à l’automatisation classique : les tâches nécessitant de la compréhension contextuelle, de la synthèse multi-sources, ou du jugement face à la variabilité.
Un agent IA est pertinent si la tâche répond à trois critères simultanés :
La variabilité : l’entrée change à chaque fois (un email client est unique).
L’analyse : il faut croiser des sources, comparer, interpréter.
La structuration : il faut transformer du texte libre en décision structurée.
Si un seul de ces critères est absent, l’IA est probablement surdimensionnée pour la tâche.
La preuve par les études contrôlées
Ce cadre n’est pas une théorie abstraite. Il est validé par les études randomisées contrôlées (RCT) les plus rigoureuses disponibles.
L’étude Stanford/MIT sur les centres d’appels (Brynjolfsson, Li & Raymond, publiée dans le Quarterly Journal of Economics en 2024) a suivi 5 172 agents de support technique. L’IA générative a permis une hausse de 14 à 15% du nombre de tickets résolus par heure. Mais le gain est concentré chez les agents juniors : les novices rattrapent les experts. Les top performers, eux, gagnent peu, voire régressent en cas de sur-dépendance à l’outil. La leçon : l’IA nivelle par le haut sur des tâches répétitives et bien délimitées.
L’étude Harvard/BCG (Dell’Acqua et al., 2024) a testé GPT-4 auprès de 758 consultants sur des tâches réelles de consulting. Les résultats révèlent ce que les chercheurs appellent la “frontière technologique dentée” (Jagged Technological Frontier). À l’intérieur de cette frontière, là où l’IA excelle : les consultants complètent 12% de tâches supplémentaires, 25% plus vite, avec une qualité perçue supérieure de 40%. Mais à l’extérieur de la frontière, quand la tâche dépasse les capacités du modèle : la précision chute de 19 points par rapport au groupe contrôle. L’IA ne fait pas “moins bien”, elle induit activement en erreur.
Le California Management Review a publié en 2025 une méta-analyse intitulée “Seven Myths about AI and Productivity” qui synthétise ces résultats. La conclusion est nette : les gains individuels sur des tâches spécifiques sont réels (10 à 25% selon la tâche), mais les gains agrégés au niveau de l’entreprise (P&L, productivité globale) restent modestes voire inexistants à ce stade. Le chaînon manquant entre les deux ? La transformation organisationnelle. Sans redesign des processus, les gains micro se dissipent dans la friction structurelle.
(Sources : Brynjolfsson et al., QJE 2024 ; Dell’Acqua et al., Harvard Business School 2024 ; California Management Review, 2025)
L’éléphant dans la salle : le “GenAI Divide” n’est pas nouveau
Il faut être honnête intellectuellement. Le chiffre de 95% d’échec a fait couler beaucoup d’encre et il mérite d’être contextualisé.
Les projets informatiques classiques échouent aussi massivement. Le célèbre rapport CHAOS (Standish Group) rapportait un taux d’échec de 61% pour les projets IT, montant à 98% pour les grands projets complexes. Forbes citait en 2016 un taux d’échec de 84% pour les transformations IT. McKinsey notait qu’un projet IT sur 200 seulement respecte le budget et le calendrier prévu.
Autrement dit, le 95% d’échec IA est élevé, mais pas radicalement différent du taux de base des grands projets de transformation technologique. C’est justement là que réside l’argument : l’IA n’est pas un projet technologique spécial qui nécessite une approche spéciale. C’est un projet de transformation organisationnelle qui nécessite la même rigueur que toute transformation. On peut même dire qu’il la nécessite encore davantage, parce que les systèmes probabilistes amplifient les défauts des processus au lieu de les absorber.
Un script déterministe planté sur une donnée corrompue va simplement s’arrêter. Un agent IA nourri de données corrompues va produire un résultat plausible mais faux, avec suffisamment d’assurance pour que personne ne le remette en question. C’est le principe GIGO (Garbage In, Garbage Out) porté à une puissance supérieure.
Et maintenant ? Votre autodiagnostic en 5 questions
Avant de lancer (ou de relancer) un projet IA, posez-vous ces cinq questions. Si vous ne pouvez pas répondre “oui” à au moins quatre d’entre elles, vous avez besoin d’un chantier Lean, pas d’un agent IA.
1. Avez-vous cartographié le processus tel qu’il est réellement exécuté (pas tel qu’il est décrit dans le manuel de procédure) ? La plupart des entreprises ont un processus “officiel” et un processus “réel” qui divergent considérablement. L’IA va s’appuyer sur ce que vous lui donnez, pas sur ce qui se passe vraiment.
2. Vos données sources sont-elles fiables à 90% minimum ? Gartner prédit que 60% des projets IA seront abandonnés d’ici 2026 faute de données AI-ready. Si vos données ne sont pas propres, la priorité est le nettoyage, pas l’automatisation.
3. Savez-vous où est votre goulot d’étranglement ? Si votre goulot est la validation humaine (votre directeur technique qui approuve 5 dossiers par jour), automatiser la production en amont ne sert qu’à créer un embouteillage plus gros.
4. La tâche que vous voulez automatiser a-t-elle un destinataire clair qui en tire une valeur décisionnelle ? Si personne ne prend de décision différente grâce à ce livrable, c’est un Muda. Le supprimer vous rapportera plus que l’automatiser.
5. Avez-vous une mesure baseline instrumentée (temps, qualité, coût) avant le déploiement ? Sans baseline, vous ne pourrez jamais prouver le ROI. Sans preuve de ROI, votre projet IA mourra au prochain arbitrage budgétaire.
Ce que nous venons de voir, et la suite
Les données 2025 sont sans ambiguïté. L’IA générative fonctionne sur des tâches spécifiques, bien délimitées, dans des processus préalablement assainis. Les gains documentés sont réels : 14% de productivité en centre d’appels, 25% de vitesse en consulting, moins 25% de temps sur l’email.
Mais ces gains restent piégés au niveau individuel tant que l’organisation ne redesigne pas ses processus. McKinsey le confirme : le facteur numéro un qui sépare les 6% de high performers du reste, c’est la transformation des workflows, pas la sophistication technologique.
La bonne nouvelle ? Si vous venez du monde de l’excellence opérationnelle — Lean, Six Sigma, SAFe — vous possédez déjà les outils pour rejoindre ces 5%. Le Value Stream Mapping, l’analyse des goulots d’étranglement, la standardisation par SOP, la mesure statistique de la qualité des données : ce sont exactement les compétences que les projets IA qui réussissent mobilisent.
L’IA n’est pas un projet informatique. C’est un projet d’excellence opérationnelle.
C’est précisément ce que nous allons explorer dans les prochains articles de cette série.
Dans le prochain article : “Les 3 Gaspillages Numériques qui tuent vos projets IA avant même qu’ils commencent” — comment le Workslop, les données sales et le savoir emprisonné dans les silos sabotent vos investissements technologiques, et comment les éliminer avec les outils du Lean.
Sources citées dans cet article
MIT NANDA (juil. 2025) — “The GenAI Divide: State of AI in Business 2025”. Auteurs : Aditya Challapally, Chris Pease, Ramesh Raskar, Pradyumna Chari. Analyse de 300+ initiatives, 52 entretiens organisationnels, 153 réponses de dirigeants. Couverture : Fortune (18 août 2025).
McKinsey & Company (nov. 2025) — “The State of AI: Global Survey 2025”. Enquête auprès de 1 993 cadres dirigeants dans 105 pays. Analyse de poids relatifs sur 31 variables identifiant le redesign de workflow comme facteur #1 de succès.
S&P Global Market Intelligence (2025) — Enquête auprès de 1 000+ entreprises en Amérique du Nord et Europe. 42% d’abandon des initiatives IA (vs 17% en 2024).
RAND Corporation (2024) — Analyse transversale. Taux d’échec IA >80%, soit environ 2× le taux des projets IT non-IA.
Gartner (fév. 2025) — “Lack of AI-Ready Data Puts AI Projects at Risk”. Prédiction : 60% des projets IA abandonnés d’ici 2026. 63% des organisations sans pratiques data adaptées à l’IA.
Brynjolfsson, E., Li, D. & Raymond, L. (2024) — “Generative AI at Work”. Quarterly Journal of Economics, Vol. 140, Issue 2. Étude RCT, 5 172 agents de call center.
Dell’Acqua, F. et al. (2024) — “Navigating the Jagged Technological Frontier”. Harvard Business School Working Paper. 758 consultants BCG.
California Management Review (2025) — “Seven Myths about AI and Productivity: What the Evidence Really Says”. Méta-analyse des études empiriques.
Deloitte (2025) — “Emerging Technology Trends”. 30% explorent, 38% pilotent, 14% prêts à déployer, 11% en production pour l’IA agentique.


