
Parler d’échec est une facilité intellectuelle.
Affirmer que l’IA aurait déjà échoué dans l’éducation professionnelle relève davantage de la posture morale que de l’analyse sérieuse.
En 2026, l’IA n’a pas failli : elle a dérangé. Elle a remis en cause des équilibres établis, des rentes pédagogiques et une vision romantique de la formation, largement déconnectée des enjeux de santé publique, d’employabilité et d’efficacité collective.
Le véritable malaise n’est pas technologique. Il est politique et culturel. L’IA introduit dans l’éducation professionnelle une logique de pilotage par la donnée et de décision fondée sur l’expertise. Ceux qui parlent d’échec sont souvent ceux qui refusent cette redistribution de l’autorité.
Ce que l’on appelle “échec” est en réalité une résistance
L’IA a été introduite dans la formation professionnelle avec un objectif clair : réduire les écarts de compétences, améliorer l’adéquation formation–emploi et fiabiliser les parcours.
Les premiers résultats ont été inégaux, non pas parce que les modèles sont inefficaces, mais parce que les systèmes éducatifs ont opposé une résistance structurelle.
Les organisations de formation ont accepté l’IA comme outil d’assistance, jamais comme instrument de gouvernance. Or l’IA révèle ce que beaucoup préfèrent ignorer :
• certaines formations n’aboutissent à rien
• certains parcours sont inefficients
• certaines compétences enseignées n’ont plus de valeur mesurable
Lorsque l’IA met ces réalités en lumière, on parle d’échec pour éviter de parler de responsabilité. L’algorithme devient le bouc émissaire d’un système qui refuse d’être évalué objectivement.
Là où l’IA fonctionne : santé, compétences critiques, décisions difficiles
Il existe pourtant des domaines où le débat est déjà tranché.
Dans la santé, dans la formation médicale et paramédicale, l’IA structure des parcours fondés sur des données réelles : taux d’erreur, exposition aux cas critiques, progression mesurée dans le temps.
Ici, personne ne parle d’échec. On parle de sécurité, de qualité des soins et de responsabilité collective.
Pourquoi cette acceptation ? Parce que l’enjeu dépasse l’idéologie.
Lorsqu’il s’agit de former des professionnels dont les décisions impactent directement la vie humaine, l’approximation pédagogique n’est plus tolérable.
L’IA permet alors :
• d’identifier précocement les fragilités
• de personnaliser les entraînements à risque
• d’objectiver les décisions de certification
Dans ces contextes, la gouvernance par la donnée n’est pas une menace, mais une garantie.
Ceux qui dénoncent une “déshumanisation” oublient commodément que l’absence de mesure a longtemps produit des injustices silencieuses.
Gouverner la formation par l’expertise, pas par l’illusion égalitaire
Le cœur du rejet de l’IA éducative réside dans une illusion persistante : celle d’une formation professionnelle égalitaire par principe.
Or tous les apprenants n’ont pas les mêmes besoins, les mêmes capacités ni les mêmes trajectoires. Refuser de l’admettre, c’est produire de l’échec à grande échelle.
L’IA permet de faire ce que les systèmes humains font mal :
• arbitrer à grande échelle
• prioriser les investissements de formation
• orienter vers les parcours où l’impact social est maximal
Oui, cela implique des choix.
Oui, cela concentre le pouvoir décisionnel entre les mains d’experts, de data scientists, d’institutions capables d’assumer ces arbitrages.
Mais l’alternative — laisser chaque acteur décider isolément, sans vision globale — est un luxe que les sociétés complexes ne peuvent plus se permettre.
L’éducation professionnelle n’est pas un espace d’expression individuelle. C’est une infrastructure critique, au même titre que la santé ou l’énergie. Et toute infrastructure critique nécessite une gouvernance forte.
L’IA n’a pas échoué, elle oblige à choisir.
L’IA n’a pas échoué dans l’éducation professionnelle. Elle a mis en évidence une vérité dérangeante : former sans mesurer, orienter sans données et certifier sans preuve n’est plus acceptable.
Ceux qui parlent d’échec défendent en réalité un modèle fondé sur l’opacité et l’approximation.
En 2026, le choix est clair.
Soit l’on accepte une éducation professionnelle pilotée par l’expertise, la donnée et l’impact mesurable — au risque de concentrer le pouvoir et d’assumer des décisions difficiles.
Soit l’on renonce, et l’on accepte un système inefficace, inégal et coûteux, par confort idéologique.
L’IA ne décide pas à notre place. Elle révèle ce que nous refusons de décider nous-mêmes. Et c’est précisément pour cela qu’elle dérange autant.
Mark Wilson



