La semaine dernière, j’étais au Maintower de la Helaba avec 25 responsables de l’immobilier d’entreprise. Ils planifient des espaces pour plus de 250.000 postes de travail en Allemagne. Ils n’étaient pas là pour qu’on leur explique l’IA. Ils étaient là pour comprendre à quoi ressemblera le travail pour lequel ils conçoivent aujourd’hui les espaces de demain.
Cette question renvoie directement à l’un des chiffres les plus durs de l’étude Bitkom 2026 sur l’IA : 53% des entreprises allemandes citent le manque de compétences comme principal frein à l’adoption. Le réflexe est toujours le même. Plus de formation, plus de trainings, plus d’ateliers. À mon sens, cette réponse est insuffisante. Et ce, de façon structurelle.
Ce que révèle vraiment l’étude Bitkom 2026 sur l’IA
Que mesure réellement l’écart de compétences en IA?
L’étude Bitkom 2026 sur l’IA (n=604 entreprises allemandes) fournit trois chiffres qui, ensemble, dessinent une image claire. 41% des entreprises allemandes utilisent l’IA activement. Un doublement par rapport à l’année précédente. 48% prévoient son déploiement. L’IA est donc, pour près de 90% des entreprises, soit une réalité, soit une feuille de route concrète.
Mais l’étude met aussi en évidence le principal frein. 53% citent le manque de compétences de leurs collaborateurs comme obstacle numéro un. Avant la protection des données, avant l’intégration dans les processus, avant tout le reste. Dans les grandes entreprises de plus de 500 collaborateurs, l’usage dépasse 60%. Dans le Mittelstand, il est nettement inférieur. Le fossé de passage à l’échelle ne sépare donc pas « avoir des outils » et « ne pas en avoir ». Il sépare « outils déployés » et « personnes effectivement en capacité ».
- 41% – les entreprises utilisent l’IA activement (doublement vs. l’an dernier)
- 48% – prévoient un déploiement de l’IA
- 53% – manque de compétences comme principal frein
Pourquoi le réflexe de la formation ne suffit pas
C’est précisément ici que cela devient intéressant. Une étude parallèle du BCG Henderson Institute (n=1.488 salariés) met en lumière quelque chose de dérangeant. Même des collaborateurs formés et utilisateurs actifs de l’IA basculent dans une nouvelle forme de surcharge. On l’appelle AI Brain Fry et elle est mesurable.
Ceux qui supervisent activement l’IA dans leur quotidien professionnel déclarent 33% de fatigue décisionnelle en plus, 39% d’erreurs graves en plus et 39% d’intention de démissionner en plus. Dans les fonctions marketing, la part des personnes concernées atteint 26%, plus que dans toute autre fonction étudiée. La charge n’augmente pas avec l’utilisation de l’IA. Elle augmente avec la supervision de l’IA. BCG identifie en outre un seuil clair : trois outils d’IA constituent l’optimum de productivité. À partir de quatre, la performance baisse alors même que l’effort augmente.
- 33% – de fatigue décisionnelle en plus sous supervision active de l’IA
- 39% – d’erreurs graves en plus sous supervision
- 39% – d’intention de démissionner en plus
- 3 outils – optimum de productivité; à partir de 4, la performance baisse
Cela change profondément le diagnostic. L’écart de compétences n’est pas d’abord un problème de savoir. C’est un problème de responsabilité. Et aucun programme de formation ne le résout en transmettant plus de connaissances sur des outils dont on vous demande d’assumer le résultat sans pouvoir en maîtriser intégralement la chaîne.
Pourquoi plus d’agents ne riment pas avec moins de responsabilité
Qui porte la responsabilité dans une organisation agentique?
Du travail en solo à la responsabilité d’une demi-douzaine d’agents
Il y a un an, je travaillais seul. Avec un ordinateur portable, un agenda, quelques tâches récurrentes. Aujourd’hui, je suis responsable de la production d’une demi-douzaine d’agents qui rédigent des briefings, recherchent, préparent des ébauches et agrègent des données 24/7. Ce qui s’est multiplié par dix, ce n’est pas mon stress. C’est ma charge de responsabilité pour des éléments que je n’exécute plus moi-même.
C’est précisément la mise à l’échelle invisible dont nous ne parlons pas encore. Nous célébrons l’output. Nous mesurons le temps gagné. Nous affichons des slides PowerPoint avec des heures économisées. Ce que nous ne mesurons pas : l’effet sur des personnes soudain responsables de dix fois plus, sans pouvoir tout embrasser d’un regard.
La proposition réflexe dans ces discussions est la suivante : des systèmes multi-agents. Un agent en supervise cinq autres. Un agent co‑DG vérifie tout. Un agent d’assurance qualité (QA) intercepte les erreurs. C’est une idée trop courte. Il faut ajuster finement chacun de ces agents, surtout dans des processus complexes où les équipes dépendent les unes des autres. Vous avez besoin d’un savoir très précis sur le moment où ils hallucinent, là où ils formulent des hypothèses, et les décisions qu’ils ne doivent pas prendre. La réponse à la question « Qui porte la responsabilité ? » ne se résout pas en confiant une relecture à un agent QA. Vous ne faites que déplacer le problème d’un niveau.
Qui est réellement prêt à l’assumer?
La seconde couche du problème est rarement dite. Quand l’IA prend en charge des tâches répétitives, restent les travaux qui exigent jugement, responsabilité et capacité à façonner activement. Tous les collaborateurs n’y sont pas à l’aise. Beaucoup préfèrent des tâches ordonnées et répétitives, et pour de bonnes raisons. Ce type de travail offre stabilité, clarté et le sentiment d’avoir fini sa journée.
Ce n’est pas un jugement. C’est un constat que tout dirigeant fait en regardant honnêtement son équipe. Mais ce sont précisément ces tâches qui perdent leur assise dans une organisation agentique. Les tâches ordonnées et répétitives sont l’application naturelle des agents et migrent là où elles doivent être. Ce qui reste aux personnes, c’est la responsabilité de la solidité du résultat.
Cela transforme en profondeur la discussion sur les compétences en IA. L’enjeu n’est pas d’abord d’apprendre aux personnes à utiliser l’IA. Il s’agit de développer la prise de responsabilité, la disposition à répondre d’un résultat qu’elles ne produisent plus elles-mêmes dans le détail. Cette disposition se travaille. Mais elle doit être abordée d’emblée, pas en dernier. Et elle doit être intégrée aux recrutements, au management et au développement des équipes, pas seulement au moment du déploiement de l’IA.
Ce que disent les données
Les données de marché valident ces deux points. Gartner prévoit que plus de 40% de tous les projets d’IA agentique en cours seront abandonnés d’ici fin 2027. Non pas par manque de technologie, mais faute de valeur métier claire, en raison de coûts qui s’emballent et d’un contrôle des risques insuffisant. McKinsey ajoute dans le State of AI Trust 2026 qu’à peine un tiers des organisations atteignent un niveau de maturité 3 ou plus en stratégie, gouvernance et pilotage de l’IA agentique. Une analyse de Berkeley est explicite : 80% des organisations signalent des comportements à risque de leurs agents, de l’accès non autorisé aux données à des interactions systèmes inattendues. Seules 21% disposent d’un modèle de gouvernance abouti.
- >40% – de projets d’IA agentique abandonnés d’ici 2027
- 1/3 – atteint un niveau de maturité 3+ en stratégie/gouvernance
- 80% – signalent des comportements à risque des agents
- 21% – disposent d’un modèle de gouvernance abouti
C’est la nouvelle limite de l’organisation agentique à l’échelle. Pas la technologie. Mais la capacité des personnes à assumer la responsabilité qui s’accroît avec chaque agent supplémentaire. Certains le veulent. Beaucoup non. Les deux réactions sont légitimes. Et toutes deux doivent trouver leur place dans la stratégie.
Trois étapes qui aident vraiment
Comment commencer maintenant?
Si l’écart de compétences n’est pas un problème de savoir, mais de responsabilité, les programmes de formation classiques ne sont pas la bonne réponse. Ce qui aide est étonnamment simple. Trois étapes que nous avons mises en œuvre chez faive et que nous recommandons à toute équipe qui veut obtenir de l’IA plus que des gains d’efficacité à court terme. À condition que la question de la prise de responsabilité soit clarifiée dans l’équipe.
1. Rendre visibles les processus de bout en bout avant de les automatiser. Vous ne pouvez pas assumer ce que vous ne comprenez pas. Avant que le premier agent n’opère dans un processus, il faut clarifier : quelles étapes le composent ? Quelles décisions sont prises ? Quelles sont les entrées et sorties à chaque étape ? Où le jugement humain est-il indispensable ? Ce travail a longtemps semblé trop lourd. Des cabinets le réalisaient pour des montants élevés. Aujourd’hui, vous pouvez le faire sur une pause déjeuner.
2. Utiliser l’IA pour capturer vos processus. Concrètement : enregistrez un processus récurrent avec Loom ou une capture d’écran. Chargez l’enregistrement ou sa transcription dans un LLM et utilisez un prompt clairement structuré. Chez faive, nous utilisons cette variante :
"Vous êtes analyste des processus. Ci-joint une vidéo ou la transcription d’une collaboratrice qui exécute une tâche récurrente. Produisez : (1) un diagramme de flux Mermaid des étapes, (2) une liste de toutes les décisions avec leurs critères, (3) une liste des entrées et sorties par étape, (4) un repérage des étapes où le jugement humain est indispensable. Restez bref et précis."
Ce qui demandait autrefois deux semaines de documentation de processus prend aujourd’hui une heure. Et cette visibilité est précisément le préalable pour briefer utilement un agent.
3. Définir les droits de décision avant de lancer l’agent. Deloitte et Berkeley vont dans le même sens : les agents ont besoin de droits de décision clairs. Qu’a le droit de décider l’agent seul ? Ce qu’il doit escalader ? Quels outputs un humain doit-il impérativement contresigner ? Répondre à ces questions avant le déploiement fait la différence entre un agent productif et un risque de conformité avec une jolie interface.
- Rendre visibles les processus Avant qu’un agent n’opère, les étapes, décisions, entrées et sorties doivent être claires. La visibilité inclut aussi les points où le jugement humain est indispensable. Ce qui paraissait jadis trop coûteux se fait aujourd’hui sur une pause déjeuner.
- Capture de processus assistée par IA Documenter les workflows récurrents par capture d’écran, puis envoyer l’enregistrement ou la transcription à un LLM. Avec un prompt structuré, vous obtenez diagramme de flux, listes de décisions et d’I/O en environ une heure au lieu de deux semaines.
- Droits de décision définis en amont Déterminer ce que l’agent peut décider seul, ce qu’il doit escalader et quels outputs doivent être contresignés. Des droits clarifiés avant le déploiement séparent l’usage productif du risque.
Conclusion
Le chiffre Bitkom de 53% d’écart de compétences est réel. Mais il ne mesure pas ce que l’on croit. Il ne mesure pas d’abord un manque de connaissances en IA chez les collaborateurs. Il mesure surtout que les organisations allemandes manquent de deux éléments : des structures permettant aux personnes d’assumer la responsabilité liée à l’IA qu’on leur confie. Et des personnes prêtes à assumer cette responsabilité, plutôt que de poursuivre des tâches ordonnées qui, dans un monde agentique, n’existeront tout simplement plus.
La responsabilité ne passe pas à l’échelle avec les outils. Elle s’étend avec la connaissance des processus et avec des personnes prêtes à assumer la responsabilité. Les deux sont aujourd’hui plus rapides et moins coûteux à développer que jamais. Si vous ne deviez lancer qu’une seule chose cette semaine, enregistrez un processus récurrent de votre équipe et faites-en produire un diagramme par l’IA. Vous serez surpris de ce que vous verrez. Et peut-être aussi de la personne avec qui vous voudrez parler d’abord dans votre équipe.
Curieux d'en savoir plus ?
Découvrons ensemble comment appliquer ces approches dans votre organisation.
Prendre rendez-vous