BlogStrategy27. April 2026

KI-Kompetenzlücke 2026: Warum Schulung nicht reicht und Ownership entscheidet

Bitkom 2026: 53% nennen fehlende KI-Kompetenz als größte Hürde. Warum mehr Trainings die Lücke nicht schließen und welche drei Schritte wirklich helfen.

Fabian Ulitzka8 Min

Letzte Woche saß ich im Maintower der Helaba mit 25 Verantwortlichen aus dem Corporate Real Estate. Sie planen Räume für über 250.000 Arbeitsplätze in Deutschland. Sie waren nicht da, um sich KI erklären zu lassen. Sie waren da, weil sie verstehen müssen, wie die Arbeit aussieht, für die sie morgen die Räume bauen.

Diese Frage hängt direkt an einer der härtesten Zahlen der diesjährigen Bitkom-KI-Studie: 53% der deutschen Unternehmen nennen fehlende Kompetenz als größte Hürde bei der KI-Einführung. Der Reflex ist immer derselbe. Mehr Schulung, mehr Trainings, mehr Workshops. Ich glaube, das greift zu kurz. Und zwar systematisch.


Was die Bitkom-KI-Studie 2026 wirklich zeigt

Was misst die KI-Kompetenzlücke wirklich?

Die Bitkom-KI-Studie 2026 (n=604 deutsche Unternehmen) liefert drei Zahlen, die zusammen ein klares Bild ergeben. 41% der deutschen Unternehmen setzen KI aktiv ein. Eine Verdopplung gegenüber dem Vorjahr. 48% planen den Einsatz. Damit ist KI für rund 90% aller Unternehmen entweder Realität oder konkrete Roadmap.

Doch die Studie zeigt auch die Bremse. 53% nennen die fehlende Kompetenz der eigenen Mitarbeitenden als wichtigsten Hinderungsgrund. Vor Datenschutz, vor Prozess-Integration, vor allem anderen. Bei Großunternehmen mit über 500 Mitarbeitenden liegt die Nutzung bei über 60%. Im Mittelstand deutlich darunter. Der Skalierungsgraben sitzt also nicht zwischen "Tools haben" und "Tools nicht haben". Er sitzt zwischen "Tools eingeführt" und "Menschen befähigt".

  • 41% – Unternehmen nutzen KI aktiv (Verdopplung ggü. Vorjahr)
  • 48% – planen den KI-Einsatz
  • 53% – fehlende Kompetenz als größte Hürde

Warum der Schulungs-Reflex zu kurz greift

Genau hier wird es interessant. Eine parallel veröffentlichte Studie des BCG Henderson Institute (n=1.488 Beschäftigte) zeigt etwas Verstörendes. Selbst Mitarbeitende, die geschult sind und KI aktiv nutzen, geraten in eine neue Form der Überlastung. Sie heißt AI Brain Fry und sie ist messbar.

Wer KI in seinem Arbeitsalltag aktiv überwacht, berichtet 33% mehr Decision Fatigue, 39% mehr schwere Fehler und 39% höhere Kündigungsabsicht. In Marketing-Funktionen liegt der Anteil der Betroffenen bei 26%, höher als in jeder anderen untersuchten Funktion. Die Belastung steigt nicht mit der Nutzung von KI. Sie steigt mit der Aufsicht über KI. BCG findet zudem ein klares Schwellen-Muster: Drei KI-Tools sind das Produktivitäts-Optimum. Ab vier Tools sinkt die Performance, obwohl der Aufwand steigt.

  • 33% – mehr Decision Fatigue bei aktiver KI-Aufsicht
  • 39% – mehr schwere Fehler unter Aufsicht
  • 39% – höhere Kündigungsabsicht
  • 3 Tools – Produktivitäts-Optimum; ab 4 sinkt Performance

Das verändert die Diagnose grundlegend. Die Kompetenzlücke ist nicht primär ein Wissensproblem. Sie ist ein Verantwortungsproblem. Und kein Schulungsprogramm der Welt löst das, indem es Menschen mehr Wissen über Tools vermittelt, deren Output sie verantworten sollen, ohne ihn vollständig zu überblicken.


Warum mehr Agenten nicht weniger Verantwortung bedeuten

Wer trägt die Verantwortung in einer agentischen Organisation?

Vom Alleinarbeiten zur Verantwortung für ein halbes Dutzend Agenten

Vor einem Jahr habe ich allein gearbeitet. Mit einem Notebook, einem Kalender, ein paar wiederkehrenden Aufgaben. Heute verantworte ich den Output von einem halben Dutzend Agenten, die rund um die Uhr Briefings schreiben, recherchieren, Entwürfe vorbereiten und Daten zusammenziehen. Was sich verzehnfacht hat, ist nicht mein Stress. Es ist meine Verantwortungs-Last für Dinge, die ich nicht mehr selbst tue.

Genau das ist die unsichtbare Skalierung, über die wir bisher nicht reden. Wir feiern den Output. Wir messen die gesparte Zeit. Wir präsentieren PowerPoint-Folien mit Stundenersparnissen. Was wir nicht messen: Was es mit Menschen macht, die plötzlich für das Zehnfache verantwortlich sind, ohne das Zehnfache überblicken zu können.

Der reflexhafte Vorschlag in diesen Diskussionen lautet: Multi-Agent-Systeme. Ein Agent überwacht fünf andere. Ein Co-CEO-Agent prüft alles. Ein QA-Agent fängt die Fehler ab. Das ist zu kurz gedacht. Du musst jeden einzelnen dieser Agenten fine-tunen, vor allem in komplexeren Prozessen, in denen Teams voneinander abhängen. Du brauchst sehr detailliertes Wissen darüber, wann sie halluzinieren, wo sie Annahmen treffen, welche Entscheidungen sie nicht treffen sollten. Die Antwort auf die Frage "Wer trägt die Verantwortung?" wird nicht damit gelöst, dass ein QA-Agent die anderen reviewt. Du verschiebst das Problem nur eine Ebene höher.

Wer ist überhaupt bereit, sie zu tragen?

Die zweite Schicht des Problems wird selten ausgesprochen. Wenn KI repetitive Aufgaben übernimmt, bleibt die Arbeit, die Urteilsvermögen, Verantwortung und aktives Mitgestalten verlangt. Nicht jeder Mitarbeitende ist dafür gemacht. Viele Menschen bevorzugen geordnete, wiederkehrende Tätigkeiten und das aus guten Gründen. Diese Form der Arbeit liefert Stabilität, Klarheit, ein Gefühl, am Ende des Tages fertig zu sein.

Das ist keine Wertung. Es ist eine Beobachtung, die jede Führungskraft kennt, die ihr Team ehrlich anschaut. Aber genau diese Form der Arbeit verliert in einer agentischen Organisation den Boden unter den Füßen. Geordnete, wiederkehrende Tätigkeiten sind der natürliche Anwendungsfall für Agenten und sie wandern dorthin, wo sie hingehören. Was bei den Menschen bleibt, ist die Verantwortung dafür, dass das Ergebnis trägt.

Das verändert die Diskussion über KI-Kompetenz fundamental. Es geht nicht primär darum, Menschen die Anwendung von KI beizubringen. Es geht darum, ihnen Ownership zu vermitteln, die Bereitschaft, für ein Ergebnis einzustehen, das sie nicht mehr im Detail selbst produzieren. Diese Bereitschaft kann man entwickeln. Aber sie muss als Erstes auf den Tisch kommen, nicht als Letztes. Und sie muss in Hiring, Führung und Teamentwicklung mitgedacht werden, nicht erst beim KI-Rollout.

Was die Daten dazu sagen

Die Marktdaten validieren beides. Gartner prognostiziert, dass über 40% aller laufenden Agentic-AI-Projekte bis Ende 2027 abgebrochen werden. Nicht wegen fehlender Technologie, sondern wegen unklarem Geschäftswert, eskalierender Kosten und fehlender Risikokontrolle. McKinsey ergänzt im State of AI Trust 2026, dass nur etwa ein Drittel der Organisationen die Reifestufe drei oder höher in Strategie, Governance und Agentic-AI-Steuerung erreicht. Eine Berkeley-Analyse bringt es auf den Punkt: 80% der Organisationen berichten von riskanten Verhaltensweisen ihrer Agenten, von unautorisiertem Datenzugriff bis zu unerwarteten Systeminteraktionen. Nur 21% haben dafür ein ausgereiftes Governance-Modell.

  • >40% – Agentic-AI-Projekte bis 2027 abgebrochen
  • 1/3 – erreicht Reifestufe 3+ in Strategie/Governance
  • 80% – berichten riskante Agenten-Verhaltensweisen
  • 21% – verfügen über ein ausgereiftes Governance-Modell

Das ist die neue Limitierung der skalierenden agentischen Organisation. Nicht die Technologie. Sondern die Fähigkeit der Menschen, die Verantwortung zu tragen, die mit jedem zusätzlichen Agent dazu kommt. Manche wollen das. Viele nicht. Beide Reaktionen sind legitim. Und beide müssen in der Strategie ihren Platz haben.


Drei Schritte, die wirklich helfen

Wie startest du jetzt?

Wenn die Kompetenzlücke kein Wissensproblem ist, sondern ein Verantwortungsproblem, dann sind klassische Schulungsprogramme die falsche Antwort. Was hilft, ist erstaunlich unspektakulär. Drei Schritte, die ich bei faive selbst gegangen bin und die ich jedem Team empfehle, das mit KI mehr will als kurzfristige Effizienzgewinne. Vorausgesetzt, die Ownership-Frage ist im Team beantwortet.

1. Prozesse end-to-end sichtbar machen, bevor du sie automatisierst. Du kannst nichts verantworten, das du nicht verstehst. Bevor der erste Agent in einem Prozess läuft, muss klar sein: Welche Schritte gehören dazu? Welche Entscheidungen werden gefällt? Welche Inputs und Outputs hat jeder Schritt? An welcher Stelle ist menschliches Urteil unverzichtbar? Diese Arbeit galt jahrelang als zu aufwendig. Berater haben sie für viel Geld gemacht. Heute machst du das in einer Mittagspause.

2. Nutze KI, um deine Prozesse aufzunehmen. Konkret: Nimm einen wiederkehrenden Prozess auf, mit Loom oder einer Bildschirmaufnahme. Lade die Aufnahme oder das Transkript in ein LLM und nutze einen klar strukturierten Prompt. Bei faive arbeiten wir mit dieser Variante:

"Du bist ein Prozess-Analyst. Anbei ein Video oder Transkript einer Mitarbeiterin, die einen wiederkehrenden Arbeitsschritt durchführt. Erstelle daraus: (1) ein Mermaid-Flussdiagramm der einzelnen Schritte, (2) eine Liste aller Entscheidungen mit den jeweiligen Kriterien, (3) eine Liste der Inputs und Outputs pro Schritt, (4) eine Markierung der Stellen, an denen menschliches Urteil unverzichtbar ist. Halte alles kurz und präzise."

Was früher zwei Wochen Prozessdokumentation war, ist heute eine Stunde. Und genau diese Sichtbarkeit ist die Voraussetzung dafür, einen Agent sinnvoll zu briefen.

3. Definiere Decision Rights, bevor der Agent läuft. Auch Deloitte und Berkeley argumentieren in diese Richtung: Agenten brauchen klare Entscheidungsrechte. Was darf der Agent allein entscheiden? Was muss er eskalieren? Welche Outputs muss ein Mensch zwingend gegenzeichnen? Diese Fragen vor dem Rollout zu beantworten ist der Unterschied zwischen einem produktiven Agent und einem Compliance-Risiko mit nettem Interface.

  1. Prozesse sichtbar machen Bevor ein Agent läuft, müssen Schritte, Entscheidungen sowie Inputs und Outputs klar sein. Sichtbarkeit umfasst auch die Stellen, an denen menschliches Urteil unverzichtbar ist. Was früher zu aufwendig schien, gelingt heute in einer Mittagspause.
  2. KI-gestützte Prozessaufnahme Wiederkehrende Abläufe per Bildschirmaufnahme dokumentieren und Aufnahme oder Transkript in ein LLM geben. Mit einem strukturierten Prompt entstehen Flussdiagramm, Entscheidungs- und I/O-Listen in etwa einer Stunde statt zwei Wochen.
  3. Decision Rights vorab definieren Festlegen, was der Agent selbst entscheiden darf, was er eskalieren muss und welche Outputs gegengezeichnet werden. Vor dem Rollout geklärte Entscheidungsrechte trennen produktiven Einsatz von Risiko.

Fazit

Die Bitkom-Zahl von 53% Kompetenzlücke ist real. Aber sie misst nicht, was wir glauben, dass sie misst. Sie misst nicht primär, dass deutschen Mitarbeitenden Wissen über KI fehlt. Sie misst, dass deutschen Organisationen zwei Dinge fehlen: Strukturen, in denen Menschen die Verantwortung für KI tragen können, die ihnen zugemutet wird. Und Menschen, die bereit sind, diese Verantwortung anzunehmen, statt geordnete Tätigkeiten weiter auszuführen, die in einer agentischen Welt schlicht nicht mehr existieren werden.

Verantwortung skaliert nicht mit Tools. Sie skaliert mit Wissen über Prozesse und mit Menschen, die Ownership übernehmen wollen. Beides ist heute günstiger und schneller aufzubauen als je zuvor. Wenn du diese Woche eine Sache anfängst, dann nimm einen wiederkehrenden Prozess in deinem Team auf und lass ihn dir von KI in ein Diagramm bringen. Du wirst überrascht sein, was du dabei siehst. Und vielleicht auch, mit wem in deinem Team du danach zuerst sprechen solltest.

Interesse geweckt?

Lasst uns gemeinsam herausfinden, wie wir diese Ansätze in eurer Organisation umsetzen können.

Jetzt Gespräch vereinbaren