KI ist nicht das Problem
Warum viele Unternehmen nicht mit KI selbst kämpfen, sondern mit schwachen Entscheidungssystemen
„Bei Weitem ist die größte Gefahr künstlicher Intelligenz, dass Menschen zu früh schlussfolgern, dass sie sie verstehen.“
Viele Unternehmen werden sind schnell bei der Implementierung von KI. Weit weniger bewegen sich mit derselben Geschwindigkeit in Richtung Klarheit bei Verantwortung, Urteilsvermögen und Implementierung.
Wenn KI nicht das Problem ist, was dann?
Das eigentliche Problem ist nicht, ob Unternehmen KI nutzen. Es ist, ob das Unternehmen weiß, wie Entscheidungen rund um KI getroffen werden sollen.
KI wird oft als Technologieproblem diskutiert.
Können die Werkzeuge Wert liefern? Sind die Modelle genau genug? Werden Menschen sie annehmen? Sollten Unternehmen schneller oder vorsichtiger vorgehen?
Diese Fragen sind wichtig, aber sie verfehlen oft das tiefere Problem.
In vielen Unternehmen scheitert KI nicht zuerst, weil die Technologie schwach ist. Sie scheitert, weil das System darum herum schwach ist. Rollen sind unklar. Verantwortung ist verschwommen. Überprüfungsstandards sind inkonsistent. Lernen bleibt informell. Was wie ein KI-Problem aussieht, ist oft ein verkleidetes Entscheidungsproblem.
Aktuelle Daten weisen genau in diese Richtung. Gallup berichtet, dass 64 % der Mitarbeitenden sagen, KI werde bereits in ihrem Unternehmen genutzt, um Produktivität, Effizienz oder Qualität zu verbessern, und 48 % sagen, sie nutzen sie täglich oder mehrmals pro Woche. Gleichzeitig stimmen nur 21 % der Mitarbeitenden in KI-nutzenden Organisationen voll zu, dass ihre Führungskraft ihre Nutzung aktiv unterstützt, und nur 20 % sagen, ihr Unternehmen biete gute Möglichkeiten, die für neue technologische Anforderungen benötigten Fähigkeiten zu entwickeln. Das Adoptionsproblem ist mit anderen Worten nicht einfach die Exposition gegenüber KI. Es ist schwache Unterstützung, schwache Anleitung und schwacher Kompetenzaufbau darum herum.
Das ist wichtig, weil Werkzeuge nicht in einen leeren Raum eintreten. Sie treten in Unternehmen ein. Und Unternehmen sind komplexe Entscheidungsumgebungen.
KI verändert sich schneller als Organisationen
Ein Grund, warum diese Spannung wächst, ist, dass KI sich von spezialisierter Infrastruktur zu einem alltäglichen Arbeitswerkzeug entwickelt hat. Gallup beschreibt diese Verschiebung klar. Generative KI ist für die meisten Mitarbeiter nicht mehr fern oder abstrakt. Sie unterstützt jetzt Recherche, Schreiben, Analyse und Programmierung direkt im Arbeitsfluss.
Das erzeugt ein vertrautes Muster. Die Technologie bewegt sich schnell, aber die umgebenden Strukturen nicht.
Der Microsofts Work Trend Index 2025 beschreibt dies als das Entstehen eines neuen organisatorischen Bauplans, in dem Systeme zunehmend KI-betrieben, aber menschengeführt werden. In diesem Bericht sagen 82 % der Führungskräfte, dies sei ein entscheidendes Jahr, um Strategie und Betrieb zu überdenken, und 81 % erwarten, dass Agenten innerhalb der nächsten 12 bis 18 Monate mindestens moderat in ihre KI-Strategie integriert sein werden.
Das klingt ambitioniert. Das einzige Problem ist, dass organisatorische Anpassung selten in derselben Geschwindigkeit passiert wie technologische Möglichkeit.
Ein Feldexperiment von Dillon und Kollegen illustriert dies besonders gut. Über 66 Firmen und 7.137 Wissensarbeitende hinweg führte der Zugang zu einem integrierten generativen KI-Werkzeug dazu, dass Nutzer etwa zwei Stunden weniger pro Woche für E-Mails aufwandten und Arbeit außerhalb der regulären Stunden reduzierten. Die Studie fand jedoch keine signifikanten Verschiebungen in der Menge oder Zusammensetzung der Aufgaben der Arbeiter. Menschen wurden schneller in Teilen ihrer Arbeit, aber die breitere Struktur der Arbeit organisierte sich nicht automatisch neu.
Diese Unterscheidung ist entscheidend. Zeit zu sparen ist nicht dasselbe wie Urteilsvermögen, Koordination oder Verantwortlichkeit neu zu gestalten.
Die meiste KI-Reibung ist keine technische Reibung
Wenn Unternehmen sagen, sie kämpfen mit der menschlichen Seite von KI, meinen sie oft Dinge wie Skepsis, Unsicherheit, ungleichmäßige Aufnahme oder geringes Vertrauen.
Das sind reale Probleme, aber viele davon sind sekundäre Effekte.
Menschen zögern, wenn sie nicht wissen, wofür KI in ihrem Kontext da ist. Sie verlassen sich zu stark darauf, wenn Überprüfungsstandards schwach sind. Sie ignorieren sie, wenn es keine sichtbare Führungsunterstützung gibt. Sie nutzen sie privat oder inkonsistent, wenn formale Prozesse hinter der tatsächlichen Arbeit zurückbleiben.
Aus diesem Blickwinkel betrachtet ist das Kernproblem nicht Motivation allein. Es ist Entscheidungsarchitektur.
Das NIST AI Risk Management Framework macht diesen Punkt auf formellere Weise. Seine GOVERN-Funktion behandelt KI-Risikomanagement als querschnittliche organisatorische Aufgabe, nicht als enges technisches Add-on. Es betont Richtlinien, Prozesse, Transparenz, fortlaufende Überwachung, dokumentierte Rollen und Verantwortlichkeiten, Verantwortungsstrukturen und Training. Das begleitende Playbook geht noch weiter, indem es feststellt, dass Mensch-KI-Konfigurationen klar differenzierte Rollen, explizite Aufsichtsverantwortlichkeiten, Kompetenzstandards und Verfahren zur Nachverfolgung von Ergebnissen und Risiken erfordern.
Hier sind viele Organisationen noch unterentwickelt.
Sie haben das Werkzeug. Sie haben vielleicht sogar eine Richtlinie, aber sie haben noch kein echtes System.
Wie ein schwaches Entscheidungssystem in der Praxis aussieht
In der Praxis zeigen sich schwache KI-Entscheidungssysteme normalerweise auf vier Arten.
Erstens, Nutzung ohne Rollenklarheit.
Wer darf KI für welche Art von Arbeit nutzen? Wer ist für die Ausgabe verantwortlich? Wer verifiziert kritische Inhalte? Wer entscheidet, wann menschliches Urteilsvermögen das Modell überstimmen muss?
Ohne klare Antworten wird Verantwortung performativ. Jeder ist beteiligt, aber niemand ist klar verantwortlich.
Zweitens, Nutzung ohne Überprüfungslogik.
Nicht jede KI-Ausgabe braucht denselben Grad an Überprüfung. Aber viele Unternehmen haben keine stabilen Kriterien dafür, was direkt genutzt werden kann, was Überprüfung erfordert und was überhaupt nie delegiert werden sollte. Das erzeugt entweder eine Form von Unsicherheit oder Überkorrektur. In beiden Fällen leidet die Urteilsqualität.
Drittens, Nutzung ohne Lernschleifen.
Fehler werden lokal korrigiert und dann vergessen. Gute Nutzungen bleiben individuelle Hacks und nicht organisatorisches Wissen. Niemand fragt systematisch, wo das Werkzeug funktionierte, wo es in die Irre führte, welche Bedingungen Leistung verbesserten und wie zukünftige Nutzung sich ändern sollte.
Viertens, Nutzung ohne Führungsübersetzung.
Gallups Zahlen sind hier besonders aufschlussreich. KI mag bereits in der täglichen Arbeit präsent sein, aber sichtbare Unterstützung durch Führungskräfte bleibt schwach. Diese Lücke ist wichtig, weil Mitarbeitende nicht nur Erlaubnis brauchen. Sie brauchen Orientierung. Sie brauchen Führung, die eine Technologie in Prioritäten, Normen und praktische Nutzung übersetzt.
Ohne diese Übersetzung bleibt KI entweder ein privater Produktivitätshack oder ein vager strategischer Slogan.
Die Evidenz weist zunehmend auf Organisation hin, nicht nur auf Adoption
Die breitere Forschung bewegt sich in dieselbe Richtung.
McKinseys Umfrage 2025 darüber, wie Unternehmen sich intern neu vernetzen, um Wert aus KI zu ziehen, zeigt, dass CEO-Aufsicht über KI-Governance einer der Faktoren ist, die am stärksten mit höherer berichteter Bottom-Line-Wirkung (Gewinn) assoziiert sind. Sie berichtet auch, dass die Neugestaltung von Workflows die stärkste Beziehung zur EBIT-Wirkung unter den von ihnen getesteten organisatorischen Attributen hat. Dennoch sagen nur 21 % der Befragten, ihr Unternehmen habe als Ergebnis der Gen-KI-Implementierung mindestens einige Workflows grundlegend neu gestaltet.
Das ist eine aufschlussreiche Kombination. Der Wert ist nicht am stärksten mit bloßem Zugang verbunden. Er ist mit Governance und Workflow-Neugestaltung verbunden.
Ein anderer McKinsey-Bericht erreicht eine ähnliche Schlussfolgerung aus einem anderen Blickwinkel. Während 92 % der Unternehmen planen, ihre KI-Investitionen zu erhöhen, betrachten sich nur 1 % als ausgereift in der Implementierung. Der Bericht argumentiert explizit, dass die Herausforderung von KI am Arbeitsplatz nicht primär eine Technologieherausforderung ist, sondern eine Geschäftsherausforderung, die von Führungskräften erfordert, Teams auszurichten, Gegenwinde anzugehen und das Unternehmen für Veränderung neu zu strukturieren.
Selbst die optimistischere Produktivitätsevidenz sollte in diesem Licht gelesen werden. Brynjolfsson, Li und Raymond zeigen, dass der Zugang zu einem generativen KI-Assistenten die Produktivität unter 5.179 Kundenservice-Mitarbeitern um durchschnittlich 14 % erhöhte, mit einer 34 % Verbesserung für Anfänger und Mitarbeiter mit geringeren Fähigkeiten. Das ist ein starkes Ergebnis. Aber es bedeutet nicht, dass KI automatisch organisatorischen Wert allein erzeugt. Es zeigt, dass unter bestimmten Bedingungen das Werkzeug Aufgabenleistung verbessern und Lernen beschleunigen kann. Die Frage für Führungskräfte ist, welche Art von System solche Gewinne in Entscheidungsqualität, Koordinationsqualität und dauerhaften Wert überführen kann.
Mit anderen Worten, KI kann Arbeit verbessern, aber Unternehmen müssen immer noch entscheiden, wie diese Verbesserung geregelt, überprüft und implementiert wird.
Was Unternehmen tatsächlich brauchen
Wenn der echte Engpass das Entscheidungssystem um KI herum ist, dann ist die Lösung nicht nur mehr Implementierung, sondern mehr Struktur.
Unternehmen brauchen mindestens vier Dinge:
Sie brauchen klare Entscheidungsrechte.
Wer entscheidet, wer überprüft, wer eskaliert und wer trägt die Konsequenzen?
Sie brauchen explizite Use-Case-Grenzen.
Wo ist KI hilfreich, wo ist sie optional und wo sollte ihr nicht ohne starke menschliche Überprüfung vertraut werden.
Sie brauchen Qualitätsschwellen.
Was als gut genug für risikoarme Unterstützungsarbeit zählt, ist nicht gut genug für Kundenkommunikation, strategisches Urteilsvermögen oder sensible interne Entscheidungen.
Sie brauchen Lernschleifen.
KI-Nutzung sollte Feedback generieren, das zukünftiges Urteilsvermögen verbessert, nicht nur isolierte Ausgabe, die im Workflow verschwindet.
Hier wird auch die populäre Phrase „Human-in-the-Loop" zu vage. Ein Mensch irgendwo im Prozess ist nicht dasselbe wie bedeutsame menschliche Aufsicht. Aufsicht wird nur real, wenn Verantwortlichkeiten, Interventionspunkte und Standards im Voraus spezifiziert werden.
Andernfalls bleibt dem Menschen symbolische Verantwortlichkeit, nachdem das System die Entscheidung bereits geprägt hat.
Die echte Frage ist nicht, ob Organisationen KI nutzen
Die echte Frage ist, ob sie ein System gebaut haben, in dem KI intelligent genutzt werden kann.
Das bedeutet ein System, in dem Menschen wissen, wofür das Werkzeug da ist, welche Art von Urteilsvermögen immer noch Menschen gehört, wie Ausgaben bewertet werden, wie Fehler sichtbar gemacht werden und wie das Unternehmen aus der Nutzung im Laufe der Zeit lernt.
Ohne das skalieren Unternehmen keine Intelligenz. Sie skalieren Mehrdeutigkeit.
Und das mag die wichtigste Verschiebung sein, die Führungskräfte jetzt verstehen müssen.
KI fügt nicht einfach ein weiteres Werkzeug zum Arbeitsplatz hinzu. Sie verändert, wie Entscheidungen vorbereitet werden, wie schnell Output generiert wird und wie leicht schwaches Denken sich hinter flüssigen Antworten verstecken kann.
Wenn das umgebende Entscheidungssystem vage bleibt, ist das wahrscheinliche Ergebnis nicht Transformation, sondern Verwirrung mit besseren Interfaces.
KI ist nicht das Problem.
Das Problem ist, dass viele Organisationen versuchen, eine neue komplexe Technologie in alte Strukturen mit unklarem Urteilsvermögen, diffuser Verantwortung und schwachen Feedbacks einzuführen.
Das ist ausbesserbar. Aber es erfordert etwas Schwierigeres als Software zu installieren. Es erfordert Führungskräfte, die bereit sind, das System zu gestalten, nicht nur das Werkzeug einzusetzen.
L. A.
-
Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at Work. NBER Working Paper Series. http://www.nber.org/papers/w31161 NATIONAL BUREAU OF ECONOMIC RESEARCH
Dillon, E. W., Jaffe, S., Immorlica, N., & Stanton, C. T. (2025). Shifting Work Patterns with Generative AI (Version 4). arXiv. https://doi.org/10.48550/ARXIV.2504.11436
Meyer, H., Yee, L., Chui Michael, & Roberts, R. (2025). Superagency in the Workplace—Empowering people to unlock AI’s full potential. McKinsey & Company. https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work
Microsoft (Hrsg.). (2025). 2025 Work Trend Index Annual Report—2025: The Year the Frontier Firm is Born. Work Trend Index Annual Report. https://www.microsoft.com/en-us/worklab/work-trend-index/2025-the-year-the-frontier-firm-is-born
Natinal Institute of Standards and Technology U. S. Department of Commerce, E. (Hrsg.). (2023). AI RMF Playbook. National Institute of Standards and Technology (U.S.). https://www.nist.gov/itl/ai-risk-management-framework/nist-ai-rmf-playbook
Singla, A., Sukharevsky, A., Hall, B., Yee, L., Chui Michael, & Balakrishnan, T. (2025). The state of AI in 2025—Agents, innovation, and transformation. Quantum Black - AI by McKinsey. https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai/november%202025/the-state-of-ai-2025-agents-innovation_cmyk-v1.pdf
Singla, A., Sukharevsky, A., Yee, L., Chui Michael, & Hall, B. (2025). The state of AI in 2025—How organizations are rewiring to capture value. Quantum Black - AI by McKinsey. https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-how-organizations-are-rewiring-to-capture-value
Tabassi, E. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (Natinal Institute of Standards and Technology U. S. Department of Commerce, Hrsg.; NIST AI 100-1). National Institute of Standards and Technology (U.S.). https://doi.org/10.6028/NIST.AI.100-1
Reflexion beginnt mit Dialog.
Wenn du einen Gedanken oder eine Frage teilen möchtest, kontaktiere mich gerne unter contact@lucalbrecht.com
Thinking from Scratch
by Luc Albrecht
Exploring how we think, decide and create clarity