Künstliche Intelligenz
Denken schärfen. KI verantworten. Entscheidungen tragen.
KI verändert nicht nur, was Unternehmen tun, sondern vor allem, wie Menschen urteilen.
Weil Outputs plausibel, schnell und souverän wirken, sinkt die Fehlerüberwachung, ohne dass das auffällt.
In einer Studie berichteten 79 Prozent der befragten Wissensarbeiter, dass sie durch KI-Nutzung weniger kognitiven Aufwand betreiben als zuvor (Lee et al., 2025). Das eigentliche Risiko liegt damit nicht allein in der Technologie selbst, sondern darin, wie KI das Urteilen in der Interaktion verändert.
Ich helfe Führungskräften und Organisationen, diese Veränderung zu verstehen und Entscheidungssysteme zu bauen, die auch mit KI funktionieren.
Wo Urteilsqualität im KI-Kontext verloren geht
Automation Bias und sinkende Fehlerüberwachung
KI-Outputs wirken objektiver als menschliche Einschätzungen, weil sie von einem System stammen.
Das führt dazu, dass Ergebnisse seltener aktiv hinterfragt werden, Fehler später auffallen und Verantwortlichkeiten im Team diffuser werden. Automation Bias ist in der Forschung gut belegt und tritt auch bei erfahrenen Fachpersonen auf, die wissen, dass KI-Systeme Fehler machen (Goddard, Roudsari & Wyatt, 2012).
Das Wissen um die Fehleranfälligkeit allein schützt nicht vor dem Effekt.
Verantwortungsdiffusion
Wenn eine Entscheidung technisch vermittelt wirkt, fällt es leichter, kritische Konsequenzen auszublenden und Verantwortung auf die KI zu verschieben.
Das ist ein kognitiver Mechanismus, kein moralisches Versagen, und er wirkt unabhängig davon, wie kompetent oder gewissenhaft die beteiligten Personen sind. Er tritt besonders dann auf, wenn Entscheidungsprozesse nicht klar definieren, wer was auf welcher Grundlage prüft.
Fehlt diese Klarheit, übernimmt niemand die Prüfung, weil alle annehmen, dass jemand anderes sie übernimmt.
Illusion of Understanding
KI-Outputs klingen sprachlich glatt und inhaltlich plausibel. Das erzeugt das Gefühl, den Inhalt verstanden zu haben, auch wenn keine echte Prüfung stattgefunden hat.
Die Überzeugung wächst, während die Prüftiefe sinkt. Das ist ein strukturelles Merkmal der Interaktion mit Systemen, die sehr gut darin sind, Kompetenz zu signalisieren.
Wer nicht aktiv prüft, ob ein Output fachlich belastbar ist, prüft stattdessen unbewusst, ob er sich stimmig anfühlt. Das sind zwei verschiedene Fragen mit oft unterschiedlichen Antworten.
Modellgrenzen und Evaluierungsprobleme
Die ausgewiesene Kompetenz eines KI-Modells hängt von den Tests ab, denen es unterzogen wurde. Jede neue Implementierung bringt neue Unsicherheit darüber, wo die tatsächlichen Leistungsgrenzen liegen, besonders in domänenspezifischen oder hochstakigen Kontexten.
Wer diese Grenzen nicht realistisch einschätzt, trifft Entscheidungen auf einer Grundlage, die er für stabiler hält als sie ist. Und weil die Fehler von KI-Systemen oft nicht zufällig, sondern systematisch auftreten, können sie sich über viele Entscheidungen hinweg aufaddieren, bevor sie sichtbar werden.
-
Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127. https://doi.org/10.1136/amiajnl-2011-000089
Ikeda, S. (2024). Inconsistent advice by ChatGPT influences decision making in various areas. Scientific Reports, 14(1), 15876. https://doi.org/10.1038/s41598-024-66821-4
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task(arXiv:2506.08872). arXiv. https://doi.org/10.48550/arXiv.2506.08872
Lee, H.-P. (Hank), Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, 1–22. https://doi.org/10.1145/3706598.3713778
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005
Risko, E. F., & Gilbert, S. J. (2016). Cognitive Offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity(arXiv:2506.06941). arXiv. https://doi.org/10.48550/arXiv.2506.06941
Wie ich arbeite
Ich berate nicht zu Modellen oder Tools, sondern setze dort an, wo Expertise vorhanden ist, aber die Interaktion mit KI das Urteilen still verändert.
Das bedeutet in der Praxis, dass ich Verzerrungseffekte und Verantwortungsstrukturen im eigenen Kontext erfahrbar mache, mit realen Fällen und Studienbefunden als Grundlage. Ich helfe, daraus Prüfstandards, Verantwortlichkeiten und Governance-Strukturen zu entwickeln, die modellunabhängig tragen und die KI-Implementierung zu strukturieren.
Kurzformate
Ein 20-minütiger Impuls für interne Fortbildungen oder Fachveranstaltungen.
Eine 30 bis 60-minütige Keynote mit oder ohne Q&A.
Workshops
90 bis 180 Minuten, interaktiv und fallbasiert.
Geeignet für Führungsteams und Entscheiderkreise, die den Umgang mit KI-gestützten Entscheidungen strukturell schärfen wollen.
Begleitung
Sparring und Begleitmandate für Führungskräfte sowie moderierte Klärungsformate für Entscheiderkreise.
Der Fokus liegt auf Governance-Standards, die auch dann tragen, wenn neue Modelle eingeführt werden.
Für wen das relevant ist
Relevant ist diese Arbeit für alle, die verstehen wollen, warum KI-Implementierungen trotz guter Vorbereitung zu schlechteren Entscheidungen führen können.
Das betrifft Führungskräfte und Geschäftsleitungen, die KI-Nutzung als Governance-Frage angehen wollen.
Es betrifft Teams, die täglich mit KI-Outputs arbeiten und strukturierte Prüfstandards brauchen.
Und es betrifft Organisationen, die Verantwortlichkeiten rund um KI-gestützte Entscheidungen sauber definieren wollen, bevor Fehler passieren.