Entscheidungsqualität ist eine Systemeigenschaft
Warum selbst kluge, erfahrene Menschen in Organisationen vorhersehbar schlechte Entscheidungen treffen
„Die bedeutenden Probleme, denen wir gegenüberstehen, können nicht auf derselben Denkebene gelöst werden, auf der wir waren, als wir sie geschaffen haben.“
Im Artikel der letzten Woche habe ich psychologische Sicherheit als Schlüsselbedingung für Lernen und das Äußern von Meinungen am Arbeitsplatz untersucht.
Dieser Artikel erweitert den Blickwinkel und betrachtet Entscheidungsqualität als Eigenschaft des Systems, in dem solche Bedingungen gutes Urteilsvermögen entweder ermöglichen oder unterdrücken.
Warum Erfahrung irreführt, wenn Feedback schwach ist
In Unternehmen wird schlechte Entscheidungsqualität oft als Kompetenzproblem behandelt.
Wenn Projekte scheitern, muss jemand die Optionen falsch abgewogen haben. Wenn Risiken übersehen werden, hat jemand nicht sorgfältig genug nachgedacht. Wenn Teams feststecken, ist die Erklärung oft ein Mangel an kritischem Denken.
Diese Rahmung fühlt sich plausibel an, weil sie Verantwortung auf Individuen überträgt, aber sie erklärt die Realität schlecht.
Über Unternehmen hinweg erscheint immer wieder dasselbe Muster. Selbst hochintelligente, motivierte und erfahrene Menschen treffen Entscheidungen, die im Nachhinein überraschend fragil erscheinen. Nicht gelegentlich, sondern systematisch. Das liegt nicht daran, dass ihnen Fähigkeit fehlt, sondern weil das Entscheidungssystem, das sie umgibt, konsequent bestimmte Denkformen begünstigt, während es andere unterdrückt.
Die zentrale These dieses Artikels ist daher einfach:
Entscheidungsqualität ist keine stabile individuelle Fähigkeit allein. Sie ist eine Eigenschaft des Systems, in dem Entscheidungen getroffen werden.
Unter Unsicherheit zählt die beste Feedback-Architektur mehr als die beste Person
Intuitive Expertise entwickelt sich nur, wenn zwei Bedingungen erfüllt sind: Die Umgebung ist relativ stabil und Feedback ist häufig, klar und gültig.
Die meisten unternehmerischen Entscheidungen erfüllen diese Bedingungen nicht. Strategische Entscheidungen, Einstellungsentscheidungen, Priorisierung, Produkt-Roadmaps oder Reorganisationen erzeugen typischerweise verzögertes und mehrdeutiges Feedback. Ergebnisse sind verrauscht, kausale Verbindungen sind schwer nachzuvollziehen und Lernsignale bleiben inkonsistent. Als Ergebnis können Menschen ihr Urteilsvermögen nicht zuverlässig kalibrieren.
In solchen Kontexten wird Erfahrung schnell irreführend. Zuversicht mag steigen, aber Genauigkeit folgt nicht notwendigerweise. Erfolgreiche Entscheidungen werden oft retrospektiv als Beweis für Kompetenz interpretiert, obwohl sie genauso plausibel durch günstige Bedingungen, Zufall oder externe Effekte erklärt werden können. Diese Dynamik wird oft als Ergebnisverzerrung (Outcome Bias) beschrieben.
Wenn Lernbedingungen schwach sind, verbessert sich Entscheidungsqualität nicht durch „bessere Mitarbeiter".
Sie verbessert sich durch bessere Feedback-Architekturen: explizite Hypothesen, klar definierte Erfolgskriterien, kurze Review-Zyklen und, wo möglich, eine klare Trennung zwischen Ursache und Wirkung.
Heuristiken und Verzerrungen sind selten Charakterfehler, sondern Artefakte der Umgebung
Organisationen sprechen oft über Verzerrungen, als wären sie individuelle Schwächen.
In vielen Fällen ist das Gegenteil wahr. Verzerrungen sind eine vorhersehbare Konsequenz schlecht gestalteter Informationsumgebungen in Unternehmen.
Menschen verlassen sich auf Heuristiken, einfache Entscheidungsregeln, weil sie in vielen alltäglichen Situationen effizient sind. Probleme entstehen, wenn Umgebungen systematisch irreführende, verzerrte oder übermäßig komplexe Signale liefern. Unter solchen Bedingungen werden Heuristiken unzureichend und systematische Fehleinschätzungen nehmen zu.
Das erfordert einen Perspektivwechsel. Mitarbeitende zu verändern, ohne Umgebungen zu verändern, scheitert normalerweise.
Heuristiken sind nicht das Problem. Sie sind ein grundlegendes Merkmal menschlicher Kognition. Das eigentliche Problem liegt in Entscheidungsumgebungen, die zuverlässig Urteilsvermögen fehlkalibrieren und wenig Anreiz für Reflexion bieten.
Warum Intelligenz nicht vor Verzerrung schützt und Hierarchie Selbstkorrektur weiter blockiert
Eine verbreitete Annahme ist, dass klügere Menschen auch rationaler denken.
Forschung zeichnet ein nüchterneres Bild. Kognitive Fähigkeit und rationales Urteilsvermögen sind verwandte, aber unterschiedliche Konstrukte. Hohe Intelligenz reduziert nicht zuverlässig die Anfälligkeit für Verzerrungen. In einigen Fällen erhöht sie sogar die Wahrscheinlichkeit von Fehlern, indem sie überzeugendere Rationalisierungen fehlerhafter Urteile ermöglicht.
Diese Dynamik ist besonders in Führungskontexten relevant. Erfahrung, Status und Narrative konvergieren auf höheren hierarchischen Ebenen. Entscheidungen werden nicht nur getroffen, sondern aktiv verteidigt, oft weil sie an persönliche Identität und das Bild unfehlbarer Führung gebunden sind. Je höher die Hierarchie, desto stärker ist tendenziell der blinde Fleck: die Tendenz, das eigene Urteilsvermögen als weniger verzerrt zu sehen als das anderer.
Die Implikation ist unbequem, aber wichtig.
Selbstkorrektur ist kein zuverlässiger Standardmechanismus. Genau dort, wo sie am meisten zählen würde, ist sie am wenigsten wahrscheinlich.
Aus diesem Grund sind strukturelle Korrekturmechanismen keine Form von Bevormundung. Sie repräsentieren ein notwendiges Upgrade des Systems selbst.
Psychologische Sicherheit bestimmt, ob vorhandenes Wissen überhaupt in Entscheidungen einfließt
Die Verfügbarkeit von Wissen ist nicht dasselbe wie seine Nutzung. Die Tatsache, dass Menschen etwas wissen, bedeutet nicht, dass dieses Wissen in dem Moment abgerufen wird, in dem eine Entscheidung getroffen wird.
Hier wird das Konzept der psychologischen Sicherheit relevant. Es beschreibt die geteilte Überzeugung innerhalb eines Teams, dass zwischenmenschliche Risiken akzeptabel sind, wie Fragen zu stellen, Zweifel zu äußern, Fehler zuzugeben oder Widerspruch zu äußern.
Wenn diese Sicherheit fehlt, erscheinen vertraute Muster. Meetings ohne Meinungsverschiedenheit, Risiken, die zu spät angesprochen werden, Fehler, die verschwiegen werden, und scheinbarer Konsens, der echte Klärung ersetzt.
Das ist mehr als eine Frage von Wohlbefinden oder Gesundheitsinitiativen im Unternehmen. Es ist Entscheidungsinfrastruktur.
Teams mit höherer psychologischer Sicherheit zeigen robusteres Lernverhalten und bringen mit größerer Wahrscheinlichkeit diverse Perspektiven und Bedenken ein. Unter Bedingungen der Unsicherheit ist das besonders wichtig. Eine größere Vielfalt an Perspektiven deckt mehr potenzielle Fehlerquellen ab und ermöglicht Korrektur früh, bevor Konsequenzen kostspielig werden.
Es ist auch wichtig, eine klare Unterscheidung zu treffen. Psychologische Sicherheit ist nicht dasselbe wie einfach nur nett zu sein.
Nachhaltige Leistung entsteht normalerweise dort, wo hohe Standards und Sicherheit koexistieren. Hohe Standards ohne Sicherheit erzeugen Angst. Sicherheit ohne Standards erzeugt unfokussierte Bequemlichkeit.
Entscheidungsarchitektur: Framing, Informationsverteilung und KI als Verstärker
Entscheidungen werden selten in neutralen Rahmen getroffen.
Sprache, Präsentation und Standardeinstellungen beeinflussen systematisch Präferenzen, selbst wenn das zugrundeliegende Problem objektiv identisch bleibt. Was hervorgehoben wird, erscheint wichtiger. Was in Tabellen, Dashboards oder Memos weggelassen wird, verliert an Gewicht.
Gruppendynamiken verstärken diesen Effekt weiter. In Teams dominiert geteilte Information tendenziell die Diskussion, während nicht geteiltes Wissen übersehen wird. Das erzeugt eine Form von Pseudokonsens basierend auf unvollständigen Bewertungen.
Technologische Werkzeuge fügen eine weitere Komplexitätsebene hinzu.
KI und Automatisierung sind keine neutralen Add-ons. Sie prägen Entscheidungsumgebungen bereits auf spürbare Weise. Sie können Überabhängigkeit fördern oder Ablehnung nach sichtbaren Fehlern auslösen, ein Phänomen, das als Algorithmusaversion bekannt ist. Sie neigen auch dazu, Verantwortung zu verschieben. Wenn etwas schiefgeht, wird oft unklar, wer tatsächlich Urteilsvermögen ausgeübt hat.
Das führt zurück zur zentralen These.
KI verbessert Entscheidungen nicht automatisch. Sie verbessert Entscheidungen nur, wenn Governance, Feedback, Rollen und Verantwortlichkeit klar gestaltet sind. Andernfalls verstärkt sie die bestehende Architektur, einschließlich ihrer Schwächen.
Schlussfolgerung
Wenn Entscheidungen scheitern, ist Intelligenz selten die fehlende Zutat.
Die meisten Unternehmen besitzen bereits die Expertise, die sie brauchen. Was ihnen fehlt, ist eine Umgebung, in der diese Expertise auftauchen, kollidieren und sich selbst korrigieren darf, bevor Konsequenzen kostspielig werden.
Entscheidungsqualität verbessert sich, wenn Systeme bewusst gestaltet werden, um gutes Denken unter Druck zu unterstützen, durch klare Feedbackschleifen, niedrige soziale Kosten für Widerspruch, disziplinierte Informationsstrukturen und bewusstes Entscheidungsdesign.
Das ist der Perspektivwechsel.
Organisationen brauchen keine klügeren Menschen.
Sie brauchen Systeme, die aufhören, die Intelligenz zu unterdrücken, die sie bereits haben.
L. A.
-
Brown, J. S., Collins, A., & Duguid, P. (1989). Situated Cognition and the Culture of Learning. Educational Researcher, 18(1), 32–42. https://doi.org/10.3102/0013189X018001032
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114–126. https://doi.org/10.1037/xge0000033
Edmondson, A. (1999). Psychological Safety and Learning Behavior in Work Teams. Administrative Science Quarterly, 44(2), 350–383. https://doi.org/10.2307/2666999
Edmondson, A. C., & Lei, Z. (2014). Psychological Safety: The History, Renaissance, and Future of an Interpersonal Construct. Annual Review of Organizational Psychology and Organizational Behavior, 1(1), 23–43. https://doi.org/10.1146/annurev-orgpsych-031413-091305
Frazier, M. L., Fainshmidt, S., Klinger, R. L., Pezeshkan, A., & Vracheva, V. (2017). Psychological Safety: A Meta‐Analytic Review and Extension. Personnel Psychology, 70(1), 113–165. https://doi.org/10.1111/peps.12183
Gigerenzer, G., & Gaissmaier, W. (2011). Heuristic Decision Making. Annual Review of Psychology, 62(1), 451–482. https://doi.org/10.1146/annurev-psych-120709-145346
Halpern, D. F. (1998). Teaching critical thinking for transfer across domains: Disposition, skills, structure training, and metacognitive monitoring. American Psychologist, 53(4), 449–455. https://doi.org/10.1037/0003-066X.53.4.449
Kahneman, D., & Klein, G. (2009). Conditions for intuitive expertise: A failure to disagree. American Psychologist, 64(6), 515–526. https://doi.org/10.1037/a0016755
Larrick, R. P., & Feiler, D. C. (2015). Expertise in Decision Making. In G. Keren & G. Wu (Hrsg.), The Wiley Blackwell Handbook of Judgment and Decision Making (1. Aufl., S. 696–721). Wiley. https://doi.org/10.1002/9781118468333.ch24
Milkman, K. L., Chugh, D., & Bazerman, M. H. (2009). How Can Decision Making Be Improved? Perspectives on Psychological Science, 4(4), 379–383. https://doi.org/10.1111/j.1745-6924.2009.01142.x
Morewedge, C. K., Yoon, H., Scopelliti, I., Symborski, C. W., Korris, J. H., & Kassam, K. S. (2015). Debiasing Decisions: Improved Decision Making With a Single Training Intervention. Policy Insights from the Behavioral and Brain Sciences, 2(1), 129–140. https://doi.org/10.1177/2372732215600886
Parasuraman, R., & Riley, V. (1997). Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors: The Journal of the Human Factors and Ergonomics Society, 39(2), 230–253. https://doi.org/10.1518/001872097778543886
Pronin, E., Lin, D. Y., & Ross, L. (2002). The Bias Blind Spot: Perceptions of Bias in Self Versus Others. Personality and Social Psychology Bulletin, 28(3), 369–381.
Simon, H. A. (1955). A Behavioral Model of Rational Choice. The Quarterly Journal of Economics, 69(1), 99. https://doi.org/10.2307/1884852
Stanovich, K. E. (2008). Individual Differences in Reasoning and the Algorithmic/Intentional Level Distinction in Cognitive Science. In J. E. Adler & L. J. Rips, Reasoning: Studies of Human Inference and its Foundations (S. 414–436). Cambridge University Press.
Stasser, G., & Titus, W. (1985). Pooling of unshared information in group decision making: Biased information sampling during discussion. Journal of Personality and Social Psychology, 48(6), 1467–1478. https://doi.org/10.1037/0022-3514.48.6.1467
Tversky, A., & Kahneman, D. (1981). The Framing of Decisions and the Psychology of Choice. Science, 211(4481), 453–458. https://doi.org/10.1126/science.7455683
Reflexion beginnt mit Dialog.
Wenn du einen Gedanken oder eine Frage teilen möchtest, kontaktiere mich gerne unter contact@lucalbrecht.com
Thinking from Scratch
by Luc Albrecht
Exploring how we think, decide and create clarity