Blinde Flecken in Hochrisiko-Berufen
Warum Expertise Fehler reduziert, aber systematische Urteilsfallen nicht beseitigt
„Menschen können extrem intelligent sein, einen Kurs in kritischem Denken belegt haben und Logik in- und auswendig kennen. Doch sie können einfach zu cleveren Debattierern werden, nicht zu kritischen Denkern, weil sie nicht bereit sind, ihre eigenen Verzerrungen zu betrachten.“
Im vorherigen Beitrag haben wir untersucht, wann das Aufschieben einer Entscheidung hilft und wann es die Dinge stillschweigend verschlimmert. Dieser Artikel betrachtet, was passiert, wenn Entscheidungen nicht aufgeschoben werden können und unter hohem Einsatz und professioneller Verantwortung getroffen werden.
Warum Expertise keine Immunität ist
In Hochrisiko-Berufen haben Entscheidungen Gewicht. In der Medizin, im Recht oder in Führungspositionen kann ein einziges Urteil Gesundheitsergebnisse, rechtliche Freiheit oder organisatorische Verläufe beeinflussen. Es ist daher intuitiv anzunehmen, dass Erfahrung und Expertise als Schutz gegen Fehler wirken. Und bis zu einem gewissen Grad tun sie das. Expertise reduziert zuverlässig viele Formen von Fehlern. Aber sie beseitigt nicht die strukturellen blinden Flecken menschlichen Urteilsvermögens.
Der Grund liegt nicht in einem Mangel an Kompetenz, sondern in der Architektur der Kognition selbst. Expertise stärkt domänenspezifische Schemata. Sie verbessert die Mustererkennung, beschleunigt die Interpretation und erhöht die Grundgenauigkeit. Was sie nicht zuverlässig verbessert, ist die metakognitive Überwachung, die Fähigkeit, eigene Fehler zu erkennen, während das Denken noch im Gange ist.
Unter Komplexität und Zeitdruck erzeugen intuitive Prozesse schnell plausible Antworten. Das rationale System greift dann oft nicht ein, um diese Antworten zu prüfen, sondern um sie zu rationalisieren. Urteile fühlen sich fließend, kohärent und gerechtfertigt an, selbst wenn sie verzerrt sind. Als Ergebnis stellen Experten Schlussfolgerungen oft weniger in Frage, gerade weil diese Schlussfolgerungen sich gut begründet anfühlen.
Das schafft ein professionelles Paradox: Je erfahrener ein Entscheider wird, desto weniger offensichtlich können die eigenen kognitiven Einschränkungen erscheinen. Blinde Flecken bestehen nicht trotz Expertise, sondern neben ihr.
Wenn irrelevanter Kontext professionelles Urteilsvermögen verschiebt
Eine zweite Quelle blinder Flecken ergibt sich aus kontextuellen Einflüssen, die normativ nicht von Bedeutung sein sollten, es aber nachweislich sind. Forschung über Domänen hinweg zeigt, dass professionelle Entscheidungen sich mit Faktoren wie Zeitpunkt, Reihenfolge, Arbeitsbelastung oder Ermüdung verschieben, selbst wenn die zugrundeliegenden Beweise unverändert bleiben.
Diese Effekte werden oft missverstanden. Sie bedeuten nicht, dass Profis zufällig oder unverantwortlich entscheiden. Stattdessen zeigen sie, wie Aufmerksamkeit, kognitive Kontrolle und die Zuteilung von Energie und Aufwand über Zeit und in verschiedenen Kontexten schwanken. Wenn kognitive Ressourcen beansprucht sind, verlässt sich der Verstand stärker auf intuitive Hinweise und weniger auf mühsame Korrektur.
In Hochrisiko-Umgebungen ist das wichtig, weil Entscheidungen selten isoliert sind. Ärzte arbeiten durch lange Schichten, Richter bewerten Fallsequenzen, Führungskräfte bewegen sich von Meeting zu Meeting. Jede Entscheidung ist in einen breiteren kognitiven Kontext eingebettet, der subtil Urteilsschwellen prägt.
Wichtig ist, dass diese Verschiebungen die Wahrscheinlichkeit von Ergebnissen verändern, anstatt sie direkt zu bestimmen. Kontext diktiert keine Ergebnisse, aber er ändert ihre Verteilung. Über viele Entscheidungen hinweg akkumulieren kleine kontextuelle Einflüsse zu systematischen Mustern. Ohne strukturelles Bewusstsein bleiben diese Muster für die Entscheider selbst unsichtbar.
Anker, Intuition und die Dynamik des Urteilens
Mehrere gut dokumentierte kognitive Mechanismen tragen zu blinden Flecken im professionellen Urteilsvermögen bei. Zwei sind besonders relevant über Domänen hinweg: Verankerung und intuitives Momentum.
Verankerung bezieht sich auf den Einfluss anfänglicher numerischer oder qualitativer Referenzpunkte auf nachfolgende Urteile. Selbst wenn ein Anker explizit zufällig oder irrelevant ist, kann er systematisch das Denken von Experten beeinflussen. Der Mechanismus ist nicht Leichtgläubigkeit, sondern selektive Zugänglichkeit. Sobald ein Anker eingeführt wird, werden Informationen, die damit übereinstimmen, leichter abrufbar und fühlen sich plausibler an. Unser Denken baut dann Kohärenz um diesen Referenzpunkt herum auf, bewahrt unser Selbstbewusstsein, anstatt es zu untergraben.
In der Medizin können anfängliche Bezeichnungen oder frühe Schätzungen spätere Bewertungen verzerren. Im Recht können Strafvorschläge finale Urteile beeinflussen. In der Führung verankern frühe Prognosen oft Verhandlungen und strategische Planung. In jedem Fall fühlt sich das Urteil intern konsistent an, was Korrektur weniger wahrscheinlich macht.
Ein verwandtes Phänomen lässt sich im intuitiven Musterabgleich erkennen. In Domänen wie der klinischen Diagnose ist Intuition unverzichtbar. Sie ermöglicht schnelle Kategorisierung und effizientes Handeln. Aber sie kann auch diagnostisches Momentum erzeugen. Kürzliche oder hervorstechende Muster werden überrepräsentiert, während alternative Hypothesen unzureichend getestet werden. Verfügbarkeits- und Ähnlichkeitshinweise dominieren, besonders unter Zeitdruck.
Das ist kein Versagen der Intuition an sich. Es spiegelt einen Effizienz-Genauigkeits-Kompromiss wider. Intuitives Denken funktioniert am besten in vertrauten, stabilen Umgebungen. In atypischen oder komplexen Fällen können jedoch dieselben Mechanismen Fehler verstärken.
Wie sich Urteilsvermögen verbessern lässt, ohne alles zu verlangsamen
Wenn blinde Flecken strukturell sind, kann die Lösung nicht moralische Ermahnung oder allgemeiner Rat sein, „mehr nachzudenken". Was stattdessen zählt, ist wann und wie reflektierte Prozesse eingesetzt werden.
Forschung zeigt, dass strukturierte Reflexion die Genauigkeit von Urteilen in komplexen oder atypischen Fällen verbessern kann, indem sie voreilige Schlussfolgerungen unterbricht und Beweise neu organisiert. Wichtig ist, dass dieser Nutzen bedingt ist. In Routinefällen fügt zusätzliche Analyse oft wenig Wert hinzu und kann sogar Rauschen einführen, also zufällige Variabilität in Urteilen. Reflexion ist daher kein universelles Heilmittel, sondern ein kontextsensitives Werkzeug.
Noch vielversprechender sind Befunde zu gezielten Debiasing-Interventionen. Trainingsprogramme, die Erkennungshinweise, Feedback und wiederholte Übung kombinieren, haben nachweislich Verbesserungen erzielt, die über den unmittelbaren Trainingskontext hinaus bestehen bleiben. Diese Beständigkeit deutet auf Kompetenzerwerb hin und nicht auf vorübergehende Effekte.
Effektives Debiasing zielt nicht darauf ab, Intuition zu eliminieren. Es baut komplementäre Gewohnheiten auf: Situationen erhöhten Risikos zu erkennen, alternative Perspektiven zu aktivieren und korrigierende Kontrollen in Entscheidungsabläufe einzubetten. Mit der Zeit werden einige dieser Kontrollen teilweise automatisiert, was die kognitive Belastung reduziert, anstatt sie zu erhöhen.
Für Hochrisiko-Berufe deutet das auf eine breitere Schlussfolgerung hin.
Entscheidungsqualität ist nicht allein eine Funktion individueller Expertise. Sie hängt von der Denkinfrastruktur ab, die Entscheidungen umgibt: wie Fälle sequenziert werden, wann Reflexion ausgelöst wird und wie Feedback integriert wird.
Blinde Flecken sind keine Zeichen von Inkompetenz. Sie sind vorhersehbare Merkmale menschlicher Kognition. Expertise erhöht die Leistung, aber sie setzt die kognitive Architektur nicht außer Kraft. Wenn der Einsatz hoch ist, wird es genauso wichtig, Systeme zu gestalten, die diese Grenzen berücksichtigen, wie Expertise selbst zu entwickeln.
L. A.
-
Berthet, V. (2022). The Impact of Cognitive Biases on Professionals’ Decision-Making: A Review of Four Occupational Areas. Frontiers in Psychology, 12, 802439. https://doi.org/10.3389/fpsyg.2021.802439
Croskerry, P. (2003). The Importance of Cognitive Errors in Diagnosis and Strategies to Minimize Them: Academic Medicine, 78(8), 775–780. https://doi.org/10.1097/00001888-200308000-00003
Danziger, S., Levav, J., & Avnaim-Pesso, L. (2011). Extraneous factors in judicial decisions. Proceedings of the National Academy of Sciences, 108(17), 6889–6892. https://doi.org/10.1073/pnas.1018033108
Englich, B., Mussweiler, T., & Strack, F. (2006). Playing Dice With Criminal Sentences: The Influence of Irrelevant Anchors on Experts’ Judicial Decision Making. Personality and Social Psychology Bulletin, 32(2), 188–200. https://doi.org/10.1177/0146167205282152
Guthrie, C. P., Rachlinski, J. J., & Wistrich, A. J. (2001). Inside the Judicial Mind. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.257634
Larrick, R. P., & Feiler, D. C. (2015). Expertise in Decision Making. In G. Keren & G. Wu (Hrsg.), The Wiley Blackwell Handbook of Judgment and Decision Making (1. Aufl., S. 696–721). Wiley. https://doi.org/10.1002/9781118468333.ch24
Mamede, S., Schmidt, H. G., & Penaforte, J. C. (2008). Effects of reflective practice on the accuracy of medical diagnoses. Medical Education, 42(5), 468–475. https://doi.org/10.1111/j.1365-2923.2008.03030.x
Mamede, S., Van Gog, T., Van Den Berge, K., Rikers, R. M. J. P., Van Saase, J. L. C. M., Van Guldener, C., & Schmidt, H. G. (2010). Effect of Availability Bias and Reflective Reasoning on Diagnostic Accuracy Among Internal Medicine Residents. JAMA, 304(11), 1198. https://doi.org/10.1001/jama.2010.1276
Milkman, K. L., Chugh, D., & Bazerman, M. H. (2009). How Can Decision Making Be Improved? Perspectives on Psychological Science, 4(4), 379–383. https://doi.org/10.1111/j.1745-6924.2009.01142.x
Morewedge, C. K., Yoon, H., Scopelliti, I., Symborski, C. W., Korris, J. H., & Kassam, K. S. (2015). Debiasing Decisions: Improved Decision Making With a Single Training Intervention. Policy Insights from the Behavioral and Brain Sciences, 2(1), 129–140. https://doi.org/10.1177/2372732215600886
Norman, G. R., Monteiro, S. D., Sherbino, J., Ilgen, J. S., Schmidt, H. G., & Mamede, S. (2017). The Causes of Errors in Clinical Reasoning: Cognitive Biases, Knowledge Deficits, and Dual Process Thinking. Academic Medicine, 92(1), 23–30. https://doi.org/10.1097/ACM.0000000000001421
Tourish, D., & Robson, P. (2006). Sensemaking and the Distortion of Critical Upward Communication in Organizations. Journal of Management Studies, 43(4), 711–730. https://doi.org/10.1111/j.1467-6486.2006.00608.x
Reflexion beginnt mit Dialog.
Wenn du einen Gedanken oder eine Frage teilen möchtest, kontaktiere mich gerne unter contact@lucalbrecht.com
Thinking from Scratch
by Luc Albrecht
Exploring how we think, decide and create clarity