Medizin
Urteile schärfen. Fehler erkennen. Entscheidungsqualität sichern.
Medizinische Fehler entstehen seltener durch fehlendes Fachwissen als durch die Art, wie erfahrene Fachpersonen unter Zeitdruck, Ermüdung und Unsicherheit urteilen.
Eine Studie mit 387 Notaufnahmeärzten zeigte, dass kognitive Faktoren in 96 Prozent aller Diagnosefehler mitbeteiligt waren (Kunitomo et al., 2022).
Expertise beschleunigt das Denken, macht es aber nicht unfehlbar. Das ist keine individuelle Schwäche, sondern eine strukturelle Eigenschaft des menschlichen Urteilssystems.
Ich helfe klinischen Teams und medizinischen Führungskräften, diese Muster sichtbar zu machen und Entscheidungsqualität strukturell abzusichern.
Wo Urteilsqualität in der Medizin konkret verloren geht
Diagnostik und klinischer Alltag
Frühe Informationen verankern das Urteil unverhältnismäßig stark (Anchoring), die Diagnosesuche endet zu früh, sobald eine plausible Erklärung gefunden ist (Premature Closure) und einmal kommunizierte Diagnosen setzen sich durch Übergaben fort, ohne erneut geprüft zu werden (Diagnosis Momentum). Diese Mechanismen sind in der klinischen Forschung gut belegt. Sie wirken besonders in der Medizin, weil hier Zeitdruck, unvollständige Information und hohe Konsequenzen gleichzeitig auftreten. Was sich klinisch kohärent anfühlt, stimmt nicht immer.
Übergaben und Teamurteile
Diagnosen, die in der Übergabe wiederholt werden, gewinnen soziale Trägheit. Je mehr Personen eine Einschätzung übernehmen, ohne sie neu zu prüfen, desto fester sitzt sie, unabhängig von der tatsächlichen Evidenzlage. Niemand stellt die Frage, auf welcher aktuellen Grundlage die Diagnose eigentlich steht. Was wie ein Kommunikationsproblem aussieht, ist fast immer ein strukturelles Urteilsproblem.
Rauschen (Noise) im klinischen Urteil
Selbst bei identischen Fällen kommen kompetente Fachpersonen zu deutlich unterschiedlichen Diagnosen und Behandlungsentscheidungen. In zwei großen Studien zur Mammographie-Befundung streute die Sensitivität erfahrener Radiologen bei identischen Aufnahmen zwischen 31 und 96 Prozent, in einer späteren Analyse mit über einer Million Aufnahmen sogar zwischen 0 und 100 Prozent (Elmore et al., 1994; Elmore et al., 2009). Das ist keine Inkompetenz, sondern ein strukturelles Merkmal jedes Urteilssystems. Noise ist genauso folgenreich wie Bias, aber deutlich schwerer zu erkennen, weil er keine erkennbare Richtung hat und deshalb im Alltag unsichtbar bleibt.
Belastung und Kontexteffekte
Urteile verändern sich mit Erschöpfung, Tageszeit und sequenzieller Fallbearbeitung. Assistenzärzte mit regelmäßigen Schichten über 24 Stunden waren in Studien 5,6-mal häufiger in schwere Diagnosefehler verwickelt (Landrigan et al., 2004). Derselbe Arzt, derselbe Fall, andere Tageszeit und das Urteil fällt anders aus. Urteilsqualität ist keine stabile Persönlichkeitseigenschaft, sondern abhängig von Person und Kontext.
-
Croskerry, P. (2002). Achieving Quality in Clinical Decision Making: Cognitive Strategies and Detection of Bias. Academic Emergency Medicine, 9(11), 1184–1204. https://doi.org/10.1197/aemj.9.11.1184
Croskerry, P. (2003a). Cognitive forcing strategies in clinical decisionmaking. Annals of Emergency Medicine, 41(1), 110–120. https://doi.org/10.1067/mem.2003.22
Croskerry, P. (2003b). The Importance of Cognitive Errors in Diagnosis and Strategies to Minimize Them: Academic Medicine, 78(8), 775–780. https://doi.org/10.1097/00001888-200308000-00003
Croskerry, P. (2009). A Universal Model of Diagnostic Reasoning: Academic Medicine, 84(8), 1022–1028. https://doi.org/10.1097/ACM.0b013e3181ace703
Croskerry, P. (2013). From Mindless to Mindful Practice—Cognitive Bias and Clinical Decision Making. New England Journal of Medicine, 368(26), 2445–2448. https://doi.org/10.1056/NEJMp1303712
Croskerry, P., Singhal, G., & Mamede, S. (2013). Cognitive debiasing 1: Origins of bias and theory of debiasing. BMJ Quality & Safety, 22(Suppl 2), ii58–ii64. https://doi.org/10.1136/bmjqs-2012-001712
Elmore, J. G., Jackson, S. L., Abraham, L., Miglioretti, D. L., Carney, P. A., Geller, B. M., Yankaskas, B. C., Kerlikowske, K., Onega, T., Rosenberg, R. D., Sickles, E. A., & Buist, D. S. M. (2009). Variability in Interpretive Performance at Screening Mammography and Radiologists’ Characteristics Associated with Accuracy. Radiology, 253(3), 641–651. https://doi.org/10.1148/radiol.2533082308
Elmore, J. G., Wells, C. K., Lee, C. H., Howard, D. H., & Feinstein, A. R. (1994). Variability in Radiologists’ Interpretations of Mammograms. New England Journal of Medicine, 331(22), 1493–1499. https://doi.org/10.1056/NEJM199412013312206
Graber, M. L., Franklin, N., & Gordon, R. (2005). Diagnostic Error in Internal Medicine. Archives of Internal Medicine, 165(13), 1493. https://doi.org/10.1001/archinte.165.13.1493
Kunitomo, K., Harada, T., & Watari, T. (2022). Cognitive biases encountered by physicians in the emergency room. BMC Emergency Medicine, 22(1), 148. https://doi.org/10.1186/s12873-022-00708-3
Landrigan, C. P., Rothschild, J. M., Cronin, J. W., Kaushal, R., Burdick, E., Katz, J. T., Lilly, C. M., Stone, P. H., Lockley, S. W., Bates, D. W., & Czeisler, C. A. (2004). Effect of Reducing Interns’ Work Hours on Serious Medical Errors in Intensive Care Units. New England Journal of Medicine, 351(18), 1838–1848. https://doi.org/10.1056/NEJMoa041406
Norman, G. R., Monteiro, S. D., Sherbino, J., Ilgen, J. S., Schmidt, H. G., & Mamede, S. (2017). The Causes of Errors in Clinical Reasoning: Cognitive Biases, Knowledge Deficits, and Dual Process Thinking. Academic Medicine, 92(1), 23–30. https://doi.org/10.1097/ACM.0000000000001421
Wie ich arbeite
Ich strukturiere keine klinischen Prozesse und ergänze kein medizinisches Fachwissen. Ich setze dort an, wo Expertise vorhanden ist, aber systematische Urteilsfallen die Entscheidungsqualität still untergraben.
Das bedeutet in der Praxis, dass ich kognitive Verzerrungen und Urteilsvariabilität mit realen klinischen Fälle und Studienbefunden als Grundlage im eigenen Kontext erfahrbar mache. Und ich helfe, daraus strukturelle Konsequenzen zu ziehen, wie beispielsweise Checkpunkte, Übergabestandards und Reflexionsformate, die im klinischen Alltag funktionieren.
Kurzformate
Ein 20-minütiger Impuls für interne Fortbildungen oder Fachveranstaltungen.
Eine 30 bis 60-minütige Keynote mit oder ohne Q&A.
Beide Formate eignen sich für den Einstieg in ein Thema, das viele kennen, aber selten strukturiert angehen.
Workshops
90 bis 180 Minuten, interaktiv und fallbasiert.
Geeignet für klinische Teams, die konkrete Muster in ihrer eigenen Praxis erkennen und bearbeiten wollen.
Begleitung
Moderierte Klärungsformate für Führungsteams sowie Begleitmandate für Qualitätssicherung und Fehlerkultur.
Hier geht es nicht um ein einmaliges Sensibilisieren, sondern um strukturelle Veränderungen im Urteilsprozess.
Für wen das relevant ist
Relevant ist diese Arbeit für alle, die verstehen wollen, warum kompetente Teams trotzdem systematisch dieselben Fehler machen.
Das betrifft ärztliche Leitungen und Chefärzte, die Fehlerkultur und Entscheidungsqualität nicht nur als Haltungsfrage, sondern strukturell angehen wollen.
Es betrifft QM-Verantwortliche, die Urteilsvariabilität im Team sichtbar machen und reduzieren wollen.
Und es betrifft Führungsteams in Krankenhäusern und medizinischen Einrichtungen, die Übergabe- und Abstimmungsprozesse so gestalten wollen, dass Urteilsqualität nicht vom Zufall abhängt.