Medizin

Urteile schärfen. Fehler erkennen. Entscheidungsqualität sichern.

Medizinische Fehler entstehen seltener durch fehlendes Fachwissen als durch die Art, wie erfahrene Fachpersonen unter Zeitdruck, Ermüdung und Unsicherheit urteilen.

Eine Studie mit 387 Notaufnahmeärzten zeigte, dass kognitive Faktoren in 96 Prozent aller Diagnosefehler mitbeteiligt waren (Kunitomo et al., 2022).

Expertise beschleunigt das Denken, macht es aber nicht unfehlbar. Das ist keine individuelle Schwäche, sondern eine strukturelle Eigenschaft des menschlichen Urteilssystems.

Ich helfe klinischen Teams und medizinischen Führungskräften, diese Muster sichtbar zu machen und Entscheidungsqualität strukturell abzusichern.

Stethoskop von oben fotografiert auf weißem Untergrund, Membran und Schlauch im Fokus, als Symbol für medizinische Diagnostik und klinische Urteilsfindung.

Wo Urteilsqualität in der Medizin konkret verloren geht

Diagnostik und klinischer Alltag

Frühe Informationen verankern das Urteil unverhältnismäßig stark (Anchoring), die Diagnosesuche endet zu früh, sobald eine plausible Erklärung gefunden ist (Premature Closure) und einmal kommunizierte Diagnosen setzen sich durch Übergaben fort, ohne erneut geprüft zu werden (Diagnosis Momentum). Diese Mechanismen sind in der klinischen Forschung gut belegt. Sie wirken besonders in der Medizin, weil hier Zeitdruck, unvollständige Information und hohe Konsequenzen gleichzeitig auftreten. Was sich klinisch kohärent anfühlt, stimmt nicht immer.

Übergaben und Teamurteile

Diagnosen, die in der Übergabe wiederholt werden, gewinnen soziale Trägheit. Je mehr Personen eine Einschätzung übernehmen, ohne sie neu zu prüfen, desto fester sitzt sie, unabhängig von der tatsächlichen Evidenzlage. Niemand stellt die Frage, auf welcher aktuellen Grundlage die Diagnose eigentlich steht. Was wie ein Kommunikationsproblem aussieht, ist fast immer ein strukturelles Urteilsproblem.

Rauschen (Noise) im klinischen Urteil

Selbst bei identischen Fällen kommen kompetente Fachpersonen zu deutlich unterschiedlichen Diagnosen und Behandlungsentscheidungen. In zwei großen Studien zur Mammographie-Befundung streute die Sensitivität erfahrener Radiologen bei identischen Aufnahmen zwischen 31 und 96 Prozent, in einer späteren Analyse mit über einer Million Aufnahmen sogar zwischen 0 und 100 Prozent (Elmore et al., 1994; Elmore et al., 2009). Das ist keine Inkompetenz, sondern ein strukturelles Merkmal jedes Urteilssystems. Noise ist genauso folgenreich wie Bias, aber deutlich schwerer zu erkennen, weil er keine erkennbare Richtung hat und deshalb im Alltag unsichtbar bleibt.

Belastung und Kontexteffekte

Urteile verändern sich mit Erschöpfung, Tageszeit und sequenzieller Fallbearbeitung. Assistenzärzte mit regelmäßigen Schichten über 24 Stunden waren in Studien 5,6-mal häufiger in schwere Diagnosefehler verwickelt (Landrigan et al., 2004). Derselbe Arzt, derselbe Fall, andere Tageszeit und das Urteil fällt anders aus. Urteilsqualität ist keine stabile Persönlichkeitseigenschaft, sondern abhängig von Person und Kontext.

  • Croskerry, P. (2002). Achieving Quality in Clinical Decision Making: Cognitive Strategies and Detection of Bias. Academic Emergency Medicine9(11), 1184–1204. https://doi.org/10.1197/aemj.9.11.1184

    Croskerry, P. (2003a). Cognitive forcing strategies in clinical decisionmaking. Annals of Emergency Medicine41(1), 110–120. https://doi.org/10.1067/mem.2003.22

    Croskerry, P. (2003b). The Importance of Cognitive Errors in Diagnosis and Strategies to Minimize Them: Academic Medicine78(8), 775–780. https://doi.org/10.1097/00001888-200308000-00003

    Croskerry, P. (2009). A Universal Model of Diagnostic Reasoning: Academic Medicine84(8), 1022–1028. https://doi.org/10.1097/ACM.0b013e3181ace703

    Croskerry, P. (2013). From Mindless to Mindful Practice—Cognitive Bias and Clinical Decision Making. New England Journal of Medicine368(26), 2445–2448. https://doi.org/10.1056/NEJMp1303712

    Croskerry, P., Singhal, G., & Mamede, S. (2013). Cognitive debiasing 1: Origins of bias and theory of debiasing. BMJ Quality & Safety22(Suppl 2), ii58–ii64. https://doi.org/10.1136/bmjqs-2012-001712

    Elmore, J. G., Jackson, S. L., Abraham, L., Miglioretti, D. L., Carney, P. A., Geller, B. M., Yankaskas, B. C., Kerlikowske, K., Onega, T., Rosenberg, R. D., Sickles, E. A., & Buist, D. S. M. (2009). Variability in Interpretive Performance at Screening Mammography and Radiologists’ Characteristics Associated with Accuracy. Radiology253(3), 641–651. https://doi.org/10.1148/radiol.2533082308

    Elmore, J. G., Wells, C. K., Lee, C. H., Howard, D. H., & Feinstein, A. R. (1994). Variability in Radiologists’ Interpretations of Mammograms. New England Journal of Medicine331(22), 1493–1499. https://doi.org/10.1056/NEJM199412013312206

    Graber, M. L., Franklin, N., & Gordon, R. (2005). Diagnostic Error in Internal Medicine. Archives of Internal Medicine165(13), 1493. https://doi.org/10.1001/archinte.165.13.1493

    Kunitomo, K., Harada, T., & Watari, T. (2022). Cognitive biases encountered by physicians in the emergency room. BMC Emergency Medicine22(1), 148. https://doi.org/10.1186/s12873-022-00708-3

    Landrigan, C. P., Rothschild, J. M., Cronin, J. W., Kaushal, R., Burdick, E., Katz, J. T., Lilly, C. M., Stone, P. H., Lockley, S. W., Bates, D. W., & Czeisler, C. A. (2004). Effect of Reducing Interns’ Work Hours on Serious Medical Errors in Intensive Care Units. New England Journal of Medicine351(18), 1838–1848. https://doi.org/10.1056/NEJMoa041406

    Norman, G. R., Monteiro, S. D., Sherbino, J., Ilgen, J. S., Schmidt, H. G., & Mamede, S. (2017). The Causes of Errors in Clinical Reasoning: Cognitive Biases, Knowledge Deficits, and Dual Process Thinking. Academic Medicine92(1), 23–30. https://doi.org/10.1097/ACM.0000000000001421

Wie ich arbeite

Ich strukturiere keine klinischen Prozesse und ergänze kein medizinisches Fachwissen. Ich setze dort an, wo Expertise vorhanden ist, aber systematische Urteilsfallen die Entscheidungsqualität still untergraben.

Das bedeutet in der Praxis, dass ich kognitive Verzerrungen und Urteilsvariabilität mit realen klinischen Fälle und Studienbefunden als Grundlage im eigenen Kontext erfahrbar mache. Und ich helfe, daraus strukturelle Konsequenzen zu ziehen, wie beispielsweise Checkpunkte, Übergabestandards und Reflexionsformate, die im klinischen Alltag funktionieren.

Kurzformate

  • Ein 20-minütiger Impuls für interne Fortbildungen oder Fachveranstaltungen.

  • Eine 30 bis 60-minütige Keynote mit oder ohne Q&A.

Beide Formate eignen sich für den Einstieg in ein Thema, das viele kennen, aber selten strukturiert angehen.

Workshops

90 bis 180 Minuten, interaktiv und fallbasiert.

Geeignet für klinische Teams, die konkrete Muster in ihrer eigenen Praxis erkennen und bearbeiten wollen.

Begleitung

Moderierte Klärungsformate für Führungsteams sowie Begleitmandate für Qualitätssicherung und Fehlerkultur.

Hier geht es nicht um ein einmaliges Sensibilisieren, sondern um strukturelle Veränderungen im Urteilsprozess.

Für wen das relevant ist

Relevant ist diese Arbeit für alle, die verstehen wollen, warum kompetente Teams trotzdem systematisch dieselben Fehler machen.

Das betrifft ärztliche Leitungen und Chefärzte, die Fehlerkultur und Entscheidungsqualität nicht nur als Haltungsfrage, sondern strukturell angehen wollen.

Es betrifft QM-Verantwortliche, die Urteilsvariabilität im Team sichtbar machen und reduzieren wollen.

Und es betrifft Führungsteams in Krankenhäusern und medizinischen Einrichtungen, die Übergabe- und Abstimmungsprozesse so gestalten wollen, dass Urteilsqualität nicht vom Zufall abhängt.

Mehr zum Thema