Kognitive Fehler in der Medizin: Die häufigsten Fehler
Dies ist Teil 2 einer 4-teiligen Serie.
- Teil 1: Ein kurzer Überblick über die kognitive Theorie
- Teil 3: Mögliche Lösungen
- Teil 4: Probleme mit der kognitiven Theorie
Dieser Beitrag wird die häufigsten kognitiven Fehler in der Medizin beschrieben überprüfen. Sie werden feststellen, dass diese Liste nicht sauber ist. Menschliche Kognition ist ein komplexer Prozess. Viele der Vorurteile überschneiden sich. Einige sind allgemeinere Beschreibungen, die andere spezifischere Beispiele umfassen. Oft stellen zwei verschiedene Verzerrungen entgegengesetzte Enden eines kognitiven Spektrums dar, von denen beide Enden zu Fehlern führen können. Diese Liste stellt die kognitiven Verzerrungen dar, die am häufigsten im Zusammenhang mit medizinischen Fehlern beschrieben werden, aber es gibt viele andere kognitive Verzerrungen, die unser tägliches Leben beeinflussen. Zum Beispiel mag ich besonders den IKEA-Effekt: Unsere Tendenz, Objekte überproportional zu bewerten, hatten wir unabhängig vom Endergebnis an der Zusammenstellung beteiligt.
- Affektiver Fehler (aka Outcome bias, value Bias, the chagrin factor)
- Aggregierte Verzerrung (auch bekannt als ökologischer Irrtum)
- Mehrdeutigkeitseffekt
- Verankerung
- Voreingenommenheit bei der Ermittlung
- Availability Bias
- Vernachlässigung der Basisrate
- Belief Bias
- Blind Spot Bias
- Commission and omission biases
- Bestätigungsverzerrung
- Diagnose momentum
- Feedback Sanktion
- Framing-Effekt
- Fundamentaler Attributionsfehler (z. B. negative Stereotypisierung)
- Gambler’s fallacy
- Retrosight Bias
- Information bias
- Ordnungseffekte (aka Primat, Aktualität)
- Die Chancen spielen
- Posteriorer Wahrscheinlichkeitsfehler
- Vorzeitiger Verschluss
- Repräsentativitätsbeschränkung (auch bekannt als prototypischer Fehler)
- Suchzufriedenheit
- Trugschluss der versunkenen Kosten
- Suttons Gesetz
- Triage Cueing (z. B. Geographie ist Schicksal)
- Ying Yang bias
- Zebra retreat
- Andere geschäumte
Affektiver Fehler (aka Outcome bias, value Bias, the chagrin factor)
Dies ist die Tendenz, sich selbst davon zu überzeugen, dass das, was Sie wahr sein wollen, wahr ist, anstatt weniger ansprechende Alternativen. Wenn Sie beispielsweise einen Freund mit Kopfschmerzen sehen, entscheiden Sie sich eher für eine gutartige Diagnose als für eine Lumbalpunktion, um eine Subarachnoidalblutung auszuschließen. In ähnlicher Weise können wir, wenn wir eine Patientin nicht mögen, ihre Atemnot als Angst abschreiben, anstatt eine Lungenembolie in Betracht zu ziehen. Gegenübertragung ist eine Teilmenge des affektiven Fehlers.
Aggregierte Verzerrung (auch bekannt als ökologischer Irrtum)
Die Überzeugung, dass aggregierte Daten, wie z. B. die Daten, die an der Validierung klinischer Entscheidungsinstrumente beteiligt sind, nicht für den Patienten vor Ihnen gelten. Dies kann zu Provisionsfehlern führen, z. B. zu einer erhöhten CT-Nutzung, wenn Entscheidungsinstrumente wie PECARN ignoriert werden.
Mehrdeutigkeitseffekt
Wir neigen dazu, Optionen auszuwählen (oder Diagnosen zu stellen), für die die Wahrscheinlichkeit bekannt ist, anstatt Optionen auszuwählen, für die die Wahrscheinlichkeit unbekannt ist. Zum Beispiel kann ein Patient nach einer Kreuzfahrt in der Karibik Fieber und Gelenkschmerzen haben. Sie denken an Influenza, erinnern sich aber auch daran, von Chikungunya gehört zu haben. Sie wissen jedoch nicht wirklich, wie häufig Chikungunya ist, und es steht kein Test zur Verfügung, um dies zu bestätigen, sodass Sie die Diagnose einer Influenza bevorzugen (unabhängig davon, ob dies tatsächlich wahrscheinlicher ist oder nicht.)
Verankerung
Vorzeitige Festlegung auf eine einzige Diagnose basierend auf einigen wichtigen Merkmalen der ursprünglichen Präsentation und Nichtanpassung, sobald neue Informationen verfügbar werden. Dies hängt eng mit dem Bestätigungsfehler zusammen und wird durch diesen noch verschlimmert.
Diagnose Impuls: Ähnlich der Verankerung. Sobald einem Patienten von einer anderen Person ein diagnostisches Etikett zugewiesen wurde, ist es sehr schwierig, dieses Etikett zu entfernen und seine Symptome mit neuen Augen zu interpretieren.
Voreingenommenheit bei der Ermittlung
Wenn Ihr Denken von früheren Erwartungen geprägt ist. Mit anderen Worten, Sie sehen, was Sie erwarten zu sehen. Dies ist die Dachkategorie, die Stereotypisierung und geschlechtsspezifische Vorurteile enthält. Zum Beispiel wird ein obdachloser Patient mit Drogenmissbrauch in der Vergangenheit bewusstlos aufgefunden und es wird angenommen, dass er überdosiert hat, obwohl er tatsächlich eine schwere Hypoglykämie hat.
Availability Bias
Die Tendenz, die Wahrscheinlichkeit einer Krankheit anhand der Leichtigkeit zu beurteilen, mit der relevante Beispiele in den Sinn kommen. Jüngste Erfahrungen mit einer bestimmten Diagnose erhöhen die Wahrscheinlichkeit, dass dieselbe Diagnose erneut gestellt wird. Das Gegenteil ist auch der Fall, so dass eine Diagnose, die lange Zeit nicht gesehen wurde, weniger wahrscheinlich ist. Im Allgemeinen führt dies dazu, dass seltene Krankheiten unterdiagnostiziert und häufige Diagnosen überdiagnostiziert werden. Zum Beispiel ist es in der Mitte der Grippesaison unglaublich einfach, jeden Patienten mit Atemnot als Grippe zu diagnostizieren, bei dem möglicherweise eine subtile Lungenembolie fehlt.
“Recent case Bias” oder “significant case Bias” sind Subtypen des Availability Bias. Anstatt dass die häufigste Diagnose in den Sinn kommt, dominiert eine seltene Diagnose, die kürzlich gesehen wurde oder die erhebliche Auswirkungen auf Sie hat (z. B. ein Misserfolg, der zu einer Klage geführt hat), das Differential. Nach einer Aortendissektion bei einem Patienten mit isolierten Beinschmerzen können Sie bei Personen mit Weichteilverletzungen weitere CT-Scans bestellen.
Vernachlässigung der Basisrate
Das Versäumnis, die wahre Prävalenz einer Krankheit in diagnostische Überlegungen einzubeziehen. Zum Beispiel überschätzen wir oft die Wahrscheinlichkeit einer Lungenembolie vor dem Test, arbeiten sie bei im Wesentlichen risikolosen Patienten auf, verzerren unsere Bayes’sche Argumentation und führen zu erhöhten Kosten, falsch positiven Ergebnissen und direkten Patientenschäden. Die standardmäßige “Worst First” -Mentalität in der Notfallmedizin ist eine Form der Vernachlässigung des Basiszinssatzes, in der uns beigebracht wird, gefährliche Bedingungen zu berücksichtigen (und manchmal aufzuarbeiten), egal wie unwahrscheinlich sie sind.
Belief Bias
Die Tendenz, Daten basierend auf persönlichen Überzeugungen zu akzeptieren oder abzulehnen. Zum Beispiel kann eine Person ein wahrer Gläubiger in der tPA für ischämischen Schlaganfall sein und lehnt daher alle Beweise ab, die ihrem Glauben widersprechen würden.
Blind Spot Bias
Wir erkennen oft unsere eigenen Schwächen oder kognitiven Fehler nicht, während es viel einfacher ist, die Fehler oder Schwächen anderer zu erkennen. Eine verwandte Verzerrung ist der Mahn-Krüger-Effekt, der die Tendenz ungelernter Personen beschreibt, ihre Fähigkeiten zu überschätzen, obwohl hochqualifizierte Personen dazu neigen, ihre Fähigkeiten zu unterschätzen. Zum Beispiel behauptet fast jeder, ein überdurchschnittlich guter Fahrer zu sein, aber offensichtlich muss die Hälfte der Bevölkerung tatsächlich schlechter als der Durchschnitt sein. Können Sie besser mit Ihren Patienten kommunizieren als der durchschnittliche Arzt? Was denken Sie, was der Rest Ihrer Abteilung über sich selbst denkt?
Commission and omission biases
Kommission: Die Tendenz zu Handeln statt zu handeln
Unterlassung: Die Tendenz zu handeln statt zu handeln
Wir alle haben diese, setzen sie aber oft in den falschen Einstellungen ein. Bei der Aufarbeitung von Patienten mit geringem Risiko neigen wir dazu, Fehler in der Kommission zu machen, indem wir Tests überbestellen, wenn wir besser dran wären, nichts zu tun. In der Reanimation zögern wir oft zu handeln. Der Ausgangszustand, den wir wahrscheinlich anstreben sollten, ist die Kommission für Wiederbelebung und Unterlassung.
Bestätigungsverzerrung
Sobald Sie sich eine Meinung gebildet haben, neigen Sie dazu, nur die Beweise zu bemerken, die Sie unterstützen, und gegenteilige Beweise zu ignorieren. Beispielsweise kann ein Patient pochende einseitige Kopfschmerzen, Photophobie und Übelkeit haben, die Sie an Migräne denken lassen. Sie können hören, dass es eine Familiengeschichte von Migräne gibt, aber unbewusst die Tatsache außer Acht lassen, dass der Patient den Beginn als Donnerschlag beschrieben hat.
Der Versuch der Entkonfirmation ist eine wesentliche wissenschaftliche Strategie. Wir alle wissen, dass Sie die Aussage “Alle Schwäne sind weiß” nicht beweisen können, indem Sie nur weiße Schwäne beobachten, denn egal wie viele Sie beobachten, der nächste könnte Ihnen das Gegenteil beweisen. Wenn Sie jedoch nach dem einzigen schwarzen Schwan suchen, können Sie definitiv beweisen, dass “alle Schwäne nicht weiß sind”. Um dies in die Medizin zu übersetzen, sollten wir, wenn wir einen übergewichtigen Patienten mit brennenden retrosternalen Brustschmerzen sehen, keine Beweise suchen, die bestätigen könnten, dass dies GERD ist, sondern wir sollten versuchen, diese Theorie zu widerlegen (indem wir nach ACS suchen.)
Diagnose momentum
Siehe Verankerung
Feedback Sanktion
Ein Faktor, der andere diagnostische Fehler verstärken kann, die besonders häufig in der Notfallmedizin auftreten. Die Idee ist, dass es eine signifikante Zeitverzögerung geben kann, bis man die Konsequenzen eines kognitiven Fehlers sieht, oder dass sie diese Konsequenz überhaupt nicht sehen und daher das Verhalten verstärkt wird. Zum Beispiel werden wir stark kritisiert, wenn wir eine Diagnose verpassen, aber wir sehen nie die Ergebnisse einer erhöhten CT-Nutzung (es gibt eine Sanktion, dass alle verursachten Krebsarten jahrzehntelang nicht identifiziert werden), daher sind wir in Richtung mehr CT-Nutzung voreingenommen.
Framing-Effekt
Ihre Entscheidungen werden davon beeinflusst, wie Sie die Frage einrahmen. Wenn Sie beispielsweise entscheiden, ob Sie eine CT bestellen möchten, ist es wichtig, ob Sie die 1/100-Chance, einen tödlichen Zustand zu verpassen, oder die 99/100-Chance, dass es dem Patienten gut geht, in Betracht ziehen.
In ähnlicher Weise werden Ihre Entscheidungen durch den Kontext, in dem der Patient gesehen wird, und die Informationsquelle beeinflusst. Es ist wahrscheinlicher, dass Sie bei einem Patienten, den Sie in der Ambulanzzone sehen, eine AAA verpassen, als wenn Sie genau denselben Patienten in einem Wiederbelebungsraum sehen würden.
Fundamentaler Attributionsfehler (z. B. negative Stereotypisierung)
Eine Übergewichtung der Persönlichkeit eines Individuums als Ursache seiner Probleme, anstatt potenzielle externe Faktoren zu berücksichtigen. Mit anderen Worten, wir neigen dazu, Patienten für ihre Krankheiten verantwortlich zu machen. Zum Beispiel neigen wir dazu, übergewichtige Menschen zu beschuldigen, anstatt die sozialen und wirtschaftlichen Faktoren zu berücksichtigen, die Fettleibigkeit antreiben. Ähnlich, wenn Sie hören, dass ein Arzt einen MI vermisst, Sie neigen dazu zu glauben, dass der Arzt etwas falsch gemacht haben muss, anstatt den Kontext der Diagnose in der Notaufnahme und die Schwierigkeit der unterschiedlichsten klinischen Präsentationen zu berücksichtigen.
Gambler’s fallacy
Der Irrglaube, dass der Zufall sich selbst korrigiert. Zum Beispiel, wenn eine Person eine Münze wirft und Köpfe 10 Mal in Folge bekommt, gibt es eine Tendenz zu glauben, dass der nächste Flip eher Schwänze sein wird. In der Notaufnahme könnte man 3 Patienten hintereinander mit Lungenembolie diagnostizieren und daher glauben, dass es unwahrscheinlich ist, dass der nächste Patient auch eine PE hat, obwohl die Patienten eindeutig nicht verwandt sind. Dies führt zu einer Form der Vernachlässigung des Basiszinssatzes, bei der die Pretestwahrscheinlichkeit aufgrund irrelevanter Fakten unangemessen angepasst wird.
Retrosight Bias
Das Ergebnis zu kennen, kann unsere Wahrnehmung vergangener Ereignisse erheblich beeinflussen. Wir sehen dies häufig in medizinisch-rechtlichen Fällen, in denen Experten die Handlungen des Arztes beurteilen, aber beeinflusst werden, indem sie bereits den Ausgang des Falles kennen.
Information bias
Die Tendenz zu glauben, dass je mehr Informationen man sammeln kann, um eine Diagnose zu unterstützen, desto besser. Dies kann besonders problematisch werden, wenn Ordnungseffekte in Betracht gezogen werden, so dass neue Informationen höher bewertet werden als früher erhaltene Informationen, was möglicherweise die Argumentation verzerrt.
Ordnungseffekte (aka Primat, Aktualität)
Dies bezieht sich auf die Tatsache, dass die Informationsübertragung als U-förmige Funktion erfolgt. Wir neigen dazu, uns an Informationen vom Beginn einer Begegnung bis zum Ende einer Begegnung zu erinnern. Dies kann mit der Verankerung zusammenhängen, indem wir uns auf das erste konzentrieren, was ein Patient sagt, und auf diese Informationen ankern, unabhängig davon, welche anderen Informationen uns zur Verfügung gestellt werden. Ordnungs-Effekte sind besonders wichtig bei Pflegeübergängen.
Die Chancen spielen
Dies ist die Tendenz, bei mehrdeutigen Darstellungen eine gutartige Diagnose anzunehmen. Sie verlassen sich auf die Tatsache, dass gutartige Diagnosen häufig sind, um die Schäden einer Fehldiagnose zu mildern. Dies ist im Wesentlichen das Gegenteil der Standard-Notfall-Mentalität “Worst First”. Es ist auch das entgegengesetzte Ende des Spektrums der Vernachlässigung des Basiszinssatzes.
Posteriorer Wahrscheinlichkeitsfehler
Die Wahrscheinlichkeit einer Diagnose wird zu stark durch Vorereignisse beeinflusst. Es ist das Gegenteil des Irrtums des Spielers. Wenn Sie beispielsweise 12 gerade Patienten mit muskulären Rückenschmerzen diagnostizieren, besteht die Tendenz, den 13. als gleich zu diagnostizieren. Dies hängt eng mit dem Availability Bias zusammen.
Vorzeitiger Verschluss
Dies ist die Tendenz, in einem diagnostischen Prozess zu früh aufzuhören, eine Diagnose zu akzeptieren, bevor alle notwendigen Informationen gesammelt oder alle wichtigen Alternativen untersucht werden. Dies ist eine Dachkategorie, die eine Reihe anderer Fehler umfassen kann. Im Wesentlichen könnte jeder kognitive Fehler dazu führen, dass wir glauben, bereits zur richtigen Diagnose gekommen zu sein, und eine weitere Überprüfung verhindern. Die Idee ist: “Wenn die Diagnose gestellt wird, hört das Denken auf.”
Repräsentativitätsbeschränkung (auch bekannt als prototypischer Fehler)
Die Tendenz, die Wahrscheinlichkeit einer Diagnose anhand eines typischen Prototyps der Diagnose zu beurteilen. Die Wahrscheinlichkeit der Erkrankung richtet sich ganz danach, wie eng die aktuelle Darstellung durch diesen typischen Prototyp repräsentiert wird. Das Ergebnis ist, dass atypische Präsentationen von Krankheiten eher übersehen werden. “Wenn es wie eine Ente aussieht und wie eine Ente quakt, muss es eine Ente sein”.
Suchzufriedenheit
Die Tendenz, die Suche zu beenden, sobald Sie etwas gefunden haben. Dies ist der Grund, warum wir die zweite Fraktur auf dem Röntgenbild vermissen, sobald wir die erste identifiziert haben.
Trugschluss der versunkenen Kosten
Sobald man in etwas investiert ist, ist es sehr schwierig, es loszulassen, selbst wenn diese ursprüngliche Investition jetzt irrelevant ist. In der Medizin kann dies auftreten, wenn sich ein Arzt intellektuell in eine bestimmte Diagnose investiert fühlt. Wenn ein Arzt nach beträchtlicher Zeit und Energie eine Diagnose stellt, kann es schwierig sein, diese Bemühungen (die versunkenen Kosten) zu übersehen und die Diagnose erneut zu prüfen, wenn neue Daten verfügbar werden.
Suttons Gesetz
Suttons Gesetz basiert auf der Geschichte des Bankräubers Willie Sutton, der auf die Frage, warum sie Banken ausgeraubt habe, antwortete: “Weil dort das Geld ist.” Die Idee ist, dass wir unsere diagnostische Strategie auf das Offensichtliche konzentrieren sollten. Dies wird zu einem Irrtum (Suttons Schlupf), wenn andere als die offensichtlichen Möglichkeiten nicht ausreichend berücksichtigt werden. Zum Beispiel ist die offensichtliche Diagnose für das 10. fiebrige, rotzige, hustende Kind des Tages während der Grippesaison Grippe, aber es wäre ein Fehler, andere mögliche Ursachen des Fiebers nicht zu berücksichtigen.
Triage Cueing (z. B. Geographie ist Schicksal)
Wenn diagnostische Entscheidungen von der ursprünglichen Triage-Kategorie beeinflusst werden, in die ein Patient eingeteilt wird. (Eine Form der Diagnose) – die Triage-Krankenschwester diagnostizierte den Patienten als “nicht krank”, daher darf der Patient nicht krank sein. Es gibt viele Formen der Triage, von Patienten Selbst-Triaging zu verschiedenen Ebenen der Pflege, zu den Empfehlungen, die Sie aus der Notaufnahme machen, die Ihre Berater auf der Grundlage Ihrer Beurteilung beraten.
Ying Yang bias
Der Glaube, dass ein Patient unmöglich eine Diagnose haben kann, weil er bereits einer Vielzahl negativer Tests unterzogen wurde. (IE. sie haben das Ying-Yang aufgearbeitet.) Dies ist eine Kombination aus Diagnosemoment (wobei die Diagnose ‘nichts’ ist) und Basiszinsvernachlässigung (Sie überbewerten die zuvor negativen Tests und weisen eine zu niedrige Wahrscheinlichkeit vor dem Test zu).
(Danke Aaron Skolink @ToxCCM für den Hinweis, dass ich das von der Liste gestrichen habe.)
Zebra retreat
Rückzug von einer seltenen Diagnose nur, weil es selten ist. Oft liegt dies daran, dass ein Arzt nicht den Ruf entwickeln möchte, unrealistisch zu sein oder Ressourcen zu verschwenden. Dies geschieht entlang eines Spektrums mit Availability Bias und Base Rate Neglect. Wenn Sie nie seltene Diagnosen aufarbeiten, kann dies einen Zebra-Rückzug darstellen. Wenn Sie jedoch häufig nach Zebras suchen, würde dies eine Vernachlässigung der Basisrate darstellen und zu Überdiagnosen und verschwendeten Ressourcen führen.
Zusätzlich zu diesen spezifischen kognitiven Verzerrungen gibt es viele Faktoren, die wir beachten sollten, die unsere Wahrscheinlichkeit erhöhen, kognitive Fehler zu machen.
- Kognitive Überlastung
- Hohe Entscheidungsdichte
- Unterbrechungen oder Ablenkungen
- Schlafentzug (kognitive Entscheidungsfindung neigt dazu, ihren Tiefpunkt bei 3-4am zu erreichen. Einige Studien setzen die kognitive Leistung zu dieser Zeit mit einer rechtlichen Vergiftung gleich.)
- Zirkadiane Dyssynchronität
- Müdigkeit
- Emotionale Störungen (affektiver Zustand)
Nächste Woche werde ich mit Teil 3 dieser Serie fortfahren und einige Möglichkeiten aufzeigen, wie diese Fehler gemildert werden können.
Andere geschäumte
Es gibt 3 ausgezeichnete Episoden von Notfallmedizinfällen zu Entscheidungsfindung und kognitiven Fehlern:
- Folge 11: Kognitive Entscheidungsfindung und medizinischer Fehler
- Episode 62 Diagnostische Entscheidungsfindung in der Notfallmedizin
- Episode 75 Entscheidungsfindung in EM – Kognitives Debiasing, Situationsbewusstsein & Medizinischer Fehler
Croskerry P. Klinische Kognition und diagnostischer Fehler: Anwendungen eines dualen Prozessmodells des Denkens. Adv Gesundheit Sci Educ Theorie Pract. 2009;14 Ergänzung 1:27-35. PMID: 19669918
Croskerry P. Diagnostisches Versagen: Ein kognitiver und affektiver Ansatz. In: Henriksen K, Schlachten JB, Marks ES, Lewin DI, Herausgeber. Fortschritte in der Patientensicherheit: Von der Forschung zur Umsetzung (Band 2: Konzepte und Methodik). Rockville (MD): Agentur für Gesundheitsforschung und Qualität (US); 2005 Feb. PMID: 21249816
Croskerry P. ED Kognition: jede Entscheidung von jedermann zu jeder Zeit. CJEM. 2014;16:(1)13-9. PMID: 24423996
Croskerry P. Die Bedeutung kognitiver Fehler bei der Diagnose und Strategien zu deren Minimierung. In: Acad Med. 2003;78:(8)775-80. PMID: 12915363
Croskerry P. Von geistloser zu achtsamer Praxis – kognitive Verzerrung und klinische Entscheidungsfindung. In: N Engl J Med. 2013;368:(26)2445-8. PMID: 23802513
Groopman, J. (2008). Wie Ärzte denken, Houghton Mifflin Harcourt.
Tversky A, Kahneman D. Urteil unter Unsicherheit: Heuristiken und Vorurteile. Wissenschaft. 1974;185:(4157)1124-31. PMID: 17835457