Errori cognitivi in medicina: Gli errori comuni
Questa è la parte 2 di una serie di 4 parti.
- Parte 1: Una breve panoramica della teoria cognitiva
- Parte 3: Possibili soluzioni
- Parte 4: Problemi con la teoria cognitiva
Questo post esaminerà gli errori cognitivi comuni descritti in medicina. Noterai che questa lista non è pulita. La cognizione umana è un processo complesso. Molti dei pregiudizi si sovrappongono. Alcune sono descrizioni più generali che comprendono altri esempi più specifici. Spesso, due diversi pregiudizi rappresenteranno le estremità opposte di uno spettro cognitivo, entrambe le estremità dei quali possono causare errori. Questo elenco rappresenta i pregiudizi cognitivi che sono più spesso descritti nel contesto di errori medici, ma ci sono molti altri pregiudizi cognitivi che influenzano la nostra vita quotidiana. Ad esempio, mi piace particolarmente l’effetto IKEA: la nostra tendenza a valorizzare in modo sproporzionato gli oggetti che abbiamo avuto una mano nel mettere insieme, indipendentemente dal risultato finale.
- Errore affettivo (alias bias di risultato, bias di valore, fattore di dispiacere)
- Bias aggregato (alias errore ecologico)
- Effetto ambiguità
- Ancoraggio
- Accertainment bias
- Availability bias
- Trascuratezza del tasso di base
- Belief bias
- Blind spot bias
- Pregiudizi di commissione e omissione
- Bias di conferma
- Diagnosi momentum
- Sanzione di feedback
- Effetto framing
- Errore di attribuzione fondamentale (es. stereotipizzazione negativa)
- Fallacia del giocatore
- Bias del senno di poi
- Polarizzazione delle informazioni
- Order effects (alias primacy, recency)
- Giocare le probabilità
- Errore di probabilità posteriore
- Chiusura prematura
- Representativeness restraint (aka prototypical error)
- Soddisfazione della ricerca
- Errore di costo affondato
- Sutton’s slip
- Triage cueing (eg geography is destiny)
- Ying Yang bias
- Zebra retreat
- Altro schiumato
Errore affettivo (alias bias di risultato, bias di valore, fattore di dispiacere)
Questa è la tendenza a convincerti che ciò che vuoi essere vero è vero, invece di alternative meno attraenti. Ad esempio, se vedi un amico con mal di testa, è più probabile che opti per una diagnosi benigna piuttosto che sottoporli a una puntura lombare per escludere l’emorragia subaracnoidea. Allo stesso modo, quando non ci piace un paziente, possiamo cancellare la sua mancanza di respiro come ansia invece di considerare l’embolia polmonare. Controtransfert è un sottoinsieme di errore affettivo.
Bias aggregato (alias errore ecologico)
La convinzione che i dati aggregati, come i dati coinvolti nella convalida degli strumenti di decisione clinica, non si applicano al paziente di fronte a voi. Ciò può portare a errori di commissione, come un aumento dell’utilizzo del CT quando gli strumenti decisionali come il PECARN vengono ignorati.
Effetto ambiguità
Abbiamo la tendenza a selezionare le opzioni (o fare diagnosi) per le quali la probabilità è nota, invece di selezionare le opzioni per le quali la probabilità è sconosciuta. Ad esempio, un paziente può presentare febbre e dolori articolari dopo una crociera nei Caraibi. Consideri l’influenza, ma ricorda anche di aver sentito parlare di Chikungunya. Tuttavia, non sai davvero quanto sia comune Chikungunya e non hai un test disponibile per confermarlo, quindi finisci per favorire la diagnosi di influenza (anche se non è in realtà più probabile.)
Ancoraggio
Prematuramente assestamento su una singola diagnosi basata su alcune caratteristiche importanti della presentazione iniziale e non riuscendo a regolare come nuove informazioni diventano disponibili. Questo è strettamente correlato a, e peggiorato da, bias di conferma.
Diagnosi momentum: simile all’ancoraggio. Una volta che un’etichetta diagnostica è stata assegnata a un paziente da un altro individuo, è molto difficile rimuovere quell’etichetta e interpretare i loro sintomi con occhi nuovi.
Accertainment bias
Quando il tuo pensiero è plasmato da aspettative precedenti. In altre parole, vedi quello che ti aspetti di vedere. Questa è la categoria ombrello che contiene stereotipi e pregiudizi di genere. Ad esempio, un paziente senzatetto con passato abuso di droghe viene trovato incosciente e si presume che abbia assunto un’overdose, quando in realtà ha una grave ipoglicemia.
Availability bias
La tendenza a giudicare la probabilità di una malattia dalla facilità con cui vengono in mente esempi rilevanti. L’esperienza recente con una particolare diagnosi aumenta la possibilità che la stessa diagnosi venga fatta di nuovo. È anche vero il contrario, così che una diagnosi che non è stata vista da molto tempo è meno probabile che venga fatta. In generale, ciò porterà a malattie rare sottodiagnosticate e diagnosi comuni sovradiagnostiche. Ad esempio, nel bel mezzo della stagione influenzale, if è incredibilmente facile da diagnosticare ogni paziente con mancanza di respiro come avere l’influenza, potenzialmente manca una sottile embolia polmonare.
” Recent case bias “o” significant case bias ” sono sottotipi del bias di disponibilità. Piuttosto che la diagnosi più comune è quella che viene in mente, una diagnosi rara che è stata vista di recente o che ha un impatto significativo su di te (ad esempio, una mancanza che ha portato a una causa) domina il differenziale. Dopo aver preso una dissezione aortica in un paziente che presentava dolore alle gambe isolato, è possibile ordinare più scansioni TC in individui con lesioni dei tessuti molli.
Trascuratezza del tasso di base
L’incapacità di incorporare la vera prevalenza di una malattia nel ragionamento diagnostico. Ad esempio, spesso sopravvalutiamo la probabilità pre-test di embolia polmonare, lavorandola in pazienti essenzialmente a rischio, distorcendo il nostro ragionamento bayesiano e con conseguente aumento dei costi, falsi positivi e danni diretti al paziente. La mentalità standardizzata “peggiore prima” nella medicina d’urgenza è una forma di abbandono del tasso di base, in cui ci viene insegnato a considerare (e talvolta a lavorare) condizioni pericolose, non importa quanto siano improbabili.
Belief bias
La tendenza ad accettare o rifiutare i dati in base alle proprie convinzioni personali. Ad esempio, un individuo può essere un vero credente nel tPA per l’ictus ischemico e quindi rifiuta qualsiasi prova che contraddica la loro convinzione.
Blind spot bias
Spesso non riusciamo a riconoscere le nostre debolezze o errori cognitivi, mentre è molto più facile riconoscere gli errori o le debolezze degli altri. Un pregiudizio correlato è l’effetto Dunning-Kruger, che descrive la tendenza per gli individui non qualificati a sopravvalutare le loro capacità, anche se gli individui altamente qualificati tendono a sottovalutare le loro capacità. Ad esempio, quasi tutti affermano di essere un pilota migliore della media, ma ovviamente metà della popolazione deve essere effettivamente peggiore della media. Sei più bravo a comunicare con i tuoi pazienti rispetto al medico medio? Cosa pensi che il resto del tuo dipartimento pensi di se stesso?
Pregiudizi di commissione e omissione
Commissione: La tendenza all’azione piuttosto che all’inazione
Omissione: La tendenza all’inazione piuttosto che all’azione
Tutti abbiamo questi, ma spesso li impieghiamo nelle impostazioni sbagliate. Quando si lavora su pazienti a basso rischio, tendiamo a commettere errori di commissione ordinando test eccessivi quando sarebbe meglio non fare nulla. Nella rianimazione, spesso ci troviamo esitanti ad agire. Lo stato di base che probabilmente dovremmo cercare è la commissione in rianimazione e l’omissione altrimenti.
Bias di conferma
Una volta che hai formato un’opinione, hai la tendenza a notare solo le prove che ti supportano e ignorare le prove contrarie. Ad esempio, un paziente potrebbe presentare un mal di testa unilaterale palpitante, fotofobia e nausea che ti fa pensare alle emicranie. Si può sentire che c’è una storia familiare di emicrania, ma inconsciamente sconto il fatto che il paziente ha descritto l’insorgenza come un tuono.
Tentare la disconfirmazione è una strategia scientifica essenziale. Sappiamo tutti che non puoi dimostrare l’affermazione “tutti i cigni sono bianchi” semplicemente osservando i cigni bianchi, perché non importa quanti osservi, il prossimo potrebbe dimostrarti che ti sbagli. Tuttavia, la ricerca del singolo cigno nero ti permetterà di dimostrare definitivamente che”tutti i cigni non sono bianchi”. Per tradurre questo in medicina, quando si vede un paziente obeso con bruciore al petto retrosternale, non dovremmo cercare prove che potrebbero confermare che questo è GERD, ma piuttosto dovremmo cercare di disconfirmare quella teoria (cercando ACS.)
Diagnosi momentum
Vedere ancoraggio
Sanzione di feedback
Un fattore che può rafforzare altri errori diagnostici che è particolarmente comune nella medicina d’urgenza. L’idea è che ci possa essere un ritardo significativo fino a quando non si vedono le conseguenze di un errore cognitivo, o potrebbero non vedere mai quella conseguenza, e quindi il comportamento è rafforzato. Ad esempio, siamo criticati pesantemente se perdiamo una diagnosi, ma non vediamo mai i risultati di un aumento dell’uso della TC (c’è una sanzione di feedback in quanto eventuali tumori causati non saranno identificati per decenni), quindi siamo prevenuti verso un maggiore utilizzo della TC.
Effetto framing
Le tue decisioni sono influenzate dal modo in cui inquadra la domanda. Ad esempio, al momento di decidere se ordinare una TC, è importante se si considera la probabilità 1/100 di perdere una condizione mortale o la probabilità 99/100 che il paziente stia bene.
Allo stesso modo, le tue decisioni sono influenzate dal contesto in cui il paziente viene visto e dalla fonte delle informazioni. Si hanno maggiori probabilità di perdere un AAA in un paziente che si sta vedendo nella zona ambulatoriale che se si dovesse vedere lo stesso identico paziente in una sala di rianimazione.
Errore di attribuzione fondamentale (es. stereotipizzazione negativa)
Un sovrappesamento della personalità di un individuo come causa dei suoi problemi piuttosto che considerare potenziali fattori esterni. In altre parole, tendiamo a incolpare i pazienti per le loro malattie. Ad esempio, tendiamo a incolpare le persone obese piuttosto che considerare i fattori sociali ed economici che guidano l’obesità. Allo stesso modo, se si sente parlare di un medico manca un infarto miocardico, si ha la tendenza a pensare che il medico deve aver fatto qualcosa di sbagliato, piuttosto che considerare il contesto della diagnosi nel pronto soccorso e la difficoltà di presentazioni cliniche ampiamente varie.
Fallacia del giocatore
L’errata convinzione che il caso è auto correzione. Ad esempio, se un individuo lancia una moneta e ottiene teste 10 volte di fila, c’è la tendenza a credere che il prossimo flip sia più probabile che sia tails. Nel pronto soccorso, si potrebbe diagnosticare 3 pazienti di fila con embolia polmonare, e quindi credere che sia improbabile che il prossimo paziente abbia anche un PE, nonostante il fatto che i pazienti siano chiaramente estranei. Ciò porta a una forma di abbandono del tasso di base, in cui la probabilità pretest è regolata in modo inappropriato in base a fatti irrilevanti.
Bias del senno di poi
Conoscere il risultato può influenzare significativamente la nostra percezione degli eventi passati. Lo vediamo spesso nei casi medicolegal, dove gli esperti giudicano le azioni del medico ma sono influenzati dal già conoscere l’esito del caso.
Polarizzazione delle informazioni
La tendenza a credere che più informazioni si possono raccogliere per supportare una diagnosi, meglio è. Questo può diventare particolarmente problematico quando si considerano gli effetti dell’ordine, in modo che le nuove informazioni siano valutate più in alto delle informazioni ottenute in precedenza, potenzialmente distorcendo il proprio ragionamento.
Order effects (alias primacy, recency)
Questo si riferisce al fatto che il trasferimento di informazioni avviene come una funzione a forma di U. Tendiamo a ricordare le informazioni dall’inizio di un incontro e dalla fine di un incontro. Questo può essere correlato all’ancoraggio, in quanto ci concentriamo sulla prima cosa che un paziente dice e ancoriamo su tali informazioni, indipendentemente da quali altre informazioni ci vengono fornite. Gli effetti dell’ordine sono particolarmente importanti nelle transizioni di cura.
Giocare le probabilità
Questa è la tendenza, di fronte a presentazioni ambigue, ad assumere una diagnosi benigna. Stai facendo affidamento sul fatto che le diagnosi benigne sono comuni per mitigare i danni della diagnosi errata. Questo è essenzialmente l’opposto della mentalità standard di emergenza “worst first”. È anche l’estremità opposta dello spettro di abbandono del tasso base.
Errore di probabilità posteriore
La probabilità di una diagnosi è eccessivamente influenzata da eventi precedenti. E ‘ l’opposto di fallacia del giocatore. Ad esempio, se diagnostichi 12 pazienti dritti con mal di schiena muscolare, c’è una tendenza a diagnosticare il 13 ° come lo stesso. Questo è strettamente correlato al pregiudizio di disponibilità.
Chiusura prematura
Questa è la tendenza a fermarsi troppo presto in un processo diagnostico, accettando una diagnosi prima di raccogliere tutte le informazioni necessarie o esplorare tutte le alternative importanti. Questa è una categoria ombrello che può comprendere una serie di altri errori. Essenzialmente qualsiasi errore cognitivo potrebbe portare alla convinzione che siamo già arrivati alla diagnosi corretta e impedire ulteriori verifiche. L’idea è ” quando viene fatta la diagnosi, il pensiero si ferma.”
Representativeness restraint (aka prototypical error)
La tendenza a giudicare la probabilità di una diagnosi basata su un prototipo tipico della diagnosi. La probabilità della malattia si basa interamente su quanto strettamente la presentazione attuale è rappresentata da quel tipico prototipo. Il risultato è che le presentazioni atipiche di malattie hanno maggiori probabilità di essere perse. “Se sembra un’anatra e ciarlatani come un’anatra, deve essere un’anatra”.
Soddisfazione della ricerca
La tendenza a interrompere la ricerca una volta trovato qualcosa. Questo è il motivo per cui ci manca la seconda frattura sulla radiografia una volta identificata la prima.
Errore di costo affondato
Una volta investito in qualcosa, è molto difficile lasciarlo andare, anche se l’investimento originale è ora irrilevante. In medicina, questo può verificarsi quando un medico si sente intellettualmente investito in una particolare diagnosi. Se, dopo molto tempo ed energie, un medico arriva una diagnosi, può essere difficile trascurare quegli sforzi (i costi affondati) e riesaminare la diagnosi se nuovi dati diventano disponibili.
Sutton’s slip
Sutton’s law è basato sulla storia del rapinatore di banche Willie Sutton, che quando gli è stato chiesto perché le sue banche derubate, ha risposto “perché è lì che si trovano i soldi.”L’idea è che dovremmo concentrare la nostra strategia diagnostica andando per l’ovvio. Questo diventa un errore (scivolone di Sutton) quando le possibilità diverse dall’ovvio non vengono prese in considerazione a sufficienza. Ad esempio, la diagnosi ovvia per il 10 ° febbrile, moccioso, tosse bambino del giorno durante la stagione influenzale è l’influenza, ma sarebbe un errore non prendere in considerazione altre possibili cause della febbre.
Triage cueing (eg geography is destiny)
Quando le decisioni diagnostiche sono influenzate dalla categoria di triage originale in cui viene inserito un paziente. (Una forma di diagnosi momentum-l’infermiere triage diagnosticato il paziente come “non malato”, quindi il paziente non deve essere malato.) Ci sono molte forme di triage, da pazienti auto-triaging a diversi livelli di cura, ai rinvii si fanno fuori del dipartimento di emergenza che cue vostri consulenti in base alla vostra valutazione.
Ying Yang bias
La convinzione che un paziente non possa avere una diagosi perché è già stato sottoposto a una moltitudine di test negativi. (IE. sono stati elaborati lo ying-yang.) Questa è una combinazione di momentum diagnostico (con la diagnosi “nulla”) e trascuratezza del tasso di base (si sopravvalutano i test precedentemente negativi e si assegna una probabilità pre-test troppo bassa).
(Grazie Aaron Skolink @ToxCCM per aver sottolineato che avevo lasciato questo fuori dalla lista.)
Zebra retreat
Allontanandosi da una diagnosi rara solo perché è rara. Spesso questo è perché un medico non vuole sviluppare la reputazione di essere irrealistico o sprecare risorse. Ciò si verifica lungo uno spettro con pregiudizi di disponibilità e abbandono del tasso di base. Se non si lavora mai su diagnosi rare, che può rappresentare un ritiro zebra. Tuttavia, se si sono spesso alla ricerca di zebre, che rappresenterebbe un abbandono di base-rate e si tradurrà in over-diagnosi e risorse sprecate.
Oltre a questi specifici pregiudizi cognitivi, ci sono molti fattori di cui dovremmo essere consapevoli che aumentano la nostra probabilità di commettere errori cognitivi.
- Sovraccarico cognitivo
- Alta densità decisionale
- Interruzioni o distrazioni
- Privazione del sonno (il processo decisionale cognitivo tende a raggiungere il suo nadir alle 3-4am. Alcuni studi equiparano le prestazioni cognitive al momento con l’essere legalmente intossicato.)
- Disincronicità circadiana
- Fatica
- Perturbazioni emotive (stato affettivo)
La prossima settimana continuerò con la parte 3 di questa serie, delineando alcuni modi che potrebbero mitigare questi errori.
Altro schiumato
Ci sono 3 episodi eccellenti di casi di medicina di emergenza sul processo decisionale e sugli errori cognitivi:
- Episodio 11: Cognitive Decision Making and Medical Error
- Episode 62 Diagnostic Decision Making in Emergency Medicine
- Episode 75 Decision Making in EM-Cognitive Debiasing, Situational Awareness & Preferred Error
Croskerry P. Clinical cognition and diagnostic error: applications of a dual process model of reasoning. Adv Salute Sci Educ Teoria Pract. 2009;14 Suppl 1: 27-35. PMID: 19669918
Croskerry P. Fallimento diagnostico: un approccio cognitivo e affettivo. In: Henriksen K, Battaglie JB, Marchi ES, Lewin DI, editori. Progressi nella sicurezza dei pazienti: Dalla ricerca all’implementazione (Volume 2: Concetti e metodologia). Rockville (MD): Agenzia per la ricerca sanitaria e la qualità (US); 2005 febbraio. PMID: 21249816
Croskerry P. ED cognizione: qualsiasi decisione da parte di chiunque in qualsiasi momento. CJEM. 2014;16:(1)13-9. PMID: 24423996
Croskerry P. L’importanza degli errori cognitivi nella diagnosi e nelle strategie per ridurli al minimo. Acad Med. 2003;78:(8)775-80. PMID: 12915363
Croskerry P. Da mindless a mindful practice-bias cognitivo e processo decisionale clinico. N Ingl J Med. 2013;368:(26)2445-8. PMID: 23802513
Groopman, J. (2008). Come pensano i medici, Houghton Mifflin Harcourt.
Tversky A, Kahneman D. Giudizio sotto incertezza: euristica e pregiudizi. Scienza. 1974;185:(4157)1124-31. PMID: 17835457