Erreurs cognitives en médecine: Les erreurs courantes
Ceci est la partie 2 d’une série de 4 parties.
- Partie 1: Un bref aperçu de la théorie cognitive
- Partie 3: Solutions possibles
- Partie 4: Problèmes avec la théorie cognitive
Cet article passera en revue les erreurs cognitives courantes décrites en médecine. Vous remarquerez que cette liste n’est pas propre. La cognition humaine est un processus complexe. De nombreux biais se chevauchent. Certaines sont des descriptions plus générales qui englobent d’autres exemples plus spécifiques. Souvent, deux biais différents représenteront des extrémités opposées d’un spectre cognitif, dont les deux extrémités peuvent entraîner des erreurs. Cette liste représente les biais cognitifs les plus souvent décrits dans le contexte des erreurs médicales, mais il existe de nombreux autres biais cognitifs qui affectent notre vie quotidienne. Par exemple, j’aime particulièrement l’effet IKEA : notre tendance à valoriser de manière disproportionnée les objets que nous avons pu assembler, quel que soit le résultat final.
- Erreur affective (aka biais de résultat, biais de valeur, facteur de chagrin)
- Biais global (alias erreur écologique)
- Effet d’ambiguïté
- Ancrer
- Biais de constatation
- Biais de disponibilité
- Négligence du taux de base
- Biais de croyance
- Biais d’angle mort
- Biais de commission et d’omission
- Biais de confirmation
- Élan de diagnostic
- Sanction de rétroaction
- Effet de cadrage
- Erreur d’attribution fondamentale (par exemple, stéréotypes négatifs)
- Erreur du joueur
- Biais rétrospectif
- Biais d’information
- Effets d’ordre (aka primauté, récence)
- Jouer les chances
- Erreur de probabilité postérieure
- Fermeture prématurée
- Restriction de représentativité (aka erreur prototypique)
- Satisfaction de la recherche
- Erreur de coûts irrécupérables
- Le bordereau de Sutton
- Triage (par exemple, la géographie est destinée)
- Biais Ying Yang
- Retraite du zèbre
- Autre MOUSse
Erreur affective (aka biais de résultat, biais de valeur, facteur de chagrin)
C’est la tendance à vous convaincre que ce que vous voulez être vrai est vrai, au lieu d’alternatives moins attrayantes. Par exemple, si vous voyez un ami avec un mal de tête, vous êtes plus susceptible d’opter pour un diagnostic bénin que de le soumettre à une ponction lombaire pour exclure une hémorragie sous-arachnoïdienne. De même, lorsque nous n’aimons pas une patiente, nous pouvons qualifier son essoufflement d’anxiété au lieu d’envisager une embolie pulmonaire. Le contre-transfert est un sous-ensemble d’erreurs affectives.
Biais global (alias erreur écologique)
La croyance que les données agrégées, telles que les données impliquées dans la validation des instruments de décision clinique, ne s’appliquent pas au patient devant vous. Cela peut entraîner des erreurs de décision, telles qu’une utilisation accrue de la tomodensitométrie lorsque des instruments de décision tels que PECARN sont ignorés.
Effet d’ambiguïté
Nous avons tendance à sélectionner des options (ou à faire des diagnostics) pour lesquelles la probabilité est connue, au lieu de sélectionner des options pour lesquelles la probabilité est inconnue. Par exemple, un patient peut présenter de la fièvre et des douleurs articulaires après une croisière dans les Caraïbes. Vous considérez la grippe, mais souvenez-vous aussi d’avoir entendu parler du Chikungunya. Cependant, vous ne savez pas vraiment à quel point le Chikungunya est commun et n’avez pas de test disponible pour le confirmer, vous finissez donc par favoriser le diagnostic de grippe (qu’il soit effectivement plus probable ou non.)
Ancrer
S’installer prématurément sur un diagnostic unique basé sur quelques caractéristiques importantes de la présentation initiale et ne pas s’ajuster à mesure que de nouvelles informations deviennent disponibles. Ceci est étroitement lié au biais de confirmation et aggravé par celui-ci.
Élan de diagnostic: Similaire à l’ancrage. Une fois qu’une étiquette diagnostique a été attribuée à un patient par une autre personne, il est très difficile de retirer cette étiquette et d’interpréter ses symptômes avec un regard neuf.
Biais de constatation
Lorsque votre pensée est façonnée par des attentes antérieures. En d’autres termes, vous voyez ce que vous attendez de voir. Il s’agit de la catégorie-cadre qui contient les stéréotypes et les préjugés sexistes. Par exemple, un patient sans-abri ayant déjà consommé de la drogue est retrouvé inconscient et on suppose qu’il a fait une surdose, alors qu’il souffre en fait d’une hypoglycémie sévère.
Biais de disponibilité
La tendance à juger de la probabilité d’une maladie par la facilité avec laquelle des exemples pertinents viennent à l’esprit. Une expérience récente avec un diagnostic particulier augmente les chances que le même diagnostic soit à nouveau posé. Le contraire est également vrai, de sorte qu’un diagnostic qui n’a pas été vu depuis longtemps est moins susceptible d’être posé. En général, cela entraînera un sous-diagnostic des maladies rares et un surdiagnostic des diagnostics courants. Par exemple, au milieu de la saison de la grippe, il est incroyablement facile de diagnostiquer que chaque patient souffrant d’essoufflement a la grippe et qu’il manque potentiellement une embolie pulmonaire subtile.
Les ” biais de cas récents ” ou les ” biais de cas significatifs ” sont des sous-types du biais de disponibilité. Plutôt que le diagnostic le plus courant soit celui qui vous vient à l’esprit, un diagnostic rare qui a été vu récemment ou qui a un impact significatif sur vous (par exemple, une erreur qui a entraîné une poursuite) domine le différentiel. Après avoir attrapé une dissection aortique chez un patient présentant une douleur isolée aux jambes, vous pourriez commander plus de tomodensitogrammes chez des personnes présentant des lésions des tissus mous.
Négligence du taux de base
L’absence d’intégration de la prévalence réelle d’une maladie dans le raisonnement diagnostique. Par exemple, nous surestimons souvent la probabilité d’embolie pulmonaire avant le test, la travaillant chez des patients à risque, faussant notre raisonnement bayésien et entraînant une augmentation des coûts, des faux positifs et des préjudices directs pour les patients. La mentalité du “pire d’abord” généralement enseignée en médecine d’urgence est une forme de négligence du taux de base, dans laquelle on nous apprend à considérer (et parfois à élaborer) des conditions dangereuses, peu importe à quel point elles sont improbables.
Biais de croyance
Tendance à accepter ou à rejeter des données basées sur ses croyances personnelles. Par exemple, une personne peut être un vrai croyant en l’aPT pour un AVC ischémique et rejette donc toute preuve qui contredirait sa croyance.
Biais d’angle mort
Nous ne reconnaissons souvent pas nos propres faiblesses ou erreurs cognitives, alors qu’il est beaucoup plus facile de reconnaître les erreurs ou les faiblesses des autres. Un biais connexe est l’effet Dunning-Kruger, qui décrit la tendance des personnes non qualifiées à surestimer leurs capacités, bien que les personnes hautement qualifiées aient tendance à sous-estimer leurs capacités. Par exemple, presque tout le monde prétend être un conducteur meilleur que la moyenne, mais la moitié de la population doit évidemment être pire que la moyenne. Êtes-vous mieux à communiquer avec vos patients que le médecin moyen? Que pensez-vous que le reste de votre département pense d’eux-mêmes?
Biais de commission et d’omission
Commission: La tendance à l’action plutôt qu’à l’inaction
Omission: La tendance à l’inaction plutôt qu’à l’action
Nous les avons tous, mais nous les employons souvent dans de mauvais contextes. Lorsque nous travaillons avec des patients à faible risque, nous avons tendance à commettre des erreurs de commission en ordonnant des tests excessifs alors que nous ferions mieux de ne rien faire. En réanimation, nous nous trouvons souvent hésitants à agir. L’état de base que nous devrions probablement rechercher est la commission dans la réanimation et l’omission autrement.
Biais de confirmation
Une fois que vous avez formé une opinion, vous avez tendance à ne remarquer que les preuves qui vous soutiennent et à ignorer les preuves contraires. Par exemple, un patient peut présenter un mal de tête unilatéral lancinant, une photophobie et des nausées qui vous font penser à des migraines. Vous entendez peut-être qu’il existe des antécédents familiaux de migraines, mais ignorez inconsciemment le fait que le patient a décrit l’apparition comme un coup de tonnerre.
Tenter de déconfirmer est une stratégie scientifique essentielle. Nous savons tous que vous ne pouvez pas prouver l’affirmation “tous les cygnes sont blancs” simplement en observant des cygnes blancs, car peu importe combien vous en observez, le prochain pourrait vous prouver que vous avez tort. Cependant, la recherche du seul cygne noir vous permettra de prouver définitivement que “tous les cygnes ne sont pas blancs”. Pour traduire cela en médecine, lorsque vous voyez un patient obèse souffrant de douleurs thoraciques rétrosternales brûlantes, nous ne devrions pas rechercher des preuves qui pourraient confirmer qu’il s’agit du RGO, mais plutôt essayer de déconfirmer cette théorie (en recherchant un SCA.)
Élan de diagnostic
Voir ancrage
Sanction de rétroaction
Un facteur qui peut renforcer d’autres erreurs de diagnostic particulièrement fréquentes en médecine d’urgence. L’idée est qu’il peut y avoir un délai important jusqu’à ce que l’on voit les conséquences d’une erreur cognitive, ou ils peuvent ne jamais voir cette conséquence du tout, et donc le comportement est renforcé. Par exemple, nous sommes fortement critiqués si nous manquons un diagnostic, mais nous ne voyons jamais les résultats d’une utilisation accrue de la tomodensitométrie (il y a une sanction de rétroaction dans le fait que tous les cancers causés ne seront pas identifiés avant des décennies), nous sommes donc biaisés vers une utilisation accrue de la tomodensitométrie.
Effet de cadrage
Vos décisions sont affectées par la façon dont vous encadrez la question. Par exemple, lorsque vous décidez de commander un SCANNER, il importe que vous teniez compte de la chance de 1/100 de manquer une maladie mortelle ou de la chance de 99/100 que le patient va bien.
De même, vos décisions sont influencées par le contexte dans lequel le patient est vu et la source de l’information. Vous risquez plus de manquer une AAA chez un patient que vous voyez dans la zone ambulatoire que si vous deviez voir exactement le même patient dans une salle de réanimation.
Erreur d’attribution fondamentale (par exemple, stéréotypes négatifs)
Une pondération excessive de la personnalité d’un individu comme cause de ses problèmes plutôt que de considérer des facteurs externes potentiels. En d’autres termes, nous avons tendance à blâmer les patients pour leurs maladies. Par exemple, nous avons tendance à blâmer les personnes obèses plutôt que de considérer les facteurs sociaux et économiques qui favorisent l’obésité. De même, si vous entendez parler d’un médecin manquant un IM, vous avez tendance à penser que le médecin doit avoir fait quelque chose de mal, plutôt que de considérer le contexte du diagnostic au service des urgences et la difficulté des présentations cliniques très variées.
Erreur du joueur
La croyance erronée que le hasard se corrige automatiquement. Par exemple, si un individu retourne une pièce de monnaie et obtient des têtes 10 fois de suite, il y a une tendance à croire que le prochain flip est plus susceptible d’être des queues. Au service des urgences, on peut diagnostiquer 3 patients d’affilée avec une embolie pulmonaire, et donc croire qu’il est peu probable que le prochain patient ait également un PE, malgré le fait que les patients ne sont clairement pas liés. Cela conduit à une forme de négligence du taux de base, dans laquelle la probabilité de pré-test est ajustée de manière inappropriée en fonction de faits non pertinents.
Biais rétrospectif
Connaître le résultat peut affecter de manière significative notre perception des événements passés. Nous le voyons fréquemment dans les cas médicolégaux, où les experts jugent les actions du médecin mais sont influencés par la connaissance déjà de l’issue de l’affaire.
Biais d’information
La tendance à croire que plus on peut recueillir d’informations pour appuyer un diagnostic, mieux c’est. Cela peut devenir particulièrement problématique lorsque l’on considère les effets de l’ordre, de sorte que les nouvelles informations sont valorisées plus que les informations obtenues précédemment, ce qui peut fausser le raisonnement.
Effets d’ordre (aka primauté, récence)
Cela fait référence au fait que le transfert d’informations se produit sous la forme d’une fonction en forme de U. Nous avons tendance à nous souvenir des informations du début et de la fin d’une rencontre. Cela peut être lié à l’ancrage, en ce sens que nous nous concentrons sur la première chose qu’un patient dit et nous ancrons sur cette information, peu importe les autres informations qui nous sont fournies. Les effets de l’ordre sont particulièrement importants dans les transitions de soins.
Jouer les chances
C’est la tendance, face à des présentations ambiguës, à supposer un diagnostic bénin. Vous comptez sur le fait que les diagnostics bénins sont courants pour atténuer les méfaits d’un diagnostic erroné. C’est essentiellement le contraire de la mentalité standard du “pire d’abord” en cas d’urgence. C’est aussi l’extrémité opposée du spectre de la négligence du taux de base.
Erreur de probabilité postérieure
La probabilité d’un diagnostic est trop influencée par des événements antérieurs. C’est le contraire de l’erreur du joueur. Par exemple, si vous diagnostiquez 12 patients hétérosexuels souffrant de maux de dos musculaires, il y a une tendance à diagnostiquer le 13ème comme le même. Ceci est étroitement lié au biais de disponibilité.
Fermeture prématurée
C’est la tendance à s’arrêter trop tôt dans un processus de diagnostic, à accepter un diagnostic avant de rassembler toutes les informations nécessaires ou d’explorer toutes les alternatives importantes. Il s’agit d’une catégorie parapluie qui peut englober un certain nombre d’autres erreurs. Essentiellement, toute erreur cognitive pourrait entraîner la croyance que nous sommes déjà arrivés au bon diagnostic et empêcher toute vérification ultérieure. L’idée est “lorsque le diagnostic est posé, la réflexion s’arrête.”
Restriction de représentativité (aka erreur prototypique)
La tendance à juger de la probabilité d’un diagnostic sur la base d’un prototype typique du diagnostic. La probabilité de la maladie est entièrement basée sur la façon dont la présentation actuelle est représentée par ce prototype typique. Le résultat est que les présentations atypiques de maladies sont plus susceptibles d’être manquées. “S’il ressemble à un canard et aux charlatans comme un canard, ce doit être un canard”.
Satisfaction de la recherche
La tendance à arrêter de chercher une fois que vous avez trouvé quelque chose. C’est la raison pour laquelle nous manquons la deuxième fracture sur la radiographie une fois que nous avons identifié la première.
Erreur de coûts irrécupérables
Une fois investi dans quelque chose, il est très difficile de le laisser aller, même si cet investissement initial n’est plus pertinent. En médecine, cela peut se produire lorsqu’un médecin se sent intellectuellement investi dans un diagnostic particulier. Si, après un temps et une énergie considérables, un médecin arrive à un diagnostic unique, il peut être difficile de négliger ces efforts (les coûts irrécupérables) et de réexaminer le diagnostic si de nouvelles données deviennent disponibles.
Le bordereau de Sutton
La loi de Sutton est basée sur l’histoire du voleur de banque Willie Sutton, qui, lorsqu’on lui a demandé pourquoi elle avait volé des banques, a répondu “parce que c’est là que se trouve l’argent.”L’idée est que nous devrions concentrer notre stratégie de diagnostic en allant à l’évidence. Cela devient une erreur (glissement de Sutton) lorsque des possibilités autres que l’évidence ne sont pas suffisamment prises en compte. Par exemple, le diagnostic évident pour le 10e enfant fébrile, morveux et toussant du jour pendant la saison de la grippe est la grippe, mais ce serait une erreur de ne pas considérer d’autres causes possibles de la fièvre.
Triage (par exemple, la géographie est destinée)
Lorsque les décisions diagnostiques sont influencées par la catégorie de triage d’origine dans laquelle un patient est placé. (Une forme d’élan de diagnostic – l’infirmière de triage a diagnostiqué le patient comme “non malade”, donc le patient ne doit pas être malade.) Il existe de nombreuses formes de triage, de l’auto-triage des patients aux différents niveaux de soins, en passant par les références que vous faites au service des urgences qui indiquent vos consultants en fonction de votre évaluation.
Biais Ying Yang
La croyance qu’un patient ne peut pas avoir de diagose car il a déjà été soumis à une multitude de tests négatifs. (IE. ils ont été travaillés le ying-yang.) Il s’agit d’une combinaison de l’élan du diagnostic (le diagnostic étant “rien”) et de la négligence du taux de base (vous surévaluez les tests précédemment négatifs et attribuez une probabilité pré-test trop faible).
(Merci Aaron Skolink @ToxCCM d’avoir souligné que j’avais laissé cela de la liste.)
Retraite du zèbre
Reculer d’un diagnostic rare uniquement parce qu’il est rare. Souvent, c’est parce qu’un médecin ne veut pas développer la réputation d’être irréaliste ou de gaspiller des ressources. Cela se produit le long d’un spectre avec un biais de disponibilité et une négligence du taux de base. Si vous n’établissez jamais de diagnostics rares, cela peut représenter une retraite zébrée. Cependant, si vous recherchez fréquemment des zèbres, cela représenterait une négligence de base et entraînerait un diagnostic excessif et un gaspillage de ressources.
En plus de ces biais cognitifs spécifiques, il existe de nombreux facteurs dont nous devrions être conscients qui augmentent notre probabilité de faire des erreurs cognitives.
- Surcharge cognitive
- Densité de décision élevée
- Interruptions ou distractions
- Privation de sommeil (la prise de décision cognitive a tendance à atteindre son nadir à 3-4 heures du matin. Certaines études assimilent les performances cognitives à l’époque à une intoxication légale.)
- Dyssynchronicité circadienne
- Fatigue
- Perturbations émotionnelles (état affectif)
La semaine prochaine, je continuerai avec la partie 3 de cette série, décrivant quelques moyens qui pourraient atténuer ces erreurs.
Autre MOUSse
Il y a 3 excellents épisodes de cas de médecine d’urgence sur la prise de décision et les erreurs cognitives:
- Épisode 11: Prise de décision Cognitive et Erreur médicale
- Épisode 62 Prise de Décision Diagnostique en Médecine d’urgence
- Épisode 75 Prise de décision en Débiasing Cognitif EM, Conscience situationnelle & Erreur préférée
Croskerry P. Cognition clinique et erreur diagnostique: applications d’un modèle de raisonnement à double processus. Adv Santé Sci Educ Théorie Pract. 2009; 14 Suppl 1:27-35. PMID: 19669918
Croskerry P. Échec diagnostique: Une approche Cognitive et Affective. Dans: Henriksen K, Batailles JB, Marques ES, Lewin DI, éditeurs. Progrès en matière de sécurité des patients: De la Recherche à la mise en œuvre (Volume 2 : Concepts et méthodologie). Rockville (MD): Agence pour la recherche et la qualité des soins de santé (É.-U.); 2005 Fév. PMID: 21249816
Cognition de Croskerry P. ED: toute décision prise par quiconque à tout moment. CJEM. 2014;16:(1)13-9. PMID: 24423996
Croskerry P. L’importance des erreurs cognitives dans le diagnostic et les stratégies pour les minimiser. Acad Med. 2003;78:(8)775-80. PMID: 12915363
Croskerry P. From mindless to mindful practice – biais cognitif et prise de décision clinique. En anglais J Med. 2013;368:(26)2445-8. Numéro d’identification: 23802513
Groopman, J. (2008). Comment Pensent Les Médecins, Houghton Mifflin Harcourt.
Tversky A, Kahneman D. Judgment under Uncertainty: Heuristics and Biases. Sciences. 1974;185:(4157)1124-31. PMID: 17835457