How to be a Better Doctor: Recognizing How Cognitive Biases Shape—and Distort—Clinical Evidence
Sallie Baxendale - 18 février 2025
Trad. DeepL/ChatGPT
Résumé
Plutôt que l’absence de tout préjudice, c’est l’attente d’un bénéfice global d’un traitement médical qui constitue le fondement du contrat implicite entre le médecin et le patient. Dans le cadre de cette attente d’efficacité, de puissants biais cognitifs peuvent aveugler les cliniciens face à des signes évidents indiquant qu’un traitement n’est pas efficace, voire qu’il nuit aux patients. À travers des exemples tirés de l’histoire de la médecine et des controverses cliniques actuelles, cet article examine comment des biais psychologiques systématiques peuvent fausser non seulement la prise de décision individuelle, mais aussi la perception de la base de preuves sur laquelle reposent les décisions cliniques. Ces distorsions peuvent perpétuer des pratiques médicales nuisibles bien après que les preuves objectives aient indiqué une autre direction. En prenant conscience de ces biais et de leur influence sur la perception des preuves, les médecins peuvent réduire l’impact négatif qu’ils pourraient avoir sur les patients dont ils prennent soin.
Introduction
« La médecine étant un compendium des erreurs successives et contradictoires des praticiens médicaux… lorsque nous appelons les plus sages d’entre eux à notre secours, il y a des chances pour que nous nous appuyions sur une vérité scientifique dont l’erreur sera reconnue dans quelques années. » — Marcel Proust.
Tous les médecins nuisent à leurs patients. Il est difficile d’imaginer un traitement médical qui n’ait pas un certain effet indésirable, même mineur. Dans de nombreuses spécialités médicales, comme l’oncologie et la chirurgie, les effets néfastes des traitements courants sont significatifs et irréversibles. Si chaque médecin suivait rigoureusement la directive « D’abord, ne pas nuire », il ne resterait que très peu de moyens pour lutter contre les maladies. Les médecins seraient essentiellement réduits à des conseillers en mode de vie, recommandant une pomme par jour et pas grand-chose de plus (NB : même les pommes doivent être consommées avec prudence. Un gramme de pépins de pomme contient environ 0,6 mg de cyanure. La dose létale de cyanure commence à environ 50 mg). Plutôt que l’absence de tout préjudice, c’est l’attente d’un bénéfice net qui sous-tend la plupart des traitements. Les autorisations réglementaires garantissent une base de preuves objective et solide pour de nombreux traitements. Cependant, dans un paysage médical où il existe 20 grandes spécialités médicales (St Georges University, 2023), chacune avec de multiples sous-spécialités traitant plus de dix mille maladies spécifiques (Croskerry et Norman, 2008), il existe un important fossé thérapeutique où aucun traitement approuvé n’existe pour la maladie et/ou le patient concerné. Certaines pratiques thérapeutiques dans cet espace hors indication peuvent être largement acceptées comme une « pratique standard » sans avoir subi les tests rigoureux nécessaires à l’approbation réglementaire. C’est dans cet écart thérapeutique que la combinaison des biais cognitifs et des dynamiques de groupe peut influencer de manière significative la perception de la base de preuves.
Bien que l’impact des biais cognitifs sur les processus décisionnels des cliniciens individuels ait été largement étudié (Bornstein et Emler, 2001 ; Croskerry, 2003 ; O’Sullivan et Schofield, 2018 ; Schiff, 2008), la manière dont les biais systémiques se combinent avec les dynamiques de groupe pour façonner la perception de la base de preuves en pratique clinique a reçu moins d’attention dans la littérature. Cet article examine comment les biais psychologiques systémiques influencent non seulement la prise de décision clinique individuelle, mais aussi la perception de la base de preuves pour de nombreuses pratiques cliniques courantes. Il explore comment ces biais peuvent perpétuer des pratiques néfastes bien après que les preuves objectives indiquent une autre direction.
Leçons de l’histoire de la médecine
« Le désir de prendre des médicaments est peut-être la caractéristique qui distingue le plus l’homme des autres animaux. » — Sir William Osler (Cushing, 1925).
L’histoire de la médecine comporte bien plus de préjudices que de guérisons. Pendant des millénaires, la « médecine » était principalement le produit de la superstition, des rituels, de la religion et du hasard. Le corps humain possède une remarquable capacité à combattre la maladie et à se guérir lui-même. Le succès apparent de nombreux « remèdes » historiques et contemporains reflète en réalité le processus naturel de guérison. Le patient se serait rétabli indépendamment de la lotion appliquée ou de la potion ingérée.
Parfois, les « remèdes » médicaux sont inefficaces mais relativement inoffensifs. Dans les années 1890, l’abstinence de chocolat et de chansons d’amour était considérée comme un traitement efficace contre l’épilepsie, dont l’efficacité avait apparemment été « abondamment prouvée » (Price, 1892). Hormis la détresse qu’il pouvait engendrer, ce régime thérapeutique était peu susceptible d’aggraver les crises d’un patient. Cependant, il est extraordinaire de constater à quel point, dans l’histoire de la médecine, les traitements courants ont souvent aggravé l’état des patients, parfois de manière fatale.
Remèdes Fatals
Les excréments de chien en poudre, dissimulés sous le nom sophistiqué d’« Album Graecum », devinrent populaires comme traitement des infections oculaires dans l’Europe médiévale. Les médecins croyaient que les excréments séchés et réduits en poudre pouvaient réduire l’inflammation et éliminer l’infection grâce à leurs propriétés astringentes. L’Album Graecum eut une longévité remarquable. Ce n’est qu’au XIXᵉ siècle qu’il fut finalement abandonné, avec l’essor des techniques antiseptiques et une meilleure compréhension du rôle des bactéries dans le contrôle des infections.
Le mercure bénéficia également d’une longévité exceptionnelle en tant que traitement médical. Les premières traces de son usage médicinal remontent à environ 1500 avant notre ère (BCE), en Chine et en Inde, où on lui attribuait des propriétés prolongatrices de vie (allant jusqu’à l’immortalité selon certains récits). Pendant la Renaissance, l’usage médicinal du mercure s’étendit à l’Europe, où il devint le traitement de référence contre la syphilis, une maladie sexuellement transmissible qui a connu une longue histoire de traitements douteux. Les promoteurs du mercure pensaient qu’il pouvait expulser le « poison » de la syphilis hors du corps, donnant naissance à l’adage bien connu : « Une nuit dans les bras de Vénus mène à une vie passée avec Mercure ». Pour beaucoup, cette vie fut courte, les patients étant accablés à la fois par la maladie et par l’empoisonnement au mercure, qui provoquait une salivation excessive, la perte des dents, des dysfonctionnements neurologiques, une défaillance des organes majeurs et, en fin de compte, le coma et la mort. Malgré cela, la prescription de mercure ne se limita pas aux personnes désespérées atteintes de syphilis. Des cures au mercure furent également recommandées pour les affections cutanées, les infections parasitaires et même la mélancolie (illustration classique de l’idée que tout pouvait être tenté pour soigner les maladies mentales). La croyance en les propriétés curatives du mercure persista bien après que ses dangers furent devenus évidents. Décrit comme « une pratique barbare, dont l’incohérence, la folie et les ravages ne peuvent être exprimés par des mots » par le chimiste éminent Thomas Graham (1848), le mercure resta un ingrédient courant dans les médicaments brevetés, notamment le populaire ‘Calomel’ (à ne pas confondre avec le Calpol), encore utilisé au début du XXᵉ siècle pour divers maux. Le déclin des cures au mercure intervint finalement avec les progrès de la médecine, en particulier la découverte de traitements plus sûrs et plus efficaces, comme les antibiotiques pour de nombreuses affections contre lesquelles il était prescrit.
Un thème récurrent dans l’histoire de la médecine est que des « remèdes » comme l’Album Graecum et le mercure ne tombent pas en désuétude parce qu’ils sont inefficaces ou nuisibles, même lorsque les effets néfastes sont évidents et graves. Ces approches iatrogènes ne sont abandonnées que lorsqu’elles sont remplacées par des traitements plus efficaces. L’histoire de la médecine nous enseigne que les cliniciens et leurs patients persistent avec des traitements profondément nuisibles en l’absence d’alternatives. Pourquoi continue-t-on à utiliser des traitements qui causent manifestement du tort, malgré des preuves évidentes du contraire ?
Leçons de la psychologie
Biais cognitifs : Introduction
« L’erreur est humaine » (Alexander Pope, 1713), mais la compréhension des mécanismes systématiques qui nous conduisent à l’erreur est relativement récente. L’étude des erreurs systématiques dans le jugement humain remonte au milieu du XXᵉ siècle, lorsque Herbert Simon (1957) introduisit le concept de « rationalité limitée »—l’idée que la prise de décision est contrainte par les informations disponibles, les capacités cognitives et le temps. D’autres remises en question de la prise de décision « rationnelle » sont apparues avec la découverte que les individus s’appuient souvent sur des raccourcis mentaux, ou heuristiques, pour prendre des décisions (Tversky et Kahneman, 1974). À travers trois décennies de recherche qui ont finalement conduit à un prix Nobel en 2002, Kahneman a formalisé l’étude de ces raccourcis mentaux, identifiant un grand nombre de biais cognitifs systématiques qui amènent les individus à prendre des décisions irrationnelles (Kahneman, 2011).
Biais cognitifs en médecine
Les biais cognitifs systématiques peuvent avoir un impact significatif sur la prise de décision dans les contextes médicaux tout au long du parcours du patient (Bornstein et Emler, 2001 ; Croskerry, 2003 ; O’Sullivan et Schofield, 2018). Le biais d’ancrage est un rétrécissement du champ de concentration qui peut survenir dès le début d’une consultation. Il se produit lorsque les médecins s’appuient excessivement sur la première information rencontrée (l’« ancre »). Le premier symptôme ou résultat de test auquel un médecin est exposé peut influencer fortement son diagnostic et son plan de traitement ultérieurs. Une fois qu’un médecin est « ancré » sur une hypothèse initiale, il devient extrêmement difficile de modifier ce diagnostic, d’autant plus que d’autres biais entrent en jeu (Berner et al., 2003).
Le biais de confirmation fait référence à la tendance à rechercher, interpréter et mémoriser les informations de manière à confirmer nos préjugés ou hypothèses initiales, tout en accordant moins d’attention aux alternatives. En médecine, une fois qu’un médecin a une idée de diagnostic, il aura tendance à privilégier les éléments qui la soutiennent tout en négligeant ou en rejetant les indices qui la contredisent.
L’heuristique de disponibilité est un raccourci mental qui repose sur des exemples immédiatement accessibles à l’esprit lors de l’évaluation d’un problème ou d’une décision. Dans un contexte médical, un médecin est plus susceptible de diagnostiquer une affection qu’il a rencontrée récemment ou fréquemment, plutôt que d’envisager toutes les autres possibilités.
Dans de nombreux systèmes de santé, la susceptibilité accrue au biais d’ancrage, au biais de confirmation et à l’heuristique de disponibilité est intégrée au système lui-même, car les symptômes sont interprétés à travers la spécialité du médecin consultant. De nombreux médecins hospitaliers travaillent dans des domaines hautement spécialisés, ce qui les rend particulièrement enclins à interpréter les symptômes à travers le prisme de leur spécialité, puisqu’ils voient majoritairement des patients présentant ces pathologies.
Cela peut conduire à un excès de confiance. Le biais de surconfiance fait référence à la tendance des individus à surestimer leurs connaissances, leurs compétences ou la précision de leurs prédictions (Berner et Graber, 2008 ; Croskerry et Norman, 2008). Ce biais n’est en aucun cas propre à la médecine. Vingt-cinq pour cent des étudiants se classent eux-mêmes parmi le premier pour cent en termes de capacité à interagir avec autrui, tandis que 94 % des universitaires s’évaluent dans la moitié supérieure de leur profession (Cross, 1977). Cependant, en médecine, la surconfiance est renforcée par une culture où l’incertitude est perçue comme une faiblesse et où « le mème complexe de certitude, de surconfiance, d’autonomie et d’un paternalisme omniscient » est omniprésent (Croskerry et Norman, 2008).
En médecine, la surconfiance peut amener les médecins à prendre des décisions sans examiner pleinement toutes les preuves disponibles ni consulter leurs collègues ou d’autres spécialistes. Ce biais peut être particulièrement dangereux dans les cas complexes, où une enquête approfondie et une collaboration sont essentielles.
Une fois qu’un diagnostic a été posé et qu’un traitement a été entamé, un autre biais intervient, aveuglant à la fois les médecins et leurs patients quant à l’impact réel du traitement. Le biais des coûts irrécupérables est la tendance à poursuivre une action en raison des ressources déjà investies, même lorsque continuer n’est plus la meilleure option. En médecine, ce biais peut amener les médecins à persister dans un plan de traitement malgré des preuves de son inefficacité, simplement en raison des efforts et ressources déjà engagés (temps, argent, effort, douleur, souffrance). Ironiquement, puisque ces « coûts » incluent la douleur et la souffrance causées par le traitement, les traitements les plus nuisibles sont les plus susceptibles d’être affectés par ce biais. En médecine, le biais des coûts irrécupérables entraîne une souffrance prolongée, des dépenses inutiles et empêche souvent d’explorer des alternatives plus efficaces. Il a probablement joué un rôle majeur dans la souffrance et la mort de nombreuses victimes de l’empoisonnement au mercure au fil des siècles.
Le biais des coûts irrécupérables n’est pas le seul biais cognitif qui contribue à la longévité des pratiques nuisibles. D’autres biais jouent un rôle important dans le maintien de pratiques cliniques inefficaces à grande échelle, même après l’émergence de preuves claires montrant qu’un traitement est inefficace, nuisible ou les deux.
Le biais du statu quo désigne la préférence pour le maintien de l’état actuel des choses plutôt que pour le changement. Dans le domaine médical, ce biais se traduit par une réticence à adopter de nouveaux traitements, technologies ou approches, même lorsque les preuves suggèrent qu’ils pourraient être supérieurs aux pratiques existantes.
L’effet de mode (ou effet bandwagon) peut renforcer cette inertie et cette résistance au changement. Ce biais fait référence à la tendance à adopter une pratique ou une croyance simplement parce qu’un grand nombre de personnes font ou croient la même chose. Il peut également conduire à l’adoption généralisée de pratiques ou de traitements non pas parce qu’ils reposent sur des preuves solides, mais simplement parce qu’ils sont largement utilisés et acceptés. Par exemple, un test diagnostique ou un traitement peut devenir la norme dans une spécialité non pas en raison de son efficacité démontrée, mais parce que tout le monde l’utilise. Comme pour les autres biais, cela peut perpétuer des pratiques sous-optimales et freiner l’adoption de meilleures alternatives.
Même si les médecins parviennent à surmonter tous ces biais et à identifier un problème important avec un traitement, ils ne prennent pas forcément de mesures pour l’abandonner. L’effet du témoin peut entrer en jeu, où un individu suppose que quelqu’un d’autre interviendra ou que le problème ne peut pas être aussi grave qu’il le semble, en raisonnant que si c’était le cas, quelqu’un d’autre l’aurait sûrement remarqué et aurait agi.
Si quelqu’un décide de tirer la sonnette d’alarme, il se heurtera au principe d’autorité, selon lequel les individus d’un groupe sont socialisés à faire confiance à ceux qui détiennent le pouvoir. Ceux qui contestent l’autorité peuvent être perçus comme des fauteurs de troubles peu fiables ou comme étant motivés par des préjugés, un intérêt personnel ou la malveillance, ce qui conduit à rejeter leurs revendications sans les examiner sérieusement. La preuve sociale, un phénomène psychologique selon lequel les individus se réfèrent aux comportements des autres pour déterminer la conduite appropriée, peut empêcher toute prise en compte des arguments du lanceur d’alerte, en particulier dans des environnements médicaux hiérarchisés où le principe d’autorité est fort.
Si les lanceurs d’alerte sont entendus, leur message risque de provoquer une forte dissonance cognitive chez ceux qui ont pratiqué le traitement en question, les forçant à concilier leurs croyances avec des informations fortement discordantes. Dans ces circonstances, il est fréquent qu’un individu s’efforce de rejeter les preuves du préjudice afin de préserver son équilibre psychologique. Accepter les preuves impose en effet une remise en question très personnelle en médecine, nécessitant du médecin qu’il reconnaisse que, bien qu’il ait cru aider ses patients, il leur a en réalité causé du tort. Pour certains, l’incapacité à changer de cap à ce stade devient une cause à laquelle ils s’accrochent coûte que coûte.
Dans les années 1960 et 1970, le Dr Harry Bailey exerçait comme psychiatre dans une petite clinique privée de Sydney, en Australie. S’écartant largement des approches médicamenteuses plus prudentes qu’il avait observées en Europe et travaillant isolé du milieu clinique général, il développa un traitement radical pour ses patients, leur administrant des doses massives de barbituriques afin de les plonger dans un état comateux pendant plusieurs semaines. Vingt-six patients moururent pendant ou peu après la thérapie. Lors du procès qui s’ensuivit, de nombreux autres patients signalèrent des troubles neurologiques à long terme résultant du traitement. Malgré la présence littérale de cadavres dans sa clinique, le Dr Bailey n’admit jamais que sa « thérapie du sommeil profond » était nocive. Il se suicida en 1985, à l’âge de 61 ans, avant la conclusion de son procès pour la mort de l’un de ses patients. Il resta convaincu jusqu’à la fin des bienfaits de son traitement. Dans sa note de suicide, il écrivit : « Qu’il soit connu que (…) les forces de la folie ont gagné. »
Enfin, même lorsqu’ils ont raison, les lanceurs d’alerte font souvent face à l’ostracisme et à l’hostilité du groupe (Lennane, 2012). Une étude sur les lanceurs d’alerte a révélé que 90 % d’entre eux ont perdu leur emploi ou ont été rétrogradés après avoir signalé un problème, et près d’un sur trois a été poursuivi en justice. Dix-sept pour cent ont perdu leur domicile, et 10 % ont tenté de se suicider après leur dénonciation (Lennane, 2012). Être témoin de ce « tir sur le messager » rend beaucoup moins probable que quelqu’un ayant observé ces conséquences décide de dénoncer un problème dans son propre domaine médical.
En résumé, les biais cognitifs et les dynamiques de groupe ont évolué pour nous aider à interagir avec le monde et à coopérer les uns avec les autres, mais ils peuvent déformer systématiquement notre perception de la réalité. Ils jouent un rôle important dans la prise de décision médicale, entraînant des erreurs de diagnostic, de traitement et d’évaluation des résultats. La structure de nombreux systèmes de santé avancés, où les spécialités médicales fonctionnent en silos et où les opportunités d’apprentissage par retour d’expérience sont limitées (Berner et Graber, 2008), amplifie souvent l’impact de ces biais à toutes les étapes du parcours du patient.
Remettre en question les biais cognitifs
Une vaste littérature examine l’impact de ces biais sur les décisions prises dans des contextes médicaux réels (O’Sullivan et Schofield, 2018), en particulier en médecine d’urgence, où les décisions doivent être prises sous pression (Hartigan et al., 2020 ; Jala et al., 2023). Cependant, les biais cognitifs peuvent également entraîner des préjudices à long terme et moins visibles pour d’autres groupes, notamment ceux souffrant de maladies chroniques et réfractaires. L’impact de la surconfiance a fait l’objet d’une attention particulière (Berner et Graber, 2008 ; Croskerry et Norman, 2008). La revue approfondie de Berner et Graber (2008) présente des statistiques préoccupantes sur l’ampleur de l’incapacité des cliniciens à reconnaître leur propension aux erreurs de diagnostic. Bien que la plupart des cliniciens reconnaissent le problème du diagnostic erroné en médecine, seuls 1 % admettent avoir commis une erreur diagnostique au cours de l’année écoulée. Même si la majorité des médecins admettent la possibilité d’erreurs médicales, ils ont tendance à penser que celles-ci sont généralement commises par d’autres. Ce manque de conscience est en partie entretenu par l’absence de retours d’information sur les issues défavorables, empêchant ainsi les médecins d’évaluer précisément l’ampleur de leurs erreurs (Berner et Graber, 2008).
Les chercheurs se sont également penchés sur les moyens de réduire ces biais (Christenson et al., 2022 ; Croskerry, 2003 ; Royce et al., 2019 ; Schiff, 2008 ; Sibbald et al., 2019 ; Sullivan et Whyte, 2019). Les stratégies correctives se répartissent en deux grandes catégories : celles axées sur l’individu et celles qui modifient l’environnement de pratique du médecin. Pour les individus, l’utilisation de simples listes de vérification des connaissances ne suffit pas à surmonter les biais cognitifs (Sibbald et al., 2019). Des stratégies plus efficaces vont des programmes visant à renforcer la pensée critique (Christenson et al., 2022 ; Royce et al., 2019) à des formations ciblées en « débiassage cognitif » (Croskerry, 2003). Ces stratégies incluent l’utilisation d’un diagnostic de travail (Sullivan et Whyte, 2019) ou la reformulation du diagnostic comme une relation plutôt qu’une étiquette (Schiff, 2008) afin de réduire l’ancrage. Une grande partie de cette littérature insiste sur l’importance des retours systématiques pour limiter la surconfiance (Berner et Graber, 2008 ; Croskerry et Norman, 2008 ; Schiff, 2008).
Les professionnels de santé peuvent également améliorer leurs processus décisionnels en remettant activement en question leurs jugements initiaux, en sollicitant des avis extérieurs et en restant ouverts aux nouvelles informations et perspectives. Bien que certaines de ces stratégies puissent atténuer l’impact des biais, il n’existe pas de méthode infaillible pour les éradiquer complètement dans la prise de décision médicale individuelle (Bornstein et Emler, 2001).
Biais cognitifs et base de preuves
Comme mentionné précédemment, une grande partie de la littérature sur l’impact des biais cognitifs en médecine se concentre sur les décisions que les médecins prennent pour des patients individuels et sur la manière dont ils s’écartent de façon routinière et systématique des « meilleures pratiques ». Cependant, l’influence des biais cognitifs sur ce qui est considéré comme une meilleure pratique est souvent négligée.
Les autorisations réglementaires pour les médicaments et les recommandations du National Institute for Health and Care Excellence (NICE) établissent une base de preuves solide pour de nombreux traitements. Pourtant, il subsiste un écart important là où aucun traitement approuvé n’existe pour certaines pathologies ou groupes de patients spécifiques. Dans cet espace de traitement hors indication, certaines pratiques peuvent être acceptées comme des « soins standards » sans avoir fait l’objet des tests rigoureux requis pour une approbation réglementaire. Dans ce contexte, les biais cognitifs et les dynamiques de groupe peuvent influencer de manière significative la perception de la base de preuves, entraînant potentiellement des soins iatrogènes à un niveau systémique.
L’impact des biais cognitifs dans le vide thérapeutique
Il existe un vide thérapeutique en médecine moderne où les médecins disposent d’une marge de manœuvre considérable dans les traitements qu’ils peuvent proposer via la prescription hors indication. Radley et al. (2006) ont constaté qu’environ une prescription sur cinq concernait des usages hors indication, la plupart sans fondement scientifique solide. Ce chiffre peut dépasser 50 % dans certains domaines de la médecine, notamment en psychiatrie, en oncologie et en pédiatrie. Dans certains contextes pédiatriques, jusqu’à 80 % des médicaments prescrits sont hors indication, cette pratique étant particulièrement répandue en médecine néonatale et en médecine de l’adolescence (Hoon et al., 2019).
Certaines pratiques de prescription hors indication restent relativement proches des autorisations d’origine, tandis que d’autres s’en éloignent de manière radicale. Par exemple, le Botox a reçu l’approbation de la Food and Drug Administration (FDA) en 1989 pour le traitement du strabisme. Aujourd’hui, ses utilisations hors indication se sont multipliées pour traiter une large gamme de pathologies, allant de la fibrillation auriculaire au vaginisme. Le Botox a également été utilisé pour traiter des troubles psychiatriques tels que l’anxiété sociale et la dépression, la justification pour cette dernière étant que la relaxation des muscles faciaux impliqués dans le froncement des sourcils pourrait atténuer les symptômes de l’humeur dépressive (Finzi et Rosenthal, 2014).
Le Botox n’est pas le seul traitement dont l’utilisation actuelle s’est largement éloignée des autorisations initiales. Les analogues de la gonadolibérine (GnRH) régulent la production des hormones sexuelles (œstrogènes et testostérone). Ces médicaments ont été initialement approuvés par la FDA pour le traitement palliatif du cancer avancé de la prostate chez l’homme, puis six ans plus tard pour le traitement du cancer du sein hormonodépendant chez les femmes préménopausées. En 1993, la première et unique approbation de leur utilisation chez les enfants a été accordée pour le traitement de la puberté précoce. À la fin des années 1990, les analogues de la GnRH ont commencé à être prescrits hors indication pour traiter les enfants atteints de dysphorie de genre.
Si tous les cliniciens qui prescrivent ces médicaments s’accordent sur leur fonction principale (suspendre la puberté), les justifications de cette interruption d’un processus développemental normal et physiologique varient. Certains avancent que la pause permet à l’enfant de « réfléchir » à ses futures options thérapeutiques. D’autres soutiennent que ces médicaments jouent un rôle crucial dans la prévention du développement des caractères sexuels secondaires associés au sexe biologique chez les enfants dont l’identité de genre diffère de leur sexe de naissance. D’autres encore affirment que ces médicaments constituent une intervention de santé mentale « vitale » (Rew et al., 2021).
En l’absence de données issues d’essais cliniques bien conçus, la prescription hors indication devrait reposer sur une solide justification de l’utilisation d’un médicament, avec un suivi méticuleux des résultats afin de garantir la sécurité et l’efficacité pour les patients. En pratique, il n’existe souvent aucun consensus clair sur la justification du traitement. L’incapacité physique à froncer les sourcils suffit-elle réellement à soulager la dépression ? Certains soutiennent que la dysphorie de genre est la conséquence inévitable d’être « né dans le mauvais corps », tandis que d’autres affirment que, pour au moins une partie des enfants actuellement concernés, il s’agit d’un symptôme de détresse adolescente qui se résoudra avec la puberté naturelle.
L’absence de consensus clinique est particulièrement marquée dans les affections comportant une composante psychologique importante, où les critères diagnostiques sont subjectifs et mal définis, ou lorsque la cause est inconnue. En conséquence, la prescription hors indication peut entraîner des variations significatives dans les standards de traitement. Au moment de la rédaction de ce texte, la prescription de bloqueurs de puberté pour traiter la dysphorie de genre est pratiquement interdite au Royaume-Uni (UK Government, 2024) et dans certaines parties de l’Europe du Nord, tandis que certains États des États-Unis ont été désignés comme des « sanctuaires » permettant l’accès à ces médicaments pour des patients venant d’autres juridictions (Hernandez, 2023). Dans ces contextes, les médecins impliqués sont convaincus d’agir au mieux pour leurs patients, mais ces positions restent fondamentalement incompatibles.
Avec l’émergence de positions aussi polarisées issues des pratiques de prescription hors indication, certaines de ces pratiques pourraient être perçues comme un retour à une époque où les médicaments n’étaient pas réglementés. Lorsqu’aucune preuve n’est disponible, les traitements sont élaborés sur la base de conjectures comblant les lacunes. C’est dans ces vides souvent considérables qu’un mélange puissant d’opinions et de croyances réintègre le système, s’y propageant librement, alimenté par les biais cognitifs et les dynamiques de groupe qui ont façonné des pratiques médicales problématiques depuis des millénaires.
Qu’est-ce qui constitue une preuve ?
Heureusement, il existe une issue aux opinions médicales polarisées, qui prend la forme de deux pyramides. La première est la pyramide des preuves, une représentation visuelle de la hiérarchie des preuves en recherche médicale. Elle illustre la force et la fiabilité relatives des différents types de preuves dans la prise de décision clinique. Bien que tous les niveaux de preuves contribuent à la compréhension scientifique, la confiance que l’on peut accorder aux conclusions augmente à mesure que l’on progresse vers le sommet de la pyramide. Voir Fig. 1.

Fig. 1. Pyramides des preuves et des désaccords : outils pour l’évaluation des preuves et la résolution des opinions opposées en médecine (Graham, 2008). La figure a été créée dans PowerPoint (Microsoft PowerPoint Version 2108. Microsoft Corporation. Redmond, WA, USA).
Comparer les conclusions issues des preuves situées à la base de la pyramide (consensus d’experts) avec celles situées au sommet (revues systématiques) met en évidence l’impact des biais cognitifs sur la pratique médicale. Alors que l’on s’attend à ce que la certitude et la confiance diminuent à mesure que des preuves plus solides sont requises pour étayer une conclusion, on espère que les preuves issues de chaque niveau convergent dans la même direction. Pourtant, il arrive fréquemment que les conclusions des études situées au sommet de la pyramide des preuves contredisent directement celles issues des niveaux inférieurs. Ce contraste est particulièrement frappant lorsque le consensus d’experts est confronté aux données issues des revues systématiques.
Il est inconfortable de constater que le consensus d’experts est souvent erroné en médecine, parfois avec des conséquences catastrophiques. Jusqu’au début des années 1990, les pédiatres recommandaient aux jeunes mères de coucher leurs nouveau-nés sur le ventre, malgré des preuves disponibles dès 1970 indiquant que cette pratique était associée à un risque accru de mort subite du nourrisson. Si une revue systématique des preuves avait été menée en 1970 et que les résultats avaient été pris en compte, plus de 50 000 décès infantiles en Europe, aux États-Unis et en Australasie auraient pu être évités (Gilbert et al., 2005). Or, ce consensus d’experts nuisible a continué d’orienter la pratique clinique pendant plus de deux décennies après que la base de preuves ait clairement indiqué une autre direction.
Les soins d’affirmation de genre pour les jeunes constituent un autre domaine médical où le consensus d’experts sur la meilleure approche thérapeutique (Coleman et al., 2022) diffère radicalement des conclusions tirées des revues systématiques des données (Cass, 2024). En Europe, les cliniciens ont révisé leurs pratiques et changé d’approche à la suite des conclusions de la Cass Review, tandis qu’en Amérique du Nord, de nombreux praticiens continuent de s’appuyer principalement sur le consensus d’experts (McNamara et al., 2024) pour guider leur pratique.
Amoretti et Lalumera (2023) présentent une étude de cas éclairante sur les nombreux biais cognitifs ayant influencé le sort du vaccin AstraZeneca Vaxzevria contre la COVID-19 dans différents pays européens pendant la pandémie. Après des signalements de rares cas de thromboses associées au vaccin, certains pays, comme le Danemark, ont complètement suspendu son utilisation, tandis que le Royaume-Uni a poursuivi son administration en proposant des alternatives aux jeunes adultes. L’analyse de l’évolution des politiques radicalement différentes mises en place à travers l’Europe illustre parfaitement comment l’environnement socio-politique a servi de point d’ancrage, alimentant le biais de confirmation et conduisant chaque région à tirer des conclusions très différentes à partir des mêmes données (Amoretti et Lalumera, 2023).
Hiérarchies du désaccord
La hiérarchie du désaccord de Graham (Graham, 2008) est un modèle qui classe les différents types d’arguments en fonction de leur validité et de leur caractère constructif dans un débat. Il s’agit de la seconde pyramide qui peut nous aider à naviguer dans un paysage où les opinions médicales sont polarisées. Cette hiérarchie encourage un discours constructif et respectueux en mettant l’accent sur l’importance d’engager la discussion autour des idées, plutôt que des individus.
En médecine, la hiérarchie du désaccord est un outil précieux pour examiner les arguments avancés par des groupes défendant différentes approches thérapeutiques, particulièrement lorsqu’elle est utilisée en parallèle avec la pyramide des preuves. Toute personne cherchant à déterminer si elle doit se fier aux recommandations de la Cass Review ou aux critiques qui les rejettent pourrait annoter la critique publiée par McNamara et al. (2024) avec des surligneurs de couleurs afin de catégoriser les types d’arguments utilisés contre les conclusions de la Cass Review. Un exercice similaire pourrait être mené avec la critique de McNamara publiée par Cheung et al. (2024). Les cartes de couleur qui en résulteraient illustreraient de manière claire la prépondérance des arguments issus de chaque niveau de la pyramide du désaccord.
Pourquoi certains cliniciens continuent-ils à utiliser un traitement, même lorsque les revues systématiques indiquent qu’il n’existe aucune preuve de son efficacité et qu’il pourrait même nuire à certains patients ?
Premièrement, il est difficile d’ignorer l’expérience personnelle. Un médecin peut se remémorer plusieurs patients ayant semblé bénéficier d’un traitement donné. En octobre 2024, le New York Times (Ghorayshi, 2024) a publié un article expliquant pourquoi une étude très attendue sur l’impact des bloqueurs de puberté sur la santé mentale des jeunes transgenres restait inédite. Les données montraient que ces bloqueurs n’avaient pas conduit aux améliorations attendues en matière de santé mentale. La chercheuse principale craignait que ces résultats décevants soient instrumentalisés dans un domaine hautement polarisé comme la médecine du genre. Elle a également noté que « l’expérience clinique des médecins était souvent sous-estimée dans les discussions scientifiques ». Après 17 ans de prescription de bloqueurs de puberté et de traitements hormonaux aux enfants et adolescents transgenres, la chercheuse affirmait avoir observé leurs effets profondément bénéfiques. Cet exemple illustre de manière frappante comment l’expérience personnelle peut l’emporter sur des preuves objectives, y compris lorsque ces preuves proviennent d’études menées par le médecin lui-même.
Deuxièmement, la dissonance cognitive générée par la confrontation à des preuves contredisant des croyances profondément ancrées peut être difficile à tolérer. Pour réduire cet inconfort, une personne peut soit modifier ses croyances pour intégrer la nouvelle information, soit tenter de discréditer ces nouvelles preuves afin de retrouver son équilibre psychologique.
Dans la plupart des cas, modifier une croyance sur un traitement médical est simple : lorsqu’un nouveau traitement se révèle plus efficace qu’un ancien, la majorité des médecins changent leur pratique en conséquence. Cependant, si une revue systématique démontre qu’un traitement peut nuire aux patients, un médecin qui ajuste ses croyances doit également accepter l’idée qu’il a peut-être causé du tort à certains de ses anciens patients. Cette prise de conscience peut être difficile à concevoir, encore plus à accepter.
Accepter ces nouvelles preuves remet également en cause l’image que le médecin a de lui-même, en particulier s’il se considère comme un praticien consciencieux, bienveillant, ou un pionnier dans son domaine. Si ses croyances ont aussi une dimension idéologique et sont profondément ancrées dans sa vision du monde, il est encore moins probable qu’il change d’avis.
Conclusion
Les médecins ne devraient ni surestimer leur capacité à guérir ni sous-estimer leur capacité à causer du tort. Des mesures de protection et des réglementations ont été mises en place pour protéger le public des erreurs (parfois fatales) de la prise de décision médicale, qui ont été à l’origine de nombreux scandales médicaux. Toutefois, les patients restent vulnérables, notamment dans le domaine de la prescription hors indication, où certaines pratiques peuvent s’établir et devenir « routinières » sur des bases de preuves extrêmement fragiles.
Une fois ces pratiques instaurées, des biais cognitifs systématiques entrent en jeu et peuvent aveugler les cliniciens, même face à des signes évidents qu’une intervention pourrait être inefficace, voire nuisible. Lorsqu’un individu parvient à surmonter ces biais cognitifs et à identifier un problème, les dynamiques de groupe interviennent généralement pour minimiser ou rejeter les préoccupations, afin de préserver le statu quo.
Bien qu’il existe une vaste littérature sur l’impact des biais cognitifs sur la prise de décision individuelle, en particulier en matière de diagnostic, l’influence de ces biais sur la perception de la base de preuves en médecine a reçu moins d’attention. Les recommandations issues de revues systématiques constituent la base de preuves la plus solide pour la pratique clinique. En revanche, les recommandations fondées sur un consensus clinique sont fortement sujettes aux biais cognitifs et aux dynamiques de groupe, en particulier lorsque les preuves objectives d’efficacité sont limitées et que les mécanismes de retour clinique sont absents.
Prendre conscience de ces biais et de leur influence non seulement sur la prise de décision individuelle, mais aussi sur la perception de la base de preuves sur laquelle reposent ces décisions, pourrait être une première étape essentielle pour réduire leur impact négatif sur la prise en charge des patients.
Points Clés
• Les biais cognitifs influencent la prise de décision dans tous les domaines, mais ils peuvent avoir des conséquences particulièrement importantes sur la prise en charge des patients en médecine.
• Bien que leur rôle soit évident dans l’analyse des scandales médicaux historiques, ces influences ne sont pas limitées au passé et continuent d’affecter la pratique clinique aujourd’hui.
• Les cliniciens travaillant dans des environnements hautement spécialisés sont particulièrement vulnérables à certains de ces biais.
• Prendre conscience de ces biais et de leur influence sur la prise de décision individuelle constitue la première étape pour réduire leur impact dans la décision clinique.
• Comprendre le rôle de ces biais dans l’élaboration du consensus clinique est essentiel pour évaluer la solidité des preuves d’une intervention, en particulier dans les spécialités où les preuves empiriques sont contestées ou faibles.
コメント