L'IA diagnostique en consultation : opportunité ou illusion ? Ce que la recherche nous dit — et ce que nous en faisons.
Un patient entre dans votre cabinet. Avant même de s'asseoir, il sort son téléphone et vous annonce : « J'ai demandé à ChatGPT, il pense que c'est une thyroïdite de Hashimoto. » Sourire poli de votre côté. Question intérieure immédiate : est-ce que ça va nous faire gagner du temps, ou est-ce que je vais passer les vingt prochaines minutes à déconstruire un raisonnement algorithmique présenté avec la confiance d'un scanner en main ? La scène se multiplie dans nos salles d'attente. Et une étude récente publiée dans JAMA vient utilement nourrir le débat — avec des résultats qui méritent qu'on s'y arrête.
Des chercheurs ont évalué si l'utilisation d'un outil d'intelligence artificielle améliorait la capacité de non-médecins à poser un diagnostic correct sur des cas cliniques standardisés. Résultat : non. Les participants qui ont eu accès à l'IA n'ont pas significativement mieux performé que ceux qui ne l'avaient pas. Pire, ils ont eu tendance à surestimer la fiabilité de leurs conclusions. Ce n'est pas un détail anecdotique. C'est, pour nous, un signal clinique à part entière.
L'IA diagnostique n'est pas un stéthoscope que l'on prête
Il faut d'abord poser les choses clairement : nous ne sommes pas hostiles à l'intelligence artificielle. Nous ne sommes pas non plus en train de défendre un pré carré corporatiste. L'IA est un outil puissant, et nos confrères qui l'utilisent en appui de leur pratique le savent mieux que quiconque. Mais un outil de précision entre les mains d'un opérateur non formé ne produit pas de la précision — il produit de la confiance mal placée.
La médecine diagnostique repose sur quelque chose que l'on appelle trop rarement par son nom : le raisonnement clinique. Ce n'est pas une somme de symptômes entrés dans un formulaire. C'est une construction dynamique, probabiliste, qui tient compte du contexte, de l'histoire du patient, de ce qu'il ne dit pas, de l'examen physique, du terrain. Un outil d'IA, aussi sophistiqué soit-il, travaille sur ce qu'on lui donne. Et ce que lui donne un patient non médecin, c'est forcément une représentation partielle, filtrée par ses craintes, ses biais, son vocabulaire. L'algorithme optimise une entrée imparfaite. Il n'interroge pas, il ne palpe pas, il ne recadre pas.
Le vrai problème : l'illusion de certitude
Ce que cette étude met en lumière de façon particulièrement utile pour notre pratique, c'est moins l'erreur diagnostique que la surconfiance qu'elle génère. Un patient qui arrive en consultation avec un diagnostic IA ne vient pas chercher une confirmation ou une infirmation ouverte — il vient souvent, inconsciemment, chercher une validation. Et quand nous divergeons, nous ne contredisons plus seulement son intuition : nous contredisons une « machine » présentée comme objective, exhaustive, infaillible.
Ce glissement est cliniquement dangereux. Combien de fois avons-nous vu un patient retarder une consultation parce qu'un outil numérique l'avait rassuré à tort ? Combien de fois la consultation elle-même a-t-elle été parasitée par une conviction algorithmique ancrée avant même l'entrée dans le cabinet ? La confiance que le patient accorde à l'IA n'est pas proportionnelle à la fiabilité de l'outil — elle est proportionnelle à la réassurance qu'elle lui a procurée. C'est très humain. C'est aussi très problématique.
Ce que nous pouvons en faire en consultation
Plutôt que de lutter contre ce phénomène — ce serait une bataille perdue et contre-productive — nous avons tout intérêt à l'intégrer dans notre pratique relationnelle. Le patient qui arrive avec son diagnostic IA nous dit quelque chose d'important : il a cherché, il s'est impliqué, il a une hypothèse. C'est une entrée en matière. Nous pouvons l'utiliser.
Accueillir l'hypothèse sans la valider d'emblée, poser les questions qui révèlent ce que l'algorithme n'a pas pu saisir, montrer — concrètement, pédagogiquement — en quoi l'examen clinique modifie ou nuance le tableau : voilà une opportunité de renforcer la relation thérapeutique plutôt que de l'éroder. La consultation devient alors un espace de pensée partagée, pas un tribunal où l'on juge la pertinence de Google. Et c'est précisément ce que l'IA ne sait pas faire.
Il y a aussi une responsabilité collective. Nos associations, nos syndicats, nos sociétés savantes ont un rôle à jouer dans la littératie numérique en santé — pas pour dissuader les patients d'utiliser ces outils, mais pour les aider à comprendre ce qu'ils mesurent et ce qu'ils ne mesurent pas. Un patient mieux formé à l'usage des outils d'IA est un patient qui arrive en consultation avec une question, pas avec une certitude.
Et nous, dans tout ça ?
Soyons honnêtes : la vraie question que cette étude nous pose en miroir, c'est celle de notre propre rapport à l'IA diagnostique. Parce que nous aussi, nous commençons à utiliser ces outils. Et parce que notre formation nous donne une capacité critique que nos patients n'ont pas — mais qui n'est pas non plus infaillible. L'IA peut biaiser notre raisonnement à nous aussi, si nous lui faisons une confiance non interrogée.
Ce qui nous distingue du patient qui consulte ChatGPT avant de nous voir, ce n'est pas que nous avons accès à de meilleurs outils. C'est que nous savons — normalement — quand ne pas leur faire confiance. Préserver cette compétence critique, la transmettre, la défendre : c'est peut-être l'enjeu central de la prochaine décennie pour la médecine de ville.
Note éditoriale : Les données relatives à l'étude citée sont présentées de manière générale. Les résultats précis, les auteurs, le protocole et les conclusions exactes doivent être vérifiés directement dans la publication originale avant toute reprise ou citation publique.