(c) Fabrice Cateloy
L’Intelligence Artificielle (IA) est là. Elle ne frappe pas à la porte. Elle s’installe et progresse chaque jour, s’immisçant dans l’ensemble de nos domaines de compétences médicales, jusqu’à la relation médecin-patient pourtant longtemps considérée comme un sanctuaire à l’abri de toute automatisation. On lui reproche ses hallucinations, son manque de bon sens, ses erreurs parfois grossières. Mais elle apprend, sans relâche. La vraie question n’est plus de savoir si elle va transformer la médecine, mais si la partie est déjà perdue pour nous, médecins.
Pour certains, la réponse est sans appel : les études de médecine seraient devenues inutiles et le savoir médical bientôt obsolète, avec à l’appui de cette thèse des publications sensationnelles. Ainsi, sur des cas complexes de médecine interne issus des Clinical Pathological Conferences du New England Journal of Medicine, une IA atteindrait une précision diagnostique de 80 à 86 %, soit quatre fois supérieure à celle de médecins humains qui peinent à atteindre un taux de réussite de 20 % [1]. Le chiffre impressionne. Mais à la lecture attentive de l’article, les médecins recrutés étaient majoritairement des généralistes, privés de toute ressource externe, confrontés à des cas dépassant largement leur pratique habituelle, dans des conditions éloignées de toute réalité clinique. Même emballement lorsqu’on nous annonce que l’IA serait 9,8 fois plus empathique qu’un médecin [2]. Le titre fait mouche. En poursuivant la lecture, c’est en fait une comparaison qui porte sur des réponses écrites à des questions médicales postées sur un forum de réseau social ! L’empathie, réduite à une formulation bien tournée ; une performance linguistique hors les murs, et hors du colloque singulier. Au final, ce sont surtout les protocoles qui rivalisent d’artificialité avec l’IA elle-même.
Alors qu’en est-il du médecin qui utilise l’IA ? Serait-il un médecin augmenté ? Là encore, des travaux menés au MIT suggèrent qu’un recours intensif à des outils comme ChatGPT pourrait affaiblir les capacités de réflexion et d’autonomie intellectuelle chez des étudiants [3]. Faut-il alors renoncer ? Sommes-nous des étudiants en quête d’une note passable, ou des professionnels responsables de décisions lourdes de conséquences ? La réponse réside dans le bon sens : l’IA n’est dangereuse que lorsqu’elle remplace le raisonnement, pas lorsqu’elle le stimule.
Utilisée à bon escient, l’IA peut devenir un allié incontournable de la médecine. L’IA enrichit la formation des étudiants comme des professionnels de santé tout au long de leur parcours de vie en permettant des apprentissages personnalisés, adaptatifs et interactifs selon le niveau et la spécialité de chacun. À condition de savoir ne pas s’arrêter au texte généré et de remonter aux sources, qui permettent de vérifier et d’approfondir sa réflexion et ses connaissances. Pourquoi refuser l’aide de l’IA pour l’interprétation de l’imagerie et des examens complémentaires ? L’analyse de pixels et de chiffres est justement là ou l’IA fait déjà preuve d’une efficacité redoutable. Dès lors que ses résultats sont expliqués, et contrôlables, ils peuvent alors être intégrés à un raisonnement médical global.
A contrario, l’aide à la décision médicale constitue à ce jour le champ le plus immature de l’IA. Si la responsabilité de la réponse ne sera jamais prise par les éditeurs de logiciels, il revient alors au médecin de la garder, et de prendre ses précautions. Encore faut-il disposer de connaissances solides et d’une véritable capacité de synthèse pour exercer un esprit critique envers la machine. Elle doit nous challenger : confirme-t-elle notre raisonnement médical ? Met-elle en lumière un élément que nous aurions négligé ?
Quant aux tâches administratives, rares sont ceux qui ne verraient pas d’un bon œil une délégation aussi rapide que possible : automatisation de la rédaction des comptes rendus, codage des actes, gestion des appels téléphoniques, autant de temps précieux gagné pour notre exercice médical.
L’aide à la chirurgie robotisée, à l’analyse de données pour la recherche et d’autres cas d’application pourraient être évoqués ; mais c’est la question de la relation médecin-patient qui s’impose et cristallise la suite du débat. Que deviendra ce lien, si souvent présenté comme irréductiblement humain ? Quiconque a déjà utilisé une IA pour préparer une consultation délicate ou une annonce complexe de manière contextualisée, personnalisée, et bien entendu anonymisée, sait déjà qu’elle peut proposer des approches et des formulations qui enrichissent considérablement la réflexion du clinicien. Mais faut-il rappeler que cette aide ne se substitue en rien à l’acte médical lui-même ? L’annonce, la rencontre, l’écoute, l’accompagnement dépassent largement les mots employés. Ils mobilisent un savoir-être, un langage non verbal,para verbal, et s’inscrivent dans une relation singulière, déjà construite entre un médecin et son patient. L’IA peut aider à mieux dire ; mais elle ne peut ni incarner, ni ressentir, ni assumer.
L’enjeu ne réside pas donc pas dans l’IA en tant qu’outil, dont l’utilité est avérée, mais dans les conditions et la rigueur de son utilisation.
L’urgence, aujourd’hui, est de se former à l’usage de l’IA. Le risque zéro n’existe pas en médecine ; mais il augmente à mesure que s’installe l’ignorance, tant de la discipline médicale que des outils mobilisés. L’IA n’échappe pas à cette règle. Elle génère des réponses fondées sur des probabilités, et non sur un concept de vérité. Elle ne raisonne pas, ne comprend pas, ne doute pas. Dépourvue de conscience, de ressentis et d’intentions, elle génère des réponses plausibles, parfois convaincantes, mais qui peuvent être erronées, que l’on qualifie d’« hallucinations ».
La première condition fondamentale à l’usage de l’IA par les médecins demeure donc une formation médicale solide, exigeante et rigoureuse, permettant de pouvoir questionner les résultats produits et exercer un esprit critique structuré et constant [4]. La seconde est une compréhension de son fonctionnement : savoir ce que l’on peut en attendre comme ce que l’on ne peut pas en attendre, et comment l’interroger (l’art du “prompt”) sans induire de biais majeurs. L’apprentissage de ces usages ne relève pas d’un confort technologique, mais d’une responsabilité professionnelle. Il devra se faire dès la faculté. Disposer d’outils évalués, validés scientifiquement et clairement labellisés constitue à cet égard une exigence de sécurité et de qualité des soins.
L’IA occupera une place non négociable. Elle pourra contribuer à corriger certaines des faiblesses structurelles de notre système de soins: surcharge cognitive, complexité croissante des données, contraintes organisationnelles, voire déserts médicaux. À ce titre, son apport n’est ni accessoire ni transitoire. Il va dans le sens de l’histoire. Laissons les titres sensationnalistes aux géants du numérique, et investissons la recherche médicale ainsi que le développement d’applications dans ce que l’IA peut réellement apporter au soin.
Mais la responsabilité du médecin et la prise en charge globale du patient ne sauraient lui être déléguée… pour le moment. Examiner, questionner, écouter, comprendre, ces actes ne relèvent pas d’un déficit technologique, mais d’un engagement humain. L’IA peut éclairer une décision ; elle ne l’incarne et ne l’assume pas. Elle peut suggérer une formulation ; elle n’en porte ni le sens, et ni la conséquence.
Notre métier change, indéniablement, mais il ne s’efface pas pour autant. À condition d’en cultiver l’humilité : celle de ne pas tout savoir ; la rigueur : celle de ne jamais cesser d’apprendre ; le ressenti : celui d'être à l'écoute ; et l’exigence : celle de toujours chercher à faire mieux.
Références bibliographiques
[1] : Nori H, Daswani M, Kelly C, Lundberg S, Ribeiro MT, Wilson M, Liu X, Sounderajah V, Carlson J, Lungren MP, Gross B, Hames P, Suleyman M, King D, Horvitz E. Sequential Diagnosis with Language Models. arXiv [cs.CL]. 2025.
[2] : Ayers, J. W., Leas, E. C., Dredze, M., et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine. 1838. 2023.
[3] : Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv. 2025.
[4] : Rougé-Bugat M.E., Béranger J. Évolution de la relation médecin généraliste-patient à l’heure de la médecine digitale. Cas de la prise en charge du patient atteint de cancer, Les Tribunes de la santé, no 68 ; 2021.
> Cette tribune a été publié une première fois le 1er mars 2026 dans Le Figaro, et a été reprise avec son aimable autorisation.
Pour certains, la réponse est sans appel : les études de médecine seraient devenues inutiles et le savoir médical bientôt obsolète, avec à l’appui de cette thèse des publications sensationnelles. Ainsi, sur des cas complexes de médecine interne issus des Clinical Pathological Conferences du New England Journal of Medicine, une IA atteindrait une précision diagnostique de 80 à 86 %, soit quatre fois supérieure à celle de médecins humains qui peinent à atteindre un taux de réussite de 20 % [1]. Le chiffre impressionne. Mais à la lecture attentive de l’article, les médecins recrutés étaient majoritairement des généralistes, privés de toute ressource externe, confrontés à des cas dépassant largement leur pratique habituelle, dans des conditions éloignées de toute réalité clinique. Même emballement lorsqu’on nous annonce que l’IA serait 9,8 fois plus empathique qu’un médecin [2]. Le titre fait mouche. En poursuivant la lecture, c’est en fait une comparaison qui porte sur des réponses écrites à des questions médicales postées sur un forum de réseau social ! L’empathie, réduite à une formulation bien tournée ; une performance linguistique hors les murs, et hors du colloque singulier. Au final, ce sont surtout les protocoles qui rivalisent d’artificialité avec l’IA elle-même.
Alors qu’en est-il du médecin qui utilise l’IA ? Serait-il un médecin augmenté ? Là encore, des travaux menés au MIT suggèrent qu’un recours intensif à des outils comme ChatGPT pourrait affaiblir les capacités de réflexion et d’autonomie intellectuelle chez des étudiants [3]. Faut-il alors renoncer ? Sommes-nous des étudiants en quête d’une note passable, ou des professionnels responsables de décisions lourdes de conséquences ? La réponse réside dans le bon sens : l’IA n’est dangereuse que lorsqu’elle remplace le raisonnement, pas lorsqu’elle le stimule.
Utilisée à bon escient, l’IA peut devenir un allié incontournable de la médecine. L’IA enrichit la formation des étudiants comme des professionnels de santé tout au long de leur parcours de vie en permettant des apprentissages personnalisés, adaptatifs et interactifs selon le niveau et la spécialité de chacun. À condition de savoir ne pas s’arrêter au texte généré et de remonter aux sources, qui permettent de vérifier et d’approfondir sa réflexion et ses connaissances. Pourquoi refuser l’aide de l’IA pour l’interprétation de l’imagerie et des examens complémentaires ? L’analyse de pixels et de chiffres est justement là ou l’IA fait déjà preuve d’une efficacité redoutable. Dès lors que ses résultats sont expliqués, et contrôlables, ils peuvent alors être intégrés à un raisonnement médical global.
A contrario, l’aide à la décision médicale constitue à ce jour le champ le plus immature de l’IA. Si la responsabilité de la réponse ne sera jamais prise par les éditeurs de logiciels, il revient alors au médecin de la garder, et de prendre ses précautions. Encore faut-il disposer de connaissances solides et d’une véritable capacité de synthèse pour exercer un esprit critique envers la machine. Elle doit nous challenger : confirme-t-elle notre raisonnement médical ? Met-elle en lumière un élément que nous aurions négligé ?
Quant aux tâches administratives, rares sont ceux qui ne verraient pas d’un bon œil une délégation aussi rapide que possible : automatisation de la rédaction des comptes rendus, codage des actes, gestion des appels téléphoniques, autant de temps précieux gagné pour notre exercice médical.
L’aide à la chirurgie robotisée, à l’analyse de données pour la recherche et d’autres cas d’application pourraient être évoqués ; mais c’est la question de la relation médecin-patient qui s’impose et cristallise la suite du débat. Que deviendra ce lien, si souvent présenté comme irréductiblement humain ? Quiconque a déjà utilisé une IA pour préparer une consultation délicate ou une annonce complexe de manière contextualisée, personnalisée, et bien entendu anonymisée, sait déjà qu’elle peut proposer des approches et des formulations qui enrichissent considérablement la réflexion du clinicien. Mais faut-il rappeler que cette aide ne se substitue en rien à l’acte médical lui-même ? L’annonce, la rencontre, l’écoute, l’accompagnement dépassent largement les mots employés. Ils mobilisent un savoir-être, un langage non verbal,para verbal, et s’inscrivent dans une relation singulière, déjà construite entre un médecin et son patient. L’IA peut aider à mieux dire ; mais elle ne peut ni incarner, ni ressentir, ni assumer.
L’enjeu ne réside pas donc pas dans l’IA en tant qu’outil, dont l’utilité est avérée, mais dans les conditions et la rigueur de son utilisation.
L’urgence, aujourd’hui, est de se former à l’usage de l’IA. Le risque zéro n’existe pas en médecine ; mais il augmente à mesure que s’installe l’ignorance, tant de la discipline médicale que des outils mobilisés. L’IA n’échappe pas à cette règle. Elle génère des réponses fondées sur des probabilités, et non sur un concept de vérité. Elle ne raisonne pas, ne comprend pas, ne doute pas. Dépourvue de conscience, de ressentis et d’intentions, elle génère des réponses plausibles, parfois convaincantes, mais qui peuvent être erronées, que l’on qualifie d’« hallucinations ».
La première condition fondamentale à l’usage de l’IA par les médecins demeure donc une formation médicale solide, exigeante et rigoureuse, permettant de pouvoir questionner les résultats produits et exercer un esprit critique structuré et constant [4]. La seconde est une compréhension de son fonctionnement : savoir ce que l’on peut en attendre comme ce que l’on ne peut pas en attendre, et comment l’interroger (l’art du “prompt”) sans induire de biais majeurs. L’apprentissage de ces usages ne relève pas d’un confort technologique, mais d’une responsabilité professionnelle. Il devra se faire dès la faculté. Disposer d’outils évalués, validés scientifiquement et clairement labellisés constitue à cet égard une exigence de sécurité et de qualité des soins.
L’IA occupera une place non négociable. Elle pourra contribuer à corriger certaines des faiblesses structurelles de notre système de soins: surcharge cognitive, complexité croissante des données, contraintes organisationnelles, voire déserts médicaux. À ce titre, son apport n’est ni accessoire ni transitoire. Il va dans le sens de l’histoire. Laissons les titres sensationnalistes aux géants du numérique, et investissons la recherche médicale ainsi que le développement d’applications dans ce que l’IA peut réellement apporter au soin.
Mais la responsabilité du médecin et la prise en charge globale du patient ne sauraient lui être déléguée… pour le moment. Examiner, questionner, écouter, comprendre, ces actes ne relèvent pas d’un déficit technologique, mais d’un engagement humain. L’IA peut éclairer une décision ; elle ne l’incarne et ne l’assume pas. Elle peut suggérer une formulation ; elle n’en porte ni le sens, et ni la conséquence.
Notre métier change, indéniablement, mais il ne s’efface pas pour autant. À condition d’en cultiver l’humilité : celle de ne pas tout savoir ; la rigueur : celle de ne jamais cesser d’apprendre ; le ressenti : celui d'être à l'écoute ; et l’exigence : celle de toujours chercher à faire mieux.
Références bibliographiques
[1] : Nori H, Daswani M, Kelly C, Lundberg S, Ribeiro MT, Wilson M, Liu X, Sounderajah V, Carlson J, Lungren MP, Gross B, Hames P, Suleyman M, King D, Horvitz E. Sequential Diagnosis with Language Models. arXiv [cs.CL]. 2025.
[2] : Ayers, J. W., Leas, E. C., Dredze, M., et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine. 1838. 2023.
[3] : Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv. 2025.
[4] : Rougé-Bugat M.E., Béranger J. Évolution de la relation médecin généraliste-patient à l’heure de la médecine digitale. Cas de la prise en charge du patient atteint de cancer, Les Tribunes de la santé, no 68 ; 2021.
> Cette tribune a été publié une première fois le 1er mars 2026 dans Le Figaro, et a été reprise avec son aimable autorisation.