Connectez-vous S'inscrire

Le magazine de l'innovation hospitalière
Actu

Diagnostic Médical et Intelligence Artificielle : l'avis commun du CCNE et du CNPEN


Rédigé par Rédaction le Mardi 10 Janvier 2023 à 10:18 | Lu 1807 fois


Adopté en novembre dernier, l'avis commun « Diagnostic médical et intelligence artificielle : Enjeux éthiques », du Comité consultatif national d’éthique (CCNE) et du comité national pilote d’éthique du numérique (CNPEN) répond à une saisine adressée par le Premier Ministre.



Le numérique et en particulier l’intelligence artificielle en santé ouvrent des perspectives majeures de transformation de notre système de santé avec des capacités de renforcement significatif de la qualité des diagnostics et des soins au service des patients. Alors que les Systèmes d’Intelligence Artificielle utilisés pour le Diagnostic Médical (SIADM) irriguent progressivement les différents champs de la pratique médicale et transforment la relation soignants-patients, il est indispensable de créer les conditions de la confiance. En effet, le diagnostic médical intégrant ces dispositifs soulève de nouveaux enjeux d’éthique combinant les aspects numériques et médicaux. Ils interrogent la formation des praticiens, les qualités des SIADM mis en œuvre, l’intermédiation numérique intervenant dans la relation médecin-patient, l’appropriation et le consentement éclairé des patients lors de l’utilisation de ces nouveaux outils.
 
Par leur avis commun « Diagnostic médical et intelligence artificielle : Enjeux éthiques », le Comité consultatif national d’éthique (CCNE) et le comité national pilote d’éthique du numérique (CNPEN) répondent à une saisine adressée par le Premier Ministre.
 
Les techniques d’intelligence artificielle sont aujourd'hui couramment utilisées en médecine, avec des impacts importants sur la pratique professionnelle, la relation médecin-patient et l’organisation du système de soins. La radiologie (en particulier dans le domaine de l’oncologie), l’ophtalmologie, la dermatologie, la cardiologie et l’histopathologie sont les domaines les plus concernés avec des perspectives d’avancées très significatives pour les patients. L’usage à visée diagnostique de systèmes numériques a pour objet d'aider les professionnels à identifier le plus précisément possible maladies, lésions ou anomalies, étape essentielle qui détermine la prise en charge thérapeutique. Appelés Systèmes d’Intelligence Artificielle pour le Diagnostic Médical (SIADM), ces dispositifs peuvent, à partir « d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ». Ils reposent sur des techniques d’apprentissage automatique, de logique basée sur les connaissances, ou encore sur le traitement statistique de données (images, textes, ...). Les SIADM peuvent être utilisés en amont de la consultation médicale (à l’image d’expériences menées dans les services d’urgence afin d’orienter la prise en charge), lors d’étapes d’élaboration de diagnostic (en imagerie par exemple) ou du suivi médical à domicile. Leur utilisation actuelle et leur possible élargissement à un plus grand nombre de disciplines médicales soulèvent des questions éthiques que le CCNE et le CNPEN abordent dans leur Avis 141 du CCNE / Avis 4 du CNPEN «Diagnostic médical et intelligence artificielle: Enjeux éthiques.». Ils répondent ainsi à la lettre de mission qui leur a été adressée le 19 juillet 2019 par le Premier ministre.
 
Afin de cerner les enjeux éthiques qui apparaissent avec ces évolutions, l’Avis dresse un panorama des capacités actuelles des SIADM. Il permet de comprendre que les promesses sont nombreuses et nécessitent dans un premier temps de bien les distinguer des faits. Par ailleurs, il est important de souligner que les SIADM produisent des résultats basés d’une part sur des approches qui peuvent être probabilistes et d’autre part peuvent être entachés d’erreurs. S'il ne serait pas éthique que les équipes soignantes et les patients se privent des avantages apportés pas ces outils, il faut se donner constamment les moyens de prendre de la distance avec le résultat fourni, et il est indispensable de créer les conditions de la confiance.
 
L’Avis aboutit à seize recommandations et sept points de vigilance, en particulier :
  • Le contrôle de conformité d'un SIADM, qui assure qu’il n’est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré. Il doit surtout à l’avenir être accompagné d’une évaluation de son efficacité clinique montrant, au-delà de son absence de nocivité, qu’il contribue efficacement au principe de bienfaisance ;
  • S’assurer que, dans leur finalité, les SIADM s’inscrivent dans une logique d’amélioration continue de la qualité et de la sécurité des soins ;
  • Éviter que les SIADM ne soient positionnés dans une logique de substitution à l’intervention humaine des professionnels de santé ;
  • Introduire le contrôle humain à toutes les étapes-clés de la conception et de l’application en vie réelle du SIADM afin de garantir la sécurité et le respect des droits fondamentaux ;
  • Faciliter l’explicabilité des résultats obtenus par des SIADM afin que les médecins soient en mesure de donner un sens clinique aux résultats issus du numérique ;
  • Informer le patient lorsqu’un professionnel de la santé a recours à un SIADM et recueillir son consentement ;
  • Encourager la recherche afin d’améliorer les processus de validation de l’intérêt clinique et de conformité des SIADM, et établir leur rapport bénéfice-risque ;
  • L’utilisation des SIADM dans les démarches de prévention est encore débutante (ex. campagnes de dépistage du cancer), mais leur développement doit être anticipé.
Globalement, les SIADM doivent toujours être utilisés en priorité dans une optique d’amélioration démontrée du soin, avant leurs autres intérêts organisationnels, économiques ou managériaux.

 






Nouveau commentaire :
Facebook Twitter






CONTACT

HOSPITALIA

Immeuble Newquay B / B35
13 rue Ampère
35800 Dinard 
Tél : 02 99 16 04 79
Email : contact@hospitalia.fr

Abonnement :
abonnement@hospitalia.fr