Connectez-vous S'inscrire



SIS

IA : COMMENT GARDER LA MAIN SUR LA MACHINE ?

Rédigé par Rédaction le Lundi 4 Février 2019 à 16:49 | Lu 709 fois


DANS SON RAPPORT PUBLIÉ EN MARS DERNIER, LE MATHÉMATICIEN ET DÉPUTÉ CÉDRIC VILLANI IDENTIFIAIT LA SANTÉ COMME L’UN DES SECTEURS PRIORITAIRES DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE (IA). MAIS VOIR L’ORDINATEUR ET SES ALGORITHMES DEVENIR UN OUTIL DE MÉDECINE PARMI D’AUTRES N’EST PAS SANS SOULEVER SON LOT DE QUESTIONNEMENTS, NOTAMMENT EN TERMES DE CADRAGE ÉTHIQUE. ÉCLAIRAGE.
PAR JOYCE RAYMOND



Dans le domaine de la santé, l’utilisation des algorithmes permettrait notamment de réaliser une veille sanitaire pour détecter des épidémies, de générer de la connaissance en tirant profit de la quantité immense de publications scientifiques, de soutenir la recherche en rationalisation la répartition des patients participant à des essais cliniques, d’appuyer des actions de prévention en repérant des prédispositions à certaines pathologies afin d’en éviter le développement, ou encore d’aider à la décision médicale en suggérant au praticien des solutions thérapeutiques adaptées. Ces deux dernières applications portent en elles « les promesses d’une médecine de précision bâtissant des solutions thérapeutiques personnalisées en croisant les don- nées du patient à celles de gigantesques cohortes », indique la Commission Nationale de l’Informatique et des Libertés (CNIL) dans son rapport autour des enjeux éthiques des algorithmes et de l’intelligence artificielle. 
 
Bien que les technologies algorithmiques semblent donc apparaître comme des vecteurs de progrès médical, la vigilance demeure de mise : « La numérisation irréversible des corps dépasse [...] la manière d’exploiter [les] données [de santé] dans un parcours de soin stricto sensu2» , note Nathalie Devillier, docteur en droit et membre du Groupe d’experts sur la responsabilité et les nouvelles technologies de la Commission Européenne, avant d’avertir : « si la France souhaite réellement se démarquer, elle devra garantir que les considérations éthiques et déontologiques sont intégrées dès la conception des outils jusqu’après la phase de déploiement ». C’est justement sur ces réponses éthiques au développement des algorithmes et des technologies d’intelligence artificielle qu’a porté le débat public animé par la CNIL entre janvier et octobre 2017, et dont la synthèse a été présentée le 15 décembre 2017. 
 
DEUX PRINCIPES FONDATEURS POUR UNE IA AU SERVICE DE L’HOMME 
L’objectif de ces travaux ? « Garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante », explique Isabelle Falque-Pierrotin, Présidente de la CNIL. Les débats ont ainsi permis de dégager deux principes fondateurs pour une intelligence artificielle au service de l’homme, qui pourraient s’inscrire dans « une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique [....] organisant la gouvernance mondiale de notre système numérique », précise le rapport de la CNIL. Une dimension que Nathalie Devillier appelait d’ailleurs de ses vœux, en suggérant que les réflexions menées en France se positionnent « dans une pers- pective mondiale plutôt que nationale ». Le premier est un principe de loyauté appliqué à tous les algorithmes et intégrant leurs impacts collectifs et non uniquement personnels : « l’intérêt des utilisateurs doit primer », insiste la CNIL, « non pas seulement en tant que consommateurs, mais également en tant que citoyens ». Cette loyauté des algorithmes devrait par ailleurs s’étendre aux « communautés ou [...] grands intérêts collectifs dont l’existence pourrait être directement affectée ». Le second est un principe de vigilance/réflexibilité, visant à organiser un questionnement « régulier, méthodique et délibératif à l’égard de ces objets mouvants » que sont les algorithmes. La CNIL suggère par exemple ici de constituer des « comités d’éthique assurant un dialogue systématique et continu entre les différentes parties prenantes ». Il semble dès lors essentiel que tous les acteurs de la chaîne algorithmique, concepteurs, utilisateurs, citoyens, soient non seule- ment formés à l’éthique, mais puissent également être en mesure de comprendre le fonctionnement de la machine – c’est d’ailleurs là l’une des recommandations opérationnelles formulées par le rapport afin d’essayer de contrer l’effet « boîte noire ». 
 
L’ÉPINEUSE QUESTION DES DONNÉES DE MASSE 
La CNIL identifie par ailleurs un certain nombre de problématiques soulevées par les algorithmes et l’IA, dont celles en rapport avec l’utilisation de données de masse. Ainsi la médecine de précision « semble lier ses progrès à la constitution de bases de données toujours plus larges, à la fois en termes de nombres d’individus concernés qu’en termes de nombre et de variétés de données conservées sur chacun d’entre eux ». Or, et c’est justement là que le bât blesse, « rien n’indique où devrait s’arrêter la collecte de données : au dossier médical ? Au génome ? Aux données épigénétiques, c’est-à-dire environnementales (habitudes de vie, habitat, alimentation) ? En remontant à combien d’années ? ». Des interrogations qui appellent assurément un certain cadrage, bien qu’elles ne soient pas propres à la médecine. Un autre enjeu a trait aux biais, discriminations et exclusions à l’heure du machine-learning, « le plus souvent inconscients et difficilement repérables ». Nous ne sommes en effet pas tous égaux face à la médecine personnalisée. Philippe Besse, Professeur de mathématiques et de statistiques à l’Université de Toulouse, rappelle ainsi qu’en 2009, une étude a révélé que 96% des échantillons intégrés aux bases de données utilisées ont des ancêtres européens. D’autres sources de biais sont l’âge – avec une présence massive de personnes relativement âgées – et le genre – le chromosome X étant largement sous-représenté. Et Philippe Besse de souligner : « si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne ». Voilà qui mérite réflexion.





Nouveau commentaire :
Facebook Twitter






CONTACT

HOSPITALIA

39 rue de la Malouine
35800 Dinard 
Tél : 02 99 16 04 79
Email : contact@hospitalia.fr

Abonnement :
abonnement@hospitalia.fr

Siège social :
23/25 rue Jean-Jacques Rousseau 
75001 Paris 



ABONNEZ-VOUS À LA NEWSLETTER !