Connectez-vous S'inscrire
Actu

IA en santé : où en sommes-nous et où allons-nous ?


Rédigé par Joëlle Hayek le Mardi 5 Juillet 2022 à 10:54 | Lu 1732 fois


Professeur émérite à Sorbonne Université, le Professeur Raja Chatila y a longtemps enseigné l’intelligence artificielle (IA), la robotique et l’éthique des technologies, et est aujourd’hui un membre actif du Comité national pilote de l’éthique du numérique (CNPEN). Il y côtoie notamment le Professeur Catherine Adamsbaum, PU-PH à Paris Saclay et cheffe du service de radiologie pédiatrique à l’hôpital Bicêtre (AP-HP). Nous les avons rencontrés pour évoquer, ensemble, les techniques sous-jacentes à l’IA, leurs applications au monde de la santé et les interrogations qu’elles soulèvent.



Le Pr Raja Chatila, Professeur émérite à Sorbonne Université du numérique en Santé. ©DR
Le Pr Raja Chatila, Professeur émérite à Sorbonne Université du numérique en Santé. ©DR
Bien que l’on en parle de plus en plus, l’IA n’est pas une création récente. Que pourriez-vous nous en dire ?
Pr Raja Chatila : Il s’agit en effet d’un domaine de recherche né dans les années 1950 et qui, selon ses pères fondateurs, consiste à étudier si les machines – en l’occurrence les ordinateurs – pouvaient être intelligentes. L’IA est donc fondée sur la conjecture que tous les aspects de l’intelligence humaine pourraient être décrits de manière algorithmique, pour être simulés par l’ordinateur. Un postulat qui, sans surprise, a connu des hauts et des bas.

Quels sont les domaines actuellement étudiés ?
Pr Raja Chatila : L’IA, telle qu’on la considère aujourd’hui, repose pour l’essentiel sur deux méthodes, l’apprentissage par renforcement et l’apprentissage profond. L’apprentissage par renforcement permet à une machine d’améliorer ses résultats et comportements, sur la base des données qui lui ont été fournies ou de ses expériences passées. L’apprentissage profond est pour sa part un apprentissage statistique. Né dans les années 1990, c’est lui qui concentre actuellement les attentions.

En quoi consiste-t-il, plus concrètement ?
Pr Raja Chatila : Pour résumer, il faut d’abord disposer de suffisamment de données dans un domaine, par exemple l’imagerie médicale, de manière à pouvoir les analyser. L’algorithme recherche des contrastes, des gradients, des orientations particulières de pixels, etc., et met en place des processus d’optimisation pour identifier les régularités fréquentes, c’est-à-dire les corrélations entre les éléments et les résultats. C’est ce que l’on appelle des modèles, soit une classification par catégories qui sera par la suite appliquée à tout nouvel élément inconnu du système.

Il s’agit donc d’automatiser le processus d’analyse des données.
Pr Raja Chatila : Cette technique est en effet capable de traiter des volumes toujours plus importants. Mais la classification effectuée est uniquement liée à la manière dont les données ont été préalablement définies, ou labellisées. L’on a souvent tendance à anthropomorphiser l’IA, alors qu’en réalité, la machine n’a aucune compréhension de la sémantique, de la signification des données. Pour reprendre l’exemple de l’imagerie médicale, le système n’est par nature pas en capacité d’appréhender l’ensemble des problématiques et du contexte, comme le ferait un radiologue, ce qui soulève un certain nombre de questionnements éthiques. Si la labellisation initiale est erronée, par exemple, la classification produite sera également biaisée, et les décisions prises sur cette base, malvenues.
 

Le Pr Catherine Adamsbaum, PU-PH à Paris Saclay et cheffe du service de radiologie pédiatrique à l’hôpital Bicêtre (AP-HP). ©DR
Le Pr Catherine Adamsbaum, PU-PH à Paris Saclay et cheffe du service de radiologie pédiatrique à l’hôpital Bicêtre (AP-HP). ©DR
Comment résoudre cette problématique ?
Pr Raja Chatila : Il est difficile de vérifier l’intégrité d’une base de données, a fortiori lorsque les volumes traités sont importants. Mais il est possible de la corriger avec un nouveau mécanisme d’apprentissage. C’est d’ailleurs là que l’humain joue tout son rôle, car lui seul est en mesure de constater la présence effective d’erreurs, de biais ou d’inadéquations. C’est le principe de la Garantie Humaine de l’Intelligence Artificielle, désormais reconnue dans le domaine médical : une personne qui en a la compréhension adéquate dispose d’un « second regard » sur les solutions proposées par l’algorithme, et est par là même responsable des conséquences liées à l’utilisation de la machine.

Quelle place occupe aujourd’hui l’IA à l’hôpital ?
Pr Catherine Adamsbaum : Aussi prometteuses soient-elles, ces technologies n’y sont dans les faits pas encore utilisées en routine, en premier lieu parce qu’il nous faut d’abord réfléchir aux organisations dans lesquelles elles s’insèreront, par exemple pour mettre en place la Garantie Humaine. Je préfère d’ailleurs ici le terme de supervision humaine, car la majorité des médecins a une compréhension très limitée du processus décisionnel d’un algorithme. Ils peuvent donc difficilement en être garants, mais sont néanmoins en capacité de le superviser en contextualisant le résultat produit mathématiquement. Cela est d’autant plus important que la machine ne peut pas tout, et que ces décisions sont étroitement liées au choix et à la labellisation des jeux de données initiaux.

Comment vous positionnez-vous par rapport aux applications potentielles de l’IA au sein des établissements de santé ?
Pr Catherine Adamsbaum : Comme l’a évoqué le Pr Chatila, l’IA a longtemps souffert d’une certaine incompréhension quant à ses capacités réelles. Cette vision commence à être dépassée, et cela est heureux. Il est toutefois fondamental que l’on n’y applique pas d’autres fantasmes, en espérant par exemple faire des économies grâce aux technologies d’intelligence artificielle. Elles permettront sans doute de faire gagner du temps aux médecins en évitant certaines tâches à faible valeur ajoutée. Mais l’on ne pourra pas faire l’économie des ressources humaines, pour mettre en place la supervision humaine, ou pour accompagner l’évolution des métiers et en développer de nouveaux. Pour résumer, l’IA doit à mon sens demeurer à son juste rôle, à l’instar des autres outils utilisés par la communauté médicale. Elle sera sans conteste facilitatrice, mais elle ne pourra pas remplacer le dialogue entre le médecin et son patient, et surtout cette évaluation contextuelle qui est et restera fondamentale en médecine et en particulier en radiologie.

Revenons-en à l’état de l’art actuel, du moins à l’hôpital où l’IA n’est pas encore utilisée en routine. Que constatez-vous en tant que PU-PH ?
Pr Catherine Adamsbaum : Certaines applications commencent à être connues mais, à l’AP-HP par exemple, l’algorithme de détection des fractures mis à disposition des médecins sur le PACS ne sert pas encore au diagnostic médical. Nous en sommes plutôt au stade de l’évaluation in vivo. Cela dit, avant de soutenir la diffusion de ces technologies à plus large échelle, il nous faudra également mieux cadrer la manière dont elles sont sélectionnées ou achetées. Il existe ici un véritable no man’s land, qui devra impérativement être cadré – comme cela se fait déjà pour les autres dispositifs médicaux. L’ANSM, les sociétés scientifiques comme la Société Française de Radiologie, commencent à s’en saisir mais il s’agit d’un chantier complexe, qui impose notamment la recherche d’un juste équilibre entre des modalités suffisamment sécurisées et un temps d’évaluation suffisamment court, pour ne pas se faire dépasser par la technologie. Ce cadrage sera toutefois essentiel pour gagner la confiance des professionnels de santé et des usagers. Pour cela, la communauté médicale doit pouvoir évaluer sereinement et librement les solutions mises à sa disposition.

Un mot de conclusion ?
Pr Raja Chatila : Comme je le soulignais plus haut, il y a eu beaucoup de promesses non tenues dans le domaine de l’IA. Mais il est aussi évident que les avancées technologiques sont nombreuses et continueront de se développer. Cette progression sera-t-elle pour autant qualitativement différente ? Je n’en suis pas convaincu. Il s’agit en tous cas d’un champ de recherche passionnant avec, notamment, deux sujets qui mobilisent les attentions. Nous l’avons vu, l’apprentissage statistique aboutit à une corrélation et non à une causalité, alors même que celle-ci permettrait de mieux expliquer le comportement d’un système. Cette explicabilité – que certains pensent impossible du fait de la nature même de l’apprentissage statistique – semble être devenue une exigence avant l’heure. Les textes européens relatifs à l’IA l’évoquent, par exemple, sans pour autant la définir. Pour lui donner corps, des chercheurs tentent de combiner des systèmes apprenants statistiques et des systèmes symboliques, ou de développer de nouvelles méthodes d’analyse des processus.

Et l’autre principal sujet de recherche ?
Pr Raja Chatila : Il a plutôt trait à la labellisation des données qui est, vous l’aurez compris, essentielle pour mettre en place un apprentissage statistique dit supervisé. Pour s’en passer et donc se prémunir de ses biais éventuels, il faudrait développer un apprentissage non supervisé. Dans un domaine comme dans l’autre – explicabilité et apprentissage auto-supervisé – la finalité recherchée est somme toute la même : accroître la confiance des utilisateurs et des bénéficiaires dans ces technologies au potentiel applicatif énorme. C’est cette confiance, qui impose d’ailleurs aussi les nécessaires cadrages évoqués par le Pr Adamsbaum, qui permettra leur intégration aux pratiques.
 
Article publié dans l'édition de mai 2022 d'Hospitalia à lire ici.
 






Nouveau commentaire :
Facebook Twitter







CONTACT

HOSPITALIA

Immeuble Newquay B / B35
13 rue Ampère
35800 Dinard 
Tél : 02 99 16 04 79
Email : contact@hospitalia.fr

Abonnement :
abonnement@hospitalia.fr

Siège social :
23/25 rue Jean-Jacques Rousseau 
75001 Paris