SIS

Pr Jean-Gabriel Ganascia : « Le progrès ne doit pas nous dispenser de penser. Il doit au contraire nous y inviter »


Rédigé par Joëlle Hayek le Mercredi 18 Juin 2025 à 09:56 | Lu 2398 fois


Figure majeure de l’intelligence artificielle en France, le Professeur Jean-Gabriel Ganascia en explore les frontières depuis plus de quatre décennies. À la fois informaticien, philosophe, chercheur et écrivain, il a contribué à forger les bases scientifiques de l’IA symbolique tout en questionnant ses fondements épistémologiques et ses implications éthiques. Il décrypte, pour Hospitalia, ses mutations actuelles, notamment dans le domaine de la santé, tout en posant les jalons d’une éthique adaptée à un monde en perpétuelle évolution technologique.



Vous vous intéressez à l’intelligence artificielle depuis la fin des années 1970. D’où vient cet intérêt précoce ?

Pr Jean-Gabriel Ganascia : Tout a commencé en 1979, il y a 45 ans. À l’époque, j’étais ingénieur dans un service chargé de tester des caméras de vision nocturne. Très vite, j’ai compris qu’il était irréaliste de s’en remettre uniquement à des opérateurs humains pour analyser en continu les images produites. Il devenait évident qu’une partie du travail devait être automatisée pour rendre ces systèmes vraiment efficaces. C’est un peu par hasard que je découvre, en écoutant la radio, que l’université Pierre-et-Marie-Curie (aujourd’hui Sorbonne Université) proposait un DEA – l’équivalent d’un Master 2 – en reconnaissance des formes et intelligence artificielle. Ce domaine correspondait exactement à mes préoccupations. Je m’y suis inscrit sans hésiter, et ce fut une révélation : j’ai découvert l’intelligence artificielle, qui m’a immédiatement passionné.

Et que s’est-il passé ensuite ?

En 1983, j’ai soutenu une thèse de docteur ingénieur à l’Université Paris-Saclay, consacrée aux systèmes à base de connaissances. C’est aussi à cette période qu’une grande entreprise française, alors curieuse de ces nouvelles approches, m’a sollicité. De fil en aiguille, je me suis spécialisé en apprentissage symbolique et en acquisition des connaissances, ce qui m’a conduit à une thèse d’État, en 1987, sur l’apprentissage symbolique automatique. Cette évolution était naturelle : créer des systèmes à base de connaissances, ce que l’on appelle parfois la maïeutique cognitive, suppose d’abord de savoir extraire ces connaissances, puis de les modéliser dans la mémoire de la machine en simulant des mécanismes de pensée humaine. Cette dimension épistémologique de l’intelligence artificielle a toujours été au cœur de mes travaux. Je me consacre également à un autre domaine : l’éthique computationnelle, c’est-à-dire la modélisation informatique des raisonnements éthiques. Un sujet à la croisée de la technique et de la philosophie, une autre discipline que j’ai étudiée – j’ai d’ailleurs obtenu une maîtrise de philosophie en 1980, à l’Université Paris-I.

Justement, comment avez-vous été amené à réfléchir à l’éthique du numérique ? 

En 2002, j’ai été invité à un colloque à Alexandrie, en Égypte, portant sur l’éthique dans les sciences. À cette époque, des inquiétudes sociétales commençaient à émerger sur les dérives potentielles de la technologie, notamment sur la crainte – infondée – d’un pouvoir croissant des machines. L’année suivante, un autre colloque à Mexico m’a permis de rencontrer la petite communauté internationale qui s’intéressait alors à l’éthique de l’intelligence artificielle. En parallèle, le CNRS lançait un programme de recherche sur les mutations sociétales induites par le numérique. Y intégrer une dimension éthique m’a semblé intéressant, ce qui m’a conduit à rejoindre le comité éthique du CNRS. Au début des années 2010, celui-ci a produit un rapport sur les enjeux éthiques des technologies numériques. Il se trouvait que l’INRIA travaillait sur un rapport similaire. Cette convergence a mené, en 2012, à la création de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA), qui a elle-même donné naissance, quelques années plus tard, au Comité national pilote d’éthique du numérique (CNPEN), aujourd’hui placé sous l’égide du Comité consultatif national d’éthique (CCNE) et présidé par Claude Kirchner.

Vous portez aussi un regard averti sur les applications de l’IA en santé. Qu’en pensez-vous aujourd’hui ?

La santé est un terrain d’expérimentation ancien pour l’IA. Dès les années 1970, on parlait déjà de systèmes-experts comme MYCIN, capable de diagnostiquer certaines infections bactériennes et de recommander un traitement. Ce système est encore considéré aujourd’hui comme un archétype dans son genre. Depuis, chaque décennie a vu émerger de nouvelles avancées. À la fin des années 1980, le Web a ouvert l’accès à de grandes quantités de données, ce qui a élargi d’autant l’accès aux connaissances. Dans les années 1990, les progrès de calcul informatique ont permis un traitement plus fin du langage. C’est l’ère du machine learning, ou apprentissage par la machine. Puis, dans les années 2010, les réseaux de neurones formels ont marqué l’essor du Deep learning, l’apprentissage profond, qui a été particulièrement utile en médecine pour le traitement automatisé des images. Et depuis deux ans environ, une nouvelle phase s’est ouverte avec l’IA générative.

Pourriez-vous nous en parler ?

L’IA générative ouvre un large champ de possibilités : rédaction automatique d’ordonnances, retranscription de consultations, synthèses documentaires… Elle facilite aussi la conception de nouveaux médicaments (le drug design) ou encore l’extraction de connaissances depuis d’immenses corpus structurés. Mais peut-elle poser un diagnostic à la place du médecin ? J’en doute. Et je ne crois absolument pas à la disparition des professionnels de santé. Ce qui compte désormais, c’est de réfléchir aux modalités d’intégration de ces outils dans la pratique médicale : qui les utilise, à quel moment, et avec quel niveau de responsabilité ? L’intelligence artificielle n’est pas une simple technologie : c’est un objet socio-technique, qui prend tout son sens dans l’organisation humaine à laquelle il s’intègre.

Cela rejoint-il la notion de garantie humaine de l’IA ?

Effectivement. Mais cette notion soulève des questions complexes. Un médecin, face aux recommandations d’un algorithme, conserve-t-il vraiment sa liberté s’il sait que les assurances pourraient lui reprocher de ne pas suivre l’avis de la machine ? Autre exemple : face à une double expertise – humaine et algorithmique –, que vaut encore le consentement éclairé du patient ? L’autonomie du médecin, et celle du patient, doivent être préservées. Mais dans un système où les responsabilités se brouillent, la vigilance est de mise.

L’éthique de l’IA, c’est aussi la question des données…

Absolument. Trois grandes questions se posent ici. Premièrement, la provenance des données : d’où viennent-elles ? Peuvent-elles garantir la protection de la vie privée, notamment quand il s’agit de données de santé ? L’anonymat est souvent illusoire, car des croisements d’informations permettent parfois de réidentifier les personnes. Deuxièmement, les biais présents dans les données : les algorithmes apprennent à partir d’exemples limités, qui ne couvrent pas tout l’espace des possibles. Ces biais ne sont pas toujours discriminants, mais en santé, ils peuvent l’être, et la question devient plus épistémologique qu’éthique. Enfin, la souveraineté des données : est-on prêt à mettre en libre accès des données personnelles de santé, pour que des entreprises les utilisent et commercialisent ensuite des services coûteux ? Cette question dépasse le simple cadre de la protection des données : elle touche aussi à des enjeux géopolitiques et économiques cruciaux.

Comment, alors, poser des repères éthiques dans un monde technologique qui évolue aussi vite ?

C’est une vraie difficulté. L’innovation, par définition, nous surprend. Et l’innovation numérique a cela de particulier qu’elle ne suit pas une progression linéaire. Contrairement aux sciences où les découvertes s’additionnent – c’est le concept du progrès théorisé par Condorcet –, les technologies avancent par à-coups, avec des périodes d’euphorie suivies de stagnations. On l’a vu avec le métavers en 2021 : grande promesse, puis essoufflement. L’IA générative suscite aujourd’hui un enthousiasme semblable. Qu’en restera-t-il ? Difficile à dire. Il est difficile d’anticiper ce qui va véritablement advenir des évolutions technologiques… Ce qui est certain, c’est que les métiers de la santé vont continuer d’évoluer, comme ils n’ont cessé de le faire tout au long de l’histoire de la médecine. Et chaque fois, l’humain a su adapter ses pratiques, ses règles, sa réflexion. Le progrès ne doit pas nous dispenser de penser. Il doit au contraire nous y inviter.

> Article paru dans Hospitalia #69, édition de mai 2025, à lire ici   

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia, né en 1955, est un informaticien et philosophe français, professeur à Sorbonne Université et chercheur au LIP6, le laboratoire de recherche en informatique créé avec le Centre national de recherche scientifique (CNRS). Spécialiste de l’intelligence artificielle, il débute sa carrière dans les systèmes à base de connaissances avant de se tourner vers l’apprentissage symbolique, l’acquisition des connaissances et, depuis plus de vingt ans, vers l’éthique computationnelle et les humanités numériques.

Titulaire de plusieurs diplômes en sciences et en philosophie, il soutient deux thèses entre 1983 et 1987. Il a également joué un rôle central dans la structuration de la recherche française en sciences cognitives et en intelligence artificielle. À Sorbonne Université, il a dirigé le DEA IARFA (Intelligence Artificielle, Reconnaissance des Formes et Applications) et cofondé le labex OBVIL (Observatoire de la vie littéraire), dédié au versant littéraire des humanités numériques.

Engagé dans les réflexions éthiques liées aux sciences et aux technologies, il a présidé de 2017 à 2022 le comité d’éthique du CNRS. Par ailleurs, il est l’auteur de plusieurs essais de vulgarisation et d’un roman de science-fiction, publié en 2019 sous le pseudonyme Gabriel Naëj.




Voir également :