Le Dr Grégoire Pigné, médecin oncologue radiothérapeute au CHU de Saint-Étienne et Président cofondateur de PulseLife
Pour commencer, pourriez-vous nous présenter PulseLife ?
Dr Grégoire Pigné : PulseLife est une entreprise à mission dont l’objectif est de rendre l’excellence des soins accessible à tous. Face à l’explosion des connaissances médicales, désormais impossibles à maîtriser individuellement, nous avons d’abord développé un moteur de recherche médical, avant d’intégrer les modèles de langage (LLM) pour proposer une IA dédiée aux professionnels de santé, capable de fournir des réponses précises, fiables et contextualisées. Notre baromètre réalisé en novembre 2025 montre que 62 % des médecins utilisent déjà une IA générative, mais que 94 % se déclarent insatisfaits des outils généralistes, dont les réponses sont jugées inexactes ou incomplètes. Cela confirme une réalité : en l’état, ces outils ne répondent pas aux exigences de la pratique médicale.
Pourquoi les IA généralistes posent-elles problème en médecine ?
En médecine, le principe fondamental reste le primum non nocere : d’abord, ne pas nuire. Or les IA généralistes présentent des limites structurelles. Elles peuvent produire des hallucinations, souvent crédibles car formulées avec assurance, mais erronées. Ces systèmes sont en effet conçus pour générer du texte plausible, non pour garantir la véracité. Ils reposent aussi sur des données issues du web grand public, incluant des sources peu fiables, sans traçabilité claire. Enfin, les IA généralistes ne prennent pas en compte les spécificités locales, alors que les recommandations, les pratiques et l’épidémiologie varient selon les pays. Une IA utile en santé doit au contraire s’appuyer sur des données souveraines et contextualisées.
Est-ce pour répondre à ces limites que vous avez conçu le Chatbot Médical IA ?
Oui. Nous avons volontairement pris le temps de construire une solution centrée sur la sécurité et la fiabilité. Notre approche vise à réduire au maximum les hallucinations, à garantir des données médicales à jour et à assurer une transparence totale. Aujourd’hui, notre assistant médical tend vers un niveau d’hallucination proche de zéro, même si nous restons prudents dans nos affirmations car les tests en conditions réelles sont toujours en cours. Nous avons également construit une base souveraine de plus de cinq millions de contenus issus de sources scientifiques et institutionnelles, mise à jour en continu et supervisée par un comité scientifique. Ainsi, chaque réponse est entièrement traçable, sourcée et explicable. Lorsque l’information manque, Chatbot Médical IA le reconnaît explicitement. Lorsque la littérature est divergente, il restitue les nuances.
Vous avez également intégré des barrières de sécurité clinique. Lesquelles ?
La validation a été menée à plusieurs niveaux. Le Chatbot Médical IA a été testé sur les Épreuves classantes nationales, avec des performances parmi les 2 % des meilleurs étudiants en médecine en France. Plus de 500 réponses ont également été validées par des experts médicaux. Enfin, nous avons conduit des évaluations en conditions réelles avec l’AP-HP et les Hospices Civils de Lyon afin de mesurer l’impact sur les pratiques cliniques. Ces démarches permettent d’inscrire la solution dans une logique de sécurité et d’utilité clinique.
Quels usages des soignants depuis le lancement fin 2025 ?
La solution rassemble déjà plus de 200 000 utilisateurs par mois. Sur 80 000 prompts analysés, 100 % des réponses étaient sourcées, datées et argumentées. Dans 22 % des cas, un garde-fou s’est activé, et environ 12 % ont conduit à une réponse de type « je ne sais pas », traduisant une prudence assumée. Autre élément important : aucune donnée patient identifiante n’a été détectée, confirmant la robustesse de notre système de filtrage automatique. Côté usage, les médecins utilisent le Chatbot Médical IA en moyenne quatre fois par semaine, et 75 % des échanges durent moins de deux minutes. Plus précisément, 51 % des requêtes portent sur la prise en charge, 40 % sur le diagnostic, et 17 % touchent aux grandes priorités de santé publique. Ces éléments suggèrent un impact clinique réel sur l’accès à la connaissance en consultation, la qualité des échanges avec les patients et, plus largement, sur la réduction des inégalités d’accès à l’expertise médicale, particulièrement dans les zones sous-dotées en médecins.
Vous travaillez aussi sur le bon usage de l’IA. Pourquoi ?
L’enjeu réside désormais dans la formation des médecins au prompting. Ils ont aujourd’hui le réflexe du moteur de recherche, basé sur des mots-clés. Or, il ne s’agit plus de « chercher », mais de « questionner », en formulant des requêtes contextualisées et précises. C’est pourquoi nous avons développé un guide pour accompagner l’intégration de l’IA dans la pratique clinique, incluant notamment des recommandations pour apprendre à bien formuler ses requêtes. En instaurant dès le départ les bons réflexes, on limite les mésusages et leurs risques pour les patients. Cette approche s’inscrit dans une démarche globale de sécurité, incluant la conformité au RGPD, la certification HDS et le respect de l’AI Act européen, avec l’objectif d’obtenir, à terme, une certification en tant que dispositif médical. Concernant les limites actuelles du Chatbot Médical IA : comme précisé, lorsqu’il ne dispose pas de suffisamment d’informations, le système l’indique clairement. C’est un garde-fou essentiel, mais nous travaillons à mieux accompagner le raisonnement dans ces zones d’incertitude, toujours dans une logique fondée sur la preuve.
Le mot de la fin ?
PulseLife s’inscrit dans un environnement fortement régulé et vise à établir un standard de sécurité pour l’IA en santé. L’Europe, avec l’AI Act, impose un cadre exigeant qui protège les patients – cadre d’ailleurs parfois contesté, notamment par OpenEvidence. Nous avons fait le choix d’intégrer ces exigences dès le départ, au prix de cycles de développement plus longs, mais avec un niveau de robustesse largement supérieur à de nombreuses solutions extra-européennes. Avec plus de dix ans d’expertise, 876 000 utilisateurs et des partenariats avec les plus grands acteurs hospitaliers et scientifiques, nous affichons clairement notre ambition de bâtir un leader européen de l’IA médicale de confiance, capable de s’imposer par son exigence de sécurité autant que par son impact clinique.
> Plus d'informations sur le site de PulseLife
Dr Grégoire Pigné : PulseLife est une entreprise à mission dont l’objectif est de rendre l’excellence des soins accessible à tous. Face à l’explosion des connaissances médicales, désormais impossibles à maîtriser individuellement, nous avons d’abord développé un moteur de recherche médical, avant d’intégrer les modèles de langage (LLM) pour proposer une IA dédiée aux professionnels de santé, capable de fournir des réponses précises, fiables et contextualisées. Notre baromètre réalisé en novembre 2025 montre que 62 % des médecins utilisent déjà une IA générative, mais que 94 % se déclarent insatisfaits des outils généralistes, dont les réponses sont jugées inexactes ou incomplètes. Cela confirme une réalité : en l’état, ces outils ne répondent pas aux exigences de la pratique médicale.
Pourquoi les IA généralistes posent-elles problème en médecine ?
En médecine, le principe fondamental reste le primum non nocere : d’abord, ne pas nuire. Or les IA généralistes présentent des limites structurelles. Elles peuvent produire des hallucinations, souvent crédibles car formulées avec assurance, mais erronées. Ces systèmes sont en effet conçus pour générer du texte plausible, non pour garantir la véracité. Ils reposent aussi sur des données issues du web grand public, incluant des sources peu fiables, sans traçabilité claire. Enfin, les IA généralistes ne prennent pas en compte les spécificités locales, alors que les recommandations, les pratiques et l’épidémiologie varient selon les pays. Une IA utile en santé doit au contraire s’appuyer sur des données souveraines et contextualisées.
Est-ce pour répondre à ces limites que vous avez conçu le Chatbot Médical IA ?
Oui. Nous avons volontairement pris le temps de construire une solution centrée sur la sécurité et la fiabilité. Notre approche vise à réduire au maximum les hallucinations, à garantir des données médicales à jour et à assurer une transparence totale. Aujourd’hui, notre assistant médical tend vers un niveau d’hallucination proche de zéro, même si nous restons prudents dans nos affirmations car les tests en conditions réelles sont toujours en cours. Nous avons également construit une base souveraine de plus de cinq millions de contenus issus de sources scientifiques et institutionnelles, mise à jour en continu et supervisée par un comité scientifique. Ainsi, chaque réponse est entièrement traçable, sourcée et explicable. Lorsque l’information manque, Chatbot Médical IA le reconnaît explicitement. Lorsque la littérature est divergente, il restitue les nuances.
Vous avez également intégré des barrières de sécurité clinique. Lesquelles ?
La validation a été menée à plusieurs niveaux. Le Chatbot Médical IA a été testé sur les Épreuves classantes nationales, avec des performances parmi les 2 % des meilleurs étudiants en médecine en France. Plus de 500 réponses ont également été validées par des experts médicaux. Enfin, nous avons conduit des évaluations en conditions réelles avec l’AP-HP et les Hospices Civils de Lyon afin de mesurer l’impact sur les pratiques cliniques. Ces démarches permettent d’inscrire la solution dans une logique de sécurité et d’utilité clinique.
Quels usages des soignants depuis le lancement fin 2025 ?
La solution rassemble déjà plus de 200 000 utilisateurs par mois. Sur 80 000 prompts analysés, 100 % des réponses étaient sourcées, datées et argumentées. Dans 22 % des cas, un garde-fou s’est activé, et environ 12 % ont conduit à une réponse de type « je ne sais pas », traduisant une prudence assumée. Autre élément important : aucune donnée patient identifiante n’a été détectée, confirmant la robustesse de notre système de filtrage automatique. Côté usage, les médecins utilisent le Chatbot Médical IA en moyenne quatre fois par semaine, et 75 % des échanges durent moins de deux minutes. Plus précisément, 51 % des requêtes portent sur la prise en charge, 40 % sur le diagnostic, et 17 % touchent aux grandes priorités de santé publique. Ces éléments suggèrent un impact clinique réel sur l’accès à la connaissance en consultation, la qualité des échanges avec les patients et, plus largement, sur la réduction des inégalités d’accès à l’expertise médicale, particulièrement dans les zones sous-dotées en médecins.
Vous travaillez aussi sur le bon usage de l’IA. Pourquoi ?
L’enjeu réside désormais dans la formation des médecins au prompting. Ils ont aujourd’hui le réflexe du moteur de recherche, basé sur des mots-clés. Or, il ne s’agit plus de « chercher », mais de « questionner », en formulant des requêtes contextualisées et précises. C’est pourquoi nous avons développé un guide pour accompagner l’intégration de l’IA dans la pratique clinique, incluant notamment des recommandations pour apprendre à bien formuler ses requêtes. En instaurant dès le départ les bons réflexes, on limite les mésusages et leurs risques pour les patients. Cette approche s’inscrit dans une démarche globale de sécurité, incluant la conformité au RGPD, la certification HDS et le respect de l’AI Act européen, avec l’objectif d’obtenir, à terme, une certification en tant que dispositif médical. Concernant les limites actuelles du Chatbot Médical IA : comme précisé, lorsqu’il ne dispose pas de suffisamment d’informations, le système l’indique clairement. C’est un garde-fou essentiel, mais nous travaillons à mieux accompagner le raisonnement dans ces zones d’incertitude, toujours dans une logique fondée sur la preuve.
Le mot de la fin ?
PulseLife s’inscrit dans un environnement fortement régulé et vise à établir un standard de sécurité pour l’IA en santé. L’Europe, avec l’AI Act, impose un cadre exigeant qui protège les patients – cadre d’ailleurs parfois contesté, notamment par OpenEvidence. Nous avons fait le choix d’intégrer ces exigences dès le départ, au prix de cycles de développement plus longs, mais avec un niveau de robustesse largement supérieur à de nombreuses solutions extra-européennes. Avec plus de dix ans d’expertise, 876 000 utilisateurs et des partenariats avec les plus grands acteurs hospitaliers et scientifiques, nous affichons clairement notre ambition de bâtir un leader européen de l’IA médicale de confiance, capable de s’imposer par son exigence de sécurité autant que par son impact clinique.
> Plus d'informations sur le site de PulseLife
Les interventions à ne pas manquer sur SantExpo 2026
• Mardi 19 mai
> 10h00 (Agora 360) – IA : fin des médecins ou médecins augmentés.
Conférence d’ouverture PulseLife. Avec le Dr Grégoire Pigné et le Pr Vincent Vuiblet, modération Frédéric Collet.
> 14h00 (Stand N56 PulseLife) – L’IA comme solution à la soutenabilité des systèmes de santé.
Avec Yann-Maël Le Douarin (DGOS) et Frédéric Collet.
> 16h00 (Stand N56 PulseLife) – IA : de la promesse à l’usage terrain.
Avec le Pr Antoine Tesnière (Paris Santé Campus) et Clotilde Petit (PulseLife).
• Mercredi 20 mai
> 10h00 (Stand N56 PulseLife) – IA et aide à la décision médicale : l’efficience à l’épreuve de la souveraineté.
Avec Sandra Malak (DNS) et Yann Bubien (ARS PACA), modération Clotilde Petit (PulseLife).
> 14h00 (Stand N56 PulseLife) – Innovation à l’hôpital : évangélisation de l’IA dans les hôpitaux.
Avec Pierre Yves Brossard (AP-HP) et Yannick Neuder (ancien ministre de la Santé).
• Mardi 19 mai
> 10h00 (Agora 360) – IA : fin des médecins ou médecins augmentés.
Conférence d’ouverture PulseLife. Avec le Dr Grégoire Pigné et le Pr Vincent Vuiblet, modération Frédéric Collet.
> 14h00 (Stand N56 PulseLife) – L’IA comme solution à la soutenabilité des systèmes de santé.
Avec Yann-Maël Le Douarin (DGOS) et Frédéric Collet.
> 16h00 (Stand N56 PulseLife) – IA : de la promesse à l’usage terrain.
Avec le Pr Antoine Tesnière (Paris Santé Campus) et Clotilde Petit (PulseLife).
• Mercredi 20 mai
> 10h00 (Stand N56 PulseLife) – IA et aide à la décision médicale : l’efficience à l’épreuve de la souveraineté.
Avec Sandra Malak (DNS) et Yann Bubien (ARS PACA), modération Clotilde Petit (PulseLife).
> 14h00 (Stand N56 PulseLife) – Innovation à l’hôpital : évangélisation de l’IA dans les hôpitaux.
Avec Pierre Yves Brossard (AP-HP) et Yannick Neuder (ancien ministre de la Santé).
> Article paru dans Hospitalia #73, édition de mai 2026, à lire ici