ChatGPT Health, la santé comme nouveau terrain de jeu stratégique d’OpenAI
OpenAI lance ChatGPT Health et affirme que 230 millions de personnes posent des questions santé chaque semaine. L’enjeu dépasse la simple fonction : OpenAI tente de devenir une interface grand public pour des données sensibles, avec des opportunités business mais aussi des risques de fiabilité et de conformité.
ChatGPT Health, la brique openai qui isole enfin la santé
ChatGPT Health est un espace dédié aux conversations santé au sein de ChatGPT, présenté comme un onglet ou mode spécifique. OpenAI met en avant une mémoire séparée et une isolation des conversations santé par rapport au reste des usages, avec des protections additionnelles annoncées pour ces échanges sensibles ( annonce produit OpenAI ).
Dans les faits, le déploiement se fait progressivement via liste d’attente pour plusieurs offres (Free, Go, Plus et Pro), sur le web et iOS. Le lancement exclut, au départ, l’Espace économique européen (EEE), la Suisse et le Royaume-Uni, ce qui limite immédiatement les tests côté Europe.
Côté fonctionnalités, l’espace Health conserve des capacités déjà connues (téléversement de fichiers, recherche, voix) et ajoute des intégrations avec des services de suivi et de bien-être. OpenAI cite notamment Apple Health et d’autres applications liées à l’activité ou à l’alimentation, avec une promesse centrale : personnaliser les réponses à partir des données de l’utilisateur, quand celui-ci les connecte.
Point important pour les organisations : l’intégration aux dossiers médicaux électroniques et certaines connexions avancées sont annoncées comme disponibles uniquement aux États-Unis, au moins au lancement ( Fortune ).
230 millions de questions santé : signal de marché ou simple effet « WebMD » ?
OpenAI met un chiffre en avant : 230 millions de personnes posent des questions liées à la santé et au bien-être chaque semaine dans ChatGPT ( TechCrunch ). Un autre indicateur parle de plus de 40 millions de personnes qui l’utilisent quotidiennement pour des informations de santé, et les messages santé représenteraient plus de 5 % des messages totaux ( Axios ).
En pratique, ces volumes ne traduisent pas nécessairement une confiance « médicale ». Ils montrent surtout un réflexe de consommation : poser une question immédiatement, sans rendez-vous, sans barrière de temps et sans coût visible.
Un chiffre est particulièrement parlant pour les entreprises de santé : environ 70 % des conversations santé auraient lieu en dehors des horaires de consultation ( Axios ). Cela signale une demande latente de réassurance, d’orientation et d’explications, là où les canaux classiques (téléphone, messagerie patient, accueil) sont fermés.
Autre angle, plus « éco » : entre 1,6 et 1,9 million de questions liées à l’assurance santé seraient posées chaque semaine sur ChatGPT ( Axios ). Pour les mutuelles, courtiers ou startups de gestion, c’est un signal sur l’opacité persistante des parcours et du vocabulaire, et donc sur un gisement d’amélioration du support.
La logique de verticalisation : OpenAI veut devenir l’écran de la santé
ChatGPT Health s’inscrit dans une stratégie de verticalisation : après des expériences orientées éducation ou achats, OpenAI pousse une interface spécialisée pour la santé. L’objectif probable est double : augmenter la rétention via un usage fréquent, et créer un cadre « séparé » qui rassure sur la gestion des données.
Dans ce contexte, l’espace Health ouvre la voie à des services plus premium : accompagnement plus personnalisé, intégrations partenaires plus profondes, et potentiellement des offres « pro » pour des organisations, si OpenAI parvient à encadrer les risques.
OpenAI a aussi structuré une équipe dédiée, avec des recrutements ciblés côté stratégie et produit santé (selon Fortune). Cela renforce l’idée que le chantier est pensé comme une activité à part entière, pas comme un simple « prompt » optimisé.
b.well, l’acteur discret qui rend les données exploitables
Pour connecter des données de santé réelles, OpenAI s’appuie sur b.well, qui fournit une infrastructure de connectivité aux dossiers médicaux électroniques aux États-Unis. b.well revendique un accès à un large réseau de prestataires et de plans de santé, ce qui accélère le passage du « conseil général » au « conseil contextualisé», si l’utilisateur l’autorise ( communiqué b.well ).
Le point technique le plus structurant est la mise à disposition d’un kit de développement logiciel (SDK, pour « software development kit ») qui transforme des données de santé en entrées plus exploitables par un grand modèle de langage (LLM, pour « large language model »). Dit autrement : moins de plomberie, plus de vitesse d’intégration.
Toutefois, il faut distinguer deux périmètres. Globalement, ChatGPT Health est un espace de conversation santé. Mais les connexions aux dossiers médicaux via b.well relèvent d’un contexte américain, et ne se transposent pas automatiquement aux systèmes européens.
Des usages concrets pour PME, sans promettre un cabinet médical virtuel
Pour une PME du secteur santé, ou pour une équipe support et communication, la valeur se situe surtout dans la compréhension, la reformulation et l’orientation. L’objectif est d’améliorer l’expérience, pas de produire un avis clinique.
- Réécrire un compte-rendu en langage patient : bénéfice, réduire les appels de clarification et l’anxiété. Prérequis, s’appuyer sur le document fourni et garder les termes clés. Limite, validation humaine systématique avant envoi.
- Produire une foire aux questions (FAQ) et des scripts de centre d’appels : bénéfice, homogénéiser les réponses et former vite les nouveaux. Prérequis, utiliser des sources internes à jour (tarifs, consignes, parcours). Limite, exclure toute recommandation de traitement.
- Résumer des contenus médicaux pour une newsletter : bénéfice, gagner du temps sur la synthèse et l’angle pédagogique. Prérequis, citer les sources et conserver les nuances. Limite, contrôle par un référent médical ou qualité.
- Rédiger des réponses de premier niveau pour le support (non médical) : bénéfice, absorber les pics de demandes et améliorer le délai de réponse. Prérequis, bibliothèque de règles « ce qu’on peut dire». Limite, escalade vers un humain dès qu’un symptôme est mentionné.
- Préparer des questions à poser au médecin : bénéfice, aider un patient à structurer son rendez-vous. Prérequis, rester sur l’aide à la formulation, pas sur l’avis. Limite, rappeler les signes d’urgence et les circuits de soins.
- Expliquer un parcours de soin et des notions d’assurance : bénéfice, réduire les incompréhensions et les dossiers incomplets. Prérequis, référentiel interne validé. Limite, contrôler les montants, délais et exceptions.
- Produire des contenus d’éducation thérapeutique : bénéfice, rendre les conseils plus accessibles et personnalisés. Prérequis, cadre médical validé et ton non injonctif. Limite, pas de personnalisation sur données identifiantes dans l’outil grand public.
La fiabilité reste le nœud du problème : l’IA prédit, elle ne « sait » pas
OpenAI précise que ChatGPT Health n’est pas destiné au diagnostic ou au traitement, et qu’il doit « soutenir» les soins sans les remplacer ( OpenAI ). C’est cohérent avec la limite structurelle d’un grand modèle de langage : il produit la réponse la plus probable, pas la plus vraie.
Les données publiées dans la littérature montrent une variabilité forte de l’exactitude selon les scénarios. Une étude relayée par les National Institutes of Health (NIH, pour « National Institutes of Health ») souligne que la fiabilité des informations médicales produites par ChatGPT peut être très hétérogène selon le contexte ( article NIH ). D’autres travaux observent des écarts importants dans les hallucinations, c’est-à-dire des réponses plausibles mais fausses ou non sourcées ( JMIR ).
Pour les entreprises, la conséquence est opérationnelle : il faut un dispositif de validation, des règles d’escalade vers un humain, et des tests répétés sur vos cas réels. Sans cela, le gain de productivité se transforme vite en risque de réputation.
Données de santé et conformité : une zone grise à traiter comme une zone rouge
OpenAI affirme que les conversations dans Health ne sont pas utilisées pour entraîner ses modèles fondamentaux, et met en avant une isolation et un chiffrement renforcés, avec la possibilité d’activer l’authentification multifacteur (MFA, pour « multi-factor authentication ») ( OpenAI ). C’est un progrès de posture, mais ce n’est pas une carte blanche pour un usage professionnel.
Le point le plus important pour les organisations est ailleurs : ChatGPT Health, en version grand public, n’est pas conforme à la loi américaine sur la portabilité et la responsabilité de l’assurance maladie (HIPAA, pour « Health Insurance Portability and Accountability Act »), car ces applications grand public ne sont pas couvertes par ce cadre. Des analyses spécialisées rappellent donc qu’il ne faut pas y injecter d’informations de santé électroniques protégées identifiantes (ePHI, pour « electronic protected health information ») dans un contexte d’organisation ( HIPAA Journal ).
Dans ce contexte, la bonne approche côté entreprise est de cloisonner : usages sans données identifiantes, contenus génériques, reformulation, support administratif, ou environnement spécialisé avec accord de sous-traitance (BAA, pour « Business Associate Agreement ») quand il s’agit de traiter des données patients.
Le paysage réglementaire américain se durcit aussi sur la manière de présenter ces outils, avec des obligations de transparence et des interdictions de formulations laissant croire à une licence médicale de l’IA, selon des analyses juridiques récentes ( Health Law Rx ). Même si ces textes sont américains, ils donnent une direction : prudence sur les promesses marketing et traçabilité des usages.
Quand le patient arrive avec une « seconde opinion » : tensions, litiges et adaptation
Les professionnels constatent déjà que des patients utilisent ChatGPT comme une seconde opinion, sans délai d’attente. Des articles rapportent aussi une hausse d’appels liés à des suspicions d’erreur médicale après lecture de réponses de chatbot, ce qui alimente des tensions et des risques juridiques ( Business Insider ).
Pour les structures de soins et les entreprises qui gravitent autour, l’interdiction pure et simple a souvent un effet limité. Une partie des usages se fera quand même, à domicile, sur des outils personnels.
L’approche la plus robuste consiste à intégrer le phénomène : définir ce que l’outil peut faire, cadrer ce qu’il ne doit pas faire, et mettre des phrases de redirection vers les soins. Le plus important est d’outiller les équipes pour répondre calmement à un patient qui arrive avec une réponse imprimée.
Points de vigilance pour en tirer de la valeur sans s’exposer
- Démarrer par des usages non cliniques (pédagogie, parcours, administratif), puis élargir seulement avec validation.
- Mettre une validation humaine systématique sur tout contenu destiné à des patients.
- Interdire les données identifiantes et documenter des règles simples de saisie.
- Exiger des sources traçables et tester sur des scénarios réels, pas sur des démos.
- Mettre en place une escalade vers un humain dès qu’un symptôme, une urgence ou un traitement apparaît.
ChatGPT Health formalise un usage massif qui existait déjà, et OpenAI tente clairement de capter cette habitude. Pour les PME, l’intérêt est réel sur la communication et le support, là où le langage compte autant que la réponse.
Toutefois, la faisabilité dépend d’un garde-fou central : gouvernance des données, validation humaine et règles d’orientation vers un professionnel. La recommandation-action est simple : commencer petit, sur des contenus génériques à faible risque, écrire un protocole de conformité, puis n’étendre l’usage que si la qualité est auditée dans la durée.

