Faute de médecin ou de temps, vous ouvrez ChatGPT et vous cherchez une réponse rapide à vos symptômes ? Une étude indépendante montre pourtant que ChatGPT santé peut sous-estimer une urgence vitale une fois sur deux. Elle fait donc une recommandation rassurante, mais erronée, qui peut retarder la prise en charge et mettre en danger.
Ce qu'il faut retenir :
- Une étude indépendante (Nature Medicine) montre que ChatGPT Santé sous-estime 52 % des urgences vitales, pouvant rassurer à tort et retarder une prise en charge (ex. détresse respiratoire, acidocétose diabétique).
- L'outil peut repérer des signaux graves puis conseiller d’attendre, et il est fortement influencé par le contexte. Il sur-oriente aussi vers les urgences dans des cas non graves.
- Les alertes en santé mentale peuvent se déclencher à contresens (disparaissent selon des détails), alors que l’outil est déjà utilisé à grande échelle, ce qui pose des questions de sécurité, de validation externe et de responsabilité.
Peut-on remplacer son médecin par ChatGPT ?
Depuis le lancement de ChatGPT et l’arrivée d’un espace dédié à la santé numérique, beaucoup ont pris l’habitude d’utiliser ChatGPT comme un moteur de recherche conversationnel : on pose une question, on décrit une douleur, on envoie une photo ou une image, parfois un fichier (compte-rendu, examen, résultats biologiques), et l’assistant répond dans un langage naturel, avec une analyse structurée.
OpenAI présente pourtant ChatGPT Santé comme un outil utile “conçu pour la santé et le bienêtre”, tout en précisant qu’il n’est “pas destiné au diagnostic médical ni au traitement”. Cette formulation crée une zone grise : pour le grand public, recevoir un triage (“allez aux urgences” vs “attendez”) ressemble exactement à un avis médical professionnel.
C’est là que commence le risque : la qualité perçue de l’écriture médicale, la confiance inspirée par l’intelligence artificielle et le côté personnalisée de la conversation peuvent faire oublier qu’un modèle de langage n’est ni un professionnel de santé qualifié, ni un dispositif clinique certifié, ni un système de médecine fondé sur l’intelligence humaine au lit du malade.
L’étude Nature Medicine ou pourquoi l'IA peut vous mettre en danger
Le signal d’alarme vient d’une étude publiée le 23 février dans Nature Medicine (revue de littérature scientifique de référence). Des chercheurs de l’Icahn School of Medicine at Mount Sinai (New York) ont réalisé la première évaluation indépendante de sécurité de “ChatGPT Health”.
Le protocole est impressionnant : 60 scénarios cliniques couvrant 21 spécialités, testés sous 16 variations de contexte (genre, ethnie, proche qui minimise, absence d’assurance, etc.). Au total, 960 interactions, comparées au consensus de trois médecins s’appuyant sur des référentiels de 56 sociétés savantes. On n’est donc pas dans un simple commentaire d’utilisateur sur les réseaux sociaux : c’est une démarche scientifique avec des comparaisons explicites à une base de recommandations.
Le résultat est brutal : parmi les cas considérés comme une urgence vitale par les médecins, ChatGPT Santé a sous-estimé la gravité de 52 % des cas. Autrement dit : une chance sur deux que l’outil rassure là où il faut agir maintenant.
ChatGPT peut retader la prise en charge
Dans l’étude, des situations comme l’acidocétose diabétique et la détresse respiratoire imminente étaient renvoyées vers une consultation à 24–48 heures. C’est exactement le type d’erreur qui peut tuer : pas parce que l’IA “n’a rien dit”, mais parce qu’elle a dit quelque chose de plausible, de calme, de structuré — donc “fiable” en apparence.
Le plus inquiétant, c’est que le système peut repérer des signaux graves dans son explication, puis conclure à tort qu’on peut attendre. Cette dangerosité tient au style : une réponse peut être cohérente, nuancée, et pourtant fausse dans la conclusion opérationnelle (le triage). Ce sont des réponses peu fiables là où la précision est non négociable.
En santé, l’erreur la plus coûteuse n’est pas toujours le mauvais diagnostic “académique”, c’est la mauvaise prise de décision (“je consulte tout de suite” vs “j’attends”). Et un chatbot, même performant aux QCM, peut échouer sur ce point.
L’IA voit le danger et le désamorce
Un passage de l’étude est particulièrement révélateur : sur un scénario d’asthme sévère, ChatGPT Santé identifie les signaux d’insuffisance respiratoire débutante, mais recommande malgré tout d’attendre. Cette contradiction interne montre une limite typique des grands modèles de langage : ils peuvent générer une explication médicale “vraisemblable” sans garantir que la conclusion respecte le niveau de risque.
Ce n’est pas un simple problème de connaissance médicale. C’est une limite de fiabilité : un LLM peut être excellent en reformulation et médiocre en arbitrage clinique, surtout quand il manque d’informations, de signes vitaux, d’auscultation, d’accès au dossier médical, et de responsabilité médicale.
L’effet du “proche minimisant” : un biais social qui change tout
Autre résultat marquant : quand un proche simulé minimise la gravité, la probabilité que l’IA réduise l’urgence est multipliée par près de douze (OR 11,7). En clair, l’outil devient plus permissif si le contexte “social” pousse à relativiser.
C’est un vrai problème de sécurité : une machine supposée neutre se laisse influencer par le contexte narratif. Dans la vraie vie, cette situation est fréquente : parent qui dit “tu exagères”, conjoint qui rassure, collègue qui conseille d’attendre. Si le chatbot s’aligne sur cette dynamique, il peut retarder une consultation qui aurait dû être immédiate.
L’autre face : l'IA peut envoyer trop de gens aux urgences
L’étude note aussi un sur-triage : 64,8 % des cas non urgents envoyés aux urgences à tort. On pourrait croire que “dans le doute, mieux vaut trop envoyer”. Mais à grande échelle — millions d’utilisations — cela surcharge le système de santé, accentue les délais, et augmente la probabilité que de vrais urgents attendent plus longtemps. Le triage n’est pas juste une opinion, c’est une fonction systémique.
Dans un pays comme la France, où l’accès aux soins varie selon les territoires, un outil qui pousse massivement vers l’urgence peut aggraver les tensions, et faire basculer l’usage vers une logique de consommation d’“aide immédiate” plutôt que de soin coordonné.
Est-il dangereux d'utiliser ChatGPT comme psy ?
Le volet le plus glaçant de l'étude concerne la santé mentale et le risque suicidaire. ChatGPT Santé est censé afficher un bandeau d’orientation vers les services prévus pour venir en aide au personnes en détresse (ex. vers 988 aux États-Unis). Or, dans l’étude, l’alerte apparaissait parfois plus quand la personne ne décrivait pas de moyen précis que quand elle détaillait un plan concret.
Pire : ajouter des résultats biologiques normaux au même scénario faisait disparaître le bandeau dans 100 % des cas. Cela signifie qu’un détail non pertinent (des “analyses de sang normales”) peut neutraliser une protection. Un garde-fou imprévisible peut être plus dangereux qu’une absence de garde-fou, parce que l’utilisateur, rassuré par la présence “habituel” d’alertes, s’attend à ce que le système réagisse au bon moment.
Pourquoi ChatGPT fait-il autant d'erreurs ?
- Manque de données cliniques : pas de tension, pas de saturation, pas d’auscultation, pas d’ECG.
- Absence d’examen physique : beaucoup de triages reposent sur des signes objectivés.
- Optimisation conversationnelle : un assistant médical peut chercher à être utile, rassurant, “accueillant”.
- Variabilité du contexte : genre, langue, formulation, et même la présence d’un proche changent la sortie.
- Temps réel : l’outil n’a pas d’accès sûr aux changements d’état minute par minute (détresse qui s’aggrave).
- Le modèle probabiliste : un LLM prédit du texte ; il ne “comprend” pas au sens clinique.
- Absence de responsabilité : le système n’est pas dans le même cadre que les professionnels de santé.
Pourquoi les gens utilisent ChatGPT comme médecin ?
L’attrait est évident : gratuit (ou peu cher selon le prix et le plan), disponible 24/7, pas besoin de connecter à un cabinet, pas d’attente. On ouvre une fenêtre, parfois une “ouverture dans une nouvelle” page, on tape un message, et on obtient une synthèse.
Mais cette expérience “personnelle” n’est pas une consultation. Une consultation médicale implique : interrogatoire, examen, hypothèses, stratégie, et surtout filet de précaution. Un chatbot donne un contenu ; un médecin engage une responsabilité, documente, suit un dossier, et coordonne.
En France, les déserts médicaux poussent de plus de gens à pratiquer l'automédication ou à s'en remettre à l'IA.
Existe-t-il un danger à donner ses données de santé à l'IA ?
Au-delà de l’erreur clinique, il y a le risque lié à la donnée. Beaucoup de personnes partagent :
- nom, âge, mail, localisation,
- résultats d’analyses, comptes rendus, dossier médical, dossiers médicaux,
- photos de peau, lésions (photo, image),
- préférences, habitudes, informations intimes.
Ces données sont des données de santé (health data / health data). Leur confidentialité et leur protection des données doivent être au niveau maximal. En Europe, cela touche le règlement général / général sur la protection (RGPD), la norme HDS et la commission européenne. Selon l’usage, l’historique de conversation, les réglages de préférence, et la politique de traitement des données, vous pouvez exposer des informations sensibles à des finalités que vous ne maîtrisez pas.
Même sans mauvaise intention, une fuite, une mauvaise mise en œuvre, ou un accès non autorisé peuvent entraîner des risques réels (assurance, emploi, réputation). La question n’est pas seulement “le diagnostic est-il bon ?” mais “qu’est-ce que je viens de donner comme information médicale ?”.
Alors, faut-il bannir ChatGPT en santé ?
Non : correctement utilisé, cela peut aider. Un Chatbot peut :
- expliquer un terme d’ordonnance,
- aider à apprendre des notions,
- préparer une liste de questions pour un rendez-vous,
- vulgariser une recommandation,
- orienter vers des ressources fiables.
Mais il ne remplace pas un professionnel, et ne doit pas décider d’un triage critique.
Bonnes pratiques : comment utiliser ChatGPT sans se mettre en danger ?
Voici un cadre simple, tenant compte des limites observées :
- En cas de signes graves, ne demandez pas un avis au chatbot : appelez le 15. Exemples : douleur thoracique, essoufflement, faiblesse d’un côté, confusion, lèvres bleues, réaction allergique sévère, idées suicidaires, etc.
- Utilisez-le comme outil de préparation : “Quelles questions poser au médecin ?”, “Que signifie ce résultat ?”
- Ne partagez pas de données identifiantes : pas de nom, pas d’adresse, pas de numéros, pas de photos reconnaissables.
- Vérifiez avec un professionnel de santé : “consulter un professionnel” reste la règle quand c’est médicalement sérieux.
- Demandez des sources : recommandations, sociétés savantes, dates, et comparez.
- Méfiez-vous du ton rassurant : une réponse fluide n’est pas une preuve de fiabilité.
- Gardez une trace : notez vos symptômes, leur évolution dans le temps, et ce que vous avez déjà pris.

