Avec des centaines de millions de personnes qui se tournent vers les chatbots pour obtenir des conseils, il n’était qu’une question de temps avant que les entreprises technologiques ne lancent des programmes spécialement conçus pour répondre à des questions de santé. En janvier, OpenAI a présenté ChatGPT Health, une version de son chatbot qui, selon la société, peut analyser les dossiers médicaux des utilisateurs, les applications de bien-être et les données issues d’appareils portables pour répondre à des questions de santé et médicales. Actuellement, il y a une liste d’attente pour ce programme. Anthropic, une société concurrente spécialisée en intelligence artificielle (IA), propose des fonctionnalités similaires pour certains utilisateurs de son chatbot Claude.
Les deux entreprises affirment que leurs programmes, connus sous le nom de grands modèles de langage, ne remplacent pas une prise en charge professionnelle et ne doivent pas être utilisés pour diagnostiquer des conditions médicales. Elles soutiennent plutôt que les chatbots peuvent résumer et expliquer des résultats de tests complexes, aider à préparer une consultation chez le médecin ou analyser des tendances importantes de santé cachées dans les dossiers médicaux et les indicateurs d’applications.
Les chatbots peuvent offrir des informations plus personnalisées qu’une recherche Google
Certains médecins et chercheurs ayant travaillé avec ChatGPT Health et des programmes similaires estiment qu’ils représentent une amélioration par rapport au statu quo. Les plateformes d’IA ne sont pas parfaites — elles peuvent parfois produire des “hallucinations” ou donner des conseils inappropriés —, mais les informations qu’elles fournissent ont plus de chances d’être personnalisées et spécifiques que ce que les patients pourraient trouver par une recherche sur Internet. « L’alternative est souvent rien, ou que le patient improvise », explique Robert Wachter, médecin et expert en technologies médicales à l’Université de Californie à San Francisco. « Et je pense que, si vous utilisez ces outils de manière responsable, vous pouvez obtenir des informations utiles. »
Un avantage des chatbots les plus récents est qu’ils répondent aux questions des utilisateurs en les resituant dans le contexte de leur histoire médicale, y compris les ordonnances, l’âge et les notes du médecin. Même si une personne n’a pas donné aux IA l’accès à ses informations médicales, Wachter et d’autres affirment que fournir aux chatbots autant de détails que possible améliore les réponses.
L’IA n’est pas destinée aux urgences médicales
Wachter et d’autres ont souligné qu’il existe des situations dans lesquelles les personnes devraient privilégier l’appel à un médecin et non au chatbot. Des symptômes tels que des difficultés à respirer, une douleur thoracique ou un mal de tête intense pourraient signaler une urgence médicale. Même dans des situations moins urgentes, les patients et les médecins devraient aborder les programmes d’IA avec « un degré de scepticisme sain », estime Lloyd Minor, médecin et doyen de la faculté de médecine de Stanford. « Si vous discutez d’une décision médicale majeure, ou même d’une décision sanitaire plus modeste, vous ne devriez jamais vous fier uniquement à ce que vous obtenez d’un grand modèle de langage », déclare Minor.
Chatbots médicaux et préoccupations en matière de confidentialité
Les nombreux avantages offerts par les IA reposent sur le partage d’informations médicales personnelles par les utilisateurs. Mais tout ce qui est partagé avec une société d’IA n’est pas protégé par la loi fédérale sur la confidentialité qui régit les informations médicales sensibles — la Health Insurance Portability and Accountability Act (HIPAA) de 1996. HIPAA prévoit des amendes et même des peines de prison pour les médecins, hôpitaux, assureurs ou autres services de santé qui divulguent des dossiers médicaux. Mais la loi ne s’applique pas aux entreprises qui conçoivent des chatbots.
« Lorsque quelqu’un téléverse son dossier médical dans un grand modèle de langage, cela diffère fortement de le remettre à un nouveau médecin », explique Minor. « Les consommateurs doivent comprendre qu’il s’agit de normes de confidentialité complètement différentes. » OpenAI et Anthropic disent toutes deux que les informations de santé des utilisateurs sont séparées des autres types de données et bénéficient de protections de confidentialité supplémentaires. Les sociétés n’utilisent pas les données de santé pour entraîner leurs modèles. Les utilisateurs doivent accepter de partager leurs informations et peuvent se déconnecter à tout moment.
Les tests montrent que les chatbots peuvent trébucher
Malgré l’euphorie entourant l’IA, les tests indépendants de la technologie en sont encore à leurs tout premiers pas. Des études préliminaires suggèrent que des programmes comme ChatGPT peuvent réussir des examens médicaux de haut niveau, mais se montrent souvent décevants lors d’interactions avec des humains. Une étude conduite à l’Université d’Oxford et regroupant 1 300 participants a récemment montré que des personnes utilisant des chatbots IA pour étudier des conditions de santé hypothétiques ne prenaient pas de meilleures décisions que celles qui se fiaient à des recherches en ligne ou à leur jugement personnel. Les chatbots IA, présentés à des scénarios médicaux sous une forme écrite et complète, identifiaient correctement la maladie sous-jacente 95 % du temps. « Ce n’était pas le problème », explique le co-auteur principal Adam Mahdi, docteur en philosophie, de l’Oxford Internet Institute. « L’étape où les choses échouaient, c’était lors de l’interaction avec les participants réels. » Mahdi et son équipe ont constaté plusieurs problèmes de communication. Les personnes ne donnaient souvent pas aux chatbots les informations nécessaires pour identifier correctement le problème de santé. À l’inverse, les systèmes IA répondaient souvent avec un mélange de bonnes et de mauvaises informations, et les utilisateurs avaient du mal à distinguer les deux. L’étude, menée en 2024, n’utilisait pas les dernières versions de chatbots, y compris des offres comme ChatGPT Health.
Une seconde opinion IA peut être utile
La capacité des chatbots à poser des questions de suivi et à obtenir des détails clés auprès des utilisateurs est une axe où Wachter voit du potentiel d’amélioration. « Je pense que ce sera vraiment efficace lorsque les outils deviendront un peu plus « docteur-like » dans leurs échanges avec les patients », déclare Wachter. Consulter plusieurs chatbots — semblable à solliciter une seconde opinion chez un autre médecin — peut donner aux utilisateurs davantage confiance dans les informations fournies. « Parfois, je saisis des informations dans ChatGPT et d’autres fois dans Gemini », dit-il, faisant référence à l’outil IA de Google. « Et quand ils se mettent d’accord, je me sens un peu plus assuré que c’est la bonne réponse. »