Selon l’entreprise, plus de 40 millions de personnes posent chaque jour à ChatGPT une question liée à la santé, ce qui représente plus de 5 % de tous les messages mondiaux sur la plateforme. D’un point de vue commercial, il est donc logique de se tourner vers la santé. Mais qu’en est-il du point de vue des patients ? « Je n’ai pas été surprise d’apprendre cette nouvelle », déclare le Dr Danielle Bitterman, radio-oncologue et responsable clinique de la science des données et de l’IA chez Mass General Brigham Digital. « Je pense que cela répond à un besoin non satisfait des gens en matière de soins de santé. Il est difficile d’obtenir un rendez-vous chez le médecin, il est aujourd’hui difficile de trouver des informations médicales et, malheureusement, il existe une certaine méfiance à l’égard du système médical. »
Nous avons demandé à des experts s’il était judicieux de confier ses données de santé à un outil d’IA.
Qu’est-ce que ChatGPT Santé ?
Cette nouvelle fonctionnalité sera une plateforme où les utilisateurs pourront télécharger leurs dossiers médicaux, y compris les résultats d’analyses, les résumés de consultations et les antécédents cliniques. Ainsi, lorsque vous poserez des questions au bot, celles-ci seront « fondées sur les informations que vous aurez connectées », a déclaré OpenAI dans son communiqué. La société suggère de poser des questions telles que : « Quelle est l’évolution de mon taux de cholestérol ? » « Peux-tu résumer mes derniers résultats d’analyses sanguines avant mon rendez-vous ? » « Donne-moi un résumé de mon état de santé général. » Ou encore : « J’ai mon examen médical annuel demain. De quoi devrais-je parler à mon médecin ? »
Les utilisateurs peuvent également connecter ChatGPT à Apple Santé, afin que l’outil d’IA ait accès à des données telles que le nombre de pas par jour, la durée du sommeil et le nombre de calories brûlées pendant une séance d’entraînement.
Une autre nouveauté est la possibilité de synchroniser les données de Function, une société qui teste plus de 160 marqueurs sanguins, afin que ChatGPT ait accès aux résultats de laboratoire ainsi qu’aux recommandations de santé des cliniciens. Les utilisateurs peuvent également connecter MyFitnessPal pour obtenir des conseils nutritionnels et des recettes, et Weight Watchers pour des idées de repas et des recettes adaptées aux personnes sous traitement GLP-1.
OpenAI, qui dispose d’un accord de licence et de technologie lui permettant d’accéder aux archives de TIME, précise que Health est conçu pour soutenir les soins de santé, et non pour les remplacer, et n’est pas destiné à être utilisé à des fins de diagnostic ou de traitement. L’entreprise affirme avoir passé deux ans à travailler avec plus de 260 médecins de dizaines de spécialités différentes pour définir les fonctionnalités de l’outil et la manière dont il répond aux utilisateurs. Cela inclut la manière dont il encourage les personnes à consulter leur médecin traitant en urgence, la capacité à communiquer clairement sans simplifier à l’excès et la priorité accordée à la sécurité lorsque les personnes sont en détresse psychologique.
Le téléchargement de vos données médicales est-il sûr ?
OpenAI s’est associé à b.well, une société d’infrastructure de connectivité des données, afin de permettre aux utilisateurs de connecter en toute sécurité leurs dossiers médicaux à l’outil. Selon l’annonce, l’onglet Santé bénéficiera d’une « confidentialité renforcée », avec notamment un historique de chat et une fonctionnalité de mémoire distincts des autres onglets. OpenAI a également indiqué que « les conversations dans l’onglet Santé ne sont pas utilisées pour entraîner nos modèles de base » et que les informations de santé ne seront pas transmises aux chats non liés à la santé. De plus, les utilisateurs peuvent « consulter ou supprimer les souvenirs de santé à tout moment ».
Certains experts appellent toutefois à la prudence. « L’approche la plus prudente consiste à partir du principe que toute information que vous téléchargez dans ces outils, ou toute information susceptible de se trouver dans des applications que vous liez à ces outils, ne sera plus privée », explique Mme Bitterman. Aucun organisme ne réglemente les informations de santé fournies aux chatbots IA, et ChatGPT fournit des services technologiques qui ne relèvent pas du champ d’application de la loi HIPAA. « Il s’agit à ce stade d’un accord contractuel entre l’individu et OpenAI », explique Bradley Malin, professeur d’informatique biomédicale au centre médical de l’université Vanderbilt. « Si vous fournissez des données directement à une entreprise technologique qui ne fournit aucun service de santé, c’est à vous qu’il incombe de faire preuve de prudence. » En cas de violation des données, les utilisateurs de ChatGPT n’auraient aucun droit spécifique en vertu de la loi HIPAA, ajoute-t-il, bien qu’il soit possible que la Commission fédérale du commerce intervienne en votre nom ou que vous puissiez poursuivre directement l’entreprise en justice. Alors que les informations médicales et l’IA commencent à se croiser, les implications sont pour l’instant floues. « Lorsque vous consultez votre prestataire de soins de santé et que vous interagissez avec lui, il existe un accord professionnel selon lequel il s’engage à préserver la confidentialité de ces informations, mais ce n’est pas le cas ici », explique Bradley Malin. « Vous ne savez pas exactement ce qu’ils vont faire de vos données. Ils disent qu’ils vont les protéger, mais qu’est-ce que cela signifie exactement ? »
Interrogée le 8 janvier, OpenAI a renvoyé TIME vers un message publié sur X par Dane Stuckey, directeur de la sécurité informatique. « Les conversations et les fichiers dans ChatGPT sont cryptés par défaut au repos et en transit dans le cadre de notre architecture de sécurité de base », a-t-il écrit. « Pour Health, nous avons ajouté à cette base des protections supplémentaires à plusieurs niveaux. Cela comprend une couche de cryptage supplémentaire, une isolation renforcée et une segmentation des données. » Il a ajouté que les changements apportés par l’entreprise « vous donnent un contrôle maximal sur la manière dont vos données sont utilisées et consultées ».
La question à laquelle chaque utilisateur doit répondre est de savoir « si vous faites confiance à OpenAI pour tenir sa parole », explique le Dr Robert Wachter, président du département de médecine de l’université de Californie à San Francisco et auteur de A Giant Leap: How AI Is Transforming Healthcare and What That Means for Our Future (Un bond en avant : comment l’IA transforme les soins de santé et ce que cela signifie pour notre avenir). Fait-il confiance à OpenAI ? « En quelque sorte, oui, en partie parce que l’entreprise a tout intérêt à ne pas se planter », répond-il. « Si elle veut se lancer dans des domaines sensibles comme la santé, sa marque dépendra de votre sentiment de confort à cet égard, et dès la première violation de données, vous direz : “Retirez mes données de là, je ne les partagerai plus avec vous.” »
M. Wachter explique que si ses dossiers contenaient des informations qui pourraient lui nuire si elles étaient divulguées, comme des antécédents de consommation de drogue, par exemple, il hésiterait à les télécharger sur ChatGPT. « Je serais un peu prudent », dit-il.
« Tout le monde aura un avis différent à ce sujet, et avec le temps, à mesure que les gens se sentiront plus à l’aise, si vous pensez que ce que vous en retirez est utile, je pense que les gens seront tout à fait disposés à partager des informations. »
Le risque d’informations erronées
Au-delà des préoccupations liées à la confidentialité, l’utilisation de chatbots basés sur des modèles linguistiques à grande échelle pour les informations de santé comporte des risques connus. Danielle Bitterman a récemment co-rédigé une étude qui a révélé que les modèles sont conçus pour privilégier l’utilité plutôt que la précision médicale, et pour toujours fournir une réponse, en particulier une réponse susceptible d’intéresser l’utilisateur. Dans une expérience, par exemple, des modèles qui avaient été entraînés à savoir que l’acétaminophène et le Tylenol sont le même médicament ont tout de même produit des informations inexactes lorsqu’on leur a demandé pourquoi l’un était plus sûr que l’autre. « Le seuil d’équilibre entre l’utilité et l’exactitude penche davantage du côté de l’utilité », explique le Dr Bitterman. « Mais en médecine, nous devons privilégier l’exactitude, même si cela se fait au détriment de l’utilité. »
De plus, plusieurs études suggèrent que si des informations manquent dans vos dossiers médicaux, les modèles sont plus susceptibles de produire des résultats incorrects ou trompeurs. Selon un rapport sur le soutien à l’IA dans les soins de santé publié par le National Institute of Standards and Technology, la qualité et l’exhaustivité des données de santé fournies par un utilisateur à un chatbot déterminent directement la qualité des résultats générés par ce dernier ; des données médiocres ou incomplètes conduisent à des résultats inexacts et peu fiables. Le rapport souligne que certaines caractéristiques communes contribuent à améliorer la qualité des données : des informations correctes, factuelles, complètes et cohérentes, sans données obsolètes ou trompeuses.
Aux États-Unis, « nous recevons nos soins de santé de différents endroits, et ceux-ci sont fragmentés dans le temps, de sorte que la plupart de nos dossiers médicaux ne sont pas complets », explique Mme Bitterman. Cela augmente le risque de voir apparaître des erreurs lorsque le chatbot essaie de deviner ce qui s’est passé dans les domaines où il y a des lacunes, ajoute-t-elle.
La meilleure façon d’utiliser ChatGPT Santé
Dans l’ensemble, M. Wachter considère ChatGPT Santé comme une avancée par rapport à la version actuelle. Les gens utilisaient déjà le bot pour des questions de santé. Alors, en lui fournissant plus de contexte via leurs dossiers médicaux, comme des antécédents de diabète ou de caillots sanguins, il estime qu’ils recevront des réponses plus utiles. « Je pense que ce que vous obtiendrez aujourd’hui est meilleur que ce que vous obteniez auparavant si toutes vos informations générales y figuraient », dit-il. « Connaître ce contexte serait utile. Mais je pense que les outils eux-mêmes devront s’améliorer avec le temps et être un peu plus interactifs qu’ils ne le sont actuellement. »
Lorsque le Dr Adam Rodman, interne généraliste au Beth Israel Deaconess Medical Center, où il dirige le groupe de travail sur l’intégration de l’IA dans le programme d’études de la faculté de médecine, et professeur adjoint à la Harvard Medical School, a regardé la vidéo de présentation de ChatGPT Santé, il a été satisfait de ce qu’il a vu. « Je l’ai trouvé plutôt bon. Il mettait vraiment l’accent sur son utilisation pour mieux comprendre votre santé, non pas comme un substitut, mais comme un moyen de l’améliorer. » Comme les gens utilisaient déjà ChatGPT pour des tâches telles que l’analyse des résultats de laboratoire, la nouvelle fonctionnalité rendra simplement cette tâche plus facile et plus pratique, explique-t-il. « Je pense que cela reflète davantage ce à quoi ressembleront les soins de santé en 2026 plutôt qu’une fonctionnalité révolutionnaire », dit-il. « C’est la réalité de l’évolution des soins de santé. »
M. Rodman conseille ses patients sur la meilleure façon d’utiliser les outils d’IA en les incitant à éviter les questions relatives à la gestion de la santé, comme demander au bot de choisir le meilleur programme de traitement. « Ne lui demandez pas de prendre des décisions médicales de manière autonome », dit-il. Mais il est tout à fait acceptable de demander si votre médecin pourrait avoir manqué quelque chose, ou d’explorer des questions « à faible risque » comme les régimes alimentaires et les programmes d’exercice physique, ou l’interprétation des données sur le sommeil.
L’une des utilisations préférées de Danielle Bitterman consiste à demander à ChatGPT de l’aider à réfléchir à des questions avant un rendez-vous chez le médecin. Selon elle, il est judicieux de compléter ainsi les soins existants, avec un avantage évident : « Vous n’avez pas nécessairement besoin de télécharger votre dossier médical. »
- Article issu de TIME US - Traduction TIME France





