La prochaine fois que vous passerez un test sanguin, une radiographie, une mammographie ou une coloscopie, il y a de fortes chances qu'un algorithme d'intelligence artificielle interprète les résultats avant même que votre médecin ne les ait consultés.

En l’espace de quelques années seulement, l’IA s’est rapidement répandue dans les hôpitaux et les cliniques du monde entier. Plus de 1 000 outils d’IA liés à la santé ont été autorisés par la Food and Drug Administration (FDA) américaine, et plus de deux médecins sur trois déclarent utiliser l’IA dans une certaine mesure, selon une récente enquête menée par l’American Medical Association.
Le potentiel est extraordinaire. L’IA, en particulier sous la forme d’agents IA capables de raisonner, de s’adapter et d’agir de manière autonome, peut alléger la charge de travail des médecins en rédigeant des notes sur les patients et des résumés de dossiers, en soutenant la médecine de précision grâce à des thérapies plus ciblées et en signalant des anomalies subtiles dans les scanners et les lames que l’œil humain pourrait ne pas détecter. Elle peut accélérer la découverte de médicaments et de cibles thérapeutiques grâce à de nouveaux processus, tels que la prédiction et la conception de structures protéiques basées sur l’IA, qui ont conduit à l’attribution du prix Nobel de chimie l’année dernière. L’IA peut offrir aux patients une assistance plus rapide et plus personnalisée en planifiant les rendez-vous, en répondant aux questions et en signalant les effets secondaires. Elle peut aider à trouver des candidats pour les essais cliniques et à surveiller les données de santé en temps réel, en alertant rapidement les cliniciens et les patients afin de prévenir les complications et d’améliorer les résultats.

Cependant, le potentiel de l’IA en médecine ne se concrétisera que si elle est développée et utilisée de manière responsable.

Les algorithmes d’IA actuels sont des outils puissants qui reconnaissent des modèles, font des prédictions et prennent même des décisions. Mais ils ne ni infaillibles ni omniscients. Ils ne sont pas non plus sur le point d’égaler l’intelligence humaine, contrairement à ce que suggèrent certains évangélistes de ce qu’on appelle l’intelligence artificielle générale. Quelques études récentes reflètent les possibilités, mais aussi les pièges, en soulignant comment les outils d’IA médicale peuvent poser des diagnostics erronés et comment les compétences des médecins peuvent s’affaiblir avec l’IA.

Une équipe de l’université Duke (dont l’un d’entre nous fait partie) a testé un outil d’IA approuvé par la FDA et destiné à détecter les gonflements et les microhémorragies dans les IRM cérébrales des patients atteints de la maladie d’Alzheimer. Cet outil a amélioré la capacité des experts  radiologues à détecter ces taches subtiles dans une IRM, mais il a également déclenché de fausses alertes, confondant souvent des taches inoffensives avec quelque chose de dangereux. Nous avons conclu que cet outil était utile, mais que les radiologues devaient d’abord examiner attentivement les IRM, puis utiliser l’outil comme deuxième avis, et non l’inverse.

Ce type de conclusions ne se limite pas à l’outil que nous avons examiné. Peu d’hôpitaux évaluent de manière indépendante les outils d’IA qu’ils utilisent. Beaucoup partent du principe que, simplement parce qu’un outil a été approuvé par la FDA, il fonctionnera dans leur environnement local, ce qui n’est pas nécessairement vrai. Les outils d’IA fonctionnent différemment selon les populations de patients, et chacun présente des faiblesses qui lui sont propres. C’est pourquoi il est essentiel que les systèmes de santé fassent preuve de diligence raisonnable et procèdent à un contrôle de qualité avant de mettre en œuvre tout outil d’IA, afin de s’assurer qu’il fonctionnera dans cet environnement local, puis de former les cliniciens. En outre, les algorithmes d’IA et la manière dont les humains interagissent avec eux évoluent avec le temps, ce qui a incité l’ancien commissaire de la FDA, Robert Califf, à recommander instamment une surveillance constante des outils médicaux d’IA après leur mise sur le marché afin de garantir qu’ils restent fiables et sûrs dans le monde réel.

Dans une autre étude récente, des gastro-entérologues européens ont reçu un nouveau système assisté par IA pour détecter les polypes lors des coloscopies. Grâce à cet outil, ils ont initialement détecté davantage de polypes (de petites excroissances pouvant évoluer vers un cancer), ce qui suggère que l’IA les aidait à repérer des zones qu’ils auraient pu manquer autrement. Cependant, lorsque les médecins ont recommencé à pratiquer des coloscopies sans le système d’IA, ils ont détecté moins de polypes précancéreux qu’avant d’utiliser l’IA. Bien que la raison exacte ne soit pas claire, les auteurs de l’étude pensent que les cliniciens sont peut-être devenus tellement dépendants de l’IA qu’en son absence, ils étaient moins concentrés et moins aptes à détecter ces polypes. Ce phénomène de « déqualification » est corroboré par une autre étude qui a montré qu’une dépendance excessive aux aides informatisées peut rendre le regard humain moins susceptible de balayer les champs visuels périphériques. L’outil même destiné à affiner la pratique médicale l’avait peut-être émoussé.

Utilisée sans discernement, l’IA peut non seulement propager des informations erronées, mais aussi éroder notre capacité même à les vérifier. C’est l’effet Google Maps : les conducteurs qui naviguaient autrefois de mémoire manquent souvent aujourd’hui de connaissances géographiques de base, car ils ont l’habitude de suivre aveuglément la voix dans leur voiture. Au début de l’année, un chercheur a interrogé plus de 600 personnes de différents groupes d’âge et niveaux d’éducation et a constaté que plus une personne utilisait des outils d’IA, plus ses capacités de réflexion critique étaient faibles. Ce phénomène est connu sous le nom de « déchargement cognitif » et nous commençons seulement à comprendre son lien avec l’utilisation de l’IA par les cliniciens.

Tout cela souligne le fait que l’IA en médecine, comme dans tous les domaines, fonctionne mieux lorsqu’elle complète le travail des humains. L’avenir de la médecine ne consiste pas à remplacer les prestataires de soins de santé par des algorithmes, mais à concevoir des outils qui affinent le jugement humain et amplifient ce que nous pouvons accomplir. Les médecins et autres prestataires doivent être capables de déterminer quand l’IA se trompe et doivent conserver la capacité de travailler sans outils d’IA si nécessaire. Pour y parvenir, il est essentiel de développer des outils d’IA médicale de manière responsable.

Nous avons besoin d’outils fondés sur un paradigme différent, qui incitent les prestataires à réexaminer la situation, à évaluer les alternatives et à rester activement engagés. Cette approche est connue sous le nom d’architecture de choix intelligente (ICA). Avec l’ICA, les systèmes d’IA sont conçus pour soutenir le jugement plutôt que pour le remplacer. Au lieu de déclarer « voici une hémorragie », un outil ICA peut mettre en évidence une zone et demander « examinez attentivement cette région ».

L’ICA renforce les compétences sur lesquelles repose la médecine : le raisonnement clinique, la pensée critique et le jugement humain. Apollo Hospitals, le plus grand système de santé privé en Inde, a récemment commencé à utiliser un outil ICA pour aider les médecins à prévenir les crises cardiaques. Un précédent outil d’IA fournissait un score unique de risque de crise cardiaque pour chaque patient. Le nouveau système fournit une analyse plus personnalisée de la signification de ce score pour chaque patient et des facteurs qui y ont contribué, afin que le patient sache quels facteurs de risque traiter.

C’est un exemple du type d’encouragement subtil qui peut permettre aux médecins de réussir dans leur travail sans empiéter sur leur autonomie.

Il est tentant de vanter les mérites de l’IA comme si elle avait toutes les réponses. En médecine, nous devons tempérer ces attentes afin de sauver des vies. Nous devons former les étudiants en médecine à travailler avec et sans outils d’IA, et à considérer l’IA comme un deuxième avis ou un assistant plutôt que comme un expert ayant toutes les bonnes réponses. L’avenir réside dans la collaboration entre les humains et les agents d’IA.

Nous avons déjà ajouté des outils à la médecine sans affaiblir les compétences des cliniciens. Le stéthoscope amplifie l’oreille sans la remplacer. Les analyses sanguines fournissent de nouvelles informations diagnostiques sans éliminer la nécessité d’antécédents médicaux ou d’examens physiques. Nous devons appliquer la même norme à l’IA. Si un nouveau produit rend les médecins moins observateurs ou moins décisifs, c’est qu’il n’est pas prêt à être commercialisé ou qu’il est utilisé de manière inappropriée.

Pour toute nouvelle IA médicale, nous devons nous demander si elle rend le clinicien plus réfléchi ou moins réfléchi. Encourage-t-elle à y regarder à deux fois ou incite-t-elle à approuver sans réfléchir ? Si nous nous engageons à ne concevoir que des systèmes qui affinent nos capacités plutôt que de les remplacer, nous obtiendrons le meilleur des deux mondes, en combinant les promesses extraordinaires de l’IA avec la pensée critique, la compassion et le jugement concret que seuls les humains peuvent apporter.

 

TIME Idées accueille les plus grandes voix mondiales, qui commentent l’actualité, la société et la culture. Nous acceptons les contributions externes. Les opinions exprimées ne reflètent pas nécessairement celles des rédacteurs de TIME.