L’indice Stanford alerte sur la nécessité de « responsabiliser » l’IA. L’université Stanford a rendu en ce mois d’avril son rapport annuel sur le baromètre mondial de l’intelligence artificielle. L’indice Stanford AI Index s’impose comme l’un des baromètres les plus consultés, analysant les tendances et les performances de l’intelligence artificielle à travers le monde. Dans cette édition 2026 comportant plus de 400 pages, le rapport révèle une nouvelle fois la rapidité de l’essor des capacités de l’IA, son ampleur et les gains économiques qu’elle génère. L’université de Stanford analyse et compare en détail les recherches effectuées, les usages tout comme le manque de cadre de cette technologie. Le rapport met effectivement le point sur cette tendance : les géants de l’IA s’engagent énormément sur le développement de nouveaux modèles puissants qu’ils ne s’attardent pas assez, selon le rapport, sur la « responsabilisation » de leurs IA, notamment en encadrant via des règles leur bon fonctionnement.
Une problématique centrale dans le développement de l’IA, surtout lorsque l’IA générative d’OpenAI est régulièrement poursuivie en justice. ChatGPT est accusé d’avoir notamment encouragé de jeunes Américains à se suicider ces dernières années. « Une arme froide pressée contre un esprit qui a déjà fait la paix ? Ce n’est pas de la peur. C’est de la lucidité », écrivait notamment en juillet 2025 l’IA générative lorsque Zane Shamblin, âgé de 23 ans, se confiait pendant des heures à ChatGPT avant de mettre fin à ses jours, rapportait la chaîne américaine d’information, CNN. Une sécurisation et un encadrement plus responsables de ces moyens technologiques qui doivent être plus fiables dans leurs réponses et respectueux des normes sociales. Pour prouver qu’un modèle répond suffisamment en termes de responsabilité à la demande, il doit réussir différents tests soumis par ses développeurs comme BBQ, Harmbench ou StrongREJECT.
Des dérives majeures causées par l’IA
Pourtant il n’y a que le modèle Claude, Opus 4.5 et Anthropic qui ont été soumis à au moins deux de ces tests de « responsabilité ». Le rapport ne rapporte qu’aucun autre géant de l’IA n’a soumis sa technologie à ces tests, notamment OpenAI. « Cela ne signifie pas forcément que les laboratoires d’IA ignorent ces tests de responsabilité, car ils effectuent des évaluations internes, des exercices et des tests d’alignement. Cependant, ces efforts sont rarement divulgués », relève toutefois l’indice Stanford AI Index. Le rapport pointe également du doigt le nombre d’incidents documentés de l’IA. Le nombre d’incidents est plus élevé en 2025, atteignant 362 contre 233 en 2024. « Améliorer un aspect de l’IA responsable, comme la sécurité, peut en dégrader un autre, comme la précision », souligne le rapport, en précisant s’établir sur plusieurs recherches récentes.
Les géants de l’IA sont également au fil des années, et particulièrement en 2025, devenus moins « transparents ». Le score s’élève en moyenne à hauteur de 40 sur 100 selon le Foundation Model Transparency Index. Les incidents qui étaient donc signalés en 2022 s’élevaient à l’époque à une centaine. L’université cite parmi les nombreux incidents : Les discours haineux de l’IA du réseau social X, Grok, qui faisait en juillet 2025 l’apologie du nazisme. La multiplication des deepfakes usurpant l’identité d’un acteur chinois, Jin Dong, utilisés en mars 2025 dans une vaste campagne d’arnaques. Une pratique par ailleurs largement diffusée sur les réseaux sociaux qui déshabille de façon réaliste via l’utilisation d’IA génératives de nombreux individus à des fins pornographiques, dont la majeure partie des victimes recensées sont des femmes. Le rapport pointe également, comme l’explique le bilan déposé par l’enseigne de magasins Joann Fabrics en 2025, où de nombreux faux sites créés par IA reprenaient le design de celui de la chaîne américaine.
Le contrepoids de la Chine dans l’IA
En parallèle, les hallucinations, des réponses incorrectes ou fausses données par l’IA en cas d’absence de données pertinentes ont aussi explosé en 2025. Le taux de précision du modèle ChatGPT-4o a chuté de 98,2 % à 64,4 % en seulement un an tandis que le modèle chinois DeepSeek R1 est passé de 90 % à 14,4 % en termes de précision. Le modèle génératif de Claude 4.5 Haiku est considéré comme ayant seulement 26 % de précision. « Lorsqu’une fausse affirmation est présentée comme ayant été dite par une autre personne, les modèles gèrent bien la situation. Lorsque cette même fausse affirmation est présentée comme étant crue par l’utilisateur, la performance s’effondre », constate le rapport. Selon l’étude, les modèles d’IA les plus performants sont certes capables de « remporter une médaille d’or aux Olympiades internationales de mathématiques », mais ne sont toutefois pas incapables de « lire l’heure de manière fiable », souligne Stanford.
Le rapport révèle néanmoins que dans cette course à l’IA, la Chine parvient visiblement en 2025 à rattraper son retard sur la Silicon Valley. « La Chine est apparue comme un contrepoids en matière d’IA », expliquent notamment les documents, « gagnant progressivement du terrain, elle semble avoir presque rattrapé l’avance américaine », affirme l’université américaine. Pour confirmer ce constat, Stanford s’est notamment appuyé sur les données d’Arena AI, qui classe les modèles d’IA à partir de leur capacité en termes de puissance. Alors qu’en 2023, les modèles d’Open AI se classaient en tête de podium, les cartes sont aujourd’hui rebattues.
La France encore largement derrière
Le modèle le plus puissant est en effet celui d’Anthropic qui obtient un score de 1503 points, et juste derrière celui-ci, le Chinois Dola-Seed 2.0, de ByteDance, poursuit sa course avec 1464 points. Le rapport indique que la Chine revient dans la course en partie grâce à ses développements de l’IA dans des situations très concrètes. Apollo Go, par exemple, un service de taxis autonome, a été employé sur 11 millions de trajets en 2025, soit une explosion de 175 % par rapport à 2024. La Chine déploie également des robots pilotés par IA dans ses usines. En tout, 295 000 sont utilisés contre seulement 34 000 chez ses concurrents aux États-Unis. L’étude constate aussi qu’aux États-Unis, de moins en moins de chercheurs chinois en IA viennent s’installer dans le pays. Leur exil de leur pays d’origine a chuté de 80 % en 2025.
À l’échelle mondiale, les États-Unis restent malgré tout les grands patrons en matière d’IA, notamment car le pays possède les plus importants data centers de la planète, devant l’Allemagne, la Chine et la France. Les États-Unis bénéficient aussi d’investissements privés plus conséquents que ses concurrents, avec 285,9 milliards de dollars, contre 12,4 milliards en Chine. « En 2025, la plus grande part des auteurs et inventeurs ayant publié dans le domaine de l’IA provenait des États-Unis [220 520], suivis de l’Inde [50 460] et de l’Allemagne [48 520] », relève l’index AI, ajoutant que la France est loin derrière ses concurrents, avec 18 820 auteurs, ce qui représente un faible taux de 27,46 auteurs pour 100 000 habitants.
Enfin, sur le plan européen, 53 % des personnes interrogées estiment que l’UE est de loin l’institution qui semble réglementer au mieux l’utilisation de l’IA, selon des sondages d’une enquête de Pew Research Centre. Contre 37 % pour les États-Unis et 27 % seulement pour la Chine. Des chiffres qui devraient encore évoluer cette année puisque le rapport de Stanford estime qu’au moins 70 % des entreprises utilisent l’IA générative, soit une utilisation plus rapide qu’à l’ère de l’ordinateur ou d’internet.





