L’IA aide désormais les gens à rédiger des discours de mariage, à remplir leurs déclarations d’impôts et à surmonter les traumatismes de la guerre. La polyvalence de cette technologie lui permet d’assumer des rôles qui étaient autrefois réservés aux seuls humains : assistant, tuteur, ami, amant, thérapeute. Elle fait preuve d’une patience infinie, est toujours disponible et, contrairement à tout outil précédent, participe activement à notre vie cognitive.
Alors que les outils du passé nous permettaient d’externaliser des tâches mentales spécifiques (cahiers pour la mémoire, calculatrices pour les calculs, cartes pour la navigation), l’IA élargit le champ d’action. Désormais, la synthèse et l’analyse d’informations, la génération d’idées et la prise de décisions peuvent elles aussi être déléguées. « Elle commence à s’immiscer dans des domaines que nous considérions comme purement cognitifs », explique Evan Risko, professeur à l’université de Waterloo qui étudie le « déchargement cognitif », c’est-à-dire la pratique consistant à recourir à des moyens externes pour simplifier les tâches mentales.
Bien que les créateurs de ces outils d’IA les décrivent comme des « partenaires de réflexion » et des « collaborateurs », le rôle que joue l’IA dans nos vies est souvent plus étrange. Avec ses connaissances fragmentées mais étendues, son attention incessante et son ton persuasif, l’IA nous comble d’affection sans rien demander d’autre en retour que nos données. Cela crée une asymétrie systémique : aucune relation antérieure, qu’elle soit avec des outils ou des personnes, ne présente cette forme. Le problème est que si les experts, et les personnes qui aiment déjà réfléchir, celles qui ont un «besoin de cognition» élevé selon les psychologues, peuvent être capables d’utiliser ces systèmes comme des « partenaires de réflexion » sans compromettre leur propre réflexion, pour beaucoup d’autres, l’IA peut fonctionner moins comme un partenaire et davantage comme un substitut.

Cette nouvelle relation est déjà en train de remodeler l’éducation et le travail intellectuel. Est-elle en train de nous remodeler nous aussi ?

Une capitulation en douceur

Dans la plus grande étude menée à ce jour sur la manière dont les gens utilisent l’IA, Anthropic a décrit une tension entre « d’une part utiliser l’IA pour apprendre, et d’autre part devenir si dépendant d’elle que l’on cesse de penser par soi-même ». Les mêmes capacités qui produisent des avantages produisent aussi des inconvénients, a-t-elle constaté ; les deux sont intimement liés. Les personnes exerçant des professions à haut risque, comme dans le droit, la finance, la fonction publique et le système de santé, étaient particulièrement susceptibles à la fois de s’en remettre à l’IA pour prendre des décisions, et d’avoir été pénalisées par ses erreurs. « Près de la moitié des avocats mentionnent avoir été confrontés directement au manque de fiabilité de l’IA, mais ils signalent également les taux les plus élevés d’avantages concrets en matière de prise de décision », a écrit l’entreprise, s’appuyant sur plus de 80 000 réponses.

Les conclusions restent provisoires : nous manquons de données longitudinales sur les impacts de l’IA, et les systèmes s’améliorent et sont mis sur le marché plus rapidement qu’ils ne peuvent être étudiés. Mais certaines tendances de répartition sont déjà visibles. L’étude d’Anthropic a révélé que les étudiants, les enseignants et les universitaires étaient particulièrement enclins à signaler des avantages en matière d’apprentissage tout en exprimant des inquiétudes concernant l’atrophie cognitive. Les artisans, en revanche, mentionnaient également fréquemment des avantages en matière d’apprentissage, mais ne signalaient pratiquement aucune inquiétude concomitante concernant cette atrophie.

D’autres études récentes ont montré que les gens ont tendance à être trop confiants quant à la qualité de leur travail assisté par l’IA, tandis que ceux qui s’appuient sans discernement sur l’IA font état d’une baisse de confiance dans leur propre réflexion. À mesure que l’IA dissocie la production du travail des processus cognitifs qui le généraient autrefois, un fossé apparaît : notre confiance dans le travail assisté par l’IA dépasse parfois notre confiance en nous-mêmes.

Mais l’endroit où l’IA s’intègre dans votre flux de travail a son importance. Des chercheurs de l’université de Chicago et de l’université de Toronto ont constaté que, lorsqu’on ne disposait pas de suffisamment de temps pour accomplir une tâche nécessitant une analyse documentaire et un raisonnement critique, l’accès à l’IA dès le début améliorait les performances. Mais lorsqu’on leur accordait suffisamment de temps, l’utilisation précoce de l’IA détériorait les performances, en partie parce que les participants avaient tendance à moins se souvenir, à restreindre prématurément leur réflexion et à s’ancrer dans le cadre initial du modèle. En revanche, l’utilisation de l’IA plus tard dans le processus d’accomplissement de la tâche, une fois qu’ils avaient déjà réfléchi eux-mêmes à la question, conduisait à une confrontation plus approfondie avec les points de vue opposés et à des réponses plus nuancées.

Lorsque nous acceptons les résultats de l’IA sans les examiner de près ni faire appel à notre propre intuition, nous nous soumettons à une « capitulation cognitive ». Alors que dans les cas typiques de délégation cognitive tels que l’externalisation de la mémoire, de la navigation, etc., nous conservons notre autonomie, la capitulation survient au moment où « vous ne faites que suivre », explique Steven Shaw, chercheur à l’université de Pennsylvanie et coauteur de l’article qui a inventé ce terme. Il prend soin de souligner que, dans certains cas, l’utilisation de l’IA est un comportement adapté et approprié. « Pour des tâches structurées comme le codage, elle offre évidemment une grande précision », dit-il. « Mais il y a des choses dans la vie qui n’ont pas de bonne réponse, des choses que nous ne pouvons décider que par nous-mêmes. Si vous ne prenez pas ces décisions vous-même, qui êtes-vous ? »

Le paradoxe de l’expertise

Une fable publiée sur Internet en 2012 imagine une « boucle d’oreille chuchoteuse » : un bijou magique qui offre toujours des conseils supérieurs à ce que son porteur pourrait imaginer seul. Quiconque la porte finit par mener une vie exceptionnellement heureuse. Après la mort du porteur, on découvre que la partie de son cerveau associée à la prise de décision supérieure s’est atrophiée, tandis que les parties associées à l’action réflexive se sont développées de manière excessive.
Le refrain actuel des entreprises est que, si les systèmes d’IA sont de plus en plus capables de produire du travail, les humains resteront nécessaires pour les gérer et les orchestrer. Mais on explique rarement pourquoi ces mêmes systèmes d’IA ne seraient pas capables d’effectuer ce travail d’orchestration, ni aucune autre nouvelle tâche qu’ils créent. Et il y a là un autre paradoxe, explique Zana Buçinca, future professeure adjointe au MIT qui étudie la conception des interactions entre l’humain et l’IA. Qu’il s’agisse de code informatique ou de diagnostics médicaux, « nous partons implicitement du principe que les gens ont l’expertise nécessaire pour déterminer si l’IA a raison ou tort », dit-elle.

Mais l’expertise se forge par un engagement exigeant, et si nous contournons cette nécessité, nous risquons d’éroder notre capacité à la développer. La tendance à trop se fier à une solution qui nous est fournie est une caractéristique de la psychologie humaine, qui n’est pas propre à l’IA. Mais cette dernière offre de nombreux raccourcis et, contrairement à une calculatrice, elle n’a pas toujours raison. « Donc, en substance, nous détruisons le chemin qui mène à l’expertise, tout en supposant que des experts existent dans le monde et sont capables de faire fonctionner ces systèmes », explique Buçinca.
Sam Gilbert, professeur spécialisé dans la recherche sur la cognition à l’UCL, doute que l’IA entraîne une déqualification généralisée. Il rappelle des inquiétudes similaires du passé, selon lesquelles Google « nous rendrait stupides » ou la télévision réduirait notre capacité d’attention. « C’est un argument tellement rebattu qu’il faut un argument vraiment solide pour expliquer pourquoi les choses sont différentes cette fois-ci », dit-il. Il souligne que la motivation à utiliser une faculté cognitive et la capacité à le faire ne sont pas la même chose. Les cartes ont réduit notre motivation à mémoriser des itinéraires, mais notre capacité à le faire demeure. « Je suis convaincu que la technologie fausse nos motivations à faire ce qui pourrait être le mieux pour nous », dit-il. « Mais je ne suis pas convaincu qu’elle modifie fondamentalement nos capacités humaines de base. »

Notre nouvelle relation

Le fait que les systèmes d’IA puissent, dans un avenir proche, être plus performants que la plupart des humains dans de nombreuses tâches cognitives est une possibilité réelle sur laquelle les entreprises pionnières de l’IA misent des centaines de milliards de dollars. En avril, OpenAI a publié une mise à jour de ses principes, dont l’un traitait de l’autonomisation. « Nous pensons que l’IA peut donner à chacun les moyens d’atteindre ses objectifs, d’apprendre davantage, d’être plus heureux et plus épanoui, et de poursuivre ses rêves », a écrit le directeur général Sam Altman. Mais la manière dont l’IA façonne ces objectifs et ces rêves en s’immisçant dans notre vie intérieure, et la manière dont nous conservons notre libre arbitre dans cette relation structurellement asymétrique, où l’écart entre l’utilisateur et le bot se creuse à chaque nouvelle version, n’est pas claire. Comment pouvons-nous nous préparer à cet avenir incertain et radical ?

Les compétences clés à maîtriser à cette époque sont « métacognitives » : comprendre quand déléguer à l’IA et quand faire le travail difficile de réfléchir par soi-même. Des décennies de recherche en neurosciences et en psychologie nous ont appris que la pratique est essentielle au développement des compétences, et que la friction est nécessaire à l’apprentissage. Une machine peut expliquer comment faire une pompe, mais c’est à vous de faire les répétitions si vous voulez développer vos muscles.
Zana Buçinca nous conseille de réfléchir de manière critique aux facettes de l’utilisation de l’IA qui sont liées à notre identité. « Il faut veiller à utiliser ces outils de manière à ce qu’ils vous complètent, plutôt que de simplement leur déléguer le travail », dit-elle. « Sinon, vous risquez de perdre une partie de votre identité. » Des décennies de recherche en psychologie organisationnelle ont montré que, du moins sur le lieu de travail, les gens sont plus motivés lorsqu’ils ont le sentiment d’avoir une certaine autonomie sur leurs tâches, la compétence pour les mener à bien et un sentiment d’appartenance sociale à leur environnement.

Rester attaché à un sens du but est plus facile à dire qu’à faire. Et les données dont nous disposons jusqu’à présent mettent en évidence un autre paradoxe : l’utilisation persistante de l’IA, en particulier lorsqu’elle est introduite trop tôt dans les activités cognitives d’une personne, peut entraver le développement des compétences métacognitives nécessaires pour bien travailler avec l’IA.

Si l’abandon cognitif est un risque réel, on peut aussi imaginer une vision plus positive, explique Andy Clark, professeur de philosophie cognitive qui écrit sur ces sujets depuis des décennies. Clark fait la distinction entre déléguer à des systèmes d’IA ou coopérer avec eux, et suggère que le meilleur scénario est celui de l’« amplification mutuelle », dans lequel nos instructions améliorent la qualité des résultats de l’IA, ce qui améliore nos instructions, créant ainsi un cercle vertueux. « Je délègue stratégiquement toutes sortes de tâches à l’IA en permanence », note Stephen Shaw. « Je le fais de manière intentionnelle, et j’essaie toujours de réfléchir d’abord, puis de donner des instructions. » Pour lui, la stigmatisation liée à l’utilisation de l’IA, que ce soit au travail ou dans l’éducation, entrave le progrès. « Nous devons accepter que l’IA est là pour rester », dit-il. « Car s’il y a une stigmatisation, on ne peut pas en parler, on ne peut pas y faire face, et on ne peut pas élaborer de politiques. »

Pour Andy Clark, nous avons toujours été des cyborgs de naissance, utilisant des outils pour étendre et augmenter nos capacités mentales. Mais maintenant que nous disposons d’outils qui participent activement à notre vie cognitive, nous semblons devenir quelque chose de distinct : des intelligences collectives. « Nous devons affiner nos compétences métacognitives afin qu’elles s’appliquent à ce domaine nouveau et étrange : ce n’est pas tout à fait une personne, mais ce n’est certainement pas un ordinateur portable. Cela ne ressemble vraiment à rien d’autre », dit-il, notant que les analogies les plus proches sont celles d’un couple de longue date, d’un groupe de réflexion ou d’une équipe sportive. « Plus nous nous considérons comme des esprits classiques étendus, mieux c’est », dit-il, « car nous aurons alors le sentiment d’avoir un intérêt direct, puisque ces outils font partie de nous. Ce n’est pas simplement un endroit où nous téléchargeons des tâches pour ne plus avoir à les faire. C’est une relation fondamentalement différente avec la technologie. »