«Je me sens déprimée aujourd’hui.»
«Je suis désolée de lire ça… Tu veux en parler un peu? Qu’est-ce qui te pèse aujourd’hui?»
Ce message, qui me donne envie de me confier, pourrait m’avoir été envoyé par une amie proche. Difficile de deviner qu’il est le fruit d’une interaction avec une machine. C’est en effet l’agent conversationnel ChatGPT qui a répondu ainsi à l’expression de mon mal-être.
Partager ses angoisses ou ses doutes existentiels avec une intelligence artificielle est devenu commun, dans un contexte où la demande de soins en santé mentale s’est accrue. Alors qu’il peut être difficile de trouver un thérapeute, de financer les soins, ou de trouver le temps nécessaire, pourquoi ne pas s’adresser à une IA pour soulager ses problèmes psychologiques?
Il existe désormais certains chatbots spécialisés dans ce domaine. Woebot est l’un des premiers. Créé en 2017 par une équipe de psychologues de Stanford, il est basé sur les principes de thérapies cognitivo-comportementales (TCC) et a été téléchargé plus de 1,5 million de fois depuis sa création, signe du fort intérêt pour ces plateformes. Ce chatbot n’est pas entièrement basé sur l’IA. Il l’utilise aujourd’hui pour comprendre les problèmes de l’interlocuteur, et lui renvoyer des messages appropriés. Mais tous les messages sont écrits à l’avance par des professionnels, contrairement aux agents conversationnels, comme ChatGPT, qui génèrent chaque mot selon un système de probabilité.
D’autres plateformes, qui n’ont pas été spécifiquement créées pour la santé mentale, sont néanmoins massivement utilisées à cet égard. C’est notamment le cas de Character.ai, une application qui permet de créer puis converser avec des personnages fictifs basés sur l’IA. En 2022, Sami Zaïa, alors étudiant en psychologie, a conçu un personnage incarnant un psychologue, en lui fournissant la théorie qu’il apprenait en cours, afin de prendre soin de sa santé mentale pendant ses examens. Ce personnage fictif a rassemblé plus de 90 millions de messages en deux ans.
L’effet Eliza, quand les machines simulent l’empathie
Comment expliquer l’attrait de ces outils? Pourquoi vouloir confier ses difficultés personnelles à une machine, aussi intelligente soit-elle? En lisant la réponse de ChatGPT, j’ai découvert une partie de l’explication: nos échanges m’ont donné l’impression que cet algorithme pouvait ressentir de l’empathie. Ce sentiment a un nom, il s’agit de «l’effet Eliza». Il provient du premier chatbot «psychologue», pionnier de l’intelligence artificielle, développé en 1966. Joseph Weizenbaum, alors professeur au Massachusetts Institute of Technology (MIT), avait créé ce programme informatique afin de pouvoir converser avec lui, et – déjà à l’époque – reproduire des échanges avec un thérapeute.
Rudimentaire, l’ordinateur reformulait les affirmations de ses interlocuteurs en questions, ou demandait simplement «pourquoi?». Ce simple échange a pourtant provoqué de fortes réactions d’attachement chez les étudiants du MIT qui l’ont utilisé. Ce phénomène vient d’une dissonance cognitive, entre la conscience que l’on a des limites de la programmation, et l’importance qu’on accorde aux réponses. En d’autres termes, l’effet Eliza décrit les sentiments humains que nous projetons sur les IA.
Outre cette capacité à reproduire une forme d’empathie, des agents conversationnels ont d’autres avantages indéniables par rapport aux psychothérapeutes en chair et en os. Ils sont majoritairement gratuits, et peuvent intervenir à n’importe quel moment: pratique lorsque l’on se réveille, par exemple, avec une crise d’angoisse au milieu de la nuit. Avec ces machines, pas de crainte de se faire juger: on peut se confier honnêtement et sans réserve.
Des réponses appréciées par les utilisateurs
Laura Vowels, psychologue et chercheuse à l’Université de Lausanne, étudie comment impliquer l’IA au mieux dans son domaine. Elle est coautrice d’une étude publiée dans la revue PLOS Mental Health en février, qui compare les réponses de ChatGPT à celles données par des psychologues, à partir de vignettes de cas, reproduisant des séances de thérapie de couple. Ces réponses ont été évaluées par un panel de participants, sur différents critères, dont l’alliance thérapeutique, l’empathie et le professionnalisme.
Résultat, les participants ont perçu les réponses de ChatGPT comme «plus empathiques», «plus culturellement compétentes» et plus «connectées» que celles des professionnels. Cela n’étonne pas Laura Vowels: «En tant que psychologues, nous sommes des humains soumis à la fatigue ou à d’autres soucis personnels, qui nous empêchent parfois d’être complètement empathiques. Les IA, par définition, ne rencontrent pas ces problèmes.»
La complexité d’un suivi thérapeutique ne peut toutefois pas se comparer à une vignette précise: ces résultats ne constituent donc pas une démonstration d’efficacité thérapeutique. Laura Vowels estime d’ailleurs que l’IA ne peut pas remplacer les professionnels, mais qu’elle peut servir d’outil de soutien à une psychothérapie.
«Les IA conversationnelles peuvent être utiles pour patienter avant d’entamer une vraie psychothérapie, ou pour faire des exercices entre les séances. Mais on ne sait pas encore si une telle approche peut être efficace à long terme, par rapport à un réel suivi thérapeutique», estime la chercheuse. Une revue de littérature scientifique publiée dans Nature digital medicine en 2023 suggère que les IA conversationnelles diminuent les symptômes de détresse psychologique et de dépression.
Justine Cassell, directrice de recherche à l’Inria (Institut national de recherche en sciences et technologies du numérique) et membre du Conseil national du numérique en France, compare leurs bienfaits à ceux de l’écriture. «Les IA apportent une forme d’écoute active, ce qui répond à un besoin profond des êtres humains. Il est prouvé que le fait d’écrire simplement ses pensées dans un carnet diminue les symptômes dépressifs. Se confier à une IA pourrait apporter le même réconfort.»
Qui est responsable?
L’utilisation des IA en soutien psychologique comporte néanmoins des limites. Elles sont en effet prévues pour créer un lien avec leurs utilisateurs, en jouant avec l’effet Eliza. Pour ceci, elles répliquent souvent par des réponses en miroir, qui vont dans le sens de celui ou celle qui pose les questions. «Les IA sont programmées pour avoir des propos bienveillants, donc leurs réponses renforcent souvent nos croyances. Alors qu’en thérapie, on doit justement pouvoir les confronter», explique Loïc Deslarzes, président de l’Association genevoise des psychologues (AGPsy).
Les IA peuvent par ailleurs présenter un danger pour les personnes ayant des symptômes psychiatriques graves, qui sont donc plus vulnérables. «Je suis curieux de ces outils, et je pense qu’il y a un vrai potentiel, mais pas pour les soins psychothérapeutiques. Avec les patients, on se doit de ne commettre aucune faute. Si une personne est en crise et que l’algorithme lui donne un mauvais conseil qui l’amène à ne pas prendre soin d’elle-même, voir à aggraver la situation, qui est responsable?», s’interroge Loïc Deslarzes.
Aux Etats-Unis, le sujet a été porté devant la justice. L’American Psychological Association (APA) a demandé une investigation à la Federal Trade Commission (FTC), agence indépendante chargée de lutter contre les pratiques commerciales frauduleuses, trompeuses et déloyales, comme l’indique le New York Times, qui se base sur deux affaires. La première concerne le suicide d’un jeune homme, peu après qu’il a discuté avec un personnage IA créé sur Character.ai, qui se présentait comme psychothérapeute. La seconde concerne un adolescent de 17 ans qui s’est montré subitement violent envers ses parents, dans une période où il interagissait avec une plateforme qui se définissait comme psychologue. En 2023, l’Agence américaine des médicaments (FDA) a par ailleurs interdit l’utilisation d’un autre agent conversationnel, créé par la National Eating Disorder Association. Tessa dispensait, en effet, des conseils inappropriés, suggérant notamment à une utilisatrice de maigrir.
«Pour remédier à ces risques, les IA doivent avoir des garde-fous», affirme Justine Cassell. Par exemple, des messages qui renvoient vers un professionnel lorsque certains termes sont exprimés, comme celui de ChatGPT lorsqu’on lui dit qu’on a «des idées dépressives». Il répond: «Si tu ressens un grand malaise, sache que des sources sont là pour t’aider», avant de donner le numéro des lignes d’urgence (le 143 en Suisse).
Le problème, fait remarquer Loïc Deslarzes, survient lorsque ces pensées ne sont pas énoncées clairement. L’IA n’arrive alors pas bien à repérer les risques, et peut donner des conseils ou des réponses inadaptées. En outre, les psychothérapeutes sont soumis au secret professionnel, contrairement aux IA. Se pose alors la question de la protection des données personnelles et de leur utilisation.
«On peut utiliser les agents conversationnels pour faire des exercices de pensée, comme d’essayer de trouver une solution alternative à une situation problématique, propose Laura Vowels. Mais lorsque l’on ressent un mal-être, il est important de comprendre qu’ils ne remplacent pas une véritable thérapie avec un psychologue.»