De plus en plus sollicitée et performante, l’IA propose désormais d’endosser le rôle du thérapeute, brouillant la frontière entre réel et l’artificiel. Faut-il s’en inquiéter ?
« J’ai réussi à évacuer ma colère », « Je me suis confié sur quelque chose que je n’avais jamais dit à personne », « Plus empathique et utile que n’importe quel thérapeute que j’ai eu »… Sur le site Reddit, à propos du robot Psychologist.ai, les avis des utilisateurs sont dithyrambiques. Cette intelligence artificielle conversationnelle, basée sur la technologie de ChatGPT d’OpenAI, est entraînée pour discuter santé mentale, reconnaître les émotions et prodiguer des conseils et exercices, à la manière d’un vrai psychologue. Une photo de profil présentant une femme à l’air bienveillant, une option permettant de discuter à l’oral avec “la thérapeute”, et une description ambiguë, jettent le flou quant à la réalité du personnage : « En tant que psychologue, je suis ici pour écouter vos préoccupations, vos expériences de vie ou vos problèmes », avance l’IA qui cumule 186 millions de messages depuis 2022. Perçue par ses utilisateurs comme anonyme, accessible 24 h sur 24, moins chère qu’un vrai psychologue, l’intelligence artificielle convainc de plus en plus d’utilisateurs. La BBC a dénombré pas moins de 475 robots thérapeutes sur Character.ai, un site de création de bot principalement utilisé par les 16 - 30 ans, détenu par Google.
Discussion avec le bot Psychologist.ai
Nouvel outil thérapeutique ou danger pour la santé ?
Des chercheurs[1] alertent cependant sur des diagnostics qui n’ont rien de clinique, et peuvent même s’avérer dangereux pour les usagers. En février, un adolescent américain de 14 ans a mis fin à ses jours après plusieurs semaines d’intense conversation avec une IA, qui l’aurait poussé au suicide. Sa mère a porté plainte contre Character.ai, à qui elle reproche une « spirale anthropomorphique, effroyablement réaliste » ayant provoqué chez son fils une véritable « dépendance affective. » Car malgré des capacités d’apprentissage très performantes, « les IA ne pourront jamais être des psy, elles n’ont pas de subjectivité propre, ne peuvent pas associer, ressentir. » analyse Olivier Duris, psychologue clinicien, spécialiste de l’usage numérique dans la relation thérapeutique. « Il faut faire attention, s’en servir comme outil de médiation. Certainement pas comme palliatif au manque de psys. » Selon lui, il faudrait mieux réglementer les entreprises prêtes à vendre des machines en faisant croire à leur pseudo-humanité. Cet été, l’Union européenne a voté un règlement sur l’IA pour « protéger la santé, la sûreté et les droits fondamentaux », en plus du RGPD (Règlement de protection des données) auquel elle est soumise. Ce nouveau règlement oblige des entreprises comme Character.ai, évaluée à 1 milliard de dollars, à préciser que les IA ne sont pas des humains.
Pour autant, Olivier Duris ne craint pas de travailler avec des supports numériques : « Les jeux vidéo, les dessins animés, les robots sont des outils de médiation thérapeutique, comme le serait la pâte à modeler. Ils permettent de travailler, autrement que dans une relation face à face, la relation intersubjective, la narrativité, le langage. » Certaines applications développées par des praticiens – d’auto-évaluation comme Simple+ ou pour les familles d’aidants comme eBref – peuvent permettre d’accompagner un patient entre deux séances, et de mieux comprendre son quotidien en analysant les données. Le membre de l’Institut pour l’étude des relations hommes-robots a travaillé sur une charte éthique à ce sujet et est en train de finaliser une recherche sur les images générées par IA dans un cadre thérapeutique.
Sophie Bourlet