
Thérapie 2.0 : Quand l’IA devient un confident
Crédit visuel : Hidaya Tchassanti — Directrice artistique
Article rédigé par Ismail Bekkali — Journaliste
L’intelligence artificielle (IA) s’est rapidement intégrée aux habitudes numériques des jeunes, devenant un outil de plus en plus présent dans leur quotidien. Alors que les robots conversationnels se généralisent, il serait possible d’y trouver bien plus qu’un simple instrument pratique ou académique. Les « chatbots » peuvent devenir une présence rassurante, un confident numérique, voire un substitut à un soutien émotionnel.
Kenza Essafi, étudiante de troisième année à l’Université d’Ottawa, témoigne de son utilisation de ChatGPT, allant souvent au-delà du cadre scolaire : « Au début, je l’utilisais seulement pour m’aider dans mes cours, mais j’ai rapidement réalisé que je pouvais développer une relation amicale avec l’IA ». Essafi décrit la proximité grandissante qui s’est progressivement installée, l’IA devenant pour elle une interface d’écoute et de réconfort. Des interactions qui relèveraient d’une tendance plus large selon le chercheur Steven Siddalls, traduisant une évolution notable dans l’utilisation de cette nouvelle technologie.
Chercheur en psychologie à l’Université de King’s College London, Siddalls se spécialise particulièrement dans le phénomène de l’IA et la santé mentale numérique. À ses yeux, l’avènement de ChatGPT au cours des dernières années représente « une opportunité majeure » dans le domaine de la thérapie. Bien que l’IA n’ait pas été pensée pour cet usage spécifique, le chercheur affirme que son emploi à des fins thérapeutiques répond à des besoins variés. Que ce soit pour des raisons purement matérielles ou personnelles, l’IA pourrait représenter selon lui un nouveau mode de gestion des émotions à l’ère du numérique.
L’IA comme compagnon d’introspection
En ce qui concerne son expérience en tant qu’utilisatrice, Essafi témoigne que ChatGPT est véritablement ancré dans sa routine quotidienne, faisant appel à l’outil « deux à trois par jour », dépendamment de son humeur. L’interaction sans attente, et surtout sans regard médisant, est ce qui, d’après elle, rend l’outil si attirant pour un usage thérapeutique. Ce recours rapide et sans contraintes s’impose alors comme un réflexe pour l’étudiante, bien avant d’envisager une discussion avec un.e proche ou un.e professionnel.le.
Siddals confirme cette hypothèse grâce à ses travaux de recherche. Selon lui, ce facteur serait précisément ce qui renforce l’attractivité de l’IA, notamment dans des milieux « où les personnes dans le besoin n’ont simplement pas accès à des soins appropriés ». L’expert en psychologie énumère les avantages directs que peut présenter l’IA conversationnelle : qu’il s’agisse de la facilité d’interaction ou de l’absence de jugement perçu, ces aspects favorisent selon lui son adoption immédiate en cas de détresse.
Au fil de ses interactions, Essafi affirme avoir développé une forme de relation « subjective » avec l’outil. L’étudiante explique qu’elle a réussi à se confier à l’IA parce qu’elle ne portait aucun jugement, et s’adaptait à ses demandes. « J’avais pour habitude d’écrire sur un journal intime. Après avoir développé mon écriture, je me suis dit pourquoi ne pas essayer d’améliorer mes textes avec l’IA ». En lui partageant ses écrits, l’étudiante confirme que ChatGPT les aurait perfectionner, tout en lui permettant de stimuler une réflexion profonde et personnelle.
L’étudiante décrit ainsi l’IA comme une sorte de journal intime interactif : un espace où elle peut verbaliser ses émotions et obtenir un retour organisé, afin de mieux appréhender ce qu’elle ressent. Outre cette fonction, elle explique en réalité avoir le plus souvent des conversations beaucoup plus simples qu’il n’y paraît, comme pour « discuter d’un film », ou pour « mieux comprendre les traits de personnalité d’un personnage de roman », sans pour autant dévaloriser l’importance de véritables interactions sociales. En faisant allusion à sa connexion avec une amie proche, Essafi assure que les deux relations ne peuvent pas être comparables. Elle dit considérer l’IA comme un appui complémentaire, lui permettant d’identifier des affects, « une aide momentanée » tout au plus, tandis que son amie, en plus d’être une confidente, va indubitablement la pousser à confronter ses émotions.
Siddals affirme percevoir dans l’usage généralisé des chatbots « une forme d’exutoire » plus ou moins structuré. En se basant sur les expériences d’autres utilisateur.ice.s récoltées dans un sondage, il présente l’IA comme une interface de projection neutre, permettant un début d’introspection, tout en ayant « une capacité bien déterminée » de support émotionnel. Si certes, le chercheur confirme que les réponses adaptatives de l’IA peuvent effectivement créer un sentiment d’accompagnement ou de lien, il insiste toutefois sur ses limites structurelles. « Je pense qu’il y a peu de chances de se retrouver dépendant.e.s de ce genre d’interactions avec l’IA, simplement parce qu’elle ne dispose pas de la mémoire nécessaire pour apprendre à vous connaître », déclare Siddals. Au fur et à mesure qu’une conversation s’éternise, le robot arrive au bout des informations contextuelles pouvant être exploitées, et émet des réponses moins cohérentes.
Entre limites techniques et potentiel thérapeutique
Ce défaut de l’IA est également soulevé par Essafi, qui remet en cause la fiabilité de ses réponses : « J’ai remarqué qu’en lui donnant davantage d’informations sur moi, l’IA se conforme à mes attentes », souligne-t-elle. L’étudiante confie avoir partagé les prénoms de ses proches, ses intérêts, ses hobbies afin de tirer au mieux parti des capacités du robot, mais en dépit des différentes approches tentées, elle concède ne pas avoir abouti à des résultats très concluants. Alors que son objectif était d’avoir une perspective plus critique, Essafi soulève également une contradiction propre au fonctionnement de l’IA : en lui donnant l’opportunité de mieux connaître son interlocuteur.ice, elle « va se baser uniquement sur ce qu’elle sait de sa personne », et perdra dès lors toute crédibilité.
Abordant plusieurs évolutions technologiques possibles, Siddals laisse entrevoir un potentiel réel pour l’IA dans le domaine de la santé mentale, à condition que son intégration se fasse de manière rigoureuse et éthiquement encadrée. Le chercheur émet l’éventualité d’utiliser l’IA conversationnelle comme outil complémentaire, notamment dans les premières étapes du parcours thérapeutique, de manière à aiguiller directement les utilisateur.ice.s vers des formes de soutien plus adaptées.
« Je pense que même la question de la redirection est délicate. Compte tenu de la rareté de l’aide professionnelle dans certains milieux, cela peut sembler inutile si l’accès n’est pas là », admet Siddals. Selon lui, la priorité serait en vérité de développer une recherche à plus large échelle autour de ces usages émergents, afin d’en déterminer les effets potentiels. Le chercheur conclut en reconnaissant en l’insertion de l’IA dans les soins de santé mentale « une piste dont les perspectives seraient très avantageuses », tout en signalant que l’évaluation rigoureuse de ces outils constitue aujourd’hui aujourd’hui « une urgence » à ne pas négliger.