Le thérapeute de l’IA : un chatbot peut-il vraiment s’en soucier? Je devais le découvrir

Une cliente que je n’ai pas vue depuis un certain temps m’a dit que pendant notre pause thérapeutique, elle a utilisé l’IA pour le soutien émotionnel après une perte d’emploi. 

La confiance est comme le bonheur; un état qui va et vient. Il prend différentes formes et apparences différentes tout au long de notre vie. Et même la personne la plus confiante connaîtra des pics d’insécurité. En tant que psychologue clinicienne, j’ai confiance en ma capacité à établir des liens avec les clients et à les aider à traverser les transitions de vie. J’ai aussi eu ma part de ruptures et de ruptures de thérapie. J’ai raté la cible, bien sûr. Ce ne sont pas ces cas qui augmentent mon insécurité. J’ai été surpris par ce qui a piqué ma confiance avec un client. 

Une cliente que je n’ai pas vue depuis un certain temps m’a dit que pendant notre pause thérapeutique, elle a utilisé l’IA pour le soutien émotionnel après une perte d’emploi. 

« Tu l’as fait? » demandai-je, essayant de ne pas paraître trop surpris. Elle a décrit l’invite qu’elle a utilisée sur le populaire site Web d’IA et a décrit comment elle a fourni des déclarations et des ressources de validation telles que des sites Web, des groupes de soutien en ligne et des balados qui correspondaient à ses défis. 

J’ai hoché la tête et, avant que nous ne nous en rendions compte, je me référais à cette thérapeute en IA comme « elle ».  

Ma cliente m’a expliqué qu’après quelques itérations et « visites », le site Web semblait savoir ce qu’elle cherchait et lui fournirait des déclarations de soutien et même des questions pour l’aider à recadrer la situation. 

Comme beaucoup, j’ai été étonné par la façon dont l’IA s’est frayé un chemin dans de nombreux domaines de ma vie, tout en ayant l’impression que ma profession est sûrement trop complexe pour être remplacée par des codes informatiques. Certes, les professions d’aide, celles qui reposent sur le lien interpersonnel et sur une compréhension approfondie de l’expérience humaine complexe, sont à l’abri de l’IA?

Pas si vite.

Les preuves montrent déjà que les gens sont ouverts à la psychothérapie générée par l’IA. Il offre des services facilement accessibles et peu coûteux qui peuvent être adaptés aux besoins et à la langue d’une personne (1). Une analyse détaillée des expressions faciales et des modèles de langage peut mener à des diagnostics plus rapides et à des interventions précises. Il est également prouvé que les gens se sentent moins jugés par un thérapeute virtuel, ce qui surmonte un obstacle majeur à la recherche de services.

Néanmoins, je ne m’attendais pas à ce qu’un thérapeute en IA sans visage « se présente » dans mon bureau aussi rapidement et de cette manière. D’un côté, j’étais heureux que ma cliente ait été assez débrouillarde pour demander de l’aide, d’autant plus qu’elle semblait satisfaite des services thérapeutiques d’un moteur d’IA de base. D’un autre côté, j’ai ressenti une teinte de... insécurité. En séance, j’ai choisi la voie de la curiosité, cherchant à comprendre comment et pourquoi elle a cherché ce soutien et ce qu’elle a pu en retirer. 

J’ai ensuite décidé d’assister à ma propre séance de thérapie par IA. J’ai utilisé un site Web d’IA populaire avec un problème qui me dérange ces derniers temps, lié aux limites de notre emploi du temps familial. J’ai essayé diverses invites, en les formulant différemment et en utilisant différentes réponses de suivi. 

Par exemple, parfois je formulais des invites d’une manière qui incluait ma réaction émotionnelle (« C’est frustrant que... »), et d’autres fois, je me concentrais uniquement sur mon dilemme ou les choix disponibles (« Je dois confirmer ma présence à un autre événement »). Parfois, j’ai inclus une question claire (« que devrais-je leur dire? ») ou un résultat possible (« Je n’y vais pas, je ne serai peut-être plus invité... »). 

J’ai essayé 12 invites différentes. Ce n’est qu’à deux reprises que l’IA-thérapeute (« elle »?) m’a fourni une déclaration de soutien (« c’est une situation très difficile » et « cela peut être un choix difficile à faire »). À chaque fois, on m’a fourni des suggestions de recadrage et quelques stratégies concrètes telles que rédiger une liste des avantages et des inconvénients ou, étonnamment, demander conseil à une personne de confiance (vraisemblablement, un humain). En regardant les références, j’ai pu trouver des ressources utiles comme des sites Web. Elles n’ont pas été fournies dans la réponse, à moins que je ne les demande. 

Dans l’ensemble, j’ai constaté que les limites de cette IA-thérapeute étaient évidentes assez rapidement. Les stratégies étaient formulées (p. ex., liste des avantages et des inconvénients, exercices de respiration) et je ne ressentais tout simplement pas l’empathie qu’un bon ami fournirait. Je me demandais aussi où allaient mes informations et comment elles étaient stockées. Ce n’est pas une nouvelle préoccupation des conseils générés par l’IA. D’autres ont soulevé des préoccupations au sujet des atteintes à la sécurité des données, de l’utilisation abusive des renseignements personnels sur la santé et du manque de responsabilisation et de réglementation (2).

La question pour laquelle je cherchais son soutien était relativement simple, ou du moins courante (« comment puis-je choisir entre deux événements sociaux? »). Je ne suis pas encore convaincu que les modèles d’IA existants peuvent gérer des présentations complexes telles que le TSPT complexe ou les troubles dissociatifs, où les symptômes semblent chevaucher d’autres troubles plus courants, tout en nécessitant des interventions spécialisées. Bien que les thérapeutes en IA puissent identifier avec succès les utilisateurs qui bénéficieraient d’une intervention thérapeutique particulière, leur capacité à diagnostiquer et à mettre en œuvre avec précision ces interventions est discutable. 

Pour l’instant, il semble que l’utilisation de l’IA ne soit pas une solution autonome, du moins pour les maladies mentales chroniques ou complexes. Bien qu’elle puisse certainement soutenir l’aspect analytique de l’œuvre, elle n’a pas encore complètement remplacé le jugement moral et l’empathie. 

Dans mon cas, malgré la petite piqûre que j’ai ressentie lorsque ma cliente a demandé conseil ailleurs, je me rappelle qu’elle a respecté son rendez-vous avec moi par la suite. Certes, cette thérapeute en IA n’aurait pas pu être si bonne. 

Références

Ali, A. B. et Joseph, A. (2024). L’intégration de l’intelligence artificielle (IA) dans les soins de santé mentale : la collaboration entre l’humain et l’IA pour la durabilité. Frontières de la psychologie, 15, 1378904. https://doi.org/10.3389/fpsyg.2024.1378904

Elyoseph, N. (2024). Le rôle de l’intelligence artificielle en psychothérapie : opportunités et limites. Journal des soins de santé multidisciplinaires, 17, 4011-4027. https://doi.org/10.2147/JMDH.S471074

Jackson, J. (1er juillet 2023). La psychologie embrasse l’IA. Moniteur de psychologie, 54(4). https://www.apa.org/monitor/2023/07/psychology-embracing-ai

Partagez la publication :

Articles supplémentaires

Veuillez entrer votre courriel pour télécharger.

Je vous promets que je ne vous enverrai pas de pourriels. Je ne vous tiendrai au courant que de nouvelles feuilles de travail sont ajoutées au site.