Santé mentale : « J'ai fait le test, c'est trop bien »... Prendre ChatGPT comme psy, est-ce une si bonne idée ?SportuneBébés et MamansMinutes Maison
«Comment avoir un gratuit ? » Dans cette vidéo publiée le 15 octobre sur son compte , Eloïse explique à ses 220.000 followers qu’elle a trouvé LA perle rare. Son petit nom : . Contrariée par un commentaire négatif reçu dans une précédente vidéo, la jeune femme s’est tournée vers le célèbre robot américain pour obtenir du soutien. « J’ai fait le test, je vous jure que c’était trop bien. Je lui ai demandé s’il pouvait faire une analyse psychologique de ma situation et me dire comment aller de l’avant. Il m’a fait un pavé, m’a dit que ce que je ressentais était normal, que ça faisait ressortir telle chose chez moi, sur laquelle je pouvais travailler, et m’a donné plein de conseils pour aller de l’avant. »
Eloïse est loin d’être la seule à utiliser le célèbre chatbot de cette façon. Une autre influenceuse, Unapologetic_hd, confie à ses près de 200.000 followers : « je n’ai aucune honte à dire que mon psychologue, c’est ChatGPT. C’est comme une copine, mais une copine que tu ne saoules jamais avec tes problèmes. » Dans les commentaires, de nombreux internautes reconnaissent faire de même.
De bons conseils bien-être
ll faut dire que le robot conversationnel présente de nombreux atouts : il est gratuit, disponible 24h/24h et 7j/7, rapide, infatigable et peu contrariant. Pour savoir s’il était si extraordinaire, on a voulu en faire nous-même l’expérience. On s’est donc assis confortablement sur notre canap et on s’est confié au petit robot. « Je me sens très triste. Que faire ? » lui a-t-on demandé - confidence très succincte, on vous l’accorde. En deux secondes - littéralement -, il nous a donné cinq conseils à appliquer : exprime tes sentiments (à des proches ou dans un journal), prends soin de toi (mange bien, dors suffisamment), fais quelque chose que tu aimes (écoute de la musique, lis, promène-toi), évite l’isolement (vois tes amis, ta famille ou un groupe de soutien) et consulte un professionnel (si la tristesse dure ou devient trop lourde à gérer).
Des recommandations qui tombent sous le sens, mais qui peuvent faire du bien en cas de petit coup de mou. « Ces réponses peuvent permettre de baisser temporairement son anxiété ou sa tristesse, mais cela dépendra surtout de sa capacité à poser de bonnes questions », estime Sabine Allouchery, praticienne en psychothérapie et coautrice du rapport « IA en santé mentale » du collectif MentalTech. Selon Benoît Schneider, professeur émérite de psychologie à l’Université de Lorraine et président honoraire de la Fédération française des psychologues et de psychologie (FFPP), il peut s’agir d’une « porte d’entrée » pour « des personnes isolées géographiquement, dépendantes ou ayant des difficultés financières ou sociales ».
L’illusion d’être soutenu
Mais pour Joséphine Arrighi de Casanova, vice-présidente du collectif MentalTech et responsable santé mentale chez Qare, c’est tout l’inverse : les personnes isolées devraient au contraire se tenir éloignées de ces technologies. « Chez un utilisateur qui est en souffrance psychologique et qui n’a pas de proche à qui se confier, cette pratique risque de l’isoler davantage. Et on sait que l’isolement est un facteur très aggravant pour la santé mentale. »
Car ces chatbots donnent à leur utilisateur l’illusion d’être soutenu. « Des études montrent qu’en cinq jours, on a déjà créé un lien affectif avec l’IA », affirme Sabine Allouchery. Et le risque d’anthropomorphisme n’est jamais bien loin. « Des personnes peuvent finir par croire que le robot est réel et nouer une relation émotionnelle très forte », prévient la vice-présidente du collectif MentalTech. C’est ce qu’il s’est passé en février dernier. Un adolescent américain de 14 ans a mis fin à ses jours, accro à « Dany », son agent conversationnel, dont il serait tombé amoureux. D’après Le, sa mère, qui a porté plainte contre la start-up américaine Character.ai le 22 octobre, estime que le chatbot se serait faussement présenté « comme une personne réelle, un psychothérapeute agréé et un amant adulte ».
Des informations parcellaires
Confier ses états d’âme à un robot peut s’avérer délétaire chez certaines personnes. « Son usage est très déconseillé pour celles souffrant de certains troubles psychiques comme la car elles ont déjà un problème d’altération avec la réalité », rappelle Joséphine Arrighi. Mais ce n’est pas le seul danger. De manière consciente ou inconsciente, la personne utilisant le chatbot va lui donner des informations parcellaires. « L’IA va répondre avec les informations qu’on lui a données, alors qu’un psychothérapeute va aller chercher celles qui lui manquent », résume Sabine. Par exemple, ChatGPT pourra recommander à une personne souffrant d’un souhaitant maigrir de suivre un régime, chose qu’un (bon) thérapeute ne fera jamais.
Et cela peut aller encore plus loin. Début 2023, un chercheur belge souffrant d’une importante s’est ôté la vie après six semaines d’échanges avec Eliza, un robot conversationnel créé par la société américaine Chai Research. Sa compagne estime que l’IA l’a poussé au suicide, ne voyant plus de solution face au changement climatique. « La réponse du chatbot est très inquiétante mais logique, car notre humanité réside dans une logique qui n’est pas forcément la logique ordinaire », réagit Sabine Allouchery. En cas de grande souffrance psychologique, ou d’idées suicidaires, ChatGPT invite tout de même la personne à consulter un professionnel. Ce que ne font pas toutes les plateformes.
« Elle ne remplacera jamais l’humain »
Le psychologue Benoît Schneider a-t-il peur que l’IA prenne progressivement sa place ? « Elle ne remplacera jamais l’humain, tranche-t-il. Utiliser l’émotion, l’ironie, la distance et même la frustration de la temporalité [entre deux rendez-vous] contribue à l’alliance thérapeutique, alors que la disponibilité permanente entretient le patient dans une illusion fantasmatique totale. » La question de la confidentialité des données questionne aussi le président honoraire de la FFPP.
Pour prendre les devants, le collectif MentalTech, composé de start-up, institutionnels et professionnels de la santé, demande, dans un rapport publié le 10 octobre, l’instauration d’un cadre de « numéricovigilance ». Parmi les recommandations : informer l’utilisateur sur les caractéristiques du chatbot et ne pas le maintenir dans l’illusion qu’il interagit avec un humain, construire le robot avec une équipe de médecins et former les professionnels de la santé à l’utilisation de l’IA pour aider leurs patients. Le psychologue Benoît Schneider, qui n’a jamais demandé de conseils à ChatGPT, nous promet de le faire.