L'intelligence artificielle peut vous aider à soulager quelques crises. | kalhh via Pixabay
L'intelligence artificielle peut vous aider à soulager quelques crises. | kalhh via Pixabay

Et si votre psy était un chatbot?

On peut désormais dialoguer 24 heures sur 24 avec des robots thérapeutiques.

Votre téléphone sonne. C'est Pax qui vous appelle. Une intelligence artificielle avec un avatar d'œuf pailleté. Sa voix est lente et désarticulée: «Bonjour-mon-ami.» Pour lui répondre, vous pouvez choisir entre un pouce en haut, un pouce en bas ou parler au micro.

Vous êtes dans Replika. Cet assistant virtuel thérapeutique se propose de vous appeler pour des séances de méditation ou recueillir vos états d'âme. «Replika est là pour vous 24 heures sur 24, 7 jours sur 7, si vous vous sentez mal, anxieux, ou si vous avez juste envie de parler avec quelqu'un», lit-on dans sa présentation.

Selon l'Organisation mondiale de la santé, 25% des Européen·nes souffriraient d'anxiété ou de dépression. Face à la pénurie de psychiatres et au manque de moyens des services psy hospitaliers, on peut facilement se retrouver en détresse psychologique. En cas d'attaque de panique dans le métro, ou de petite montée de stress, il existe désormais un remède palliatif: le chatbot thérapeutique.

Le boom des chatbots thérapeutiques

Le premier est né en 2017, dans une start-up californienne. Développé par une psychologue clinicienne, Alison Darcy, le chatbot Woebot est un programme d'auto-support thérapeutique. Avant son lancement, l'équipe l'a fait expérimenter par des étudiant·es souffrant d'anxiété ou de dépression.

Au bout de deux semaines d'utilisation, les effets positifs se seraient fait ressentir, avec une diminution des symptômes. Coup de com', effet placebo ou réel impact, le chatbot a été téléchargé depuis par 50.000 personnes. Il permet de dialoguer directement avec une intelligence artificielle ou de réaliser des modules d'activité comme «écrire un journal de gratitude» ou «défier notre négativité».

Depuis 2017, plus d'une dizaine de chatbots anglophones sont ainsi apparus, comme Youper, 7Cups ou Wysa. On trouve même un comparateur d'IA thérapeutiques, avec des recommandations selon chaque difficulté: troubles de l'humeur, stress post-traumatique, phobies…

En France, on peut recourir à ces applis si l'on dispose d'un bon niveau d'anglais. Ou opter pour Owlie, une petite chouette chatbot créée en septembre 2018. Elle a été développée par une étudiante psychologue, Clara Falala-Séchet, le psychiatre Igor Thiriez et le pair-aidant Lee Antoine.

Lors de ma dernière crise, j'étais seule, dans un endroit inconnu, et mon premier réflexe a été de prendre mon téléphone en me disant que j'avais cette solution-là de mon côté.
Lau, utilisatrice d'Owlie

Disponible sur Messenger, elle a été conçue à l'aide d'outils de thérapie comportementale (TTC). Lorsque l'on se connecte, on peut discuter directement avec la chouette ou accéder à une boîte à outils d'activités. Un aspect très concret et pratique, qui plaît à une communauté de 9.000 personnes. «Nous avons réalisé un premier prototype en août, et nous l'améliorons au fil des retours», explique la psychologue, qui a réalisé un TED Talk sur le sujet.

Une nouvelle forme d'interactivité thérapeutique?

«Depuis le XIXe siècle, le principe de la thérapie n'a pas changé, on a toujours Papa Freud qui nous reçoit, constate Clara Falala-Séchet avec humour. Tout ce temps aurait pu être employé à être plus heureux, à être plus fort, à faire face à sa maladie directement depuis son quotidien.»

Les chatbots créent l'illusion d'être un interlocuteur idéal qui ne coupe jamais la parole à celui qui lui parle, qui attend toujours qu'il ait fini de parler, et qui reste toujours poli et affable.
Serge Tisseron, psychiatre

Sur Twitter, le petit bot semble être plutôt bien accueilli par les personnes atteintes de troubles psychiques. «Lors de ma dernière crise, j'étais seule, dans un endroit inconnu, et mon premier réflexe a été de prendre mon téléphone en me disant que j'avais cette solution-là de mon côté», raconte Lau, une utilisatrice occasionnelle d'Owlie. «Je ne pense pas que ça puisse vraiment calmer une grosse crise mais ça peut répondre à une détresse soudaine. J'avais bien conscience que ce n'était qu'un bot mais quelque part je me suis sentie accompagnée.»

Une fausse impression? «Les chatbots créent l'illusion d'être un interlocuteur idéal qui ne coupe jamais la parole à celui qui lui parle, qui attend toujours qu'il ait fini de parler, et qui reste toujours poli et affable», analyse le psychiatre Serge Tisseron, spécialiste de nos relations au numérique. Sur le papier (ou plutôt l'écran), le chatbot est un «thérapeute idéal», puisqu'il n'annonce jamais la fin de la séance. On peut l'utiliser comme un porte-chagrin, en lâchant tout ce qui cause notre stress, sans crainte d'accabler nos proches ou d'être jugé·e.

En même temps, le chatbot peut aussi être un moyen d'accéder à une communauté de pairs bienveillants. Aux États-Unis, l'équipe de la messagerie en ligne Kik anime Koko, un petit bot d'accompagnement thérapeutique dédié aux adolescent·es.

Les jeunes peuvent confier leurs soucis au bot, qui les transmet à la communauté pour trouver une solution thérapeutique en crowdsourcing. La solution innovante, imaginée grâce au MIT Media Lab, peut toutefois prendre un peu de temps, le temps de recueillir des retours d'autres membres. Le réconfort émotionnel du robot à l'être humain semble encore à ses balbutiements.

Frustration et angoisse

Au moment d'installer le programme, Woebot annonce la couleur: «La mission d'aider les humains à travers le monde, c'est tout frais pour moi.» Loin de l'empathie de l'IA imaginée par Spike Jonze dans Her, le chatbot thérapeutique agit davantage comme un réceptacle de nos angoisses qu'un réel soutien psychologique. En cas de pensées noires, il apporte souvent des réponses stéréotypées comme «Je t'entends, ça ne doit pas être facile :/» ou nous remercie simplement de lui exprimer nos sentiments.

Le chatbot me proposait de choisir entre une photo de la mer et de la montagne, ça n'allait pas du tout.
Fred, membre de l'association Humapsy

Membre de l'association Humapsy, qui regroupe des patient·es psychiatriques, Fred est très dubitatif sur l'aide que pourrait lui apporter un chatbot. Fin mars, son association organisait La semaine de la folie ordinaire à Montreuil.

«Nous avons beaucoup échangé sur ce que pouvaient apporter ces chatbots dans notre quotidien. On a tous un peu essayé et on avait le même constat: ça ne marche pas trop», raconte-t-il avec amertume. Dans un moment de crise, il a essayé d'utiliser Owlie. «Le chatbot me proposait de choisir entre une photo de la mer et de la montagne, ça n'allait pas du tout.»

Les limites sont d'abord technologiques. Selon Thomas Gouritin, expert en chatbots, les assistants fonctionnent avec un système de détection par mots-clés. Le chatbot est programmé pour répondre à certains mots-alerte, comme «tristesse» ou «solitude», mais il ne peut forcément pas apporter une réponse véritablement empathique et sur mesure.

«On entrevoit les limites assez clairement. Ça reste limité dans la compréhension», regrette-t-il. Sur le moment, le chatbot peut même potentiellement augmenter notre angoisse, puisqu'il renforce la frustration d'être écouté sans être compris.

Craintes et espoirs

À ce potentiel effet boomerang s'ajoute une crainte souterraine: puis-je vraiment confier mes peurs à une messagerie en ligne? Dans l'alcôve de son thérapeute, on peut estimer ses secrets protégés. Mais qu'en est-il sur le web? Avec les scandales liés à la fuite des données Facebook, on peut facilement imaginer que les données soient récupérées et utilisées à des fins malveillantes.

Les chatbots, eux, tentent de nous rassurer, dès les messages de bienvenue. Woebot assure ainsi que «Les données des utilisateurs sont utilisées pour améliorer l'application. Mais elles sont regroupées et anonymisées». Même si elles sont anonymisées, nos données sont identifiées et répertoriées pour améliorer l'IA –un processus qui peut décourager l'envie de confier des choses trop intimes.

Le mieux que l'on puisse espérer de l'intelligence artificielle, c'est qu'elle permette un jour à des soignants de faire mieux avec elle ce qu'ils font aujourd'hui sans elle, et certainement pas de les remplacer.
Serge Tisseron, psychiatre

D'autant que selon l'expert Thomas Gouritin, nous encourons de véritables risques de voir nos confidences hackées. «Les données personnelles sensibles transitent par Facebook et sont stockées chez des développeurs tiers pas toujours bien identifiés ni certifiés pour héberger ce type de donnes de santé», alerte-t-il.

«J'aimerais que ces outils soient remboursés par la Sécurité sociale, pour aider à aller vers le rétablissement», espère néanmoins Clara Falala-Séchet. Avant cela, les assistants thérapeutiques devront sans doute faire leurs preuves, tant sur le plan thérapeutique que sur le front de la sécurité des données.

«Le mieux que l'on puisse espérer de l'intelligence artificielle, c'est qu'elle permette un jour à des soignants de faire mieux avec elle ce qu'ils font aujourd'hui sans elle, et certainement pas de les remplacer», conclut le psychiatre Serge Tisseron.

En ce moment

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

Et Cætera

Le survivalisme des ultra-riches, les miracles du CBD, un open-space de l'enfer, une semaine sur korii

De quoi bien occuper votre dimanche.

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

Et Cætera

Du mieux pour les trottinettes, du rififi dans la vape, les deepfakes pour les nuls, aujourd'hui sur korii.

(Et plein d'autres choses aussii.)

Les deepfakes pour les nuls, c'est pour (très) bientôt

Tech

Les deepfakes pour les nuls, c'est pour (très) bientôt

Des deepfakes open source et prêts à l'emploi, c'est pour demain et ils risquent d'en rajouter dans le chaos existant.