#15 Je préfère ChatGPT à mon psy
L’essor des intelligences artificielles conversationnelles comme ChatGPT a révolutionné de nombreux domaines. La psychologie et la psychothérapie y échappent-elles? Non, et de nombreux medias ont analysé cette tendance grandissante. Facilement accessible et disponible 24h/24, des bots conversationnels tels que psychologist -qui a déjà reçu des centaines de millions de requêtes – voudraient offrir un soutien instantané à ceux qui cherchent des réponses sur leur bien-être mental. Cependant, son utilisation soulève également des risques qu’il est essentiel de connaître.

Les avantages
1. Accessibilité immédiate : Les outils IA permettent d’obtenir des réponses instantanées sur tous les sujets dont la psychologie et le bien-être mental, sans nécessiter de rendez-vous ni d’attente prolongée.
2. Éducation et sensibilisation : L’IA peut aider à mieux comprendre certains concepts psychologiques, identifier des troubles potentiels et orienter les utilisateurs vers des ressources adaptées. C’est ce qu’on appelle la psychoéducation. C’est un aspect essentiel de la thérapie.
« The bot has a lot to say and quickly makes assumptions, like giving me advice about depression when I said I was feeling sad. That’s not how a human would respond, »Theresa Pleman certified psychotherapist, BBC.com (2)
Les dangers
1. Absence de diagnostic fiable : Un robot conversationnel n’est pas un professionnel de la santé mentale et ne peut pas poser de diagnostic précis. Une mauvaise interprétation des symptômes pourrait induire en erreur l’utilisateur.
2. Manque d’adaptabilité émotionnelle : Un bot ne peut pas percevoir les émotions ni adapter son discours en fonction de la sensibilité de l’interlocuteur, contrairement à… un humain.
3. Risque de banalisation des problèmes : Une réponse automatisée peut donner une impression de simplification excessive, minimisant l’importance de troubles nécessitant une prise en charge professionnelle.
4. Risque d’aggravation : Certaines personnes pourraient se reposer excessivement sur l’outil au lieu de consulter un spécialiste, retardant ainsi une prise en charge appropriée et nécessaire.
5. Fausse impression de confidentialité : Bien que l’IA donne l’illusion d’un échange anonyme, les données partagées en ligne peuvent être stockées et exploitées. Il est essentiel de garder à l’esprit qu’internet conserve tout, ce qui peut poser un risque pour la protection des informations personnelles.
6. Absence de contact humain: L’IA ne peut remplacer les interactions humaines, essentielles au bien-être psychologique. Le manque de relations sociales peut aggraver l’isolement et, dans les cas les plus extrêmes, mener à des situations de détresse sévère comme l’hospitalisme (cf mon article #13)
L’IA est-elle une menace pour les métiers de la psychothérapie?
Les êtres humains, comme tous les mammifères, ont besoin pour se développer non simplement d’« informations » à traiter (C’est ce que peut apporter l’IA et cela nourrit ce qu’on vulgarise en IR en appelant le cerveau “du haut”), mais ils ont également besoin de contacts personnels (ce qui nourrit le cerveau dit “du bas” et que l’IA ne pourra jamais*** fournir), sans quoi il va subir des dommages irréparables (cf point 6).
Tête et corps; Psychisme et émotions / sensations ne font qu’un. La dissociation (i.e le manque de communication, de liens) entre les “deux cerveaux haut / bas” est dommageable. Les thérapies psychocorporelles considèrent l’être humain comme un tout, inséparable et visent à la réassociation. Les situations de dissociation sont nombreuses: quand nous sommes coupés de nos émotions, quand nous ne sentons plus les signaux que notre corps nous envoient (classique dans les burn out), quand nous tombons dans le contrôle (c’est le lit des addictions) et l’injonction (cf mon article #11 sur les limites de la méthode Coué), quand on cherche à comprendre toujours plus, à tout prix…
ChatGPT peut être un outil formidable d’alerte, de psychoéducation. Mais il n’est apte qu’à s’adresser au cerveau du “haut” quand l’attente des personnes dans le besoin de soin est au niveau du cerveau du “bas” et ce, le plus souvent, bien qu’elles l’ignorent ou le nient.
L’IA trouble les lignes et nous fait croire que notre “cerveau du bas” est nourri. C’est un mirage. Tout simplement. Et on peut mourir asséché en cherchant désespérément l’eau de l’oasis vu dans un mirage. Joséphine Arrighi de Casanova, vice-présidente du collectif MentalTech, met en garde contre cette illusion: “Chez un utilisateur qui est en souffrance psychologique […], cette pratique risque de l’isoler davantage. Et on sait que l’isolement est un facteur très aggravant pour la santé mentale.” (7)
“Users should consult certified professionals in the field for legitimate advice and guidance”. Porte parole de Character.ai
On peut se réjouir que les créateurs eux-mêmes du robot psychothérapeute voient les limites de leur invention et recommandent de consulter des professionnels de santé… humains ! et mentionnent en dessous de la commande que tout ce que le robot répond est de l’invention.
Conclusion
ChatGPT peut être un outil intéressant pour sensibiliser et informer sur la psychologie, mais il ne saurait remplacer l’expertise et encore moins le contact (!) d’un psychologue ou d’un psychothérapeute. Son usage doit rester complémentaire afin d’éviter des dérives qui pourraient nuire à la santé mentale des utilisat.eurs.rices. En cas de souffrance psychologique ou de questionnements, il est impératif de consulter un professionnel qualifié.
***J’utilise “jamais”… Mais… sait-on jamais? Les connaissances en neurobiologie progressent. Tout comme on a pu identifier les hormones du stress, du plaisir, de la récompense… on sait de mieux en mieux ce que provoque neurochimiquement le contact. Peut-être l’IA ira jusqu’à permettre la reformulation de ces hormones. Ce sera… un ersatz de contact. Mais les bénéfices du contact originel, naturel seront-ils aussi forts, complexes, riches que l’ersatz? Je recommande la lecture d’un excellent livre (21 leçons pour le XXIe siècle) sur les conséquences de l’association des connaissances en neurobiologie, intelligence artificielle et big data et vous laisse aller au bout de la lecture pour découvrir les “outils” proposés par l’auteur Yuval Harari. (Spoiler: c’est en phase avec cet article ^^)
Sources
(1) Podcast Le mouv’: chatGPT est mon psy
(2) Article BBC « Character.ai: Young people turning to AI therapist bots »
(3) Tiktok: talk with Aline
(4) Podcast culture internet 12/09/24
(5) Video Telematin : « chatGPT votre nouveau psy »
(6) Article Les inrocks « On a testé Psychologist, l’IA qui veut vous faire aller mieux »
(7) Article 20 minutes « Prendre ChatGPT comme psy, est-ce une si bonne idée ? »
Aller plus loin…
Documentaire Arte « L’humour, une drôle de thérapie »
Une remarque? Une critique? Une contribution ? N’hésitez pas à vous exprimer ci-dessous en commentaires ! Au plaisir de vous lire !
Vous souhaitez commencer ou reprendre une psychothérapie avec un professionnel qualifié, contactez-moi.
Recevoir les derniers articles
Vous souhaitez lire mes prochaines publications ?