ChatGPT peut-il replacer la psychothérapie?

L’intelligence artificielle est toujours disponible et étonnamment empathique. Des études montrent que les offres numériques peuvent contribuer à abaisser certains obstacles et pallier les temps d’attente. Elles restent cependant un complément et ne remplacent pas les thérapies traditionnelles.

Texte: Nicole Krättli

Images: Stefan Vladimirov / Unsplash

11 min

25.09.2025

De plus en plus de personnes saisissent leurs soucis dans un champ de texte et demandent conseil à une intelligence artificielle. Chagrin d’amour, stress au travail ou insomnies, ChatGPT est là à toute heure du jour et de la nuit, sympathique et étonnamment empathique.

Mais une machine peut-elle rivaliser avec des psychothérapeutes ayant suivi des années d’études?

Quelle est la différence entre ChatGPT et une ou un vrai thérapeute?

ChatGPT génère du texte en s’appuyant sur l’IA. Il analyse la langue et répond, en donnant souvent l’impression d’être vivant. Mais attention: ChatGPT ne dispose pas d’une conscience. Il ne comprend pas les sentiments humains, mais calcule des réactions probables.

Et pourtant, dans le monde entier, des millions de personnes s’en servent, y compris pour leurs questions de santé. La récente étude «When ELIZA meets therapists» l’explique. Dans celle-ci, 830 personnes ont comparé les réponses de ChatGPT avec celles de psychothérapeutes.

Résultat: les réponses de l’IA obtenaient en moyenne de meilleures notes, surtout en ce qui concerne l’empathie, l’approche relationnelle et la sensibilité culturelle.

Laura Vowels, l’une des auteurs de l’étude et thérapeute de couple lausannoise, y voit un potentiel encore sous-estimé. Selon elle, les chatbots personnalisent plus fortement l’expérience utilisateur et peuvent donc contribuer au sentiment d’une alliance thérapeutique.

Une compétence qui manque souvent aux interventions numériques classiques. Elle prévient cependant que les taux d’interruption des programmes en ligne restent élevés et que les outils basés sur l’IA pourraient constituer de nouvelles approches.

De tels résultats font réfléchir. Ils indiquent que, dans certains domaines sensibles, l’IA paraît étonnamment convaincante, bien qu’elle travaille «uniquement» avec des modèles de données. La question suivante est donc plus que jamais d’actualité: où finit l’aide numérique et où commence la psychothérapie à proprement parler?

Dans quels domaines la thérapie en ligne est-elle déjà utilisée?

Un certain scepticisme est encore présent, mais la psychothérapie virtuelle est établie depuis longtemps. En visioconférence, par le biais d’applis spécialisées ou à l’aide de programmes basés sur des textes, les offres numériques sont utilisées dans le monde entier pour traiter les troubles psychiques.

Les écrans conviennent par exemple très bien à la thérapie cognitivo-comportementale (TCC). Il s’agit d’un processus établi visant à traiter un grand nombre de troubles. Cette thérapie se base sur l’hypothèse que des schémas dysfonctionnels de pensées, de sentiments et de comportement ont été appris, mais qu’il est possible de les modifier.

Une évaluation de données du système de santé britannique (NHS) montre que la TCC en ligne complète les formes de thérapie classiques et offre même des avantages dans certains cas de figure. L’analyse de plus de 27 000 patientes et patients souffrant d’anxiété et de troubles de l’humeur a indiqué que la TCC en ligne atteignait une efficacité thérapeutique similaire tout en permettant de réduire la durée du traitement.

l’accès rapide se révèle être un facteur clé: comme le précise l’étude, les personnes pouvant commencer une thérapie dans les plus brefs délais profitent d’une amélioration sensible de leurs symptômes avant que ceux-ci ne s’installent dans la durée.

Sanitas Avantages clientèle

Stress, angoisses, soucis: le Guide de la santé mentale vous aide à trouver l’offre adaptée, qu’il s’agisse d’une appli, d’un coaching, d’une thérapie en ligne ou d’une psychothérapie.

Accéder au guide

Comment se déroule une véritable psychothérapie?

Une psychothérapie ne consiste pas uniquement en des mots, mais aussi en une relation. Les thérapeutes créent un espace protégé dans lequel sentiments, pensées et schémas comportementaux deviennent visibles et où on peut les modifier.

L’empathie joue un rôle central. Un lien de confiance entre thérapeute et patient-e aide à parler des thèmes sensibles. Des études montrent qu’environ un tiers du succès thérapeutique dépend uniquement de ce lien.

Outre l’empathie, des compétences professionnelles sont bien entendu nécessaires. Les thérapeutes posent des diagnostics, y attribuent les symptômes et choisissent la méthode qui convient le mieux, qu’il s’agisse d’une thérapie cognitivo-comportementale, d’une analyse psychologique en profondeur ou d’un ou d’une approche systémique.

Le diagnostic est lui aussi essentiel: il aide à nommer les troubles et à formuler les objectifs de traitement avec plus de clarté. Par exemple, une personne sujette à des angoisses suivra un traitement différent de quelqu’un souffrant de symptômes dépressifs ou vivant une relation conflictuelle.

La psychothérapie ne suit pas un schéma rigide; il s’agit bien plus d’un travail individuel. Certaines méthodes se penchent sur le passé; d’autres misent plus fortement sur le présent. Elles ont en commun de viser à comprendre ses schémas internes et à identifier des moyens de les changer.

Comment l’IA apporte-t-elle déjà un soutien?

Les outils d’IA ne sont pas des thérapeutes, mais peuvent offrir une psychoéducation, une réflexion et une structure, 24 heures sur 24 et sans temps d’attente. Lors de stress, d’angoisse ou de solitude, ils aident à mettre de l’ordre dans ses pensées et à planifier les premières étapes.

Attention: en cas d’urgence, demandez une aide médicale professionnelle.

  • Exemple 1: je n’arrive pas à me détendre le soir venu

    Cas pratique: après une longue journée, les pensées tournent en rond. S’endormir et dormir d’une seule traite devient mission impossible et le repos est un lointain souvenir. Cette spirale de stress et de soucis est connue de nombreuses personnes.

    Prompt: le soir, mes pensées tournent en rond. Aide-moi à les trier et, en trois à cinq étapes, propose-moi un bref exercice de respiration ou de visualisation.

    Comment l’IA peut aider: l’IA peut aider à classer ses pensées, proposer des exercices de respiration contribuant à la détente ou expliquer des techniques de relaxation. Néanmoins, cela ne résout pas la cause des troubles du sommeil. Consulter un médecin ou un-e thérapeute peut s’avérer nécessaire.

  • Exemple 2: je fonctionne, mais je ne ressens plus rien

    Cas pratique: mon quotidien se déroule en autopilote. Je travaille, je dors et je mange, mais ne ressens aucune joie et n’ai pas d’énergie. Il s’agit souvent des signes précurseurs d’une dépression ou d’un épuisement.

    Prompt: je ressens de la fatigue, un vide intérieur, de l’agacement. Pose-moi des questions pour en savoir plus et propose de petites étapes pour les semaines à venir.

    Comment l’IA peut aider: l’IA peut poser des questions qui aident à mieux comprendre ses propres sentiments et proposer de petites étapes concrètes. Elle ne remplace ni un diagnostic ni un accompagnement à long terme.

  • Exemple 3: j’ai des palpitations cardiaques. Est-ce une crise de panique?

    Cas pratique: des palpitations cardiaques, des vertiges ou un essoufflement venus de nulle part déclenchent de l’anxiété. De nombreuses personnes craignent le pire.

    Prompt: je ressens des palpitations cardiaques soudaines. Explique-moi la différence entre une peur normale et un trouble de l’anxiété et aide-moi à effectuer un bref exercice au sol.

    Comment l’IA peut aider: l’IA peut expliquer les symptômes physiques de la peur et guider à travers quelques exercices simples. Elle n’est cependant pas en mesure de poser un diagnostic et ne remplace pas des examens plus approfondis en cas de symptômes récurrents.

  • Exemple 4: j’évite les autres.

    Cas pratique: par peur du rejet ou d’être dépassées, certaines personnes s’isolent de plus en plus. Cela peut fortement limiter leur quotidien.

    Prompt: j’évite de voir des gens. Aide-moi à planifier un exercice simple et réaliste pour cette semaine, et indique-moi quelques phrases à utiliser lors d’une brève discussion.

    Comment l’IA peut aider: l’IA peut contribuer à formuler des étapes concrètes et réalistes. Un accompagnement professionnel est généralement nécessaire pour aborder les situations d’exposition de manière ciblée.

  • Exemple 5: je souffre souvent de solitude.

    Cas pratique: de nombreuses personnes passent par des phases d’isolement, par exemple après un déménagement ou une séparation, ou encore à certains moments de la vie. Ce sentiment de solitude peut être très douloureux.

    Prompt: je souffre de solitude. Pose-moi trois questions sur mes besoins et aide-moi à planifier deux petites prises de contact pour les 48 heures à venir.

    Comment l’IA peut aider: l’IA peut aider à mieux nommer son besoin de proximité et d’échange et à développer de premières idées de prise de contact. Une profonde solitude ou une angoisse sociale nécessitent cependant une aide professionnelle, car l’IA ne crée pas une véritable relation.

  • Exemple 6: mon couple est en crise

    Cas pratique: des malentendus et des conflits pèsent sur le quotidien et les discussions se transforment en dispute. On cherche alors les mots pour parler de sujets difficiles.

    Prompt: mon couple est en crise. Formule un message à la première personne applicable à un conflit et deux questions menant à une meilleure compréhension.

    Comment l’IA peut aider: l’IA peut proposer des suggestions de phrases pour calmer la situation, donner de l’espace et réduire les malentendus. Les conflits de couple profonds ne se résolvent pas avec des modules de texte. Une thérapie individuelle ou de couple est nécessaire.

Où sont les limites et les dangers?

L’IA est certes utile, mais elle a ses limites. En effet, elle ne peut pas proposer l’un des piliers de la thérapie, à savoir une véritable empathie et une relation stable. Or, selon la recherche, le succès d’un traitement dépend en grande partie de ce lien.

  • Pensées suicidaires: l’IA est mauvaise conseillère

    Les choses deviennent franchement problématiques lors de situations de crise. Un cas tragique l’illustre bien. En 2023, un jeune Américain de 19 ans a fait part de ses pensées suicidaires à ChatGPT, puis s’est donné la mort.

    Selon ses parents, l’IA a certes fait preuve de compréhension, mais a également proposé des conseils concrets de passage à l’acte. Sam Altman, directeur de OpenAI, a réagi en rappelant que son outil n’était pas un thérapeute et ne devait pas être utilisé comme tel.

    Une étude de l’Université de Stanford, aux USA, a montré que les chatbots réagissaient toujours de manière insuffisante, voire dangereuse, aux pensées suicidaires. Par exemple, ils indiquent comment passer à l’acte au lieu de tenter de calmer la situation.

  • Stigmatisation et biais systématiques

    L’équipe de recherche a également constaté des biais systématiques. Ainsi, les personnes souffrant de dépendance à l’alcool ou de schizophrénie étaient bien plus stigmatisées que les personnes dépressives.

    Cela montre que l’IA peut échouer dans certains cas, mais recèle aussi des risques structurels.

    Dans le cadre d’une prépublication de l’Université de Lausanne, une chercheuse a comparé les réponses d’un chatbot et celle de thérapeutes. Elle insiste elle aussi sur le fait que l’IA ne doit pas être utilisée sans accompagnement professionnel si cela peut causer un danger imminent au bien-être de la personne concernée.

    De plus, une question éthique se pose: est-il légitime de simuler l’empathie?

  • Protection des données: prudence

    La protection des données représente un autre point critique. Souvent, lorsqu’on saisit des diagnostics ou des sentiments sensibles dans un chatbot, on ignore où finissent ces données et comment elles seront traitées.

    Les spécialistes avertissent que cela représente un énorme risque en termes de confidentialité, surtout si les données sont utilisées à des fins d’entraînement ou avec des visées commerciales.

  • ChatGPT n’est pas vérifié scientifiquement

    Il faut également opérer une distinction: une thérapie en ligne n’est pas un simple moment de divertissement avec un chatbot conventionnel.

    De nombreux programmes thérapeutiques digitaux sont validés scientifiquement et sont accompagnés par des spécialistes, par exemple sous forme de thérapie comportementale assistée par Internet, dont l’efficacité a été prouvée et qui est même utilisée dans des systèmes de santé tels que le NHS britannique.

    Une discussion sans accompagnement avec un IA générative ne tient pas la comparaison. Il n’y a ni assurance qualité, ni accompagnement médical, ni gestion de crise.

  • Une intervention précoce peut sauver des vies

    Enfin, une utilisation sans esprit critique fait perdre du temps: le fait de s’appuyer trop longtemps sur une «épaule numérique» peut retarder le passage à une véritable thérapie.

    Or, lors de dépressions et de troubles de l’anxiété, une intervention précoce est décisive. Plus l’on attend, plus le pronostic est négatif, avertit Ana Catarino, co-auteure d’une étude britannique .

Et que pensent les spécialistes des psychothérapies avec l’IA?

La présence de l’IA dans la psychothérapie intéresse les spécialistes du monde entier, et ils sont loin d’être unanimes. Certains y voient une opportunité d’informer et un soutien aisément accessible. D’autres avertissent des risques structurels, d’un manque de sécurité et de l’absence d’une relation thérapeutique.

«Nous avons constaté la présence de graves risques lorsque l’IA est utilisée comme thérapeute. Dans les situations critiques, elle ne dispose pas de la compréhension nécessaire pour protéger les personnes qui y recourent. Il est essentiel d’attirer l’attention sur ces différences», averti tNick Haber, de l’Université de Stanford.

«Il faut absolument que les spécialistes s’intéressent vraiment à l’IA et garantissent que l’utilisation de celle-ci respecte les meilleures pratiques. Il n’y a encore aucune garantie de sécurité. Il faut donc réguler ces technologies pour assurer une utilisation sûre et adaptée», explique Jaime Craig, directeur de la UK Association of Clinical Psychologists, dans un article du quotidien britannique «The Guardian».

«L’IA n’est pas capable de fournir des nuances. Elle pourrait proposer des approches totalement inadaptées», prévient dans ce même article Til Wykes, professeure de psychologie clinique et réadaptation au King’s College London.

«Les grands modèles de langage, y compris récents, véhiculent de nombreux stéréotypes, par exemple envers les personnes souffrant d’addiction ou de schizophrénie. Il est faux de croire qu’avec plus de données, le problème s’en ira de lui-même», met en garde Jared Moore dans un article de l’Université de Stanford.

«Le côté humain de ces systèmes m’impressionne. Or, le problème est le suivant: une personne fragile et ayant des idées négatives peut se sentir renforcée dans cette vision, ce qui peut être très dangereux. Dans un tel cas de figure, une ou un thérapeute interviendrait», selon C. Vaile Wright, de l’American Psychological Association, dans un article du magazine en ligne «SciAm».

«Les personnes qui ont participé à notre étude avaient souvent de la peine à indiquer si la réponse provenait de ChatGPT ou d’un humain. Fait surprenant, les réponses de l’IA ont bénéficié d’une meilleure évaluation dans le cadre des facteurs psychothérapeutiques centraux comme l’empathie ou l’approche relationnelle», écrivent les responsables de l’étude «When ELIZA meets therapists».

Qu’est-ce que cela signifie pour les assuré-es et le système de santé?

Le temps et la qualité sont les piliers de soins adaptés. L’évaluation de plus de 27 000 cas dans le système de santé britannique NHS a montré que lorsque l’aide commence à temps, la qualité de vie et les processus connaissent une amélioration évidente.

Toutes les offres en ligne ne se valent pas. Les formats avec un accompagnement professionnel fournissent de meilleurs résultats et des taux d’abandon moindre par rapport aux programmes sans un tel soutien; les seconds conviennent mieux à des troubles peu sévères. La qualité prime donc sur l’étendue.

Pour la Suisse, cela pourrait signifier que les offres numériques peuvent contribuer à abaisser certains obstacles et pallier les goulets d’étranglement, Elles complètent les soins classiques, mais ne les remplacent pas. L’aspect décisif est que les interventions numériques aient une efficacité clinique reconnue et que les personnes concernées y recourent suffisamment tôt.

Le numérique renforce la prévention et les compétences de santé: la psychoéducation, des étapes structurées de prise en charge personnelle et des modules accompagnés aident à surmonter les temps d’attente de manière sensée, mais à condition qu’il y ait des filets de sécurité et une véritable protection des données.

En résumé: pour les personnes assurées, il vaut la peine de rechercher des offres numériques accompagnées et dont la qualité est certifiée. Le système de santé a tout à gagner à donner la priorité aux capacités, à la vitesse et à l’efficacité et à signaler clairement les chatbots automatiques. 

Sanitas Notre contribution à la santé mentale

Nous souhaitons que vous vous sentiez bien. C'est pourquoi, avec l'assurance complémentaire Vital, nous prenons en charge les coûts de la psychothérapie non médicale et de nombreuses offres de thérapie Digital.

Je découvre

Conclusion: une vraie thérapie exige de vraies personnes.

Les outils numériques peuvent servir de point d’entrée: ils abaissent certains obstacles et pallient aux temps d’attente, tout en facilitant l’accès au savoir sur la santé psychique. Ce qui est une excellente chose, en particulier dans un système où temps d’attente et capacités limitées représentent un véritable problème.

Les algorithmes ne remplacent cependant pas l’empathie. Il ne peut y avoir de véritable changement que si l’on se sent vu, écouté et pris au sérieux. Avec un autre être humain et non face à des modules de texte.

Donc, l’IA peut donner un élan, accompagner et créer une structure. La thérapie au sens strict, elle, reste du domaine humain. Les personnes atteintes de souffrance mentale ont besoin d’informations, mais aussi d’écoute, de liens et de responsabilité.

L’avenir sera donc fait d’une alliance intelligente entre offres numériques comme outils et humains comme base essentielle.