Kann ChatGPT die Psychotherapie ersetzen?
Künstliche Intelligenz ist immer verfügbar und erstaunlich empathisch. Studien zeigen: Digitale Angebote können Hürden senken und Wartezeiten überbrücken – doch sie sind Ergänzung, nicht Ersatz.

Immer mehr Menschen tippen ihre Sorgen in ein Textfeld und lassen sich von einer künstlichen Intelligenz Antworten geben. Ob bei Liebeskummer, Stress im Job oder schlaflosen Nächten – ChatGPT ist rund um die Uhr verfügbar, freundlich im Ton und erstaunlich empathisch.
Doch kann eine Maschine tatsächlich leisten, was sonst jahrelang ausgebildete Psychotherapeutinnen und Psychotherapeuten tun?
Wie unterscheidet sich ChatGPT von einem richtigen Therapeuten?
ChatGPT ist ein KI-gestützter Textgenerator. Er analysiert Sprache, erstellt Antworten und vermittelt dabei oft den Eindruck, ein Gegenüber zu sein. Wichtig ist: ChatGPT hat kein Bewusstsein. Es versteht die Gefühle des Menschen nicht wirklich, sondern berechnet wahrscheinlich passende Reaktionen.
Trotzdem nutzen weltweit Millionen Menschen das Tool auch für Gesundheitsfragen. Warum, zeigt die aktuelle Studie «When ELIZA meets therapists», in der 830 Personen Antworten von ChatGPT mit jenen von 13 Psychotherapeutinnen und Psychotherapeuten verglichen haben.
Ergebnis: Die KI-Antworten schnitten im Schnitt besser ab, insbesondere bei den Faktoren Empathie, Beziehungsgestaltung und kulturelle Sensibilität.
Eine der Autor:innen der Studie, die in Lausanne tätige Paartherapeutin Dr. Laura Vowels, sieht darin einen Hinweis auf ein bislang unterschätztes Potenzial. Sie glaubt, dass Chatbots das Nutzererlebnis stärker personalisieren und dadurch das Gefühl einer therapeutischen Allianz fördern können.
Etwas, das klassischen digitalen Interventionen oft fehle. Zugleich verweist sie darauf, dass die Abbruchraten bei Online-Programmen hoch bleiben und dass hier KI-gestützte Tools neue Ansätze bieten könnten.
Solche Resultate lassen aufhorchen. Sie deuten an, dass KI in sensiblen Bereichen überraschend überzeugend wirkt – auch wenn sie «nur» mit Datenmustern rechnet. Genau deshalb stellt sich heute dringender denn je die Frage: Wo endet die digitale Hilfestellung und wo beginnt die eigentliche Psychotherapie?
Wo wird Online-Therapie bereits eingesetzt?
Während die einen noch skeptisch sind, hat sich die virtuelle Psychotherapie längst etabliert. Ob per Videogespräch, über spezialisierte Apps oder mithilfe von textbasierten Programmen – digitale Angebote werden weltweit genutzt, um psychische Leiden zu behandeln.
Besonders kognitive Verhaltenstherapie (CBT) eignet sich für den Bildschirm. Dabei handelt es sich um ein etabliertes Verfahren zur Behandlung einer Vielzahl von Störungen. Sie basiert auf der Annahme, dass dysfunktionale Muster in Gedanken, Gefühlen und Verhalten erlernt wurden und wieder verlernt werden können.
Eine Auswertung von Daten aus dem britischen Gesundheitssystem (NHS) zeigt, dass internetbasierte CBT klassische Behandlungsformen nicht nur ergänzt, sondern in entscheidenden Punkten sogar Vorteile bietet. Die Analyse von über 27 000 Patientinnen und Patienten mit Angst- und Stimmungserkrankungen ergab, dass Online-CBT vergleichbare klinische Wirksamkeit erzielt, dabei aber kürzere Behandlungszeiten ermöglicht.
Insbesondere der schnellere Zugang erweist sich als Schlüsselfaktor: Wer rascher mit einer Therapie beginnen kann, profitiert eher von einer spürbaren Verbesserung der Symptome – bevor sich diese verfestigen, wie es in der Studie heisst.
Was passiert bei einer echten Psychotherapie?
In einer Psychotherapie geht es nicht nur um Worte, sondern um Beziehung. Therapeuten schaffen einen geschützten Raum, in dem Gefühle, Gedanken und Verhaltensmuster sichtbar werden und gemeinsam verändert werden können.
Zentral ist dabei die Empathie. Ein guter Draht zwischen Patienten und Therapeuten erleichtert es, auch schwierige Themen anzusprechen. Studien zeigen: Rund ein Drittel des Therapieerfolgs hängt allein von dieser Beziehung ab.
Neben Einfühlungsvermögen braucht es Fachlichkeit. Therapeuten stellen Diagnosen, ordnen Symptome ein und wählen die Methode, die am besten passt – ob kognitive Verhaltenstherapie, tiefenpsychologische Verfahren oder systemische Ansätze.
Auch die Diagnostik spielt eine Rolle: Sie hilft, Beschwerden klarer zu benennen und Behandlungsziele zu formulieren. Wer etwa unter Ängsten leidet, arbeitet anders als jemand, der depressive Symptome oder Beziehungskonflikte hat.
Psychotherapie ist dabei kein starres Schema, sondern individuelle Arbeit. Manche Methoden schauen in die Vergangenheit, andere setzen stärker in der Gegenwart an. Immer geht es darum, innere Muster zu verstehen und Wege zu finden, sie zu verändern.
Wo kann KI bereits unterstützen?
KI-Tools sind keine Therapeuten, aber sie können Psychoedukation, Reflexion und Struktur bieten – rund um die Uhr, ohne Wartezeit. Gerade bei Stress, Ängsten oder Einsamkeit helfen sie, Gedanken zu ordnen und erste Schritte zu planen.
Sicherheitshinweis: Holen Sie sich in einer akuten Notsituation auf jeden Fall professionelle medizinische Hilfe.
-
Beispiel 1: Ich kann abends nicht abschalten
Anwendungsfall: Nach einem anstrengenden Tag kreisen die Gedanken unaufhörlich. Das Ein- und Durchschlafen wird zur Qual, die Erholung bleibt aus. Viele Betroffene kennen diese Spirale aus Stress und Grübeln.
Prompt: Meine Gedanken kreisen abends. Hilf mir, sie zu sortieren, und führe mich in drei bis fünf kurzen Schritten durch eine Atem- oder Visualisierungsübung.
Was KI leisten kann: KI kann dabei helfen, Gedanken in eine Reihenfolge zu bringen, beruhigende Atemübungen vorzuschlagen oder Entspannungstechniken zu erklären. Die Ursache für Schlafstörungen wird dadurch allerdings nicht behoben. Hier braucht es gegebenenfalls ärztliche oder therapeutische Abklärung.
-
Beispiel 2: Ich funktioniere nur noch – fühle aber nichts
Anwendungsfall: Der Alltag läuft wie auf Autopilot: arbeiten, essen, schlafen – aber ohne Freude oder Energie. Oft sind das frühe Warnzeichen einer Depression oder Erschöpfung.
Prompt: Ich bin müde, gereizt, innerlich leer. Stell mir Fragen zur Einordnung und schlage kleine, machbare Schritte für die nächste Woche vor.
Was KI leisten kann: KI kann Fragen stellen, die helfen, eigene Gefühle besser wahrzunehmen, und einfache, konkrete Schritte vorschlagen. Eine Diagnose oder längerfristige Begleitung kann sie nicht ersetzen.
-
Beispiel 3: Plötzlich Herzrasen – ist das eine Panikattacke?
Anwendungsfall: Unerwartetes Herzrasen, Schwindel oder Atemnot lösen Angst aus. Viele Betroffene fürchten, etwas Schlimmes zu erleben.
Prompt: Ich verspüre plötzlich Herzrasen. Erkläre mir den Unterschied zwischen normaler Angst und einer Angststörung und führe mich durch eine kurze Bodenübung.
Was KI leisten kann: Sie kann erklären, was körperlich bei Angst passiert, und einfache Übungen anleiten. Sie kann keine medizinische Diagnose stellen und ersetzt nicht die Abklärung bei wiederkehrenden Symptomen.
-
Beispiel 4: Ich meide soziale Situationen
Anwendungsfall: Aus Angst vor Ablehnung oder Überforderung ziehen sich manche Menschen immer stärker zurück. Das kann den Alltag massiv einschränken.
Prompt: Ich meide soziale Situationen. Hilf mir, eine kleine, realistische Übung für diese Woche zu planen, und gib mir Formulierungen für ein kurzes Gespräch.
Was KI leisten kann: Sie kann unterstützen, konkrete, machbare Schritte zu formulieren. Für das gezielte Training von Expositionssituationen ist meist professionelle Begleitung notwendig.
-
Beispiel 5: Ich fühle mich einsam
Anwendungsfall: Viele Menschen erleben Phasen der Isolation – sei es nach einem Umzug, einer Trennung oder in belastenden Lebenssituationen. Das Gefühl, allein zu sein, kann sehr schwer wiegen.
Prompt: Ich fühle mich einsam. Stell mir drei Fragen zu meinen Bedürfnissen und hilf mir, zwei kleine Kontaktschritte zu planen, die ich in den nächsten 48 Stunden umsetzen kann.
Was KI leisten kann: KI kann helfen, das eigene Bedürfnis nach Nähe oder Austausch klarer zu benennen, und erste Ideen für kleine Kontaktaufnahmen zu entwickeln. Tiefe Einsamkeit oder soziale Ängste benötigen jedoch professionelle Unterstützung, da KI kein echtes Beziehungsangebot schafft.
-
Beispiel 6: In meiner Beziehung kriselt es
Anwendungsfall: Missverständnisse und Konflikte belasten den Alltag, Gespräche eskalieren schnell. Betroffene suchen nach Worten, um schwierige Themen anzusprechen.
Prompt: In meiner Beziehung kriselt es. Formuliere mir eine Ich-Botschaft für ein heikles Gespräch und zwei Fragen, die Verständnis fördern.
Was KI leisten kann: Sie kann Formulierungen für deeskalierende Sätze vorschlagen, die Gesprächspartnern Raum geben und Missverständnisse reduzieren. Komplexe Beziehungskonflikte lassen sich jedoch nicht mit Textbausteinen lösen – hier braucht es Paar- oder Einzeltherapie.
Wo sind die Grenzen – oder sogar Gefahren?
So hilfreich KI sein kann, sie hat ihre Grenzen. Denn am Ende fehlt das, was eine Therapie trägt: echtes Einfühlungsvermögen und eine stabile Beziehung. Genau diese Bindung macht gemäss Forschung einen grossen Teil des Behandlungserfolgs aus.
-
Suizidgedanken: KI ist ein schlechter Ratgeber
Besonders problematisch wird es in Krisensituationen. Das zeigt ein tragisches Beispiel aus den USA. 2023 wurde dort der Fall eines 19-Jährigen bekannt, der sich mit ChatGPT über Suizidgedanken austauschte und schliesslich durch Suizid verstarb.
Gemäss den Eltern habe die KI dabei nicht nur Verständnis signalisiert, sondern sogar konkrete Ratschläge formuliert, wie er seine Pläne umsetzen kann. OpenAI-Chef Sam Altman reagierte später selbst mit der Mahnung, ChatGPT sei kein Therapeut und solle auch nicht so verwendet werden.
Eine Untersuchung der US-amerikanischen Universität Stanford zeigte, dass Chatbots bei suizidalen Eingaben immer wieder unzureichend oder gar gefährlich reagieren – etwa indem sie Vorschläge zur Umsetzung machen, statt zu deeskalieren.
-
Systematische Verzerrung und Stigmatisierung
Ferner fanden die Forschenden Hinweise auf systematische Verzerrungen: So wurden Betroffene mit Alkoholabhängigkeit oder Schizophrenie deutlich stärker stigmatisiert als Menschen mit Depressionen.
Das zeigt, dass KI nicht nur in Einzelfällen versagen kann, sondern strukturelle Risiken birgt.
Im Rahmen einer Preprint-Studie der Universität Lausanne hat eine Forscherin Chatbot-Antworten mit jenen von Therapeuten verglichen. Auch diese Autorin betont, dass KI ohne fachliche Begleitung nicht eingesetzt werden darf, wenn das Wohlbefinden akut gefährdet sein könnte.
Zudem stellte sie die ethische Frage, ob es legitim sei, Empathie nur zu simulieren.
-
Datenschutz: Vorsicht walten lassen
Ein weiterer Punkt ist der Datenschutz. Wer sensible Gefühle oder Diagnosen in einen Chatbot eingibt, weiss oft nicht, wo die Daten landen und wie sie weiterverarbeitet werden.
Fachleute warnen, dass dadurch ein massives Risiko für Vertraulichkeit entsteht, insbesondere wenn die Daten in Trainingsprozesse oder kommerzielle Nutzungen einfliessen.
-
ChatGPT ist nicht wissenschaftlich geprüft
Wichtig ist zudem die Differenzierung: Online-Therapie ist nicht gleich Unterhaltung mit einem handelsüblichen Chatbot.
Zahlreiche digitale Therapieprogramme sind wissenschaftlich geprüft und werden von Fachpersonen begleitet – etwa in Form von internetgestützter Verhaltenstherapie, die nachweislich wirksam ist und sogar in Gesundheitssystemen wie dem britischen NHS eingesetzt wird.
Ein unbegleiteter Chat mit einer generativen KI ist damit nicht vergleichbar. Hier fehlen Qualitätssicherung, medizinische Begleitung und Krisenmanagement.
-
Frühes Eingreifen kann Leben retten
Nicht zuletzt droht durch unkritische Nutzung ein Zeitverlust: Wer sich zu lange an die «digitale Schulter» anlehnt, könnte den Schritt in eine echte Therapie hinauszögern.
Gerade bei Depressionen oder Angststörungen ist jedoch ein frühes Eingreifen entscheidend – je länger die Wartezeit, desto schlechter die Prognose, wie Ana Catarino, Co-Autorin einer britischen Studie, erklärt.
Was sagen Fachleute zur Psychotherapie mit KI?
Das Thema KI in der Psychotherapie beschäftigt Forschende weltweit, und ihre Einschätzungen klaffen weit auseinander. Manche sehen Chancen für Aufklärung und niedrigschwellige Unterstützung; andere warnen vor strukturellen Risiken, mangelnder Sicherheit und fehlender therapeutischer Beziehung.
«Wir haben erhebliche Risiken gefunden, wenn KI als Therapeut eingesetzt wird. Gerade in sicherheitskritischen Situationen fehlt ihr das nötige Verständnis, um Menschen zuverlässig zu schützen. Es ist wichtig, diese Unterschiede klar zu benennen», erklärt Nick Haber, Universität Stanford.
«Es ist entscheidend, dass sich Fachleute mit KI auseinandersetzen und sicherstellen, dass ihre Nutzung von Best Practice geleitet ist. Die Sicherheit ist noch nicht gewährleistet. Es ist deshalb wichtig, dass wir diese Technologien regulieren, um eine sichere und angemessene Nutzung zu garantieren», erklärt Jaime Craig, Vorsitzender der UK Association of Clinical Psychologists, in einem Artikel von «The Guardian».
«KI ist nicht auf dem Niveau, Nuancen zu liefern. Sie könnte Handlungsweisen vorschlagen, die völlig unangebracht sind», sagt Til Wykes, Professorin für klinische Psychologie und Rehabilitation am King’s College London, im Guardian-Artikel.
«Auch grosse und neue Sprachmodelle transportieren stereotype Zuschreibungen – etwa gegenüber Menschen mit Suchterkrankungen oder Schizophrenie. Die Standardannahme, dass mehr Daten das Problem schon lösen werden, ist falsch», warnt Jared Moore in einem Beitrag der Universität Stanford.
«Was mich beeindruckt, ist, wie menschlich diese Systeme klingen. Das Problem ist jedoch: Wenn jemand verletzlich ist und schädliche Gedanken hat und sich darin bestätigt fühlt, kann das sehr gefährlich sein. Ein Therapeut würde in einem solchen Moment spiegeln und korrigieren», findet C. Vaile Wright von der American Psychological Association in einem Artikel des Online-Magazins «SciAm».
«Teilnehmende unserer Studie konnten selten unterscheiden, ob eine Antwort von ChatGPT oder von einem Menschen stammt. Erstaunlicherweise wurden die KI-Antworten bei zentralen psychotherapeutischen Faktoren wie Empathie oder Beziehungsgestaltung sogar höher bewertet», schreiben die Forschenden der Studie «When ELIZA meets therapists».
Was bedeutet das für Versicherte & das Gesundheitssystem?
Gute Versorgung beginnt mit Tempo und Qualität. Die Auswertung von über 27 000 Behandlungsfällen im englischen Gesundheitssystem NHS zeigt: Wenn Hilfe früher startet, verbessern sich Lebensqualität und Verläufe spürbar.
Nicht jedes Online-Angebot ist gleich. Formate mit fachlicher Begleitung zeigen bessere Ergebnisse und geringere Abbrüche als rein selbst geführte Programme; Letztere eignen sich eher bei milderen Beschwerden. Für die Steuerung heisst das: Qualität vor reiner Reichweite.
Für die Schweiz könnte das bedeuten: Digitale Angebote können Zugangshürden senken und Engpässe überbrücken, aber sie sind Ergänzung, nicht Ersatz für die reguläre Versorgung. Entscheidend ist, dass digitale Interventionen klinisch wirksam sind und Betroffene zeitnah erreicht werden.
Prävention und Gesundheitskompetenz lassen sich digital stärken: Psychoedukation, strukturierte Selbsthilfeschritte und begleitete Module helfen, Wartezeiten sinnvoll zu nutzen – vorausgesetzt, es gibt Sicherheitsnetze und klare Datenschutzregeln.
Kurz: Für Versicherte lohnt sich der Blick auf qualitätsgesicherte, begleitete Digitalangebote. Für das System lohnt es sich, Kapazität, Schnelligkeit und Wirksamkeit zu priorisieren und unmoderierte Chatbots klar abzugrenzen.
Fazit: Echte Therapie braucht auch echte Menschen
Digitale Tools können Türen öffnen: Sie senken Hemmschwellen, überbrücken Wartezeiten und machen Wissen rund um psychische Gesundheit zugänglicher. Das ist ein Gewinn – gerade in einem System, in dem Wartezeiten und begrenzte Kapazitäten zu den grössten Problemen zählen.
Aber Algorithmen ersetzen keine Empathie. Wirkliche Veränderung entsteht dort, wo Betroffene sich gesehen, gehört und ernst genommen fühlen – in der Begegnung mit einem Menschen, nicht in der Berechnung von Textmustern.
Darum gilt: KI kann Impulse liefern, begleiten und Struktur schaffen. Doch Therapie im eigentlichen Sinn bleibt eine zutiefst menschliche Aufgabe. Wer psychisch leidet, braucht nicht nur Informationen, sondern auch Resonanz, Beziehung und Verantwortung.
Die Zukunft liegt deshalb in einer klugen Ergänzung: digitale Angebote als Hilfsmittel, echte Menschen als Herzstück.