ChatGPT può sostituire la psicoterapia?
L’intelligenza artificiale è sempre disponibile e incredibilmente empatica. Gli studi lo dimostrano: le offerte digitali possono ridurre gli scrupoli e i tempi di attesa; tuttavia vanno considerati come un’aggiunta e non un sostituto.
Sempre più persone inseriscono i propri sintomi in un campo di testo e ricevono risposte da un’intelligenza artificiale. Che si tratti di mal d’amore, stress sul lavoro o notti insonni, ChatGPT è disponibile 24 ore su 24, con un tono amichevole e un’empatia sorprendente.
Ma una macchina può davvero fare quello che fanno di solito le psicoterapiste con anni di formazione alle spalle?
In cosa si differenzia ChatGPT da un vero terapista?
ChatGPT è un generatore di testo supportato da IA. Analizza il linguaggio, crea risposte e spesso dà l’impressione di essere un interlocutore in carne e ossa. Importante: ChatGPT non ha coscienza. Non comprende realmente i sentimenti delle persone, ma calcola le reazioni probabilmente appropriate.
Nonostante ciò, milioni di persone in tutto il mondo utilizzano questo strumento anche per domande sullo stato di salute. L’attuale studio «When ELIZA meets therapists», in cui 830 persone hanno confrontato le risposte di ChatGPT con quelle di 13 psicoterapisti, mostra perché.
Risultato: le risposte dell’ IA hanno ottenuto un punteggio medio migliore, in particolare nei fattori empatia, costruzione di relazioni e sensibilità culturale.
Una delle autrici dello studio, la dottoressa Laura Vowels, terapista di coppia con sede a Losanna, ritiene che questo sia un’indicazione di un potenziale precedentemente sottovalutato. Ritiene che i chatbot possano personalizzare maggiormente l’esperienza dell’utente e quindi promuovere un senso di alleanza terapeutica.
Qualcosa che spesso manca nei classici interventi digitali. Allo stesso tempo, sottolinea che i tassi di abbandono dei programmi online rimangono elevati e che gli strumenti supportati dall’IA potrebbero offrire nuovi approcci.
Risultati di questo tipo fanno riflettere. Suggeriscono che l’IA è sorprendentemente convincente in aree sensibili, anche se si basa «solo» su modelli di dati. Proprio per questo, oggi più che mai, si pone la domanda: dove finisce il supporto digitale e dove inizia la psicoterapia vera e propria?
Dove viene già utilizzata la terapia online?
Anche se alcuni sono ancora scettici, la psicoterapia virtuale si è affermata da tempo. Che si tratti di videochiamate, app specializzate o programmi basati su testi, le offerte digitali sono utilizzate in tutto il mondo per trattare i disturbi psichici.
La terapia cognitivo-comportamentale (CBT) è particolarmente adatta per un uso allo schermo. Si tratta di una procedura consolidata per il trattamento di una serie di disturbi. Si basa sull’ammissione che i modelli disfunzionali nei pensieri, sentimenti e comportamenti siano stati appresi e possano essere disappresi.
Un’analisi dei dati del sistema sanitario britannico (NHS) mostra che la CBT basata su Internet non solo completa le forme di cura tradizionali, ma offre addirittura dei vantaggi in aree chiave. L’analisi di oltre 27 000 pazienti con disturbi d’ansia e dell’umore ha dimostrato che la CBT online raggiunge un’efficacia clinica comparabile, ma consente tempi di trattamento più brevi.
In particolare l’ accesso più rapido si sta rivelando un fattore chiave: Secondo lo studio, chi può iniziare il trattamento più rapidamente ha maggiori probabilità di beneficiare di un notevole miglioramento dei sintomi, prima che diventino permanenti.
Cosa succede durante una vera psicoterapia?
La psicoterapia non è fatta solo di parole, ma di relazioni. I terapisti creano uno spazio protetto in cui sentimenti, pensieri e schemi comportamentali diventano visibili e possono essere modificati insieme.
L’empatia è un elemento centrale. Un buon rapporto tra pazienti e terapisti rende più facile affrontare temi difficili. Gli studi lo dimostrano: circa un terzo del successo della terapia dipende solo da questa relazione.
Oltre all’empatia, è necessaria la competenza. I terapisti fanno diagnosi, classificano i sintomi e scelgono il metodo più adatto: terapia cognitivo-comportamentale, metodi di psicologia del profondo o approcci sistemici.
Anche la diagnostica svolge un ruolo importante: aiuta a dare un nome più chiaro ai disturbi e a formulare gli obiettivi della cura. Chi soffre di ansia, ad esempio, lavora in modo diverso da chi ha sintomi depressivi o conflitti relazionali.
La psicoterapia non segue uno schema rigido, ma è un percorso individuale. Alcuni metodi guardano al passato, altri si concentrano maggiormente sul presente. L’obiettivo è sempre quello di comprendere gli schemi interiori e trovare il modo di cambiarli.
Dove l’IA può già fornire supporto?
Gli strumenti di intelligenza artificiale non sono terapisti, ma possono offrire psicoeducazione, riflessione e struttura, 24 ore su 24, senza tempi di attesa. Soprattutto nei momenti di stress, ansia o solitudine, aiutano a organizzare i pensieri e a pianificare i primi passi.
Avviso di sicurezza: in una situazione di emergenza acuta, rivolgetevi sempre a un medico professionista.
-
Esempio 1: non riesco a staccare la spina la sera
Caso di applicazione: dopo una giornata stressante, si tende a rimuginare. Non si riesce ad addormentarsi e, quindi, a riposare. Un circolo vizioso fatto di stress e pensieri continui. Molte persone colpite lo conoscono bene.
Prompt: I miei pensieri vagano la sera. Aiutami a fare ordine e guidami attraverso un esercizio di respirazione o di visualizzazione in tre-cinque brevi passi.
Cosa può fare l’IA: l’IA può aiutare a organizzare i pensieri, suggerire esercizi di respirazione calmanti o spiegare tecniche di rilassamento. Tuttavia, questo non elimina la causa dei disturbi del sonno. Potrebbe essere necessario un consulto medico o terapeutico.
-
Esempio 2: funziono e basta, non provo nulla.
Caso di applicazione: viviamo la vita in modalità pilota automatico: lavorare, mangiare, dormire, ma senza provare gioia e senza energia. Spesso sono segnali precoci di depressione o di esaurimento.
Prompt: Sono stanco, irritabile, vuoto dentro. Fammi delle domande per capire meglio i miei sintomi e suggerisci piccoli passi fattibili per la prossima settimana.
Cosa può fare l’IA: L’IA può porre domande che aiutano a riconoscere meglio i propri sentimenti e suggerire passi semplici e concreti. Non può sostituire una diagnosi o un’assistenza a lungo termine.
-
Esempio 3: palpitazioni improvvise; si tratta di un attacco di panico?
Caso di applicazione: palpitazioni inattese, vertigini o dispnea scatenano l’ansia. Molte persone colpite temono subito il peggio.
Prompt: All’improvviso sento il cuore battere forte. Spiegami la differenza tra ansia normale e disturbo d’ansia e guidami attraverso un breve esercizio.
Cosa può fare l’IA: può spiegare cosa succede fisicamente in caso di ansia e guidare attraverso semplici esercizi. Non può fornire una diagnosi medica e non sostituisce un consulto in caso di sintomi ricorrenti.
-
Esempio 4: evito le situazioni sociali
Caso di applicazione: alcune persone si isolano sempre di più per paura del rifiuto o di essere sopraffatte. Questo può limitare enormemente la vita quotidiana.
Prompt: Evito le situazioni sociali. Aiutami a pianificare un piccolo esercizio realistico per questa settimana e dammi delle frasi per una breve conversazione.
Cosa può fare l’IA: può aiutare a formulare passi concreti e fattibili. Di solito è necessario un supporto professionale per l’addestramento mirato delle situazioni di esposizione.
-
Esempio 5: Mi sento solo
Caso di applicazione: molte persone attraversano fasi di isolamento, ad esempio dopo un trasferimento, una separazione o in situazioni di vita stressanti. La sensazione di essere soli può essere molto pesante.
Prompt: mi sento solo Fammi tre domande sulle mie esigenze e aiutatemi a pianificare due piccoli passi di contatto da attuare nelle prossime 48 ore.
Cosa può fare l’IA: l’IA può aiutare a identificare più chiaramente il proprio bisogno di vicinanza o di dialogo e a sviluppare le prime idee per entrare in contatto con altre persone. Tuttavia, la solitudine profonda o l’ansia sociale richiedono un supporto professionale, poiché l’IA non crea una relazione autentica.
-
Esempio 6: la mia relazione è in crisi.
Caso di applicazione: incomprensioni e conflitti mettono a dura prova la vita quotidiana, le conversazioni si intensificano rapidamente. Le persone in questione sono alla ricerca di parole per affrontare argomenti difficili.
Prompt: la mia relazione è in crisi. Formula un messaggio in prima persona al singolare per una conversazione delicata e due domande che favoriscano la comprensione.
Cosa può fare l’IA: può suggerire formulazioni per frasi di de-escalation che diano spazio agli interlocutori e riducano le incomprensioni. Tuttavia, i conflitti relazionali complessi non possono essere risolti con gli elementi modulari di testo, ma richiedono una terapia di coppia o individuale.
Quali sono i limiti o addirittura i pericoli?
Per quanto l’IA possa essere utile, ha i suoi limiti. Perché alla fine manca l’essenziale per una terapia: empatia genuina e un rapporto stabile. Secondo la ricerca, è proprio questo legame che spiega gran parte del successo della cura.
-
Pensieri suicidi: l’IA è un cattivo consulente
Diventa particolarmente problematico in situazioni di crisi. Lo dimostra un tragico esempio proveniente dagli Stati Uniti. Nel 2023 è stato reso noto il caso di un diciannovenne che ha usato ChatGPT per discutere di pensieri suicidi e che alla fine è morto suicida.
Secondo i genitori, l’IA non solo ha mostrato comprensione, ma ha persino formulato consigli concreti su come attuare i suoi piani. Lo stesso Sam Altman, capo di OpenAI, ha poi risposto con l’ammonimento che ChatGPT non è un terapista e non dovrebbe essere usato come tale.
Uno studio condotto dall’università di Stanford negli Stati Uniti ha dimostrato che i chatbot rispondono ripetutamente in modo inadeguato o addirittura pericoloso agli input di suicidio, ad esempio suggerendo di procedere invece di intervenire per ridurre il rischio.
-
Distorsione e stigmatizzazione sistematica
I ricercatori hanno anche trovato prove di pregiudizi sistematici: le persone con dipendenza da alcol o schizofrenia, ad esempio, sono state stigmatizzate molto più delle persone con depressione.
Questo dimostra che l’IA non solo può fallire in singoli casi, ma presenta anche rischi strutturali.
Nell’ambito di uno studio preprint dell’università di Losanna, un ricercatore ha confrontato le risposte dei chatbot con quelle dei terapisti. L’autore sottolinea inoltre che l’IA non dovrebbe essere utilizzata senza il supporto di un professionista se il benessere della persona potrebbe essere fortemente a rischio.
Ha anche posto la questione etica se sia legittimo simulare l’empatia.
-
Protezione dei dati: attenzione!
Un altro punto è la protezione dei dati. Chiunque inserisca sentimenti o diagnosi sensibili in un chatbot spesso non sa dove finiscono i dati e come vengono elaborati.
Gli esperti avvertono che ciò comporta un rischio enorme per la riservatezza, soprattutto se i dati vengono utilizzati nei processi di formazione o per scopi commerciali.
-
ChatGPT non è stato testato scientificamente
Anche la differenziazione è importante: la terapia online non è la stessa cosa che parlare con un chatbot.
Numerosi programmi di terapia digitale sono stati testati scientificamente e sono accompagnati da specialisti, come ad esempio la terapia comportamentale online, la cui efficacia è stata dimostrata ed è persino utilizzata in sistemi sanitari come l’NHS britannico.
Una chat non accompagnata con un’IA generativa non è paragonabile. Manca la garanzia di qualità, il supporto medico e la gestione delle crisi.
-
L’intervento precoce può salvare la vita
Infine, ma non meno importante, un uso acritico può portare a una perdita di tempo: se ci si appoggia troppo a lungo alla «spalla digitale», si rischia di ritardare il passo verso una vera terapia.
Tuttavia, l’ intervento precoce è fondamentale soprattutto per i disturbi depressivi o d’ansia: più si aspetta, peggiore è la prognosi, come spiega Ana Catarino, coautrice di uno studio britannico .
Cosa dicono gli esperti sulla psicoterapia con l’IA?
Il tema dell’IA nell’ambito della psicoterapia occupa i ricercatori di tutto il mondo, e le loro valutazioni sono molto diverse. Alcuni vedono opportunità di istruzione e di sostegno a bassa soglia; altri avvertono rischi strutturali, mancanza di sicurezza e di relazioni terapeutiche.
«Abbiamo riscontrato rischi significativi quando l’IA viene utilizzata come terapista. Soprattutto in situazioni critiche per la sicurezza, manca la comprensione necessaria per proteggere in modo affidabile le persone. È importante identificare chiaramente queste differenze», spiega Nick Haber dell’università di Stanford.
«È fondamentale che i professionisti si impegnino con l’IA e si assicurino che il suo uso sia guidato dalle migliori pratiche. La sicurezza non è ancora garantita. È quindi importante regolamentare queste tecnologie per garantirne un uso sicuro e appropriato», spiega Jaime Craig, presidente dell’associazione britannica degli psicologi clinici, in un articolo del «The Guardian».
«L’IA non è al livello di fornire sfumature. Potrebbe suggerire azioni del tutto inappropriate», afferma Til Wykes, professore di psicologia clinica e riabilitazione al King’s College di Londra, nell’articolo del Guardian.
«I più recenti modelli linguistici di grandi dimensioni trasmettono anche attribuzioni stereotipate, ad esempio verso le persone con dipendenza o schizofrenia. L’ipotesi standard secondo cui più dati risolveranno il problema è sbagliata», avverte Jared Moore in un articolo pubblicato dalla Stanford University.
«Ciò che mi colpisce è quanto questi sistemi suonino umani. Ma il problema è che se qualcuno è vulnerabile e ha pensieri dannosi e si sente confermato in essi, questo può essere molto pericoloso. In un momento del genere un terapista spiegherebbe e correggerebbe questo stato d’animo», dice C. Vaile Wright dell’American Psychological Association in un articolo pubblicato sulla rivista online «SciAm».
«I partecipanti al nostro studio sono stati raramente in grado di distinguere se una risposta proveniva da ChatGPT o da un umano. Sorprendentemente, le risposte dell’IA sono state valutate più alte anche per i fattori psicoterapici centrali, come l’empatia o la costruzione della relazione», scrivono i ricercatori dello studio »When ELIZA meets therapists.»
Cosa significa questo per gli assicurati e il sistema sanitario?
Una buona assistenza inizia in modo rapido e con qualità. L’analisi di oltre 27 000 casi di cura nel sistema sanitario inglese NHS mostra che se l’aiuto inizia prima, la qualità della vita e la progressione migliorano sensibilmente.
Non tutte le offerte online sono uguali. I formati con supporto professionale mostrano risultati migliori e meno abbandoni rispetto ai programmi puramente autogestiti; questi ultimi sono più indicati per i disturbi più lievi. In termini di gestione ciò significa: la qualità prima della diffusione.
Per la Svizzera, questo potrebbe significare che le offerte digitali possono ridurre le barriere di accesso e colmare le carenze, ma sono un’aggiunta, non un sostituto dell’approvvigionamento regolare. È fondamentale che gli interventi digitali siano efficaci dal punto di vista clinico e raggiungano tempestivamente le persone interessate.
La prevenzione e la competenza sanitaria possono essere rafforzate in ambito digitale: la psicoeducazione, le fasi strutturate di auto-aiuto e i moduli guidati aiutano a sfruttare bene i tempi di attesa, a condizione che ci siano reti di sicurezza e regole chiare di protezione dei dati.
In breve, per gli assicurati vale la pena considerare le offerte digitali assistite e di qualità. Per il sistema, è importante dare priorità a capacità, velocità ed efficacia, distinguendosi chiaramente dai chatbot non moderati.
Conclusione: una terapia reale ha bisogno anche di persone reali
Gli strumenti digitali possono aprire le porte: abbassano le soglie di inibizione, riducono i tempi di attesa e rendono più accessibili le conoscenze sulla salute mentale. Questo è un vantaggio, soprattutto in un sistema in cui i tempi di attesa e le capacità limitate sono tra i problemi principali.
Ma gli algoritmi non possono sostituire l’empatia. Il vero cambiamento avviene quando le persone interessate si sentono considerate, ascoltate e prese sul serio; nell’incontro con una persona, non nel calcolo dei modelli di testo.
Ecco perché l’IA può fornire impulsi, supportare e creare una struttura. Ma la terapia nel vero senso della parola rimane un compito esclusivamente umano. Le persone con problemi di salute mentale non hanno bisogno solo di informazioni, ma anche di risonanza, relazioni e responsabilità.
Il futuro è quindi nelle aggiunte intelligenti: offerte digitali come ausili, persone reali al centro.