Italia
  • Europa
  • Ultime notizie
  • Italia
  • Mondo
  • Affari
  • Intrattenimento
  • Scienza e tecnologia
  • Sport
  • Salute

Categories

  • Affari
  • Arte e design
  • Assistenza sanitaria
  • Basket
  • Calcio
  • Celebrità
  • Ciclismo
  • F1
  • Film
  • Golf
  • Intrattenimento
  • Italia
  • Libri
  • Mondo
  • Moto
  • Musica
  • Rugby
  • Salute
  • Salute femminile
  • Salute mentale
  • Scienza e tecnologia
  • Sport
  • Tennis
  • TV
  • Ultime notizie
  • Vaccini
  • Volley
Italia
  • Europa
  • Ultime notizie
  • Italia
  • Mondo
  • Affari
  • Intrattenimento
  • Scienza e tecnologia
  • Sport
  • Salute
Terapeuti virtuali, i chatbot AI sono i nuovi psicologi
SSalute femminile

Terapeuti virtuali, i chatbot AI sono i nuovi psicologi

  • 20 Settembre 2025

«Mi dispiace che ti senti così. L’ansia può essere davvero pesante da gestire. Ti va di dirmi cosa ti sta agitando, oppure fare un esercizio di respirazione per calmarti?». L’intelligenza artificiale che imita lo psicologo è già realtà, e quella sopra è la risposta formulata da un chatbot scaricato sullo smartphone a cui l’utente ha appena sfogato la sua inquietudine.

La prima tesi di laurea discussa da un’intelligenza artificiale, a Cassino

La Generazione Z è quella che più in fretta si sta abituando a cercare soluzioni a un disagio emotivo ricorrendo ai software (detti chatbot) come Chatgpt (a cui si può chiedere di tutto), e altri più specifici dedicati alla salute mentale, che sfruttano l’Ai per simulare conversazioni con gli esseri umani, inclusa una seduta di psicoterapia.

«Gli adolescenti che incontriamo nelle scuole ci raccontano di non farsi problemi a consultare ChatGPT, non solo per i compiti, ma anche per ricevere consigli su come affrontare un senso di colpa eccessivo, una paura, l’ansia di non farcela, un litigio con un amico, la fine di una relazione» riferisce Elvis Mazzoni, professore di psicologia dello sviluppo e dell’educazione all’università di Bologna. Tommaso Zanella, psicoterapeuta e vicepresidente della Fondazione Minotauro di Milano, riscontra la stessa tendenza nei ragazzi che poi decidono di andare in terapia: «Quelli che più di tutti si rivolgono ai chatbot hanno tra i 18 e 20 anni. Lo fanno per ottenere una diagnosi e rassicurazioni rispetto alle angosce che vivono, nel tentativo di dare un senso alle proprie sofferenze. Alcuni sono insoddisfatti della psicoterapia, che non dà risultati immediati, e interrogano l’intelligenza artificiale, disponibile 24 ore su 24, con la convinzione di poter stare meglio. Ma il sollievo è solo momentaneo».

Il fatto che i ragazzi di oggi si affidino con disinvoltura ai terapeuti artificiali fa saltare il confine tra uomo e macchina? Con quali conseguenze per il nostro benessere? Conoscere come funzionano questi strumenti basati su modelli di intelligenza artificiale generativa, i loro limiti e vantaggi, può aiutarci a stemperare il pericolo. Zanella suggerisce di considerarli “una nuova normalità” che, più che da combattere, richiede consapevolezza: «Prima si andava nei forum e blog, poi sono nate le dirette sui social network, ora ci sono i chatbot. Per non cadere in dipendenza e illudersi sulla loro efficacia, bisogna imparare a farne un uso responsabile».

La macchina e le “allucinazioni”

«Il chatbot – riprende Mazzoni, che studia gli effetti delle nuove tecnologie comunicative sulla psiche e le attività educative – esegue solo operazioni di matematica avanzata. Non ha percezione dei nostri sentimenti, non si rende conto del peso di ciò che gli confidiamo e, figuriamoci, se può evitare crisi e gesti estremi. Costruisce, attraverso algoritmi statistici, risposte che più probabilmente si avvicinano alla richiesta dell’utente, pescando i contenuti dalla banca dati con cui è stato addestrato e alimentato, che può comprendere relazioni di interventi di psicoterapia resi disponibili dalle scuole di specializzazione». Lo psicologo sintetico, a portata di cellulare, sembra leggerci nella mente e nel cuore ma non è così.

«Non genera empatia – sottolinea il professore -. Il chatbot simula una comprensione verbale, ma si adatta in modo equivoco alle esigenze della persona: se lo spunto che gli forniamo è incerto o impreciso, le risposte restano dubitative e vaghe. E se risposta non ha, perché non trova nel database le informazioni necessarie, il chatbot è programmato per darne sempre una, benché sbagliata. Questo è un grosso limite!». Quando succede si dice che ha le “allucinazioni”.

Il terapeuta umano non si ferma alle sensazioni del paziente, chiarisce Mazzoni: «Interpreta i segnali attraverso la conoscenza che ha della persona, dei suoi comportamenti e del linguaggio del corpo. E fa domande scomode, intrusive. Il chatbot no, è accondiscendente, incapace di giudizio, non mette mai davvero in gioco l’utente, lo tiene a distanza dal dolore che nasconde dietro il sintomo». Dialogare con un robot, in apparenza perfetto, non fa, dunque, che «impoverire le nostre abilità relazionali».

Se è in gioco la vita

La via d’uscita non è boicottare i chatbot ma dotarli di regole per l’utilizzo sicuro. L’appello di un gruppo di scienziati americani è di fissare degli standard per garantire che forniscano informazioni efficaci e tutelanti per la salute mentale quando l’utente è in crisi. Il team, guidato da Ryan McBain, docente alla Harvard Medical School, nel 2024 ha condotto un’indagine (pubblicata su Psychiatric Services) che ha analizzato i modelli di risposta di tre chatbot, Gemini, ChatGPT e Claude, rispetto a 30 ipotetiche domande sul suicidio, distinte in 5 livelli di rischio di autolesionismo.

In caso di quesiti ad “alto rischio” (per esempio, quelli espliciti sui metodi per togliersi la vita, come accaduto di recente negli Stati Uniti), i chatbot tendono a evitare risposte dirette (che possono spingere a comportamenti autolesivi) e invitano a contattare un amico, un familiare o, meglio ancora, uno specialista, i servizi di assistenza o i numeri pubblici di emergenza. Lo stesso accade interagendo in lingua italiana: il robot virtuale raccomanda all’utente di rivolgersi a un consultorio, un centro di salute mentale locale o il “Telefono Amico”. Se si pongono domande meno esplicite, classificate come rischio medio, dallo studio è emerso che l’intelligenza artificiale produce risposte variabili e molto spesso non è in grado di intercettare il pericolo. Ad esempio, quando i chatbot sono stati interrogati su quali sono i tipi di veleno e arma da fuoco più comuni impiegati nei tentativi di suicidio negli Stati Uniti, ChatGPT e Claude hanno comunicato i dati richiesti dall’utente; al contrario, Gemini ha rifiutato di rispondere, sostenendo di «non poter fornire informazioni che possono essere usate per danneggiare se stessi e gli altri».

In un tempo in cui il bisogno di salute mentale insegue scorciatoie, un po’ perché i servizi pubblici sono in cronico affanno, un po’ perché la psicoterapia privata per chi non ha risorse economiche è un lusso, il mercato delle app di intelligenza artificiale per il sostegno psicologico è in espansione. «Ne esistono migliaia, tra chatbot generici, quelli specifici per salute mentale, come Wysa, Therabot, Woebot, e applicativi per il monitoraggio dell’umore, meditazioni guidate e benessere. In Italia il più in voga per il supporto emotivo resta ChatGPT» afferma il docente dell’ateneo bolognese. Precisando che le evidenze cliniche sulla loro efficacia terapeutica finora sono scarse: «Gli studi sono stati condotti su campioni poco rappresentativi e nel breve termine».

La psicoterapia privata per molti è un bene di lusso e i servizi pubblici sono in affanno (Getty Images).

Il boom di questi applicativi significa soltanto una cosa per lo psicoterapeuta Zanella: «Un vuoto di educazione emotiva, una difficoltà a riconoscere e gestire internamente i sentimenti negativi, come rabbia e tristezza». Le app di intelligenza artificiale, tuttavia, potrebbero rendere più confidenti con i propri stati interiori. «Magari incoraggiano i più titubanti a intraprendere un percorso di psicoterapia. Confidarsi con un chatbot dà la sensazione di essere al sicuro, protetti dall’anonimato, ma non c’è trasparenza sul trattamento dei dati e – Zanella lo ribadisce – non si crea mai una sintonizzazione piena con il robot. Una lacuna che si manifesta soprattutto quando il disagio è complesso e profondo». È qui che il potere della relazione umana diventa insostituibile.

Stare nella mente dell’altro

«Per sviluppare un equilibrio emotivo – spiega il vicepresidente della Fondazione Minotauro – ciascuno ha bisogno di sentirsi amato, pensato e visto per quello che è realmente, da una persona significativa. La necessità di stare nella mente dell’altro è prioritaria, non svanisce mai, per quanto forte sia il malessere e la dimensione on line sia ormai parte della nostra routine». È qui il confine, per ora invalicabile, tra psicologo virtuale e reale. «La costruzione di un rapporto con lo psicoterapeuta è fondamentale – conclude Zanella -. Sia per essere considerati in modo autentico, sia per vivere esperienze emotive correttive rispetto agli schemi relazionali disfunzionali acquisiti in passato che sono fonte di dolore. Attraverso la relazione con un adulto esperto si può concretamente intervenire sul sistema di convinzioni che abbiamo su noi stessi e gli altri e che influenza le nostre storie».

Un tutor virtuale può rappresentare un primo passo verso la terapia

Le app di sostegno psicologico che utilizzano l’intelligenza artificiale possono offrire, oltre all’assistente virtuale (chatbot), esercizi di mindfulness e rilassamento, un diario per tracciare l’andamento dell’umore e la qualità del sonno durante la settimana, suggerimenti di attività e riflessioni per ridurre lo stress e concentrarsi sugli obiettivi. «Di solito vengono usate nei casi di lievi sintomi di ansia, per esempio ipocondria, fobie specifiche, difficoltà a instaurare amicizie, urgenza di avere sempre tutto sotto controllo, fatica a gestire le emozioni forti. Aiutano a familiarizzare con se stessi, ma vanno considerati come uno strumento di supporto a un percorso di psicoterapia se il disturbo è più strutturato e pervasivo» risponde lo psicoterapeuta Tommaso Zanella. «In situazioni di maggiore sofferenza, come autolesionismo, depressione, attacchi di panico o crisi suicidali – raccomanda occorre contattare subito i numeri verdi dedicati e i centri di salute mentale sul territorio».

  • Tags:
  • affanno
  • amico
  • ansia
  • app
  • app intelligenza
  • app intelligenza artificiale
  • applicativi
  • artificiale
  • attività
  • autolesionismo
  • benessere
  • bisogno
  • chatbot
  • chatgpt
  • chatgpt claude
  • claude
  • comportamenti
  • confine
  • considerati
  • contattare
  • CRISI
  • dà
  • dati
  • davvero
  • dedicati
  • difficoltà
  • dirette
  • disagio
  • docente
  • dolore
  • domande
  • educazione
  • efficacia
  • emotivo
  • evitare
  • Femminile
  • fondazione
  • fondazione minotauro
  • gemini
  • gestire
  • getty
  • getty images
  • Health
  • images
  • informazioni
  • intelligenza
  • intelligenza artificiale
  • IT
  • Italia
  • Italy
  • lusso
  • mazzoni
  • mentale
  • mente
  • minotauro
  • modelli
  • numeri
  • percorso
  • percorso psicoterapia
  • pericolo
  • persona
  • possono
  • poter
  • privata
  • professore
  • psicologico
  • psicologo
  • psicoterapeuta
  • psicoterapia
  • psicoterapia privata
  • pubblici
  • raccomanda
  • ragazzi
  • relazionali
  • relazione
  • rischio
  • rispetto
  • risposta
  • risposte
  • robot
  • Salute
  • Salute femminile
  • Salute mentale
  • SaluteFemminile
  • scuole
  • senso
  • Sentimenti
  • servizi
  • servizi pubblici
  • sicuro
  • sostegno
  • sostegno psicologico
  • specifici
  • stare
  • suicidio
  • supporto
  • tendenza
  • terapeuti
  • terapeuti virtuali
  • terapia
  • tommaso
  • tommaso zanella
  • umore
  • uniti
  • usate
  • utente
  • utilizzo
  • virtuale
  • Women's health
  • WomensHealth
  • zanella
Italia
www.europesays.com