Italia
  • Europa
  • Ultime notizie
  • Italia
  • Mondo
  • Affari
  • Intrattenimento
  • Scienza e tecnologia
  • Sport
  • Salute

Categories

  • Affari
  • Arte e design
  • Assistenza sanitaria
  • Basket
  • Calcio
  • Celebrità
  • Ciclismo
  • F1
  • Film
  • Golf
  • Intrattenimento
  • Italia
  • Libri
  • Mondo
  • Moto
  • Musica
  • Rugby
  • Salute
  • Salute femminile
  • Salute mentale
  • Scienza e tecnologia
  • Sport
  • Tennis
  • TV
  • Ultime notizie
  • Vaccini
  • Volley
Italia
  • Europa
  • Ultime notizie
  • Italia
  • Mondo
  • Affari
  • Intrattenimento
  • Scienza e tecnologia
  • Sport
  • Salute
OpenAI: ChatGPT non è uno psicologo, rischio privacy e salute mentale
SSalute

OpenAI: ChatGPT non è uno psicologo, rischio privacy e salute mentale

  • 29 Luglio 2025

Sam Altman, CEO di OpenAI, ha ribadito che le interazioni con ChatGPT non beneficiano della confidenzialità legale garantita dai professionisti come medici, avvocati o terapeuti. In caso di controversie legali, le chat potrebbero essere divulgate ai giudici. Secondo Altman, è urgente definire nuovi standard di privacy, analoghi a quelli applicati in ambiti professionali, per tutelare gli utenti emotivi e psicologici che conversano con l’IA.

Cresce l’uso come psicologo, ma emergono rischi seri

L’uso di ChatGPT come sostituto di psicoterapia è in forte aumento, soprattutto tra i giovani: oltre il 20% della Generazione Z ha utilizzato almeno una volta l’IA come supporto emotivo o terapeutico. Tuttavia, psicologi e ricercatori sottolineano che questa empatia apparente è illusoria: l’IA genera risposte basate su pattern statistici, non su comprensione umana del disagio. Studi accademici, incluso uno condotto da Stanford, evidenziano che tali chatbot possono rafforzare delusioni, ignorare ideazione suicidaria o non possedere empatia autentica, comportandosi in modo pericoloso in situazioni di fragilità emotiva.

Vedi anche
Adolescenti e ChatGPT, il pedagogista: “Servono delle limitazioni”

Consapevolezza e limiti: cosa resta fuori dall’IA

ChatGPT può essere utile per riflessioni personali o come diario digitale, ma non sostituisce un percorso terapeutico. Non dispone di strumenti clinici, non costruisce un’alleanza terapeutica né offre monitoraggio professionale. Inoltre, l’IA è soggetta a fenomeni di “allucinazione”, cioè a generare contenuti falsi o fuorvianti presentati come veri, rappresentando un rischio ulteriore nel contesto psicologico.

Potrebbe interessarti
Chat GPT in down, l’AI di Open AI oggi non funziona

  • Tags:
  • chatgpt
  • Health
  • intelligenza artificiale
  • IT
  • Italia
  • Italy
  • psicologo
  • Salute
Italia
www.europesays.com