Sam Altman, CEO di OpenAI, ha ribadito che le interazioni con ChatGPT non beneficiano della confidenzialità legale garantita dai professionisti come medici, avvocati o terapeuti. In caso di controversie legali, le chat potrebbero essere divulgate ai giudici. Secondo Altman, è urgente definire nuovi standard di privacy, analoghi a quelli applicati in ambiti professionali, per tutelare gli utenti emotivi e psicologici che conversano con l’IA.
Cresce l’uso come psicologo, ma emergono rischi seri
L’uso di ChatGPT come sostituto di psicoterapia è in forte aumento, soprattutto tra i giovani: oltre il 20% della Generazione Z ha utilizzato almeno una volta l’IA come supporto emotivo o terapeutico. Tuttavia, psicologi e ricercatori sottolineano che questa empatia apparente è illusoria: l’IA genera risposte basate su pattern statistici, non su comprensione umana del disagio. Studi accademici, incluso uno condotto da Stanford, evidenziano che tali chatbot possono rafforzare delusioni, ignorare ideazione suicidaria o non possedere empatia autentica, comportandosi in modo pericoloso in situazioni di fragilità emotiva.
Vedi anche
Adolescenti e ChatGPT, il pedagogista: “Servono delle limitazioni”
Consapevolezza e limiti: cosa resta fuori dall’IA
ChatGPT può essere utile per riflessioni personali o come diario digitale, ma non sostituisce un percorso terapeutico. Non dispone di strumenti clinici, non costruisce un’alleanza terapeutica né offre monitoraggio professionale. Inoltre, l’IA è soggetta a fenomeni di “allucinazione”, cioè a generare contenuti falsi o fuorvianti presentati come veri, rappresentando un rischio ulteriore nel contesto psicologico.
Potrebbe interessarti
Chat GPT in down, l’AI di Open AI oggi non funziona