di Alice Scaglioni
L’Intelligenza Artificiale viene consultata sempre più spesso per questioni legate alla salute. Effetti collaterali? Confondere un’analisi dei sintomi con la diagnosi di un medico. Che è un’altra cosa
«Perché non lo chiedi a ChatGPT?». È una frase che mi sono sentita dire nel bel mezzo di una discussione su esami, referti e dubbi su sintomi generici che stavo sperimentando da alcuni giorni. Un modo, ormai sempre più comune, per provare a dare un freno alle preoccupazioni. La verità è che l’avevo già fatto. Davanti a quel suggerimento così spontaneo, mi sono domandata quanti di noi usano l’intelligenza artificiale per avere rassicurazioni sulla propria salute, leggere i referti o chiedere un parere su una diagnosi. Le informazioni relative al nostro benessere ci sembrano sempre così delicate, sensibili, da proteggere da sguardi indiscreti – credo che nessuno sventolerebbe a cuor leggero il referto di un esame o condividerebbe il proprio fascicolo sanitario con degli sconosciuti –, eppure l’idea di darli in pasto a un chatbot non sembra farci così paura.
«Io faccio leggere i referti all’AI ed è più accurata e rassicurante di un medico», dice Giulia C., 42 anni; «ChatGPT ha diagnosticato una malattia infettiva a un mio ex ed effettivamente era vero», racconta Benedetta Bizantini, copywriter in una grande agenzia pubblicitaria.
«Ho chiesto all’AI di ipotizzare cosa potessi avere scrivendo alcuni dei miei sintomi: è stato molto comprensivo, mi ha dato dei suggerimenti, ma ha sempre concluso ogni risposta con l’invito a consultare un medico», spiega Antonio C., giornalista.
Fabjola, 30 anni da poco compiuti, spiega che ha scelto di consultare l’AI perché cercava conforto per un referto incomprensibile, che le causava parecchia ansia: «Mio papà ha una certa età e non ci vede più da vicino. Gli ho consigliato una visita oculistica per farsi fare un paio di occhiali progressivi. Il referto di questa visita citava una malattia genetica di cui soffre una parte della mia famiglia, ma io non ero in grado di comprenderlo pienamente. Era sabato e questa cosa mi aveva generato un’angoscia tale da non riuscire ad attendere il lunedì per consultare il medico curante. Avevo bisogno che qualcuno traducesse il referto, quindi ho fatto la foto e ho chiesto a ChatGPT. E l’AI ha fatto esattamente quello che mi aspettavo: mi ha rassicurata, con parole più accessibili».
Il senso critico
Anche L. R., mamma di un bambino di quasi quattro anni, ammette di aver fatto ricorso all’AI in più occasioni, e ne ricorda in particolare una in cui Gemini ha corretto una diagnosi errata ricevuta da una pediatra, poi confermata da un secondo dottore. «Lo utilizzerei nuovamente? Se dovessi avere un dubbio su una diagnosi già fatta, probabilmente sì. Lì mi sono resa conto che a muovermi era la mia ansia di mamma, ma ho avuto ragione a non fidarmi. La uso con senso critico, è come un assistente che mi aiuta a incrociare dati e informazioni affidabili».
L’arrivo di ChatGPT Health conferma quella che oramai non è più un’ipotesi: l’utilizzo dell’AI per quesiti di natura medica e legata alla salute è ampiamente sdoganato. Si tratta di una sezione interna al chatbot – non ancora disponibile in Italia – caratterizzata da una maggiore sicurezza dei dati, dove gli utenti possono caricare cartelle cliniche o collegare feed di app per il benessere. Una risposta di OpenAI a un’esigenza ormai evidente tra gli utenti della piattaforma: secondo i dati resi noti dall’azienda, ottenuti attraverso l’analisi anonima delle conversazioni, oltre 230 milioni di persone in tutto il mondo pongono domande su salute e benessere a ChatGPT ogni settimana. Google non rilascia un numero esatto e pubblico relativo a questo tema, ma si può stimare un numero che si aggira intorno a decine di milioni di query mensili riguardanti sintomi, farmaci e benessere. A inizio 2026, infatti, l’app Gemini ha superato i 650 milioni di utenti mensili, mentre le AI Overviews (che sono le sintesi generate dall’intelligenza artificiale che appaiono sopra i risultati di ricerca Google, alimentate da Gemini) raggiungono oltre 2 miliardi di persone ogni mese. Stando a dati interni di Google, circa il 40% degli utenti usa Gemini per fare ricerche personali. Il rischio che questo dialogo con l’AI – semplice, rassicurante come hanno riportato tanti di coloro che vi fanno ricorso – su temi privati e sensibili come la salute e il benessere sfugga di mano è reale.
Il consulto può essere utile in molti casi, senza mai dimenticare
che i “suggeritori” di dati e informazioni siamo proprio noi
Con l’esplosione dei Large Language Models, la comunità scientifica ha infatti iniziato a studiare un fenomeno che oggi viene spesso chiamato «Cyberchondria 2.0» o «AI-induced Cyberchondria». Se la «cybercondria classica» riguardava la ricerca compulsiva di sintomi e malattie su Google, l’ipocondria da AI ha caratteristiche psicologiche diverse e, per certi versi, più profonde, legate alla natura dello strumento. Lo studio del 2025 Mitigating cybercondria: integrating system guidelines in AI chatbots for reassured health information seeking («Mitigare la cybercondria: integrare le linee guida del sistema nei chatbot AI per una ricerca rassicurante di informazioni sanitarie» ndr) condotto dal Politecnico di Milano definisce proprio questo passaggio: mentre i motori di ricerca tradizionali offrono dati frammentati, l’AI ci mette davanti a una narrazione coerente. Il risultato? Lo stile «empatico» e personalizzato che è proprio dei chatbot può inavvertitamente validare le paure dell’utente, soprattutto se l’utente fornisce dettagli specifici nel prompt. Se indirizzata, l’AI tende a rispondere in modo collaborativo analizzando proprio ciò che viene suggerito dall’utente, dando vita quindi a un bias di conferma che il paziente scambia per una diagnosi.
Sempre lo scorso anno sono state pubblicate diverse ricerche che quantificano l’impatto psicologico della consultazione medica online tramite nuove tecnologie. L’analisi The Relationship Between eHealth Literacy and Cyberchondria: A Cross-Sectional Study (La relazione tra alfabetizzazione sanitaria elettronica e cybercondria: uno studio trasversale ndr) pubblicata su The European Journal of Public Health evidenzia come un’alta «alfabetizzazione digitale» non sempre protegga dall’ansia, ma anzi, possa spingere gli utenti più esperti a fare ricerche ultra-approfondite, entrando in loop compulsivi peggiori di quanto tenderebbero a fare con delle semplici ricerche su Google. Inoltre secondo la ricerca Exploring the Relationship Between Cyberchondria and Suicidal Ideation (Esplorare la relazione tra cybercondria e ideazione suicidaria ndr) del Journal of Medical Internet Research, la cybercondria grave, alimentata da risposte fornite dall’AI e percepite come «definitive» dagli utenti, può portare a livelli di stress emotivo molto più alti rispetto al passato, arrivando a influenzare significativamente la qualità della vita.
I nodi critici della relazione tra intelligenza artificiale e cybercondria 2.0 sono tanti. Sicuramente al primo posto c’è la modalità con cui viene interrogata l’AI su temi di salute, e con quale scopo. Sul Corriere della Sera Luigi Ripamonti, responsabile di Corriere Salute e medico, si soffermava su un assunto fondamentale della riflessione: «Anche per i medici l’AI è ormai un utile supporto. Ma è un supporto, non un vicario. Se per noi l’AI diventa vicario del medico lo scenario cambia». Ma c’è anche un altro aspetto, meno analizzato, ma non per questo secondario: come questi strumenti sono progettati per interagire con gli utenti. Come evidenzia la ricerca del Politecnico di Milano, se da un lato le AI conversazionali sono «promettenti nel rivoluzionare il supporto all’autodiagnosi e l’educazione dei pazienti attraverso interazioni personalizzate», dall’altro è proprio la loro interfaccia e la tipologia di conversazione che possono inavvertitamente favorire la cybercondria 2.0.
Lo stile empatico e personalizzato delle risposte può finire per riverberare le paure di chi sceglie di rivolgersi al “bot”
«Non c’è un modo per tornare indietro», dice Sofia Corbetta, user experience designer e autrice della ricerca: «L’AI verrà usata sempre di più dalle persone per fare domande inerenti alla salute prima di rivolgersi a un professionista». I motivi, spiega Corbetta, sono molteplici: dalle questioni economiche, alla distanza geografica dai medici in caso di località poco accessibili o difficoltà a spostarsi, ma anche timore di parlare con qualcuno di sintomi di cui si ha pudore. «Non bisognerebbe dire che questi strumenti non vanno usati, ma bisognerebbe adattarli per far sì che non inneschino i meccanismi che portano alla cybercondria. In più ci sono diversi studi che mostrano che l’AI è molto accurata per il triage. Si tratta di strumenti che possono essere molto utili in affiancamento a un professionista, non in sostituzione». In sintesi, conclude Corbetta, c’è la necessità di «sviluppare AI con interfacce più adatte», che possano garantire «un’esperienza utente più corretta e più sicura».
Alla fine, dopo aver consultato Gemini e ChatGPT come mi era stato suggerito, ho realizzato che in primis l’AI aveva una cura per la mia ansia. Non c’erano esami da tradurre o sintomi specifici, solo generica preoccupazione e l’impellente desiderio di rassicurazione. Ci sono tanti casi in cui l’AI può dare un aiuto concreto – e gli studi e le testimonianze lo dimostrano: leggere un referto; fornire un supporto quando ci sono foto, carte o diagnosi dubbie; chiedere approfondimenti su medicinali o procedure sanitarie particolari. Ma non era questo il caso. Quando abbiamo la tentazione di rivolgerci all’AI perché è immediata e non giudica le domande che le sottoponiamo, si rischia di cadere nella cybercondria. In casi come questo l’AI potrebbe essere solo uno specchio digitale, incapace di sostituire il valore – e la responsabilità – di un medico.
IL FENOMENO
I numeri
Gemini viene consultata ogni settimana da 230 milioni di persone in tutto il mondo. Google non ha diffuso un dato preciso ma si tratta di decine di milioni di richieste di consulto.
AI Overviews (le sintesi generate dall’AI) raggiungono oltre due miliardi di persone ogni mese. ChatGPT Health è una sezione dedicata «progettata per supportare, non sostituire, l’assistenza medica».
Oltre a porre domande è possibile metterlo in comunicazione con le cartelle cliniche o con le app dedicate alla salute
14 febbraio 2026 ( modifica il 14 febbraio 2026 | 18:38)
© RIPRODUZIONE RISERVATA