Se fino a pochi anni fa era pratica comune cercare sintomi e interpretazioni di referti medici su Google, ora il testimone è passato in eredità alle piattaforme di intelligenza artificiale, che si sostituiscono (almeno nei primi momenti) alla figura del medico di base per la ricerca di risposte “mordi e fuggi” ai dubbi e alle paure degli utenti, nella speranza di ottenere una diagnosi.

Capita ormai spesso di chiedere a ChatGPT (e affini) delucidazioni su sfoghi cutanei, esami radiologici o su un determinato valore delle analisi del sangue che non ci convince, affidando le proprie preoccupazioni alle risposte (non sempre esaustive e scientificamente corrette) dei modelli AI.



















































Sul trend, sempre più diffuso, di affidare all’intelligenza artificiale domande sulla propria salute (condividendo anche cartelle cliniche) è intervenuto il Garante Privacy, che ha lanciato un allarme: Con la recente pubblicazione di un comunicato ufficiale esorta gli utenti ad utilizzare con cautela e le dovute precauzioni tali piattaforme di intelligenza artificiale per possibili consulti medici.

Garante Privacy: i possibili rischi di un utilizzo scorretto

La salvaguardia dei dati personali è senza ombra di dubbio il primo fattore passato sotto la lente di ingrandimento del Garante. Appare cruciale la lettura dell’informativa della privacy per un utilizzo sicuro delle piattaforme AI da parte del paziente: ogni esame diagnostico o referto che viene caricato online, infatti, può essere potenzialmente utilizzato per addestrare l’intelligenza artificiale, a meno che non sia specificato il contrario all’interno dell’informativa stessa.

Nel mare magnum di piattaforme AI attualmente esistenti sul mercato, è quindi bene scegliere servizi che permettano al paziente di scegliere attivamente il destino dei dati condivisi, con la facoltà di eliminarli una volta ricevuta la propria consulenza. Aspetto, questo, su cui si mostrano concordi anche il Regolamento europeo sull’AI e il Consiglio Superiore di Sanità. L’utilizzo dell’AI in ambito medico può quindi comportare gravi rischi per la sicurezza dei dati sanitari, dati “in pasto” a modelli linguistici di grandi dimensioni, con tutti i pericoli che ne potrebbero -potenzialmente – conseguire per i pazienti.

Si aggiunge poi un possibile pericolo per la salute dei pazienti stessi, che possono cadere vittime di eventuali errori di valutazione e indicazioni errate di intelligenze artificiali che, per quanto sempre più accurate e fini, possono sbagliare. Le piattaforme più comuni di intelligenza artificiale presenti sul mercato (come ChatGPT o Gemini, tanto per fare alcuni nomi) non sono infatti progettate specificatamente per la Medicina, e questo costituisce un aspetto da non sottovalutare nel “consegnare” la propria salute in mano ad esse.

Alla luce di queste riflessioni, dunque, il Garante della Privacy ha stabilito che è sempre bene verificare e confutare le risposte fornite dalla piattaforma AI di turno con la supervisione di un professionista medico qualificato, in grado di confermare (o eventualmente confutare, a seconda del singolo caso) il ragionamento clinico elaborato dai modelli linguistici di grandi dimensioni.

Medicina e AI: lo stato dell’arte

Per i medici l’intelligenza artificiale è diventata sempre più spesso un’alleata, utile strumento aggiuntivo nelle mani dei medici a fini diagnostici e (in alcuni casi) terapeutici. L’utilizzo di particolari algoritmi AI ha infatti permesso di individuare con elevata sensibilità tumori e altre formazioni a rischio all’interno di esami radiologici di varia natura, risultando un valido alleato nell’interpretazione umana e nella conseguente refertazione.

Lo abbiamo visto di recente con l’adozione, da parte dell’Harrogate District Hospital di un nuovo software basato sull’intelligenza artificiale, in grado di scovare un tumore ai polmoni (e altre centinaia di anomalie che potrebbero potenzialmente evolversi in neoplasie, come i noduli polmonari) “leggendo” l’RX torace in poco meno di 30 secondi. 

Questi programmi fanno infatti uso di un innovativo sistema di machine learning, che permette loro di apprendere e affinare l’accuratezza diagnostica sulla base di migliaia e migliaia di esami RX precedenti – e conseguenti referti -che vengono forniti. L’individuazione precoce di neoplasie o metastasi consentirebbe di ridurre il ritardo diagnostico e anticipare il trattamento terapeutico, aumentando così l’aspettativa di vita dei malati.

Si aggiunge poi MAI-DxO, la nuova superintelligenza medica realizzata da Microsoft che “orchestra” diversi modelli AI ed è così capace di raggiungere un’accuratezza diagnostica superiore all’80%, stando alle parole di Mustafa Suleyman, a capo della divisione AI della compagnia. 

Il medico è (e sarà) sempre al centro

Malgrado i sorprendenti progressi compiuti dall’intelligenza artificiale negli ultimi anni, quindi, ad avere l’ultima parola in merito alle scelte diagnostico-terapeutiche sarà sempre l’essere umano, che forte dell’esperienza sul campo raggiunta in anni di esercizio della professione ed esperienza clinica, avrà il compito di filtrare adeguatamente i contributi dell’intelligenza artificiale. 

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

4 agosto 2025 ( modifica il 4 agosto 2025 | 16:35)