Non si contano più gli utenti che, ogni giorno, rivolgono interrogativi su sintomatologie, analisi del sangue, dolori comuni oppure stili di vita salutari, facendo diventate l’Ai il loro primo interlocutore sanitario. Se in principio c’era il dottor Google, con gli internauti che chiedevano lumi al motore di ricerca più utilizzato al mondo, adesso tocca a ChatGpt Health, lanciato dal OpenAi, pensato per supportare gli utenti a visionare referti, capire dati clinici, prepararsi ad affrontare visite mediche.
ChatGpt Health è una piattaforma digitale per caricare documenti sanitari, collegare cartelle cliniche (negli Usa) e applicazioni come MyFitnessPal o Apple Health, smartwatch e dispositivi indossabili per il fitness. L’intento? Non è quello di fare diagnosi mediche o prescrivere terapie farmacologiche. Piuttosto, tratteggiare l’andamento di un valore nel tempo, aiutare a formulare quesiti per uno specialista, consigliare allenamenti per restare in forma e piani nutrizionali coerenti con i dati sanitari a disposizione.
Chatbot per la salute
A stretto giro dall’annuncio di OpenAi relativo a ChatGpt Health, la concorrente Anthropic ha comunicato l’integrazione nel proprio chatbot Claude di nuove funzionalità per la salute. Nel ribadire come lo strumento digitale non sia pensato per sostituire i medici, e che la privacy degli utenti non verrà messa a rischio, Claude for Healthcare è stata concepita per fornitori di servizi sanitari, assicurazioni e pazienti. Condivide alcune caratteristiche con la “concorrente” di OpenAi, come la possibilità di connettere al chatbot le app di salute sullo smartphone, tra cui Apple Health.
In un post sul proprio blog, Anthropic sottolinea: “Nella nostra versione iniziale, ci siamo concentrati sul rendere Claude più potente per la ricerca e lo sviluppo pre clinici, compresi la bio informatica e la generazione di ipotesi e protocolli. Adesso stiamo ampliando la nostra attenzione alle operazioni di sperimentazione clinica e alle fasi normative della catena di sviluppo”.
C’è da dire che il fondatore e l’amministratore delegato di Anthropic, l’italo americano Dario Amodei, è un biofisico di formazione. E che, tornando a ChatGpt Health, OpenAi ha dichiarato di aver lavorato per oltre due anni con 260 medici di 60 Paesi, appartenenti a decine di specialità differenti. Il team ha fornito feedback più di 600.000 volte, contribuendo a tratteggiare sia cosa il sistema può fare sia in che modo deve replicare in situazioni delicate.
Medicina personalizzata
“Bisogna però capire che tipo di operazione hanno fatto i professionisti sanitari nell’addestrare il modello di intelligenza artificiale. Insomma, quale lavoro c’è dietro. Senza bypassare un altro aspetto fondamentale: gli algoritmi devono essere sempre certificati”, spiega a Dossier Today.it Antonio Magi, presidente dell’Ordine provinciale di Roma dei medici chirurghi e odontoiatri (Omceo).
“Il rischio sempre più concreto è che le persone pensino che le risposte fornite dall’intelligenza artificiale possano sostituire quelle di un medico”
Antonio Magi, presidente Omceo Roma
Che aggiunge: “L’addestramento deve aderire alla medicina di precisione; parliamo di un approccio il più possibile ‘verticale’ rispetto al paziente che si ha davanti. Oggi invece l’Ai risponde formulando una ‘media’ rispetto ai quesiti che le vengono posti, e infine suggerisce di consultare il medico. Ecco, qui io vedo più un’indicazione che una medicina di precisione”.
Antonio Magi, presidente dell’Omceo RomaAI come valore aggiunto
In merito alle nuove opportunità offerte da ChatGpt e Anthropic, Magi risulta cauto. “Stiamo alzando troppo l’asticella. Il rischio, sempre più concreto, è che le persone pensino che le risposte fornite dall’intelligenza artificiale possano sostituire quelle di un medico”. L’Ai, dunque, può rappresentare un grosso rischio? Pronta la replica. “Certamente, soprattutto se sottovaluta determinati sintomi. Ecco perché non potrà mai sostituire il camice bianco. È opportuno che le persone lo capiscano, proprio come forma di autotutela”.
Quindi Magi aggiunge: “Oggi l’assenza di relazione umana complica la diagnosi. Abbiamo smarrito il rapporto diretto tra medico e paziente, e spesso purtroppo ci si accontenta di una chat su WhatsApp. Certamente, l’intelligenza artificiale deve essere utile al medico e non fare sì che il paziente si curi da solo. Ciò detto, le nuove tecnologie non vanno prese come un oracolo né demonizzate. Piuttosto, devono essere considerare un ausilio. Ma spetta al medico gestire il tutto”.
Usare il buon senso
L’Ai come strumento digitale gestito e controllato nell’atto medico da professionisti che hanno l’esperienza, insieme alla capacità, di poterla usare. Anche per scongiurare il ripetersi di casi come quello che, di recente, si è verificato in Veneto. Qui un paziente si è presentato al triage in pronto soccorso. Alla domanda dell’infermiere “cos’è accaduto, dove sente dolore?”, la risposta è stata laconica: “Non ho male, ma stamani ho inserito i parametri vitali su ChatGpt, che mi ha suggerito di recarmi subito all’ospedale”.
La denuncia degli infermieri
Ecco un caso tangibile nel quale l’autonomia promessa si è trasformata in eccessiva fiducia, con l’intelligenza artificiale utilizzata come surrogato del medico. Rendendola, all’atto pratico, un’illusione tecnologica che può impattare sulla realtà. “Appunto, anche in termini di accesso al pronto soccorso”, interviene Magi. Concludendo così: “Ribadisco che l’Ai non è un medico, né visita i pazienti. Oggi i medici possono disporre dell’intelligenza artificiale, ma sono tenuti a farlo con la massima cautela. Il paziente, invece, dovrebbe limitarsi a farlo a titolo di mera curiosità, evitando gli eccessi”.
Leggi gli altri Dossier di Today.it
4 minuti di lettura