Qualunque medico, in qualunque occasione, è pronto a mettervi in guarda dal ricorrere a «dottor Google» per trovare risposte a sintomi, reazioni, condizioni specifiche che riguardano la vostra salute. Un avvertimento che necessita di essere esteso anche – forse soprattutto – all’uso dei chatbot di IA, specialmente quando si tratta di ottenere consigli in ambito medico.
Emblematico è il caso apparso in un articolo sulla rivista medica statunitense Annals of Internal Medicine relativo a un 60enne colpito da bromismo, una rara malattia scomparsa da decenni (nota anche come tossicità da bromuro) che l’uomo ha sviluppato dopo aver chiesto a ChatGPT cosa fare per eliminare definitivamente il sale da cucina dalla sua dieta.
L’articolo spiega che il bromismo rappresenta una sindrome «ben nota» all’inizio del XX secolo, che si pensa abbia contribuito a quasi un ricovero psichiatrico su 10 dell’epoca.
Che cosa c’è all’origine del caso di bromismo
lithium bromide, a chemical compound of bromine and lithium that is extremely hygroscopic and used as a desiccant in air conditioning systems
RHJ
Il paziente ha raccontato ai medici che, dopo aver letto degli effetti negativi del cloruro di sodio – il sale da cucina – aveva consultato ChatGPT per sapere come eliminarlo definitivamente dalla sua dieta e aveva iniziato ad assumere bromuro di sodio per un periodo di tre mesi.
Questo nonostante avesse letto che «il cloruro può essere sostituito con il bromuro», ma probabilmente per altri scopi, ovvero «per la pulizia» (il bromuro viene in genere utilizzato in combinazione con il cloro come disinfettante per vasche idromassaggio e piscine).
Gli autori dell’articolo, dell’Università di Washington a Seattle, hanno spiegato che il paziente colpito da bromismo si è presentato in ospedale sostenendo che il suo vicino potesse averlo avvelenato. Aveva poi affermato di avere diverse restrizioni dietetiche e nonostante avesse sete, è stato notato come fosse paranoico riguardo all’acqua che gli veniva offerta. Ha tentato di fuggire dall’ospedale nell’arco delle 24 ore dal ricovero ed infine è stato trattenuto e curato per psicosi. Una volta stabilizzato, il paziente aveva riferito di aver manifestato diversi altri sintomi indicativi di bromismo, come acne al viso, sete eccessiva e insonnia.
L’uso di bromuro nel secolo scorso
All’inizio del XX secolo, il bromuro di sodio veniva usato come sedativo, ipnotico e anticonvulsivante. Si pensa che il bromismo possa aver contribuito a circa l’8% dei ricoveri psichiatrici avvenuti all’epoca, poiché i sali di bromuro erano presenti in molti farmaci da banco con varie indicazioni, tra cui insonnia, isteria e ansia.
L’incidenza del bromismo è diminuita drasticamente quando, tra il 1975 e il 1989, la Food and Drug Administration statunitense ha eliminato l’uso del bromuro. Tuttavia – precisano gli autori dell’articolo – segnalazioni di casi sono riemerse negli ultimi anni, anche a causa di integratori alimentari e sedativi contenenti bromuro ed eccesso di destrometorfano.
«Sebbene i casi di bromismo rimangano relativamente rari, appare prudente evidenziare questo disturbo come causa reversibile di nuovi sintomi psichiatrici, neurologici e dermatologici, poiché le sostanze contenenti bromuro sono diventate più facilmente disponibili con l’uso diffuso di Internet», scrivono gli autori dell’articolo.
I «pericoli» dei chatbot
Per gli studiosi, questo caso ha messo in evidenza «come l’uso dell’intelligenza artificiale possa potenzialmente contribuire allo sviluppo di esiti sanitari avversi», aggiungendo che, non potendo accedere al registro delle conversazioni di ChatGPT del paziente, non era stato comunque possibile determinare il consiglio ricevuto dall’uomo. Quando però gli autori hanno consultato direttamente ChatGPT per sapere come potesse essere sostituito il cloruro di sodio, la risposta includeva anche il bromuro, non forniva un’avvertenza specifica per la salute e non chiedeva perché si stessero cercando tali informazioni, «come presumiamo farebbe un medico professionista», hanno precisato.
A detta loro, quindi, ChatGPT e altre app di intelligenza artificiale potrebbero «generare inesattezze scientifiche, non essere in grado di discutere criticamente i risultati e, in definitiva, alimentare la diffusione di disinformazione».
L’evoluzione promessa da GPT-5
L’azienda OpenAI, nel frattempo, ha annunciato proprio in questi giorni un aggiornamento di ChatGPT, affermando che uno dei maggiori punti di forza del nuovo GPT-5 riguarderà proprio la salute. A detta dei creatori, il nuovo modello di chatbot sarà più efficace nel rispondere a domande relative alla salute e sarà anche più proattivo nel «segnalare potenziali problemi», come gravi malattie fisiche o mentali.
Resta chiaro – come è stato ulteriormente sottolineato – che il chatbot non sostituisce l’assistenza professionale e che non è «destinato all’uso nella diagnosi o nel trattamento di alcuna condizione di salute».
Il paziente con bromismo avrebbe pertanto utilizzato una versione precedente di ChatGPT. Ma pur riconoscendo che l’intelligenza artificiale potrebbe fungere da ponte tra scienziati e pubblico, l’articolo su Annals of Internal Medicine afferma che la tecnologia comporta anche il rischio di promuovere «informazioni decontestualizzate» e che è altamente improbabile che un medico suggerisca il bromuro di sodio quando un paziente chiede un sostituto del sale da cucina. Di conseguenza, l’invito rivolto ai medici (gli effettivi destinatari della rivista medica) è – ora e sempre – quello di verificare puntualmente da dove i pazienti ottengono le loro informazioni, valutando in primis un possibile uso improprio dell’IA.