Um homem de 60 anos que queria substituir o consumo de sal de mesa por uma alternativa acabou a sofrer de uma condição clínica rara ao ingerir substâncias sugeridas pelo modelo de inteligência artificial ChatGPT.

O caso, noticiado por meios como o The Guardian e o Futurism, foi originalmente documentado pela revista de investigação médica norte-americana AnnalsofInternal Medicine, num artigo intitulado “A Case of Bromism Influenced by Use of Artificial Intelligence” [“Um caso de bromismo influenciado pelo uso da inteligência artificial”].

De acordo com o artigo, a vítima, um homem de 60 anos cuja proveniência não é explicitada, terá ido às urgências com a suspeita de que um vizinho seu estava a envenená-lo. O que os profissionais de saúde descobriram, contudo, é que estava a sofrer de bromismo — uma condição causada pela intoxicação por ingestão de substâncias com bromo.

Esta condição, hoje extremamente rara, era relativamente comum no início do século XX, e além de poder ter sintomas físicos — como erupções cutáneas, vómitos e náuseas —, caracteriza-se sobretudo por causar confusão, paranoia, alucinações, psicose e, na pior das hipóteses, pode induzir as vítimas em coma.

Foi então que o paciente — depois de ter tentado fugir do hospital onde foi internado e de ter recusado a água que lhe era oferecida — admitiu que, após ler sobre os efeitos negativos do cloreto de sódio, ou sal de mesa, tinha consultado o ChatGPT quanto à sua eliminação da sua dieta, substituindo-o por brometo de sódio.

“Durante três meses, ele substituiu o cloreto de sódio por brometo de sódio obtido na Internet após consultar o ChatGPT, onde leu que o cloreto pode ser trocado por brometo, embora provavelmente para outros fins, como limpeza”, lê-se no artigo. Além de poder ser usado como desinfetante, o brometo de sódio foi utilizado no final do século XIX e no início do século XX como sedativo e anticonvulsivo vendido sem necessidade de receita médica, tendo sido devido à sua utilização massiva que se começaram a detetar os seus riscos clínicos.

[Um homem desobedece às ordens dos terroristas e da polícia e entra sozinho na embaixada. Momentos depois, ouve-se uma enorme explosão“1983: Portugal à Queima-Roupa” é a história do ano em que dois grupos terroristas internacionais atacaram em Portugal. Um comando paramilitar tomou de assalto a embaixada turca em Lisboa e uma execução sumária no Algarve abalou o Médio Oriente. É narrada pela atriz Victoria Guerra, com banda sonora original dos Linda Martini. Ouça o quarto episódio no site do Observador, na Apple Podcasts, no Spotify e no Youtube MusicE ouça o primeiro episódio aqui, o segundo aqui e o terceiro aqui]

Os autores do artigo explicitam que, não tendo acesso ao registo de conversas do paciente no ChatGPT, não foi possível determinar os conselhos que o homem recebeu. No entanto, ao tentar replicar a sua experiência, quando perguntaram ao modelo de inteligência artificial, sobre com que substância o cloreto poderia ser substituído, a resposta também incluiu o brometo. Pior ainda, não incluiu qualquer advertência quanto aos seus riscos de saúde nem perguntou aos autores para que fim queriam fazer essa substituição — isto é, não procurou saber se a pergunta tinha sido feita com o intuito de fazer uma mudança dietética, o que incorre precisamente nos tais riscos de saúde.

A apresentação deste artigo surge ao mesmo tempo que a OpenAI, a empresa responsável por desenvolver o ChatGPT, apresentou uma nova versão do seu modelo, o GPT-5, descrito pelo seu CEO, Sam Altman, como o equivalente a “falar com um especialista, alguém que tem um doutoramento em qualquer área e coisa que se precise”.

OpenAI lança nova versão do seu modelo de IA. “Usar o GPT-5 será como falar com um especialista”

No decurso da apresentação do GPT-5, Altman destacou as suas potencialidades para a área da saúde, descrevendo-o mesmo como “o melhor modelo de sempre para a saúde” e que permite ao utilizador ter “mais controlo sobre a sua jornada de cuidados de saúde”.

No entanto, o artigo alerta para a utilização destes modelos, explicitando que este caso destaca “como o uso da inteligência artificial pode potencialmente contribuir para o desenvolvimento de resultados adversos à saúde que podiam ser evitados”. Frisando que o paciente terá recorrido a uma versão menos sofisticada do ChatGPT — como o GPT 3.5 ou o 4 —, os especialistas apontam ainda assim para a tendência de ferramentas de IA como esta em “gerar imprecisões científicas, carecer da capacidade de discutir criticamente os resultados e, em última análise, alimentar a disseminação de desinformação”.