Un estadounidense de 60 años terminó en el hospital después de sufrir un episodio grave de psicosis y una intoxicación por bromuro a raíz de una recomendación equivocada de ChatGPT. Según la revista ‘Annals of Internal Medicine: Clinical Cases‘, el afectado decidió retirar el cloro de su dieta, incluido el cloruro de sodio o sal común, y reemplazarlo por bromuro de sodio, un compuesto inorgánico que a menudo se pasa por alto, pero que desempeña un papel importante en diversas industrias y aplicaciones.
De la consulta virtual al hospital
El hombre, con formación en nutrición, quería encontrar un sustituto para la sal común y, tras chatear con la inteligencia artificial, decidió utilizar el bromuro. Así, adquirió la sustancia a través de internet y la consumió durante varias semanas.
Sin embargo, tres meses después, acudió a urgencias en estado paranoico, convencido de que su vecino intentaba envenenarlo. El hombre se encontraba deshidratado y se negaba a beber agua en el hospital, asegurando que solo se fiaba de la que había en su casa.
Regreso de una enfermedad olvidada
Los médicos detectaron un caso grave de bromismo, una intoxicación por acumulación de bromo que, en el siglo XIX, llegó a representar hasta un 10% de los ingresos psiquiátricos. Sus síntomas incluían alucinaciones, paranoia, alteraciones motoras y problemas cutáneos.
Pasadas las primeras horas desde su ingreso en el hospital, el estado del paciente empeoró, y llegó a tratar de escapar. Por ello, los doctores decidieron internarlo en la unidad de psiquiatría y comenzar un tratamiento con antipsicóticos, hidratación intensiva y electrolitos para eliminar el exceso de bromo, ya que sus niveles en sangre eran 200 veces superiores a lo normal (entre 0,9 y 7,3 mg/l). El afectado permaneció hospitalizado durante tres semanas hasta que, finalmente, se recuperó de la intoxicación.
Fallos de la inteligencia artificial
El paciente utilizó versiones antiguas del ChatGPT, como GPT-3.5 o GPT-4.0, que, según comprobaron los especialistas, mencionaba el bromuro en sus respuestas sin advertencias sanitarias claras.
Este episodio ha disparado la preocupación dentro de la comunidad médica, justo cuando OpenAI ha lanzado GPT-5, promocionado como más seguro y fiable en entornos clínicos, después de obtener una puntuación alta de ‘HealthBench’ y un informe hecho por alrededor de 300 doctores.
Con todo, los expertos insisten en que, por muy precisas que parezcan estas herramientas, un error mínimo puede tener consecuencias graves. por esta razón, ninguna IA debería por el momento sustituir la consulta con un médico, y la información obtenida en la conversación siempre debería contrastarse con un especialista sanitario cualificado.