Domingo, 10 de agosto 2025, 16:32
Un hombre de 60 años ha sido hospitalizado tras reemplazar el cloruro de sodio (sal de mesa) en su dieta por bromuro de sodio, siguiendo los consejos obtenidos de la inteligencia artificial a través de la aplicación de ChatGPT. Un grave incidente que pone de manifiesto el riesgo de seguir a pie juntillas los consejos o dictados de las herramientas de IA, cada vez más populares y al alcance de la mano en nuestros móviles.
El suceso, que se desarrolló a lo largo de casi tres meses de «intoxicación silenciosa», comenzó cuando el sexagenario consultó a ChatGPT sobre cómo reemplazar la sal común en su alimentación para «realizar un experimento personal», según explicó tras su curación. Basándose en las respuestas que le daba la inteligencia artificial, comenzó a utilizar bromuro de sodio como sustituto. Lo que no sabía esta persona es que estaba introduciendo de esta manera en su dieta una sustancia química potencialmente tóxica, que suele tiene usos industriales o médicos, pero que «está absolutamente desaconsejada como sustituto de la sal».
Durante este período, el hombre desarrolló una serie de síntomas alarmantes, desde alucinaciones, paranoia y confusión mental hasta fatiga y algunos trastornos del comportamiento. Su estado psiquiátrico se volvió particularmente preocupante hasta que tuvo que ser hospitalizado de urgencia, según un informe médico publicado por ‘Annals of Internal Medicine’. El informe describe que el hombre estaba «extremadamente sediento, pero se negaba a beber el agua que se le ofrecía, persuadido de que era peligrosa».
Diagnóstico de bromismo
A pesar de no tener antecedentes psiquiátricos o médicos previos, presentó una paranoia aumentada y claros signos de alucinaciones desde las primeras horas de hospitalización. Los médicos no tardaron en diagnosticar un caso de bromismo, una intoxicación por bromuro que, aunque rara hoy en día, es conocida por provocar trastornos neurológicos y dermatológicos.
Una vez estabilizado gracias a un tratamiento con fluidos y electrolitos, fue trasladado a una unidad de psiquiatría. Al recuperar la lucidez, explicó su peculiar «experiencia personal mal controlada»: inspirado por sus estudios universitarios en nutrición, había querido eliminar el cloruro de su dieta. Había comprado el bromuro de sodio por internet después de leer, a través de ChatGPT, que «teóricamente podía reemplazar el cloruro», una confusión que los expertos atribuyen probablemente a usos industriales o de limpieza del bromuro.
Advertencias en consultas sobre salud
Según los autores del estudio, «este caso pone de relieve cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de resultados adversos prevenibles en materia de salud». Además los científicos explican que trataron de reproducir el diálogo con ChatGPT y que «aunque la respuesta decía que el contexto importaba, no ofrecía una advertencia sanitaria específica, ni se preguntó por qué queríamos saber, algo que sí haría un profesional médico».
El hombre permaneció hospitalizado durante tres semanas antes de poder regresar a casa. Su caso pone de manifiesto los riesgos de confiar en consejos médicos dados por una inteligencia artificial. Y es que los expertos avisan que si bien estas herramientas van mejorando, aún pueden generar información inexacta o dar respuestas que buscan contentar al usuario, factores conocidos por los especialistas como «alucinaciones de la IA». La misma compañía detrás de la tecnología del ChatGPT, OpenAI, especifica en sus condiciones de uso que sus servicios no deben ser utilizados para diagnosticar o tratar problemas de salud.
Los científicos que recopilaron este caso son más concretos: «a medida que aumente el uso de herramientas de IA, los proveedores tendrán que considerar estos usos sobre información sanitaria».
Comenta
Reporta un error