La Inteligencia Artificial (IA) se ha consolidado como una herramienta importante en muchos procesos; sin embargo, sigue sin ser del todo fiable y confiar plenamente en ella puede traer graves consecuencias. Esto mismo es lo que ha demostrado la investigadora sueca Almira Osmanovic Thunström, quien inventó una enfermedad ficticia para demostrar la facilidad de la inteligencia artificial para difundir bulos.
La científica de la Universidad de Gotemburgo y su equipo crearon la ‘bixonimanía’, lo que definieron como una enfermedad cutánea u ocular causada por el contacto excesivo con la luz azul de las pantallas y el frotamiento de ojos. Tras ello, publicaron artículos científicos en servidores de preimpresión, que son plataformas donde se comparten estudios antes de ser revisados por otros expertos.
Las noticias incluían señales evidentes de que la enfermedad era falsa
Las diferentes noticias incluían señales evidentes de que hablaban de una enfermedad completamente falsa, por ejemplo, citas de Star Trek o Los Simpson, e incluso agradecimientos a la Academia de la Flota Estelar. Sin embargo, modelos de IA, como ChatGPT y Gemini, comenzaron a tratar la enfermedad como real en cuestión de semanas.

ChatGpt, inteligencia artificial.
Los chatbots empezaron a sugerir la ‘bixonimanía’ a usuarios que buscaban información por síntomas como ojos rojos o irritados. De hecho, la información falsa se propagó tan rápido que incluso llegó a ser citada en otros artículos científicos reales, lo que obligó a algunas revistas a retirar publicaciones.
Finalmente, el caso, reportado por la revista científica Nature en abril de 2026, destaca que las IA priorizan el reconocimiento de patrones y el tono profesional sobre la verificación real de los hechos. Este hallazgo subraya el riesgo de utilizar este tipo de herramientas para el autodiagnóstico médico sin la supervisión de un profesional de la salud. “Una lección magistral sobre cómo funciona la desinformación”, afirma Alex Ruani, investigador doctoral.