Ayer, Giorgia Meloni publicó en X una foto suya generada por inteligencia artificial en la que solo llevaba lencería. La presidenta del Consejo de Ministros de Italia —que demandó a dos hombres por crear un vídeo pornográfico deepfake sobre ella en 2024— publicó la imagen para advertir a los demás sobre lo fácil que es ahora crear imágenes y vídeos perfectamente creíbles, y para instar a la gente a que no se crea nada de lo que ve sin haberlo verificado de forma exhaustiva. Al fin y al cabo, vivimos en el fin de la realidad.

«Los ultrafalsos son una herramienta peligrosa, porque pueden engañar, manipular y atacar a cualquiera», dijo Meloni en X. «Yo puedo defenderme. Muchos otros no pueden«. Por supuesto que tiene razón, aunque la imagen no sea técnicamente un ultrafalso, sino una foto totalmente generada por inteligencia artificial que utiliza su rostro. A diferencia de los ultrafalsos, que simplemente cambian el rostro de un humano en una foto de origen por el rostro de otro humano, la inteligencia artificial generativa puede utilizar diferentes componentes, como un rostro, para crear una imagen sintética 100 % nueva. Este proceso hace que su verdadera naturaleza sea prácticamente indetectable, si no del todo: como no se puede realizar una búsqueda inversa y emparejar la imagen con una fuente original en internet, uno puede creerse por completo que es real.

Foto: materiales-centros-de-datos-energia-investigacion

TE PUEDE INTERESAR

El material que puede solucionar el despilfarro energético de la IA

Omar Kardoudi

Meloni, que bromea diciendo que en la imagen falsa sale «mucho mejor» que ella misma, publicó la fotografía después de recibir un aluvión de quejas sobre las «varias fotos [suyas] falsas que circulan estos días», todas «generadas con inteligencia artificial y que algún aplicado oponente ha hecho pasar por reales». Todas las personas que le escribieron creyeron realmente que las imágenes eran verdaderas. «Por eso siempre debe aplicarse una regla: comprobar antes de creer, y creer antes de compartir. Porque hoy me pasa a mí, pero mañana le puede pasar a cualquiera».

Hacen falta más que palabras

Pero aunque demostró una gran valentía al ponerse a sí misma en el punto de mira de esa manera, Meloni y otros políticos de todo el mundo deben hacer mucho más. Su publicación en X fue un buen mensaje de advertencia contra los peligros de la inteligencia artificial generativa, pero ya hemos superado con creces la fase de concienciación. El mundo necesita pasar a la acción.

La inteligencia artificial generativa supone un peligro existencial para la humanidad al usar nuestros sesgos psicológicos como arma, destruyendo de forma efectiva nuestro sentido compartido de la realidad objetiva y exponiendo a todo el mundo a los abusos de cualquier tercero. Lo hemos visto en muchos casos en los últimos meses. Ahí está «Jessica Foster», una influencer militar pro-Trump generada por inteligencia artificial que acumuló un millón de seguidores en solo tres meses para canalizar a los hombres hacia un sitio web de fetiches para adultos antes de que su cuenta fuera borrada de Instagram. Y aunque su personaje digital estaba plagado de fallos de renderizado evidentes y situaciones absurdas, a diferencia de las imágenes de Meloni, sus seguidores ignoraron deliberadamente los errores porque el espejismo satisfacía a la perfección sus fantasías ideológicas.

A la inversa, la mera existencia de estas herramientas que distorsionan la realidad permite a la gente rechazar a ciegas los hechos reales y comprobados cuando contradicen sus ideas preconcebidas del mundo. Cuando se publicó un vídeo legítimo que demostraba que el primer ministro de Israel, Benjamin Netanyahu, estaba vivo tras los rumores de su asesinato, internet —con la ayuda de los asistentes virtuales de inteligencia artificial que alucinaban respuestas— descartó al instante y de forma falsa la grabación como un ultrafalso. Incluso después de que analistas independientes y verificadores de datos aportaran pruebas irrefutables de que el vídeo era auténtico, la evidencia no logró convencer a quienes preferían sus propias teorías de la conspiración.

Los políticos deben actuar ya

Atrapados en esta distopía ficticia en la que los gigantes tecnológicos han vaporizado por completo el perímetro de la verdad objetiva, la sociedad necesita algo más que una publicación en X. La concienciación pública y las campañas educativas ya no son suficientes para combatir el enorme coste humano y económico que esto ya provoca. La única estrategia de salida que nos queda para salvar nuestra realidad compartida es que los gobiernos del mundo intervengan de forma agresiva y obliguen a las empresas tecnológicas a adoptar unos equipos informáticos y unos programas que puedan autenticar fotos, vídeos y audios reales sin el menor asomo de duda.

Jessica Foster y amigas sintéticas posando junto a un caza F-22 Raptor. (Instagram/jessicaa.foster)

En marzo, un equipo de la Escuela Politécnica Federal de Zúrich propuso la única solución que parece lo bastante seria para la magnitud de la amenaza: sensores que firman de forma criptográfica una imagen en el momento exacto en que la luz y el audio inciden en ellos. A diferencia de los sistemas actuales, que estampan la autenticidad más tarde a través del procesador principal del dispositivo y, por lo tanto, pueden ser interceptados o engañados, este diseño fija la verificación directamente en el propio acto de la captura. En pocas palabras, dificultaría enormemente hacer pasar los medios sintéticos por reales, porque la prueba de autenticidad nacería dentro de los equipos, y no se añadiría después mediante un programa que puede ser falsificado.

De ese modo, la gente puede buscar el ‘sello de verdad‘ en cualquier medio publicado en todas partes, desde publicaciones hasta redes sociales. Y todo lo que no lleve ese sello, como dice Meloni, debería ponerse en duda y descartarse de forma automática.

Además, los Estados deben actuar para dar herramientas a sus ciudadanos con el fin de retirar cualquier imagen que utilice sus rostros, mediante la habilitación de leyes como la Ley de Derechos de Autor de la Era Digital de Estados Unidos. Pero, en lugar de obligar a las personas corrientes a registrar sus propios derechos de imagen, deberían poder hacerlo de forma sencilla.

Cómo funciona el nuevo mecanismo de certificación encriptada. (ETH Zúrich)

Por ahora, solo el Gobierno de Dinamarca lo ha hecho. En un esfuerzo por ofrecer a sus ciudadanos protección contra la clonación por inteligencia artificial, el país reescribió su código legal el año pasado para garantizar que los residentes son los únicos propietarios de los derechos sobre sus rostros biológicos y sus voces naturales. El ministro de Cultura danés, Jakob Engel-Schmidt, lo resumió a la perfección entonces: «A los seres humanos se les puede pasar por la fotocopiadora digital y utilizarlos para todo tipo de fines, y no estoy dispuesto a aceptarlo».

El caso Meloni, uno entre millones, demuestra una vez más que el ministro de Cultura danés tiene toda la razón cuando declaró la urgencia de la ley que aprobó su Gobierno. Necesitamos frenar este problema de forma tajante con esas herramientas, y con cualquier otra que puedan idear los legisladores e ingenieros. Las imágenes falsas —siempre y cuando estén dentro de los límites legales existentes— pueden coexistir perfectamente con la realidad si todo el mundo actúa ahora, empezando por los gigantes tecnológicos que crearon este problema en primer lugar y que, sin el menor pudor, se están embolsando miles de millones de dólares gracias al uso de estas herramientas.

Ayer, Giorgia Meloni publicó en X una foto suya generada por inteligencia artificial en la que solo llevaba lencería. La presidenta del Consejo de Ministros de Italia —que demandó a dos hombres por crear un vídeo pornográfico deepfake sobre ella en 2024— publicó la imagen para advertir a los demás sobre lo fácil que es ahora crear imágenes y vídeos perfectamente creíbles, y para instar a la gente a que no se crea nada de lo que ve sin haberlo verificado de forma exhaustiva. Al fin y al cabo, vivimos en el fin de la realidad.