La primera ministra italiana, Giorgia Meloni, ha denunciado públicamente que circulan imágenes creadas con inteligencia artificial (IA) que manipulan su aspecto para presentarla en ropa interior. La jefa del ejecutivo italiano es la última víctima, pero no la primera, de los deepfakes que sexualizan a las mujeres y que, en el caso de las mujeres políticas, tratan de desacreditarlas. Precisamente, este jueves el Parlamento Europeo y el Consejo han alcanzado un acuerdo para prohibir en territorio de la UE estas aplicaciones de IA que generan desnudos o material de abuso sexual infantil.

«En estos días circulan varias fotos falsas mías, generadas con inteligencia artificial y presentadas como reales por algún opositor diligente», ha advertido Meloni en sus cuentas de Instagram, X y Facebook. «Debo reconocer que quien las ha creado, al menos en el caso adjunto, me ha mejorado bastante», ironiza Meloni. Pero advierte de que esto no solo sucede con ella: «Los deepfakes son una herramienta peligrosa, porque pueden engañar, manipular y golpear a cualquiera». «Yo puedo defenderme. Muchos otros no. Por eso, siempre debe aplicarse una regla: verificar antes de creer y creer antes de compartir. Porque hoy me pasa a mí, mañana podría pasarle a cualquiera», añadió en su mensaje.

La jefa del Gobierno italiano se refería a una publicación de Facebook que la presentaba en ropa interior. En el mensaje, escrito en italiano, se podía leer: «Que una primera ministra se presente en este estado es verdaderamente vergonzoso, indigno del cargo institucional que ostenta. Pero ella no sabe lo que es la vergüenza». Esta publicación no está disponible actualmente, ha sido borrada. El perfil que la publicaba se describe como «creador digital» y ha compartido otros contenidos hechos con IA.

Hemos comprobado con herramientas de detección de IA que la foto es falsa y está generada con esta tecnología. Hive y el proyecto IVERES muestran que la foto está hecha con IA con más de un 99% de probabilidad. Puedes ver los resultados en la imagen inferior.

Análisis con Hive y Proyecto Iveres de la imagen de Meloni generada con IA. VerificaRTVE

Alexandra Ocasio-Cortez y otras políticas afectadas por los desnudos

Una investigación de Eurovision News Spotlight destaca que Meloni «no es la primera líder europea cuya imagen ha sido suplantada» mediante IA y de que este ejemplo «pone de relieve un problema que afecta principalmente a las mujeres líderes» porque «rara vez se crean imágenes sexualmente sugerentes que representen a líderes masculinos».

Otras mujeres políticas han denunciado previamente la creación de ‘deepfakes’ con contenido sexual utilizando su propia imagen. Por ejemplo, la congresista estadounidense Alexandra Ocasio-Cortez, que hace dos años contó en una entrevista en la revista Rolling Stone que circulaban imágenes suyas manipuladas con IA y con contenido pornográfico. «Más del 90 % de todos los vídeos deepfake creados son imágenes sexualmente explícitas no consensuadas», dijo la representante demócrata en su cuenta de X. Para Ocasio-Cortez «son una forma de digitalizar una humillación violenta en contra de otras personas». Desde entonces, Ocasio-Cortez ha impulsado la Ley Defiance para proteger en Estados Unidos a las víctimas de estos montajes.

En VerificaRTVE hemos analizado casos similares de falsos desnudos como los de Irene Montero, Ione Belarra, Isa Serra o Isabel Díaz Ayuso. En 2022 circuló una imagen manipulada de esas tres políticas de Podemos enseñando los pechos.

Mensaje en redes que difunde un montaje de Irene Montero, Ione Belarra e Isa Serra. VerificaRTVE

También se difunde desde hace tres años (1 y 2) una foto de la presidenta de la Comunidad de Madrid, con un vestido con escote, pero es falsa, está editada a partir de otra foto real en la Asamblea que publicaron varios medios de comunicación en 2022 (1 y 2).

A la izquierda, una imagen de real de Isabel Díaz Ayuso; a la derecha, la imagen manipulada que circula en redes desde 2023. VerificaRTVE