Hanno preso il suo volto e lo hanno applicato a un corpo nudo creato dall’intelligenza artificiale. È successo a Francesca Barra, vittima ignara del forum SocialMediaGirls che conta oltre 7,5 milioni di utenti e ospita “deepnude”, immagini generate da IA e diffuse in rete senza autorizzazione.

Il deepfake è la nuova frontiera della violenza di genere. Si tratta di un attacco reputazionale, di un furto d’immagine, del corpo, e del diritto di decidere come la propria immagine viene usata e mostrata. “Non è un divertimento, è un abuso”, ha dichiarato Barra, ricordando che un’immagine falsa può avere effetti reali sulla vita, sulla famiglia e sul lavoro di una persona.

Il diritto, come la nottola di Minerva di cui scriveva Hegel, interviene quando la realtà ha già colpito, osserva il dolore, poi lo traduce in norme. Vediamo, dunque, come interviene la legge contro i deepfake fotografici; quali tutele ha la vittima e quali pene rischia chi diffonde questi contenuti.

Creare un deepfake è reato?

Un deepfake è un contenuto digitale, immagine, video o audio, creato o manipolato con strumenti di intelligenza artificiale in modo da riprodurre in modo verosimile il volto, la voce o il corpo di una persona reale.
La legge n. 132/2025 ha introdotto l’art. 612-quater nel Codice Penale e stabilisce che:

Chiunque, mediante strumenti di intelligenza artificiale o altre tecnologie digitali, crea, modifica o diffonde contenuti idonei a ledere l’onore o la reputazione di una persona è punito con la reclusione da uno a cinque anni.

Si tratta di una norma di “nuova generazione”, nata per colmare un vuoto normativo, dopo anni in cui le vittime potevano difendersi solo invocando reati come diffamazione o violazione della privacy, difficilmente adattabili a contenuti generati dall’IA.
Tuttavia, non tutte le immagini ritoccate sono deepfake.

Un fotomontaggio evidente o un meme non realistico sono condotte di cattivo gusto, ma non rientrano nel 612-quater c.p., salvo che non siano strumenti di diffamazione o di molestie.

Quindi, non si tratta solo di una foto alterata, la norma guarda all’idoneità ad ingannare e al danno ingiusto provocato. Se l’immagine è credibile, ad esempio ricostruita con IA, e induce in errore terzi sul fatto che la persona abbia compiuto determinati atti o mostrato certi contenuti, allora la fattispecie di reato può ricadere nel nuovo art. 612-quater c.p.

Come difendersi da un deepfake

In primo luogo, occorre bloccare la diffusione del contenuto. Tutte le principali piattaforme digitali, da Meta a X, fino a TikTok , sono tenute, in virtù del Digital Services Act (DSA), ad attivare canali rapidi di segnalazione notice and action. L’utente può inviare una richiesta formale di rimozione, indicando l’URL del contenuto e spiegando che si tratta di un’immagine manipolata o diffamatoria.

“Le piattaforme devono rispondere in modo “tempestivo, motivato e tracciabile”, pena sanzioni fino al 6% del fatturato globale.”

Il deepfake va sempre documentato prima della rimozione. Occorrono screenshot completi, con l’indirizzo web, data e l’ ora del salvataggio. Meglio, se possibile, usare sistemi di conservazione a valore legale, timestamp o archiviazione forense che certificano il momento esatto del salvataggio.

Come e quando sporgere querela

La vittima deve presentare querela appena scopre il fatto, perché il reato di deepfake è procedibile a querela di parte. Ciò significa che l’azione penale non si apre in automatico, perché serve un atto formale della persona offesa, che denunci l’accaduto alle autorità.
Il termine per sporgere querela è di sei mesi dalla scoperta del contenuto. Lo stesso vale per la diffusione illecita di immagini o video sessualmente espliciti e per la diffamazione aggravata.

“Non occorre sapere chi sia l’autore materiale è sufficiente che il deepfake sia diffuso e identificabile online”.

La querela può essere presentata presso qualsiasi stazione di Polizia o Carabinieri, o direttamente in Procura, allegando le prove raccolte.

Reclamo al Garante Privacy

Se l’immagine manipolata contiene dati personali (volto, nome, riferimenti identificativi), è possibile presentare un reclamo urgente al Garante per la protezione dei dati personali.
Il Garante può ordinare la rimozione immediata del contenuto, oscurare i risultati di ricerca e sanzionare chi lo ha diffuso.

Cosa si può fare in sede civile: sequestro e inibitoria

Oltre alla via penale, è possibile agire in sede civile per ottenere la rimozione giudiziaria dei contenuti e il risarcimento dei danni.
L’art. 700 c.p.c. consente di chiedere un provvedimento d’urgenza al giudice, che può ordinare il sequestro del materiale e l’inibizione della diffusione, anche prima della sentenza.
La tutela civile è particolarmente utile se il deepfake è stato condiviso da più soggetti o da siti ospitati all’estero, il provvedimento del giudice può essere notificato direttamente ai gestori delle piattaforme.

Chi rischia le pene più gravi?

La nuova legge sui deepfake sanziona chi li realizza e chi contribuisce consapevolmente alla loro diffusione.
L’art. 612-quater c.p. prevede:

La pena è la reclusione da 1 a 5 anni con aggravanti in caso di diffusione su larga scala o utilizzo di piattaforme social.

Il reato è consumato anche se il deepfake non è stato pubblicato dall’autore, ma inviato a terzi con la consapevolezza che potesse essere diffuso. D’altro canto, chi condivide un’immagine o un video deepfake, sapendo che è falso, risponde allo stesso titolo dell’autore. Infatti, la legge considera la diffusione come una condotta autonoma e punibile perché amplifica il danno alla vittima.
Il deepfake è un fenomeno trasversale che può sovrapporsi a diverse fattispecie penali già previste dal nostro ordinamento.
Ecco una sintesi delle principali norme:

Reato

Pena

Quando si applica

Creazione o diffusione di contenuti falsi con IA – art. 612-quater c.p.

reclusione da 1 a 5 anni

si crea o si diffonde un contenuto artificiale idoneo a ledere l’onore o la reputazione di una persona

Diffusione illecita di immagini o video sessualmente espliciti – art. 612-ter c.p.

reclusione da 1 a 6 anni e multa da 5.000 a 15.000 €

il deepfake ritrae la vittima in contesti sessuali o intimi, anche se l’immagine è generata con IA

Diffamazione aggravata online – art. 595 c.p., commi 2 e 3

reclusione fino a 3 anni o multa fino a 2.065 €

il deepfake offende la reputazione di una persona ed è diffuso pubblicamente (social, chat, media)

Trattamento illecito di dati personali – art. 167 Codice Privacy

reclusione da 6 mesi a 3 anni

se vengono usati o diffusi foto, video o dati reali senza consenso

Violazione del diritto all’immagine o al ritratto – art. 10 c.c. e artt. 96-97 L.d.A.

solo tutela civile e risarcitoria

il volto o il ritratto di una persona sono pubblicati o diffusi senza consenso

Molestie o atti persecutori online (stalking digitale) – art. 612-bis c.p.

reclusione da 1 a 6 anni e 6 mesi

se la diffusione di deepfake è ripetuta e provoca paura o ansia nella vittima

Accesso abusivo a sistemi informatici – art. 615-ter c.p.

reclusione da 1 a 5 anni

se per creare il deepfake si accede a dati, profili o archivi privati senza autorizzazione

Come posso sapere se esistono contenuti che mi ritraggono?

I deepfake circolano spesso nei circuiti nascosti del web, in forum chiusi o piattaforme estere difficili da monitorare. Di solito la vittima se ne accorge solo dopo una violazione della privacy, magari perché riceve messaggi, insulti o segnalazioni sui social. Tuttavia, ci sono alcuni strumenti utili per monitorare la propria presenza online e scoprire se il proprio nome o le proprie immagini compaiono in rete:

  • Google Alert, che invia una notifica ogni volta che compare online un contenuto con il proprio nome o indirizzo e-mail;
  • Talkwalker Alert, servizio simile ma più dettagliato, utile anche per chi usa pseudonimi o profili pubblici;
  • la ricerca “per immagini” di Google o TinEye, che consente di individuare eventuali foto duplicate o manipolate.