Agli inizi di maggio 2026, sui principali social network italiani ha cominciato a circolare un’immagine che ritraeva Giorgia Meloni in abbigliamento intimo, con una posa volutamente sensuale. L’immagine era costruita con cura, realistica nella texture dei tessuti, convincente nella resa della luce, inquietante nella somiglianza facciale con la Presidente del Consiglio. Chi l’aveva pubblicata la spacciava per autentica, accompagnandola con commenti di scherno politico. Il problema, naturalmente, era che quella fotografia non era mai stata scattata. Era stata generata da un sistema di intelligenza artificiale generativa, plasmata da algoritmi addestrati su miliardi di immagini reali, capace di comporre ex nihilo un volto, un corpo, un contesto visivo del tutto plausibile.
La reazione della premier è stata rapida e, per certi versi, inusuale: anziché rimuovere in silenzio la questione dalla sfera pubblica, Meloni ha scelto di rilanciarla personalmente sui propri profili social, pubblicando l’immagine falsa e accompagnandola con parole che mescolano ironia e allarme. «Devo riconoscere che chi le ha realizzate, almeno nel caso in allegato, mi ha anche migliorata parecchio», ha scritto, per poi aggiungere, con tono molto più serio: «Perché oggi capita a me, domani può capitare a chiunque». È questa seconda frase a meritare ogni attenzione. Non è una dichiarazione politica di circostanza. È la descrizione precisa di uno stato di vulnerabilità collettiva che investe ogni persona dotata di un volto sufficientemente documentato online, ovvero, nell’era dei social network, chiunque.
Abbiamo deciso di non includere alcuna immagine della premier italiana essendo, per l’appunto, dei falsi
L’episodio non è isolato. Nelle settimane e nei mesi precedenti, altri esponenti politici italiani erano stati oggetto di contenuti deepfake: un video falso del deputato Giovanni Donzelli, esponente di Fratelli d’Italia, in cui commentava un attentato a un giornalista con parole mai pronunciate, aveva già dimostrato come la tecnologia si stesse rapidamente spostando dall’ambito della curiosità tecnica a quello della guerra per procura delle narrative politiche. Il Parlamento italiano ha risposto con un percorso legislativo ancora incompleto: il Partito Democratico ha presentato una proposta di legge per vietare i deepfake nella propaganda elettorale, attualmente in esame presso la Commissione Affari Costituzionali della Camera. Ma tra la proposta di legge e la realtà virale di un’immagine che ha già compiuto migliaia di condivisioni nel giro di ore, esiste un abisso tecnologico e temporale che nessuna norma, per quanto ben scritta, riesce ancora a colmare.
Ciò che rende questo episodio particolarmente significativo per chi studia la fotografia, la sua storia e il suo ruolo epistemico nella società contemporanea, è la precisione con cui esso riassume una crisi che matura da decenni. La fotografia ha sempre goduto di uno statuto epistemologico privilegiato: il pubblico generalista tende a considerare l’immagine fotografica come traccia del reale, prova dell’esistenza di qualcosa che è accaduto davanti a un obiettivo. Questo statuto, già minato dal fotoritocco digitale degli anni Novanta e Duemila, viene oggi demolito sistematicamente dalla generazione sintetica di immagini. Non si tratta più di modificare una fotografia esistente; si tratta di fabbricare dal nulla una fotografia che non è mai esistita, ma che appare assolutamente reale. Il caso Meloni è il segnale più recente e più visibile di una deriva che non riguarda soltanto la politica, ma l’intera ecologia visiva contemporanea.
Vale la pena soffermarsi sulla dinamica psicologica dell’inganno. Il cervello umano elabora le immagini prima del testo, con tempi di processing dell’ordine dei millisecondi, e attribuisce loro una credibilità istintiva che il linguaggio verbale non ottiene con la stessa automaticità. Studi sulla percezione condotti negli Stati Uniti hanno dimostrato che i volti sintetici generati da sistemi di intelligenza artificiale vengono spesso valutati come più affidabili dei volti reali, poiché tendono a convergere verso una “media fisionomica” priva degli elementi di irregolarità che caratterizzano i visi umani autentici. Questo dato è sconfortante. Significa che il deepfake non è soltanto difficile da smascherare tecnicamente; è anche, a livello di architettura cognitiva, progettato involontariamente per ingannare con più efficacia della realtà stessa.

La Macchina Generativa: Come si Produce un Deepfake Fotografico
Per comprendere perché sia così difficile difendersi dai deepfake fotografici, occorre comprendere come vengono prodotti. La tecnologia alla base delle immagini sintetiche moderne si fonda su architetture di reti neurali note come Generative Adversarial Networks (GAN) e, più recentemente, su modelli diffusivi (Diffusion Models), dei quali Stable Diffusion, Midjourney e DALL-E 3 rappresentano le implementazioni più diffuse. Il principio è relativamente semplice nella sua logica formale, anche se enormemente complesso nella sua realizzazione tecnica.
Un modello GAN si compone di due reti neurali che lavorano in opposizione: il generatore, che produce immagini sintetiche, e il discriminatore, che cerca di distinguere le immagini reali da quelle false. Durante l’addestramento, il generatore migliora costantemente cercando di ingannare il discriminatore, mentre il discriminatore affina la propria capacità di rilevamento. Il risultato finale di questo processo competitivo è un generatore capace di produrre immagini di volti umani, ambienti, oggetti e situazioni di qualità fotorealistica, con dettagli di texture, illuminazione e profondità di campo che risultano credibili anche a un osservatore attento. I modelli diffusivi, più recenti, utilizzano invece un approccio che aggiunge e rimuove progressivamente rumore gaussiano dalle immagini, imparando a ricostruire contenuti visivi plausibili a partire da una distribuzione di rumore casuale.
Per realizzare un deepfake che ritragga una persona specifica, come la presidente Meloni, non è nemmeno necessario accedere a strumenti particolarmente sofisticati. Esistono servizi online, alcuni dei quali completamente gratuiti, che consentono di effettuare face swap, ovvero la sostituzione del volto in un’immagine esistente, o di generare immagini ex novo condizionando il modello con un volto di riferimento. La disponibilità di immagini di personaggi pubblici, i cui volti sono documentati in migliaia di scatti fotografici reali e video accessibili pubblicamente online, semplifica enormemente il condizionamento del modello: quanto più ampio è il dataset di riferimento, tanto più precisa e convincente risulterà la sintesi. Un politico che ha partecipato a decine di conferenze stampa, comizi, interviste televisive, ha inconsapevolmente messo a disposizione di chiunque un set di addestramento implicito di enorme qualità.
La resa fotorealistica raggiunta dai sistemi attuali è tale da rendere la distinzione visiva, a occhio nudo, sostanzialmente impossibile per l’utente comune. Le aree critiche che i vecchi deepfake tradivano, come le orecchie rese in modo innaturale, i capelli ai bordi del volto, i riflessi nella sclera degli occhi, la sincronizzazione labiale imperfetta, sono state progressivamente risolte dai sistemi di nuova generazione. I capelli vengono ora resi con simulazione fisica del comportamento dei singoli fili; la pelle presenta pattern di microdettaglio coerenti con le aspettative biologiche; la luce interagisce con la superficie del volto sintetico secondo modelli di subsurface scattering che imitano il comportamento ottico reale dei tessuti biologici. In questo contesto, la responsabilità di verifica non può essere scaricata sull’utente finale, che semplicemente non dispone degli strumenti cognitivi per distinguere il vero dal falso.
Il processo di diffusione amplifica ulteriormente il problema. Un’immagine falsa pubblicata su un social network può raggiungere milioni di utenti nel giro di poche ore; le smentite e le verifiche, per loro natura più elaborate e meno immediatamente accessibili, impiegano ore o giorni per essere prodotte e distribuire, e raggiungono invariabilmente una platea molto più ristretta. La ricerca in comunicazione ha documentato ripetutamente questo squilibrio: la disinformazione si diffonde più rapidamente della correzione, con un fattore di propagazione che nelle piattaforme social può superare di sei volte la velocità di diffusione della notizia vera. La combinazione tra un generatore visivo di qualità fotorealistica e un sistema di distribuzione virale di scala globale produce un’arma di manipolazione dell’opinione pubblica di efficacia senza precedenti storici.
Occorre poi considerare che la produzione di immagini deepfake ha subito una drastica democratizzazione negli ultimi anni. Se fino al 2022 la generazione di immagini sintetiche di qualità richiedeva competenze tecniche avanzate, hardware dedicato con GPU di fascia alta e un investimento di tempo significativo, oggi applicazioni consumer disponibili su smartphone consentono di produrre immagini convincenti in pochi secondi, con interfacce intuitive accessibili a qualunque utente. Questa abbassamento della barriera di accesso ha moltiplicato esponenzialmente il numero di potenziali produttori di contenuti deepfake, rendendo impossibile qualunque strategia di contenimento basata sul controllo delle fonti di produzione.
Una Radice Antica: La Manipolazione Fotografica nella Storia della Propaganda
Sarebbe un errore storico considerare il deepfake come un fenomeno radicalmente nuovo. La manipolazione fotografica a scopo politico e propagandistico è coeva alla fotografia stessa; ciò che cambia, con la sintesi digitale basata sull’intelligenza artificiale, è la scala, la velocità e l’accessibilità degli strumenti. Comprendere questa genealogia è fondamentale per valutare correttamente la crisi attuale.
Già nel 1860, il ritratto iconico di Abraham Lincoln che circola ancora oggi come immagine canonica del presidente fu realizzato combinando il volto di Lincoln con il corpo di John C. Calhoun, un politico sudista morto dieci anni prima. La necessità di rappresentare Lincoln in una posa autorevole e dignitosa, per cui non esisteva una fotografia adeguata, spinse il fotografo a costruire una composizione che di autentico aveva soltanto il volto. Nessuno si scandalizzò: i meccanismi di verifica dell’immagine non esistevano, e il pubblico non aveva le categorie cognitive per mettere in discussione un ritratto fotografico.
Il Novecento ha portato la manipolazione fotografica al rango di strumento di Stato, con la URSS staliniana a segnare il caso più documentato e più sistematico. Sotto il regime di Stalin, intere figure venivano cancellate dalle fotografie storiche non appena cadevano in disgrazia politica: i commissari giustiziati sparivano dai gruppi di ritratto ufficiali, sostituiti da sfondi neutri o da fondali architettonici; la storia visiva veniva riscritta con la stessa metodicità con cui venivano riscritti i testi dei libri scolastici. La manipolazione fotografica era in questo contesto uno strumento di controllo epistemico totale: non si trattava soltanto di ingannare i cittadini sul presente, ma di rimodellare la loro percezione del passato. Strumenti diversi, fine identico: controllare chi, cosa e come appare nella sfera visiva pubblica.
La differenza fondamentale tra la manipolazione analogica e digitale del Novecento e il deepfake contemporaneo non risiede nella natura dell’intenzione, ma nella struttura del potere necessario a realizzarla. La fotorimozione staliniana richiedeva l’apparato di uno Stato totalitario, laboratori fotografici ufficiali, una burocrazia della censura visiva. La manipolazione con Photoshop degli anni Novanta richiedeva comunque competenze tecniche e software costoso. Il deepfake del 2026 richiede uno smartphone e pochi secondi. La democratizzazione degli strumenti di inganno visivo è, in un certo senso, la più pericolosa conseguenza dell’accessibilità tecnologica dell’intelligenza artificiale generativa.
Vi è poi una dimensione di genere che il caso Meloni rende visibile con particolare nitidezza. L’immagine falsa che la ritrae in lingerie non è casuale nella sua scelta tematica: rientra in un pattern sistematico di utilizzo dei deepfake contro le donne, specie quando si tratti di donne che occupano posizioni di potere. Il fenomeno dei deepfake pornografici non consensuali, che in Italia la legge n. 132 del 2025 ha introdotto nel codice penale all’articolo 612-quater con pene da 1 a 5 anni di reclusione, colpisce in modo sproporzionato le donne. Uno studio dell’Università di Amsterdam ha stimato che oltre il 96% di tutti i contenuti deepfake sessualmente espliciti riguarda donne non consenzienti. Quando il bersaglio è una figura politica di primo piano, la violenza privata si somma alla delegittimazione pubblica, amplificando entrambe le dimensioni del danno.
Il Paradosso della Difesa: Tecniche di Rilevamento e i Loro Limiti Strutturali
La domanda più urgente per chi vuole difendersi dai deepfake è: come si riconosce un’immagine sintetica? La risposta onesta è che non esiste, allo stato attuale, alcun metodo di rilevamento infallibile. Le tecniche disponibili possono essere classificate in tre categorie principali: l’analisi delle anomalie visive, l’analisi forense dei metadati e l’analisi computazionale con algoritmi di classificazione.
L’analisi delle anomalie visive è la prima linea di difesa accessibile a un utente comune, ma anche quella più rapidamente obsoleta. I deepfake di prima generazione tradivano la propria natura attraverso artefatti caratteristici: bordi del volto sfumati o discontinui, pupille asimmetriche, gioielli o accessori resi in modo incoerente, sfondo che si deforma nei pressi della silhouette soggetto. Un occhio allenato poteva cogliere queste incongruenze, specialmente quando il deepfake era video e le transizioni tra fotogrammi rivelavano instabilità nella texture facciale. I sistemi di nuova generazione hanno progressivamente eliminato questi artefatti elementari. I modelli diffusivi attuali producono immagini in cui la coerenza fisica è mantenuta ad un livello tale da non lasciare tracce visibili a risoluzioni standard di visualizzazione sui dispositivi consumer. La speranza di identificare un deepfake “a occhio” è, per le immagini prodotte dai sistemi del 2025-2026, fondamentalmente illusoria.
L’analisi forense dei metadati è tecnicamente più solida, ma esposta a un limite critico: può essere neutralizzata da chiunque sappia come operarla. I file immagine prodotti da fotocamere digitali contengono dati EXIF (Exchangeable Image File Format) che registrano il modello della fotocamera, l’obiettivo utilizzato, la data e l’ora dello scatto, le impostazioni di esposizione, apertura diaframmatica, tempo di otturazione, sensibilità ISO, e in molti casi la geolocalizzazione. Un’immagine generata da un modello di intelligenza artificiale non possiede questi dati, o li possiede in forma anomala: la firma dello strumento generativo può essere presente nei metadati se il software che ha prodotto l’immagine la include automaticamente. Tuttavia, rimuovere i metadati EXIF da un file è un’operazione banale, realizzabile con qualunque software di gestione immagini, compreso il semplice ridimensionamento o la cattura dello schermo. Un attore malevolo che voglia distribuire un deepfake credibile rimuoverà sistematicamente ogni traccia nei metadati prima della pubblicazione, rendendo questo livello di analisi inutile per i contenuti distribuiti intenzionalmente.
Il terzo livello, l’analisi computazionale con algoritmi di classificazione, è quello tecnicamente più avanzato e più affidabile. Strumenti come il Microsoft Video Authenticator, WeVerify, Amped Authenticate e TruthScan si basano su reti neurali addestrate specificamente per il rilevamento di contenuti sintetici, analizzando parametri che sfuggono alla percezione umana: la distribuzione statistica del rumore nei pixel, le impronte GAN (pattern sistematici lasciati dai generatori nella struttura spaziale delle immagini), la coerenza delle ombre e dei riflessi rispetto alla geometria della scena, le micro-discontinuità nella texture della pelle. Amped Software, azienda specializzata nell’analisi forense delle immagini, ha sviluppato metodologie per rilevare pattern di ombre e riflessi fisicamente impossibili che i sistemi di sintesi non riescono a evitare completamente, e che possono costituire prove interpretabili in sede legale.
Tuttavia, anche questa terza linea di difesa presenta vulnerabilità sistemiche. Uno studio dell’Università di Edimburgo del 2026 ha documentato che le impronte GAN sono rimuovibili nell’80% dei casi attraverso tecniche di post-processing avversariali, come la rielaborazione dell’immagine con filtri di compressione aggressivi o l’aggiunta di rumore calibrato. In pratica, lo stesso approccio della rete neurale avversariale che viene usato per generare deepfake può essere usato per oscurare le tracce che quei deepfake lasciano. È una corsa agli armamenti in cui gli attaccanti hanno sistematicamente il vantaggio della prima mossa: un nuovo modello generativo può produrre immagini che i rilevatori esistenti non sono stati addestrati a riconoscere, e i rilevatori richiedono tempo per essere aggiornati. Questo vantaggio asimmetrico del generatore è forse il problema fondamentale che rende la difesa così difficile in termini strutturali.
La situazione è ulteriormente complicata dalla diffusione dei modelli open source. Modelli come Stable Diffusion, disponibili liberamente per il download e l’installazione locale su hardware consumer, non passano attraverso server controllati e non lasciano tracce in sistemi di moderazione centralizzati. Qualunque strategia di difesa che si basi sul controllo dei fornitori di servizi di sintesi è destinata a essere aggirata da chi utilizza modelli locali. Il rimedio tecnologico totale non esiste; le strategie di difesa devono necessariamente combinare il livello tecnico con quello normativo, culturale e mediatico.
C2PA, Watermarking e il Problema dell’Infrastruttura di Fiducia
L’approccio più promettente sul piano tecnico-infrastrutturale alla crisi del deepfake è quello della provenienza certificata dei contenuti, incarnato dallo standard C2PA (Coalition for Content Provenance and Authenticity). La C2PA, fondata nel 2021 da Adobe, Microsoft, BBC, Intel, Truepic e successivamente ampliata con l’ingresso di Google, Meta, OpenAI e Amazon, sviluppa uno standard aperto per l’incorporazione di metadati crittograficamente firmati all’interno dei file immagine e video. Questi metadati, noti come Content Credentials, registrano l’intera catena di provenienza di un contenuto: il dispositivo che lo ha creato, il software utilizzato, le eventuali modifiche apportate, la data e il luogo di produzione. La firma crittografica garantisce che i metadati non possano essere alterati senza lasciare traccia della manipolazione.
Il funzionamento è concettualmente elegante. Una fotocamera certificata C2PA incorpora nel file immagine al momento dello scatto una firma crittografica che attesta l’autenticità dello scatto. Se l’immagine viene successivamente modificata con software che supporta lo standard, la modifica viene registrata nella catena di provenienza, con indicazione del tipo di alterazione effettuata. Se invece l’immagine viene modificata con software che non rispetta lo standard, la firma crittografica originale risulta invalidata, segnalando che il contenuto ha subito alterazioni non tracciate. Un’immagine generata interamente da un sistema di intelligenza artificiale come DALL-E 3 o Stable Diffusion, se utilizza software certificato C2PA, porta nei propri metadati la dichiarazione esplicita della propria natura sintetica.
La principale limitazione di questo approccio è la sua natura volontaria e la sua dipendenza dall’adozione universale. Per funzionare come infrastruttura di fiducia reale, lo standard C2PA deve essere implementato da tutti i produttori di fotocamere, da tutte le piattaforme di distribuzione e da tutti i sistemi di generazione IA. Nella pratica, i progressi sono stati significativi, ma tutt’altro che completi. OpenAI integra i metadati C2PA nelle immagini generate con ChatGPT e DALL-E; Meta si è impegnata a etichettare i contenuti generati da IA su Facebook, Instagram e Threads; diversi produttori di fotocamere stanno implementando il supporto nei modelli di fascia alta. Tuttavia, i modelli open source distribuiti localmente non producono metadati C2PA per definizione; chi rimuove i metadati EXIF da un’immagine prima della distribuzione neutralizza anche le Content Credentials; le piattaforme che ridimensionano o ricomprimono automaticamente le immagini caricate possono corrompere la firma crittografica anche senza intenzione malevola. Come ha osservato la Internet Bar Association in una analisi del 2025 dedicata al rapporto tra AI Act e deepfake, il watermarking è fragile e facilmente rimovibile, e gli attori malevoli non si autoidentificheranno mai.
Parallelamente all’approccio della provenienza, l’Unione Europea ha inserito la questione del deepfake all’interno dell’AI Act, il regolamento europeo sull’intelligenza artificiale entrato in vigore nel 2024. L’Articolo 50 dell’AI Act impone agli sviluppatori di sistemi di generazione di contenuti sintetici l’obbligo di assicurare che i propri output vengano marcati in formato leggibile da macchina, in modo che il contenuto possa essere identificato come artificialmente generato. I deployer, ovvero le organizzazioni che utilizzano questi sistemi per la produzione di contenuti destinati al pubblico, sono tenuti a informare esplicitamente i destinatari che il contenuto è artificialmente generato. Le sanzioni previste per le violazioni più gravi raggiungono 35 milioni di euro o il 7% del fatturato globale annuo.
Il Code of Practice on Transparency of AI-Generated Content, pubblicato dalla Commissione Europea nel dicembre 2025, fornisce orientamenti operativi per l’implementazione degli obblighi di trasparenza: watermarking, metadati di identificazione, strumenti di rilevamento, standard di interoperabilità. La norma prevede esplicitamente che la rimozione deliberata di un watermark AI sia vietata e che le piattaforme debbano includere questa protezione nelle proprie condizioni d’uso. Tuttavia, la stessa Commissione riconosce che i deepfake evidentemente artistici, creativi, satirici o fittizi necessitano soltanto di una disclosure minima e non invasiva. L’ambiguità di questa eccezione è ampia, e lascia margini significativi di interpretazione su cosa debba essere considerato satira e cosa invece costituisca disinformazione travestita da satira politica.
In Italia, come si è detto, la risposta normativa è arrivata con la legge n. 132 del 2025, che ha introdotto nel codice penale l’articolo 612-quater, che punisce con la reclusione da 1 a 5 anni la diffusione senza consenso di immagini, video o voci falsificate o alterate mediante sistemi di intelligenza artificiale, quando ciò causa un danno ingiusto alla persona ritratta. La norma esiste, ed è un passo avanti significativo rispetto al vuoto normativo precedente. Il problema è che le foto false di Meloni, nel momento in cui erano già virali, avevano già prodotto il danno. La legge punisce la diffusione dopo che essa è avvenuta; non impedisce la produzione né la prima distribuzione; non prevede meccanismi di rimozione urgente o di blocco preventivo. Come ogni norma penale, funziona come deterrenza e come strumento di giustizia ex post, non come filtro in tempo reale.
Il Problema del Tempo: Viralità Contro Verifica
Uno degli aspetti meno discussi del problema dei deepfake politici è quello temporale. Le piattaforme social operano secondo una logica di engagement che privilegia i contenuti capaci di suscitare reazioni emotive intense, e un’immagine che ritrae un personaggio politico di primo piano in pose imbarazzanti o compromettenti è, per sua natura, un contenuto ad altissimo potenziale virale. Il ciclo tra produzione, pubblicazione, condivisione e diffusione virale può compiersi nel giro di minuti; il ciclo tra segnalazione, verifica, smentita pubblica e diffusione della smentita richiede ore o giorni. Questa asimmetria temporale è strutturale e non dipende dalla buona o cattiva volontà delle piattaforme.
La premier Meloni ha impiegato alcune ore dalla prima circolazione delle immagini false per pubblicare la propria risposta pubblica. Eppure, nel lasso di tempo intercorso, le immagini avevano già raggiunto un numero significativo di utenti, alcune delle quali le avevano già condivise convinte della loro autenticità, altre le avevano già commentate negativamente. La smentita, per quanto rapida rispetto agli standard usuali della verifica giornalistica, è arrivata quando il danno reputazionale era già parzialmente distribuito nella rete sociale. Per una persona privata, priva della visibilità e degli strumenti comunicativi di un Presidente del Consiglio, il danno sarebbe stato irreparabile. Meloni stessa ha avuto cura di sottolinearlo: «Io posso difendermi. Molti altri no».
Il meccanismo psicologico che alimenta la diffusione di contenuti falsi è stato ampiamente studiato. I deepfake sfruttano quella che i ricercatori chiamano la falsa percezione di verità visiva: l’intuizione cognitiva che ciò che si vede sia necessariamente accaduto. Questa intuizione, evolutivamente adattativa in un contesto premoderno in cui le immagini erano tracce fisiche del reale, diventa una vulnerabilità sistemica nell’era della sintesi digitale. La velocità con cui il cervello elabora le informazioni visive, molto superiore a quella con cui elabora le informazioni testuali, implica che la valutazione di autenticità di un’immagine avvenga spesso prima che il sistema cognitivo riflessivo abbia avuto la possibilità di applicare filtri critici. Per l’utente medio che scorre il proprio feed sui social alle sette di mattina, la probabilità di interrogarsi sull’autenticità di un’immagine realistica di un personaggio noto è strutturalmente bassa.
Le piattaforme hanno adottato misure di moderazione, ma con risultati disomogenei. TikTok, Instagram, Facebook e Twitter/X hanno implementato sistemi automatici di rilevamento dei deepfake, ma queste misure si sono dimostrate insufficienti di fronte ai modelli di nuova generazione; il caso del deepfake di Tom Cruise che aveva raggiunto dieci milioni di visualizzazioni su TikTok eludendo i sistemi di rilevamento automatico della piattaforma aveva già dimostrato, anni fa, i limiti di questo approccio. La difficoltà tecnica è speculare: se i rilevatori automatici sono basati su reti neurali addestrate sui deepfake esistenti, saranno per definizione incapaci di rilevare i deepfake prodotti con modelli nuovi, non presenti nel loro set di addestramento. La corsa tra generatori e rilevatori si risolve sistematicamente a favore dei generatori, che hanno sempre il vantaggio della novità.
Il giornalismo di verifica, ovvero il fact-checking professionale, è uno strumento indispensabile ma anch’esso strutturalmente sovraccarico. Le redazioni di fact-checking dispongono di risorse umane limitate e non possono analizzare ogni immagine che circola sui social. Strumenti come la ricerca per immagine inversa (Google Lens, TinEye) e l’analisi dei metadati sono accessibili ai giornalisti esperti, ma richiedono tempo e competenza tecnica. La scala del problema, con milioni di immagini generate ogni giorno dai sistemi di IA disponibili al pubblico, è incompatibile con qualunque strategia di verifica manuale.
Che Cosa Può Fare Chi È Stato Bersaglio: Strumenti Legali e Tecnici
Per una persona che si ritrovi bersaglio di un deepfake diffamatorio, le opzioni concrete si distribuiscono su tre piani: il piano legale, il piano tecnico-forense e il piano della comunicazione pubblica. Nessuno dei tre è completamente efficace da solo; la loro combinazione offre le migliori probabilità di limitare il danno.
Sul piano legale, in Italia il quadro è oggi più solido di quanto non fosse fino al 2024. L’articolo 612-quater del codice penale, introdotto dalla legge n. 132/2025, consente di sporgere denuncia penale contro chi ha prodotto e diffuso il deepfake. Parallelamente, l’azione civile per risarcimento del danno all’immagine e alla reputazione è percorribile sulla base dell’articolo 10 del codice civile e degli articoli in materia di tutela della riservatezza. Il Garante per la protezione dei dati personali può essere coinvolto quando la diffusione di immagini false viola il GDPR, poiché un’immagine che riproduce il volto di una persona fisica è un dato personale ai sensi del Regolamento europeo n. 679/2016. Le piattaforme social sono tenute a rispondere alle richieste di rimozione di contenuti illegali entro tempi definiti dal Digital Services Act (DSA) europeo.
Sul piano tecnico-forense, la raccolta delle prove prima della rimozione dei contenuti è fondamentale. Un perito informatico forense può analizzare le immagini false attraverso le tecniche già descritte: analisi dei metadati EXIF residui, analisi delle anomalie visive con strumenti specializzati come Amped Authenticate, analisi delle impronte GAN con algoritmi di classificazione, verifica della coerenza fisica delle ombre e dei riflessi. In sede processuale, la perizia forense digitale può fornire elementi tecnici a supporto della prova della falsità del contenuto, anche quando la rimozione dal web rende il contenuto originale non più accessibile. È consigliabile salvare le URL, fare screenshot con timestamp certificato e richiedere la conservazione dei dati alle piattaforme prima che i contenuti vengano rimossi, poiché la cancellazione cancella anche le tracce che potrebbero essere utili all’identificazione dell’autore.
Sul piano della comunicazione pubblica, la risposta di Meloni offre un modello efficace da un punto di vista strategico: la denuncia diretta e immediata del falso, con la pubblicazione stessa dell’immagine fasulla, trasforma il deepfake da arma di delegittimazione silenziosa a oggetto di dibattito pubblico in cui la persona bersaglio prende la parola. Questa strategia è percorribile per i personaggi con ampia visibilità pubblica, ma ovviamente non è trasferibile alle persone private, che non dispongono di piattaforme comunicative equivalenti. Per queste ultime, la collaborazione con associazioni di tutela delle vittime di abusi online, presenti ormai in Italia con organizzazioni specificamente dedicate, può offrire supporto pratico e amplificazione della segnalazione.
La formazione alla media literacy visiva è l’intervento più efficace sul lungo periodo, anche se il più lento. Educare i cittadini a distinguere un contenuto autentico da uno sintetico, a verificare la provenienza delle immagini prima di condividerle, a interrogarsi sull’interesse che determinate immagini possono servire, è una forma di vaccinazione cognitiva contro la manipolazione visiva. Non elimina il rischio, ma riduce la velocità di propagazione dei falsi e la proporzione di utenti che li inglobano nelle proprie credenze. Le esperienze di educazione alla media literacy nelle scuole finlandesi, tra le più avanzate in Europa, hanno dimostrato risultati statisticamente significativi nella resistenza alla disinformazione. La Finlandia ha integrato la critical media literacy nei curricula scolastici fin dal 2014; il tasso di condivisione di notizie false tra gli adulti finlandesi è tra i più bassi dell’Unione Europea.
La Fotografia come Episteme Ferita: Riflessioni per Chi Studia le Immagini
Per chi si occupa di storia della fotografia, questo momento storico pone una domanda fondamentale che va al cuore dell’epistemologia del medium: che cosa resta dell’autorità della fotografia come testimone del reale quando la fotografia può essere interamente fabbricata? La risposta a questa domanda non è soltanto di interesse accademico; ha implicazioni pratiche per il modo in cui vengono valutate le prove visive nei procedimenti giudiziari, per la credibilità del fotogiornalismo, per la funzione testimoniale della fotografia documentarista.
Fin dalla sua invenzione nel 1839, la fotografia ha goduto di uno statuto ontologico privilegiato rispetto agli altri mezzi di rappresentazione. Il pittore che ritrae una scena interpone tra il soggetto e l’osservatore la propria soggettività; il fotografo, almeno nell’immaginario collettivo, si limita a catturare la luce riflessa dal soggetto su un supporto sensibile. Roland Barthes ha sintetizzato questo statuto nella nozione di “questo è stato” (ça a été), il noeme della fotografia come certificazione dell’esistenza passata del referente. Il deepfake nega questa ontologia alla radice: non c’è un “questo” che “è stato”; c’è soltanto un sistema matematico che ha calcolato un’immagine statisticamente plausibile, senza referente, senza presenza, senza traccia del reale.
La crisi, tuttavia, non è nata con i deepfake. Il fotomontaggio, la ritocco pittorico analogico, la manipolazione in camera oscura, il ritocco digitale con software come Adobe Photoshop (disponibile dal 1990), hanno progressivamente eroso la credibilità automatica della fotografia molto prima che i modelli generativi apparissero sulla scena. Ciò che i deepfake fanno è portare questa erosione al suo stadio logicamente conclusivo: non solo la fotografia può mentire, ma può mentire perfettamente, senza lasciare tracce rilevabili con gli strumenti ordinari. La soglia che separa il “fotograficamente reale” dal “fotograficamente fabbricato” è diventata tecnicamente impercorribile per l’osservatore comune.
Questo non significa che la fotografia come pratica e come arte perda significato; significa che il suo statuto epistemologico deve essere rifondato su basi diverse. L’autenticità di un’immagine non può più essere desunta dall’immagine stessa, ma deve essere certificata attraverso la catena di provenienza, attraverso standard tecnici come il C2PA, attraverso la reputazione verificata della fonte, attraverso il contesto di distribuzione. La fiducia nell’immagine si sposta dal testo visivo al paratesto documentale che lo accompagna. Si tratta di un cambiamento profondo, che richiede una rieducazione sistematica non soltanto degli utenti dei social network, ma anche dei professionisti dell’informazione e della comunicazione visiva.
Per il fotogiornalismo, le implicazioni sono già operative. Diverse grandi agenzie fotografiche stanno implementando workflow di firma C2PA per le proprie immagini; l’Associated Press ha aderito alla Content Authenticity Initiative; la Reuters ha definito policy esplicite sull’uso dell’intelligenza artificiale nella propria produzione fotografica. Ma l’adozione di questi standard da parte delle grandi agenzie non risolve il problema della fotografia amatoriale e dei contenuti generati da utenti, che costituiscono la stragrande maggioranza del volume visivo circolante sui social network. La certificazione professionale non è sufficiente; occorre che la domanda di verifica diventi un’abitudine cognitiva diffusa nell’intera popolazione.
Il caso delle foto false di Giorgia Meloni non è, in definitiva, soltanto un episodio di manipolazione politica. È il segnale più recente e più visibile di una trasformazione strutturale del modo in cui le immagini funzionano come prove, come testimonianze e come vettori di reputazione nella sfera pubblica. La fotografia non è più, per sua natura, prova di niente. Può esserlo, se accompagnata da una catena documentale verificata. Ma l’automatismo cognitivo che porta il pubblico a credere a ciò che vede è un residuo di un’epoca in cui quella fiducia era statisticamente giustificata. Non lo è più. E il costo di questa dissonanza tra intuizione cognitiva e realtà tecnica lo pagano, in primo luogo, le persone, specialmente le donne, che vengono bersagliate da immagini false costruite per distruggere la loro reputazione, la loro dignità, il loro diritto a essere riconoscibili soltanto per ciò che realmente sono.
Fonti
Open Online – Meloni: «Girano delle mie foto false generate con l’IA, devo riconoscerlo mi hanno migliorata», 5 maggio 2026. https://www.open.online/2026/05/05/giorgia-meloni-foto-false-ia/
Virgilio Notizie – Giorgia Meloni segnala la foto realizzata con l’AI: deepfake pericolosi, legge n. 132/2025, 4 maggio 2026. https://www.virgilio.it/notizie/giorgia-meloni-segnala-la-foto-realizzata-con-l-ai
Pagella Politica – La proposta del PD per vietare i deepfake nella propaganda, febbraio 2026. https://pagellapolitica.it/articoli/pd-proposta-divieto-deepfake-propaganda
Medialaws.eu – La regolamentazione del deepfake in Europa, Stati Uniti e Cina, 2025. https://www.medialaws.eu/rivista/la-regolamentazione-del-deepfake-in-europa-stati-uniti-e-cina/
TechPolicy Press – What the EU’s New AI Code of Practice Means for Labeling Deepfakes, gennaio 2026. https://techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes
C2PA Specification – Coalition for Content Provenance and Authenticity, Specification v2.3, 2024. https://spec.c2pa.org/specifications/specifications/2.3/specs/C2PA_Specification.html
TrueScreen / Università di Edimburgo – Impronte IA vulnerabili nell’80% dei casi: studio Edimburgo, marzo 2026. https://truescreen.io/it/articoli/studio-edimburgo-impronte-ia-deepfake-detection/
National Geographic Italia – Deepfake storici: come le foto di politici sono state ritoccate per plasmare la loro immagine, agosto 2024. https://www.nationalgeographic.it/deepfake-storici-come-le-foto-di-politici-sono-state-ritoccate-per-plasmare-la-loro-immagine
Sono Manuela Parangelo, autrice e amministratrice di storiadellafotografia.com, uno dei principali siti italiani dedicati alla storia e alla cultura fotografica. La mia passione per la fotografia è nata molti anni fa e da allora ho dedicato la mia vita professionale a esplorare, ricercare e condividere tutto ciò che riguarda questo straordinario linguaggio visivo.
Con una solida formazione accademica in storia dell’arte e una lunga esperienza nella cura di mostre fotografiche e nella pubblicazione di articoli su riviste specializzate, ho sviluppato una visione ampia e critica della fotografia in tutte le sue dimensioni. Su storiadellafotografia.com mi occupo dei brand fotografici che hanno fatto la storia del mezzo: Leica, Hasselblad, Kodak, Nikon, Canon e tutti i marchi che con le proprie innovazioni hanno reso possibile la fotografia così come la conosciamo oggi.
Racconto i maestri della fotografia, i grandi autori che hanno definito il linguaggio visivo del Novecento e del nostro tempo, restituendo a ciascuno il contesto storico e culturale che ne rende comprensibile la grandezza. Mi occupo della storia della fotografia nelle sue tappe fondamentali, dai primi esperimenti ottocenteschi alla rivoluzione digitale contemporanea, con particolare attenzione alle intersezioni tra fotografia, cultura e società.
Curo gli editoriali del sito e condivido curiosità fotografiche, gli aneddoti e i retroscena che rendono il mondo della fotografia ancora più affascinante di quanto sembri in superficie.
La mia missione è educare e ispirare, con un approccio che unisce il rigore della ricerca accademica alla chiarezza della divulgazione, per avvicinare un pubblico ampio a una forma d’arte che è al tempo stesso documento storico, strumento di comunicazione e archivio della memoria collettiva.


