HomeTecnologia & Post-ProduzioneSoftware, Restauro e "Ponte Storico"Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026

Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026

C’è una domanda che accompagna il fotogiornalismo dall’alba della sua esistenza, e che nel 2026 ha assunto una forma più acuta, più urgente e, per certi versi, più irreversibile di qualunque altra epoca precedente: questa immagine è vera? La questione dell’autenticità nella fotografia di notizia non nasce con l’intelligenza artificiale, né con Photoshop, né con la guerra digitale dei social media. Nasce nel momento stesso in cui qualcuno comprese che una macchina fotografica poteva registrare la realtà e, quasi simultaneamente, qualcun altro comprese che quella realtà si poteva costruire, alterare, orientare. La storia del fotogiornalismo è, in larga misura, la storia di questa tensione irrisolta. Deepfake e fotogiornalismo sono oggi il capitolo più radicale di una vicenda che ha radici nel Diciannovesimo secolo.

Eppure qualcosa è cambiato, in modo strutturale e difficilmente reversibile. Le tecnologie di generazione sintetica dell’immagine disponibili nel 2026 non sono soltanto più sofisticate di quelle del decennio precedente: hanno attraversato una soglia di verosimiglianza critica oltre la quale la distinzione visiva tra immagine reale e immagine generata non è più accessibile all’occhio umano non addestrato. Comprendere dove siamo arrivati e come si verifica l’autenticità delle immagini nel giornalismo contemporaneo richiede di conoscere la traiettoria che ci ha portati fin qui, perché i problemi di oggi non cadono dal cielo: sono il precipitato di una storia lunga, complessa e spesso ignorata.

La Manipolazione come Radice: Prima del Digitale

La tendenza a manipolare le immagini fotografiche per scopi politici, propagandistici o narrativi è antica quanto la fotografia stessa. Non ha avuto bisogno dell’intelligenza artificiale, né di software avanzati, né di reti neurali: ha impiegato forbici, colla, ritoccatori a mano e laboratori fotografici attrezzati. E lo ha fatto su scala industriale, in modo sistematico, a partire almeno dalla seconda metà dell’Ottocento.

La manipolazione fotografica a scopo politico trovò la sua espressione più sistematica nel Ventesimo secolo, nelle grandi dittature del Novecento europeo. In Unione Sovietica, sotto Stalin, la pratica di rimuovere fisicamente dai negativi e dalle stampe i volti dei nemici politici eliminati era una prassi istituzionalizzata. I fotografi di stato avevano il compito non soltanto di documentare il presente, ma di riscrivere il passato visivo del regime: chi cadeva in disgrazia scompariva dalle fotografie ufficiali, come se non fosse mai esistito. Leon Trotsky, ad esempio, fu progressivamente cancellato da tutte le fotografie ufficiali che lo ritraevano accanto a Lenin, in un processo di revisione storica visiva che oggi, nell’era digitale, appare quasi primitivo nella sua laboriosità artigianale, ma che era allora straordinariamente efficace.

In Germania, i fotografi del Terzo Reich praticavano una forma di manipolazione ideologica altrettanto sistematica, orientata verso la costruzione di un immaginario razziale e militare coerente con i dettami del regime. Heinrich Hoffmann (1885–1957), fotografo ufficiale di Hitler e titolare del monopolio sulle immagini del Führer, gestiva l’immagine pubblica del dittatore con la stessa precisione con cui oggi si gestisce un brand aziendale: scelte compositive, ritocchi, selezione accuratissima degli scatti da distribuire, eliminazione di tutto ciò che non corrispondeva all’immagine voluta.

Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026
Photo by JOE Planas on Unsplash

Fuori dai regimi totalitari, la manipolazione fotografica era ugualmente praticata, ma con finalità diverse: commerciali, estetiche, narrative. La tradizione del fotomontaggio dadaista, che negli anni Dieci e Venti del Novecento aveva trasformato la manipolazione dell’immagine in un gesto artistico e politico consapevole, dimostrava quanto la fotografia fosse un medium malleabile. John Heartfield (1891–1968), pseudonimo di Helmut Herzfeld, produsse tra il 1930 e il 1938 una serie di fotomontaggi polemici contro il nazismo che venivano pubblicati sulla rivista comunista Arbeiter-Illustrierte-Zeitung, in cui ritraeva Hitler e Goebbels in pose grottesche, costruendo immagini composite di straordinaria efficacia visiva. Heartfield non pretendeva che le sue immagini fossero documentazioni di fatti reali: erano satira visiva dichiarata. Ma il confine tra satira e falsificazione era già, in quegli anni, più sottile di quanto sembrasse.

Il problema fondamentale che emerge da questa genealogia è preciso: la manipolazione fotografica non è mai stata un fenomeno marginale, un’eccezione nelle pratiche del giornalismo visivo. È sempre stata parte integrante della produzione e della distribuzione delle immagini. La differenza tra l’epoca attuale e quelle precedenti non è nella presenza del fenomeno, ma nella sua scala, nella sua velocità e, soprattutto, nella sua accessibilità tecnica.

Ciò che un laboratorio fotografico sovietico impiegava giorni o settimane a fare, un algoritmo di intelligenza artificiale lo compie in pochi secondi, senza competenze tecniche specializzate, a costo marginale quasi nullo. La democratizzazione della falsificazione visiva è il nodo centrale del problema contemporaneo, e comprenderlo nella sua radice storica è il primo passo per affrontarlo con la necessaria lucidità.

Robert Capa e il Miliziano: Il Dubbio Come Categoria Fondativa

Nessun caso nella storia del fotogiornalismo illustra meglio la complessità del problema dell’autenticità fotografica quanto la vicenda legata a Robert Capa (1913–1954), pseudonimo di André Endre Ernő Friedmann, fotografo di guerra nato a Budapest da una famiglia ebraica e morto su una mina antiuomo in Indocina francese, in quello che allora si chiamava Vietnam.

Morte di un miliziano spagnolo è la fotografia più famosa della storia del fotogiornalismo di guerra. Scattata nel settembre del 1936 durante la guerra civile spagnola, nei pressi di Cerro Muriano sul fronte di Cordova, l’immagine ritrae un miliziano repubblicano nell’istante in cui un colpo di fucile lo abbatte: la figura umana è colta in una posa che sembra sospesa tra la vita e la morte, il fucile che scivola dalla mano destra, il corpo che si accascia all’indietro su un terreno brullo. Pubblicata su Vu il 23 settembre 1936 e poi su Life il 12 luglio 1937, l’immagine divenne immediatamente un simbolo della lotta antifascista e della potenza documentale della fotografia di notizia.

morte di un miliziano robert capa
By © Cornell Capa (For reproduction please contact Magnum Photos, http://www.magnumphotos.com/), Fair use, https://en.wikipedia.org/w/index.php?curid=4067565

Nel 1974, il giornalista e storico Phillip Knightley pubblicò The First Casualty, un’indagine sistematica sul ruolo della propaganda nella fotografia di guerra. In quel volume, Knightley sollevò i primi dubbi sull’autenticità dello scatto di Capa, citando le dichiarazioni di un corrispondente di guerra dell’epoca che sosteneva che la foto fosse stata scattata durante una pausa nei combattimenti, con i miliziani che inscenarono una battaglia per fornire immagini ai rotocalchi. Da allora, la disputa non si è mai chiusa definitivamente: il biografo di Capa, Richard Whelan, ha condotto ricerche archivistiche approfondite che tenderebbero a confermare l’autenticità dello scatto, identificando nel miliziano il repubblicano Federico Borrell García, caduto effettivamente a Cerro Muriano il 5 settembre 1936 e registrato come tale negli archivi ufficiali.

Ciò che rende il caso del miliziano così istruttivo per il dibattito contemporaneo non è tanto la questione tecnica di chi abbia ragione, ma la riflessione epistemologica che esso genera. Come ha scritto la critica fotografica nel saggio pubblicato su Il Manifesto, «l’autenticità è un valore attribuito e non una qualità immanente. […] Il riconoscimento o meno dell’autenticità del Miliziano colpito a morte si è rivelato in definitiva meno cruciale, per la comprensione degli attributi cardinali del fotogiornalismo di guerra, rispetto ai metodi di autenticazione cui i principali protagonisti hanno prestato fede». In altre parole, la credibilità di un’immagine giornalistica non dipende soltanto dalla sua corrispondenza con la realtà dei fatti, ma dalla rete di fiducia istituzionale, di prassi editoriali e di codici professionali che ne garantiscono l’attendibilità.

Questo è il paradosso che il 2026 ha reso esplosivo: nel momento in cui qualsiasi immagine può essere prodotta sinteticamente con un grado di verosimiglianza tale da ingannare l’occhio umano, la rete di fiducia istituzionale su cui si reggeva il fotogiornalismo è sotto pressione come non era mai stata. Robert Capa non aveva bisogno di un certificato digitale per essere creduto: aveva la Magnum, aveva Life, aveva una reputazione costruita sul campo in decenni di lavoro. Oggi, quelle credenziali istituzionali non bastano più.

La Guerra del Vietnam e il Potere Documentale dell’Immagine

Prima di affrontare il presente, occorre fermarsi su un capitolo della storia del fotogiornalismo in cui il valore documentale dell’immagine fotografica raggiunse la sua massima espressione politica, e che rimane ancora oggi il punto di riferimento teorico fondamentale per comprendere cosa è in gioco quando si parla di autenticità visiva nel giornalismo.

La guerra del Vietnam (1955–1975) fu il primo conflitto in cui i fotoreporter godevano di una libertà di accesso al fronte pressoché illimitata. Non esistevano restrizioni rigide da parte dei comandi militari americani nei confronti della stampa: i fotografi accompagnavano le truppe, entravano con loro nei villaggi, documentavano ogni aspetto del conflitto con una prossimità fisica che le guerre successive, a partire dal Golfo del 1991 con il sistema del pool journalism, avrebbero radicalmente ridotto. Il risultato fu una produzione fotografica di straordinaria intensità documentale, capace di modificare l’opinione pubblica americana e di contribuire in modo decisivo alla fine del sostegno popolare alla guerra.

Nick Ut (1951), nato Huỳnh Công Út, scattò il 8 giugno 1972 quella che è forse la fotografia di notizia più potente della storia del giornalismo visivo. La ragazza di Napalm, nota anche come Terror of War, ritrae Kim Phúc, una bambina di nove anni, mentre corre nuda lungo una strada, il corpo bruciato dal napalm sganciato erroneamente da un aereo sudvietnamita sul suo villaggio, Trảng Bàng. Accanto a lei, altri bambini urlanti, soldati sudvietnamiti, il paesaggio devastato. L’immagine vinse il Premio Pulitzer nel 1973 e divenne il simbolo più efficace degli orrori della guerra, contribuendo all’approvazione del War Powers Act del 1973 e alla crescente pressione per il ritiro americano.

Pochi anni prima, nel 1968, Eddie Adams (1933–2004) aveva scattato un’altra fotografia destinata a cambiare la storia. Saigon Execution ritrae il momento esatto in cui il generale sudvietnamita Nguyễn Ngọc Loan spara alla testa di un prigioniero Viet Cong, Nguyễn Văn Lém, per le strade di Saigon durante l’offensiva del Tet. Adams stesso, negli anni successivi, espresse profondo rammarico per l’effetto che quell’immagine aveva avuto: aveva trasformato il generale Loan, che si trovava in una situazione di guerra reale e complessa, in un mostro senza contesto, privandolo di qualsiasi sfumatura umana. “La mia fotografia ha ucciso due persone”, disse Adams decenni dopo. “Il generale Loan e l’uomo che lui ha ucciso.”

La lezione che queste fotografie insegnano è duplice. Da un lato, la fotografia di notizia autentica, quella prodotta da un essere umano fisicamente presente su una scena reale, ha un potere documentale e politico irriproducibile. Dall’altro, anche l’immagine autentica è sempre una selezione, un taglio, una scelta compositiva che privilegia una lettura della realtà rispetto ad altre: la “verità” fotografica è sempre parziale, sempre situata, sempre interpretativa. Questo non la rende falsa; la rende umana. Ed è precisamente questa umanità incorporata nell’immagine autentica che il deepfake non può replicare, per quanto perfetto possa essere sul piano visivo.

Instagrams: Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026photographer @igordream welcom
Photo by Igor Rand on Unsplash

L’Era del Fotoritocco Digitale: Quando Photoshop Divenne un Problema Etico

Il salto dalla manipolazione artigianale a quella digitale avvenne con straordinaria rapidità a partire dagli anni Novanta. Adobe Photoshop, lanciato nel 1990, trasformò radicalmente i laboratori di post-produzione delle redazioni fotografiche di tutto il mondo. Ciò che in precedenza richiedeva ore di lavoro in camera oscura, competenze tecniche specializzate e lasciava comunque tracce fisiche nel materiale originale, divenne improvvisamente rapido, preciso, reversibile e, soprattutto, invisibile.

Le prime redazioni a dotarsi di sistemi digitali di acquisizione e post-produzione delle immagini furono le grandi agenzie di stampa internazionali, a partire da Associated Press e Reuters, che già nella seconda metà degli anni Novanta avevano introdotto workflow completamente digitali. Con il digitale arrivarono anche i problemi etici nuovi. Non si trattava soltanto di manipolazioni intenzionali finalizzate a falsificare la realtà: spesso si trattava di interventi di post-produzione che i fotografi consideravano legittimi aggiustamenti tecnici, equivalenti digitali di ciò che si faceva tradizionalmente in camera oscura, ma che in realtà alteravano il contenuto informativo dell’immagine in modo significativo.

Il caso che aprì la grande discussione pubblica sull’etica del fotoritocco nel fotogiornalismo fu probabilmente quello di Narciso Contreras, fotografo dell’Associated Press vincitore del Premio Pulitzer nel 2013 per la copertura del conflitto siriano. Contreras fu licenziato dall’AP nel 2014 per aver rimosso con Photoshop una piccola macchina fotografica dall’angolo di una fotografia scattata in Siria. Un intervento minimo sul piano visivo, apparentemente irrilevante sul piano informativo. Eppure l’AP non transigette: le sue regole vietavano categoricamente qualsiasi aggiunta o rimozione di elementi nell’immagine, e la violazione di quel principio, per quanto veniale nell’intenzione, costituiva una frattura del patto di fiducia con i lettori.

L’anno successivo, il caso di Paul Hansen, vincitore del World Press Photo 2013 con una fotografia del funerale di due bambini palestinesi uccisi da un attacco aereo israeliano a Gaza, aprì un dibattito ancora più articolato. Hansen era stato accusato di aver manipolato in modo eccessivo le luci dell’immagine attraverso la post-produzione. Un’indagine indipendente del World Press Photo dimostrò che le manipolazioni non avevano alterato il contenuto informativo della fotografia, ma il caso impose all’organizzazione di rivedere radicalmente i propri protocolli di ammissione, richiedendo da allora in poi la consegna dei file raw originali per tutte le immagini in concorso.

Nel 2016, un altro caso scosse il mondo del fotogiornalismo: Steve McCurry (1950), celebre soprattutto per il ritratto Afghan Girl pubblicato da National Geographic nel 1985, fu al centro di uno scandalo quando un blogger italiano scoprì che in alcune fotografie esposte in una mostra erano stati eliminati digitalmente elementi di disturbo, alterando la composizione originale delle immagini. McCurry si difese sostenendo che quelle immagini erano destinate a un uso artistico, non giornalistico, e che la distinzione tra reportage e fotografia artistica richiedeva standard etici diversi. La risposta del mondo professionale fu durissima: la Magnum Photos, l’agenzia cooperativa fondata nel 1947 da Capa, Henri Cartier-Bresson (1908–2004), George Rodger (1908–1995) e David Seymour (1911–1956) rimosse le immagini contestate dal proprio archivio digitale.

Questi episodi, presi insieme, mostrano come la comunità professionale del fotogiornalismo avesse già, nel decennio scorso, sviluppato strumenti istituzionali e codici etici per affrontare il problema della manipolazione digitale: verifica dei file raw, protocolli di archiviazione, commissioni etiche, sistemi di sanzione professionale. Ma erano strumenti concepiti per un’epoca in cui la manipolazione richiedeva comunque un’immagine originale di partenza, una traccia reale sulla quale intervenire. Con il deepfake, quel presupposto scompare.

Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026
Photo by Cleyton Ewerton on Unsplash

Dal Fotomontaggio al Deepfake: Una Genealogia della Falsificazione Visiva

Il termine deepfake è relativamente recente: fu coniato intorno al 2017 da un utente del forum Reddit che si faceva chiamare con questo pseudonimo e che pubblicava video in cui i volti di personaggi famosi erano stati sostituiti, con una qualità sorprendente per l’epoca, attraverso tecniche di apprendimento automatico. L’etimo è una combinazione di deep learning, l’approccio all’intelligenza artificiale basato su reti neurali profonde, e fake, falso. Ma la genealogia della tecnologia che ha prodotto il deepfake è molto più lunga e affonda le radici nella storia delle reti neurali generative.

Le GAN (Generative Adversarial Networks, Reti Generative Avversariali) furono introdotte nel 2014 dal ricercatore canadese Ian Goodfellow (1985) in un articolo pubblicato durante la conferenza NeurIPS. Il principio alla base delle GAN è elegante quanto potente: due reti neurali vengono addestrate in modo antagonista, una con il compito di generare immagini false sempre più convincenti, l’altra con il compito di distinguere le immagini vere da quelle false. Le due reti si sfidano reciprocamente in un ciclo continuo di miglioramento, e il risultato finale è un generatore capace di produrre immagini di qualità straordinaria.

Nel giro di pochi anni, le GAN trasformarono radicalmente il panorama della generazione sintetica di immagini. Nel 2017 fu sviluppata la tecnica di face swap automatizzata che è alla base della maggior parte dei deepfake video. Nel 2019, la piattaforma DeepFaceLab rese accessibile a chiunque la tecnologia di sostituzione facciale, e DeepNude introdusse per la prima volta strumenti specificamente progettati per la generazione di immagini di nudità a partire da fotografie di persone vestite, un problema che abbiamo già analizzato nel precedente numero di questa rivista. Nel 2022, i modelli di diffusione come Stable Diffusion portarono la qualità della generazione sintetica a livelli nuovi, superando le GAN in molti benchmark di qualità visiva.

Rispetto ai primi esperimenti del 2023, i deepfake del 2026 hanno raggiunto quella soglia di verosimiglianza critica che molti ricercatori temevano: immagini e video generati con i modelli più avanzati non sono distinguibili a occhio nudo dalle fotografie scattate sul campo da un fotoreporter. Nel gennaio del 2026, un caso molto discusso in Italia ha reso concreta questa minaccia: durante le manifestazioni di protesta a Torino, l’account ufficiale della Polizia di Stato pubblicò sui canali social una fotografia di un agente nell’atto di soccorrere un collega ferito. L’immagine fu diffusa dall’ANSA e ripresa dalle principali testate nazionali. Successiva verifica dimostrò che la fotografia era stata generata o pesantemente modificata con strumenti di intelligenza artificiale: attraverso algoritmi di restauro e completamento dell’immagine, una scena reale era stata trasformata in qualcosa di diverso, orientando la narrazione dell’evento in una direzione specifica.

L’incidente torinese del 2026 non fu, purtroppo, un caso isolato. Fu piuttosto la prima manifestazione italiana di un problema che le redazioni giornalistiche dei paesi anglosassoni stanno affrontando da anni: la creazione di immagini false con valenza giornalistica, prodotte e distribuite attraverso canali ufficiali o paraformali, con l’intento di manipolare la percezione pubblica degli eventi. È la versione visiva della disinformazione, più immediata e più difficile da contrastare di qualsiasi testo scritto, perché sfrutta il pregiudizio cognitivo profondo che ancora associa l’immagine fotografica alla realtà.

Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026
Photo by Osama Madlom on Unsplash

Come Funziona un Deepfake: Anatomia di una Falsificazione

Comprendere come verifica l’autenticità delle immagini nel giornalismo digitale richiede una conoscenza almeno elementare dei meccanismi tecnici che producono le falsificazioni. Non si tratta di scendere nei dettagli matematici delle architetture neurali, ma di capire quali sono le caratteristiche fondamentali che differenziano le diverse categorie di deepfake, perché ciascuna lascia tracce diverse e richiede strumenti di rilevamento diversi.

face swap video, la forma di deepfake più nota al grande pubblico, funzionano sostituendo il volto di una persona reale in un video con quello di un’altra. La tecnologia si basa sull’addestramento di un modello su centinaia o migliaia di immagini del volto di origine e del volto di destinazione: il modello impara a mappare le caratteristiche geometriche e cromatiche del viso originale sul viso di destinazione in tempo quasi reale, seguendo le espressioni facciali, i movimenti della testa, le variazioni di luce. I modelli più avanzati disponibili nel 2026 producono risultati che superano il 95% di accuratezza su benchmark standardizzati, rendendo il rilevamento visivo praticamente impossibile.

Le immagini statiche generate da modelli di diffusione rappresentano una categoria diversa. Stable Diffusion, DALL-E, Midjourney e i loro successori non lavorano per trasformazione di un’immagine esistente, ma per generazione statistica a partire da un prompt testuale: producono immagini che non hanno alcun referente reale, assemblate interpolando pattern statistici estratti da milioni di immagini di addestramento. La qualità visiva di queste immagini può essere straordinaria, ma i modelli tendono a produrre artefatti caratteristici: mani con sei dita, testi illeggibili, texture ripetute in modo innaturale, simmetrie eccessive, sfondi inconsistenti. Questi artefatti stanno rapidamente riducendosi nelle versioni più recenti dei modelli.

La terza categoria, forse la più insidiosa dal punto di vista del fotogiornalismo, è quella delle immagini ibride: fotografie reali modificate in modo parziale e mirato attraverso strumenti come l’inpainting (il riempimento algoritmico di porzioni dell’immagine con contenuto generato) o il face replacement (la sostituzione del volto di un soggetto reale con quello di un altro). È esattamente questo che sembra essere accaduto nel caso delle manifestazioni di Torino del febbraio 2026: non un’immagine interamente falsa, ma un’immagine reale trasformata in modo mirato per alterare il messaggio informativo che essa veicolava.

Questa categoria ibrida è la più difficile da rilevare, perché i sistemi di rilevamento addestrati a distinguere immagini reali da immagini interamente sintetiche faticano a identificare le modifiche parziali, soprattutto quando vengono applicate in modo attento e contestualmente coerente. È, in sostanza, la versione algoritmica di ciò che i fotoritoccatori sovietici facevano con le forbici e la colla negli anni Trenta: un intervento chirurgico sulla realtà documentata, orientato a produrre una verità alternativa.

Deepfake e Fotogiornalismo: Come Verificare l’Autenticità delle Immagini nel 2026
Photo by Branislav Rodman on Unsplash

Gli Strumenti di Rilevamento nel 2026: Limiti e Potenzialità

Il mercato degli strumenti di rilevamento dei deepfake ha conosciuto negli ultimi anni una crescita esponenziale, trainata sia dalla domanda del settore finanziario e delle piattaforme di identità digitale, sia dall’urgenza sempre più percepita del settore giornalistico. Nel 2026, i principali strumenti disponibili operano attraverso diverse tecniche che, in molti casi, vengono combinate per migliorare l’accuratezza complessiva.

Intel FakeCatcher rappresenta uno degli approcci più originali. Invece di analizzare le caratteristiche visive dell’immagine, analizza i segnali biometrici presenti nel video: in particolare, le micro-variazioni del colore della pelle causate dal flusso sanguigno, che nei soggetti reali seguono pattern fisiologici precisi e che nei media sintetici sono del tutto assenti o statisticamente inconsistenti. La tecnologia, sviluppata da Intel in collaborazione con l’Università del Michigan, ha raggiunto una precisione superiore al 96% nei test su materiali video.

Sensity AI offre una piattaforma di monitoraggio multimodale, capace di analizzare simultaneamente video, immagini statiche, audio e testo alla ricerca di segnali di manipolazione. Il sistema è utilizzato da agenzie governative, piattaforme di social media e grandi organizzazioni giornalistiche. Hive AI, a sua volta, ha sviluppato un classificatore specificamente progettato per il rilevamento delle immagini generate da modelli di diffusione, raggiungendo accuratezze dichiarate tra l’85 e il 90% su dataset indipendenti.

Tuttavia, un rapporto del Columbia Journalism Review pubblicato nel marzo 2025 ha messo in guardia i giornalisti dall’eccessivo affidamento su questi strumenti: tutti i sistemi di rilevamento esistenti producono un numero significativo di falsi positivi e falsi negativi, e nessuno di essi può essere considerato un oracolo affidabile. Il problema è strutturale: i modelli di rilevamento vengono addestrati su dataset di deepfake esistenti, ma i generatori evolvono continuamente, e ogni nuova versione tende a produrre artefatti diversi da quelli presenti nei dati di addestramento. È una corsa agli armamenti tecnologica senza un vincitore predefinito, in cui il vantaggio oscilla continuamente tra chi genera e chi cerca di rilevare.

La conseguenza pratica per il fotogiornalismo è chiara: gli strumenti automatici di rilevamento sono un ausilio utile, ma non sostituiscono il giudizio editoriale e la verifica contestuale. Un’immagine classificata come “autentica” da un rilevatore automatico non è necessariamente autentica; un’immagine classificata come “sintetica” non è necessariamente falsa. I detector sono uno strumento tra altri, non una soluzione definitiva.

Come hanno rilevato le istituzioni accademiche che si occupano di questo problema, l’approccio più robusto alla verifica dell’autenticità delle immagini nel giornalismo digitale non è tecnologico ma procedurale: si basa sulla combinazione di analisi tecnica, verifica delle fonti, analisi del contesto informativo e, soprattutto, sulla tracciabilità della provenienza dell’immagine fin dal momento della sua creazione.

Content Credentials e C2PA: La Firma del Reale

La risposta sistemica più promettente al problema dell’autenticità fotografica nel giornalismo digitale non viene dagli strumenti di rilevamento, ma da un sistema di certificazione della provenienza delle immagini che sta progressivamente conquistando l’adozione dell’industria fotografica e giornalistica mondiale. Si chiama C2PA (Coalition for Content Provenance and Authenticity) e il suo standard tecnico, noto come Content Credentials, rappresenta forse il cambiamento più importante nell’infrastruttura dell’autenticità fotografica degli ultimi decenni.

La Content Authenticity Initiative (CAI) fu fondata nel novembre del 2019 da Adobe, il New York Times e Twitter, con l’obiettivo esplicito di sviluppare uno standard industriale aperto per i metadati di provenienza dei contenuti digitali. Nel febbraio del 2021, la CAI si trasformò nella C2PA, un consorzio non-profit che include, oltre ai fondatori originali, ARMBBCIntelMicrosoft e Truepic. Nel 2022 si unì al progetto anche Sony, seguita negli anni successivi da NikonCanonLeicaFujifilmGoogle e dalla Associated Press.

Il funzionamento dei Content Credentials può essere descritto con una metafora efficace che il sito C2PA.org utilizza ufficialmente: i Content Credentials sono come un’etichetta nutrizionale per i contenuti digitali, un documento che racconta la storia dell’immagine fin dal momento della sua creazione. Tecnicamente, si tratta di un insieme di metadati crittograficamente firmati che vengono incorporati nel file dell’immagine e che documentano: il dispositivo con cui è stata scattata, l’ora e il luogo di acquisizione, eventuali modifiche successive applicate con software certificati, le identità degli autori e degli editori coinvolti. Questi metadati sono protetti da una firma crittografica che rende impossibile modificarli senza invalidare la firma stessa.

Come spiega il fotografo Glyn Dewis nel suo blog, aggiornato nel febbraio 2026, i Content Credentials forniscono «un registro resistente alla manomissione della provenienza, ossia una storia fattuale di dove un’immagine è stata creata e come è stata realizzata, in modo che editori, archivisti e lettori possano verificarne l’origine». Nikon e Leica hanno già integrato il supporto C2PA in alcune delle loro fotocamere di punta: quando il fotografo scatta, la firma crittografica viene applicata direttamente al file in camera, rendendo verificabile l’autenticità dello scatto alla fonte.

La limitazione principale del sistema è strutturale e non tecnologica. I Content Credentials funzionano come una catena di custodia: documentano cosa è stato fatto all’immagine a partire dal momento della creazione, ma non possono certificare retroattivamente la provenienza di immagini già esistenti che non sono state acquisite con dispositivi C2PA-compatibili. Tutta la fotografia giornalistica prodotta prima dell’adozione dello standard, e gran parte di quella prodotta oggi con dispositivi non certificati, rimane fuori da questa catena di fiducia. Il sistema funziona soltanto se l’intera filiera, dalla fotocamera al software di editing, dalla piattaforma di distribuzione al sistema di visualizzazione del lettore, è compatibile con lo standard e lo rispetta. È una sfida di adozione globale che richiederà anni, forse decenni, per essere completamente realizzata.

Nonostante questi limiti, il sito di Fotocult.it, che ha approfondito il sistema in una delle sue analisi più complete, rileva come la Content Authenticity Initiative rappresenti il tentativo più serio e tecnicamente fondato finora emerso per rispondere in modo strutturale al problema della verifica dell’autenticità delle immagini nel giornalismo digitale. La presenza tra i membri fondatori delle principali agenzie di stampa, dei grandi produttori di hardware fotografico e dei colossi tecnologici suggerisce che lo standard ha concrete possibilità di diventare, nel prossimo decennio, un’infrastruttura universale della fiducia visiva.

Il Quadro Normativo: La Legge Italiana 132/2025 e l’AI Act Europeo

Mentre la tecnologia avanzava e la comunità giornalistica elaborava le proprie risposte pratiche, anche il legislatore italiano ed europeo ha cominciato ad affrontare il problema della falsificazione visiva con strumenti giuridici. Il 2025 ha segnato, sotto questo profilo, un anno di svolta significativa.

La Legge 132 del 23 settembre 2025, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, è entrata in vigore il 10 ottobre 2025, introducendo importanti modifiche al Codice Penale italiano. Il provvedimento è strutturato come un sistema di governance dell’intelligenza artificiale che combina principi generali, obblighi di trasparenza e, nella parte più rilevante dal punto di vista del giornalismo, norme penali specifiche contro l’uso illecito dell’AI.

Il cuore della riforma penale è il nuovo articolo 612-quater del Codice Penale, rubricato “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”. La norma punisce con la reclusione da uno a cinque anni chiunque «cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità». La procedibilità è in genere a querela della persona offesa, con eccezioni per i casi più gravi.

Accanto alle norme penali, la legge italiana si inserisce nel più ampio contesto dell’AI Act europeo, il Regolamento (UE) 2024/1689, che ha iniziato la sua applicazione progressiva nel 2025. L’AI Act introduce una definizione ufficiale di deepfake all’articolo 3, numero 60: «un’immagine o un contenuto audio o video generato o manipolato dall’intelligenza artificiale, che raffigura persone, luoghi o eventi reali con un aspetto autentico, ma che in realtà non lo è». Il Regolamento impone obblighi di trasparenza specifici ai fornitori di sistemi di AI utilizzati per generare contenuti sintetici, richiedendo che tali contenuti siano chiaramente identificati come tali.

La combinazione tra la legge italiana e l’AI Act europeo crea un quadro normativo che, almeno sulla carta, è tra i più avanzati al mondo. Ma la sua applicazione pratica presenta sfide considerevoli. Come ha documentato il sito Canella Camaiora nella sua analisi giuridica pubblicata nell’agosto 2025, il GDPR ha già dimostrato di poter funzionare da “freno etico-giuridico” nell’anticipare problemi legati all’uso illecito dei dati biometrici da parte dei sistemi di AI generativa. Tuttavia, l’effettiva capacità delle autorità di enforcement di identificare e perseguire i responsabili della diffusione di deepfake giornalistici rimane limitata, soprattutto quando la falsificazione avviene attraverso canali internazionali o anonimi.

La norma penale è uno strumento di deterrenza e di riparazione a posteriori; non è e non può essere uno strumento di prevenzione in tempo reale. Per i giornalisti e le redazioni, la protezione legale non sostituisce la necessità di procedure di verifica robuste, applicate sistematicamente prima della pubblicazione.

Il Giornalista come Verificatore: Pratiche e Metodi nel 2026

Nell’era in cui come verificare l’autenticità delle immagini nel fotogiornalismo digitale è diventata una competenza irrinunciabile per qualsiasi professionista dell’informazione visiva, le redazioni più avanzate hanno sviluppato protocolli di verifica multi-livello che combinano strumenti tecnologici, analisi contestuale e prassi editoriali consolidate. Non si tratta di procedure definitive, né di soluzioni tecniche risolutive: si tratta di approcci sistematici che riducono significativamente il rischio di pubblicare immagini false, senza poterlo eliminare del tutto.

Il primo livello di verifica è quello tecnico e metadatale. Ogni immagine ricevuta da una fonte esterna alla redazione deve essere analizzata nei suoi metadati EXIF, che registrano informazioni sul dispositivo di acquisizione, l’ora e la data dello scatto, le impostazioni tecniche della fotocamera. La presenza o l’assenza di metadati coerenti, la loro consistenza con le caratteristiche visive dell’immagine, eventuali anomalie nei dati registrati sono tutti segnali diagnostici rilevanti. I metadati possono essere facilmente falsificati o rimossi, il che significa che la loro presenza non è una garanzia di autenticità, ma la loro assenza o inconsistenza è un segnale di allarme.

Il secondo livello è la ricerca inversa per immagini (reverse image search), disponibile attraverso piattaforme come Google Images, TinEye e Yandex Images. Una fotografia presentata come recente ma già presente sul web in un contesto diverso e più antico è probabilmente un’immagine riciclata o decontestualizzata: non necessariamente falsa nella sua origine, ma falsamente presentata come documentazione di un evento recente. Questo tipo di verifica, elementare ma spesso trascurata, ha smascherato decine di campagne di disinformazione fotografica negli ultimi anni.

Il terzo livello è l’analisi degli artefatti visivi prodotti dai sistemi generativi. Come già accennato, i modelli di generazione sintetica delle immagini tendono a produrre anomalie caratteristiche: mani con geometrie innaturali, testi illeggibili, riflessi inconsistenti negli occhi, transizioni anomale tra il soggetto e lo sfondo, pattern di rumore statisticamente diversi da quelli prodotti da un sensore fotografico reale. L’occhio umano addestrato riesce a cogliere molte di queste anomalie, soprattutto se si fa uso di software di ingrandimento e analisi della struttura dell’immagine. Non è un metodo infallibile, ma riduce significativamente il margine di errore.

Il quarto livello, e forse il più importante, è la verifica contestuale e delle fonti. Un’immagine autentica si inserisce sempre in un contesto verificabile: c’è una persona che ha premuto il pulsante dello scatto, in un luogo fisico identificabile, in un momento temporale preciso. Il giornalista deve chiedersi chi ha prodotto l’immagine, in quale circostanza, attraverso quale catena di custodia è arrivata in redazione. La corroborazione da fonti indipendenti, la geolocalizzazione attraverso l’analisi degli elementi architettonici o geografici presenti nell’immagine, la verifica dell’orario attraverso la posizione del sole o ombre coerenti con le coordinate spaziali dichiarate: questi sono gli strumenti del giornalismo d’inchiesta applicati alla verifica visiva.

Il sito Donne con lo Scudo, che monitora gli strumenti di content provenance nel contesto italiano, ha descritto nel marzo 2026 un approccio di verifica che integra sistematicamente i Content Credentials C2PA con la verifica contestuale tradizionale: quando un’immagine è accompagnata da Content Credentials verificabili, la catena di provenienza crittografica offre un livello di certezza che nessun’altra tecnica può eguagliare; quando i Content Credentials sono assenti, la verifica contestuale diventa ancora più critica.

La formazione dei giornalisti in queste competenze è oggi riconosciuta come una priorità urgente da tutte le principali organizzazioni professionali dell’informazione. Il Reuters Institute for the Study of Journalism di Oxford e la Columbia Journalism School hanno introdotto nei loro programmi di formazione moduli specifici dedicati alla verifica dell’autenticità visiva e al rilevamento dei deepfake. In Italia, il percorso di aggiornamento professionale è ancora in una fase iniziale, ma l’incidente di Torino del febbraio 2026 ha accelerato la consapevolezza del problema anche nelle redazioni nazionali.

Quello che emerge con chiarezza, alla fine di questo percorso attraverso la storia e la tecnologia, è che il problema dell’autenticità fotografica nel giornalismo non è risolvibile con una singola tecnologia, né con una singola legge. È un problema culturale, professionale e istituzionale che richiede la collaborazione tra giornalisti, tecnici, legislatori, produttori di hardware, sviluppatori di software e, in ultima analisi, i lettori stessi: l’ultimo anello della catena della fiducia visiva, e il più difficile da educare.

Fonti

Non perderti la nostra offerta di benvenuto

Iscrivendoti alla nostra newsletter non solo avrai, una volta a settimana, il riassunto dei nostri articoli nella tua casella di posta, ma avrai diritto ad un codice sconto del 50% da impiegare nel nostro negozio* . Riceverai il codice

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.

*Su una selezione di libri

amazon

Hey, ciao 👋
Piacere di conoscerti.

Iscriviti per ricevere contenuti fantastici nella tua casella di posta, ogni mese.

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.

Articoli Recenti

Categorie Principali

Articoli correlati