L’arrivo dell’intelligenza artificiale ha trasformato profondamente la diffusione delle fake news, soprattutto per quanto riguarda immagini e video falsificati con strumenti digitali. David Puente, vicedirettore e responsabile del fact-checking per il sito Open, durante un’intervista all’Adnkronos ha spiegato come oggi la disinformazione viaggi sempre più veloce e si presenti sotto forme difficili da individuare. Le nuove tecnologie rendono arduo risalire all’origine delle notizie false, complicando il lavoro di chi cerca di contrastarle.
Scomparsa del paziente zero nell’era dei contenuti generati da ai
In passato smascherare una bufala era più semplice, perché si poteva tornare alla fonte originale di una foto o un video manipolato. Ora, con l’intelligenza artificiale, si creano contenuti sintetici che spesso non si possono collegare a nessun autore o contesto definito. Puente sottolinea come non esista più un “paziente zero” riconoscibile, cioè la fonte primaria da cui parte la disinformazione. Questo fenomeno accelera la viralità dei materiali falsi prima ancora che si possa attivare un controllo accurato.
Il risultato è che immagini o filmati falsi, generati artificialmente, si diffondono con grande rapidità sui social e nelle chat. Il loro contenuto viene accettato come vero da molti utenti, perché nessuno riesce a identificarne la natura artificiale prima che si radichino nell’opinione pubblica. Particolarmente evidente è questo problema nei contesti di guerra, come nei conflitti a Gaza e in Ucraina, dove le manipolazioni di immagini mostrano scene inesistenti o riconducibili ad altre zone completamente diverse.
Limiti di watermark e metadati nel combattere la disinformazione visiva
Tra gli strumenti proposti per certificare l’origine di un’immagine o di un video c’è l’apposizione di watermark, ovvero delle firme digitali che indicano come e dove un contenuto è stato creato. Sono state ipotizzate anche norme per obbligare a inserire questi “bollini” sulle immagini generate dall’intelligenza artificiale. David Puente spiega però che questi metodi non sono sufficienti: i watermark possono essere facilmente rimossi con ritagli o sfocature. Anche i metadati, che contengono informazioni digitali sul file, non offrono una vera garanzia di risalire alla fonte.
Se un video viene salvato semplicemente con la registrazione dello schermo, perde ogni segno di tracciabilità. Puente ricorda un caso concreto, in cui un falso dossier diffuso dalla fondazione legata a Yevgeny Prigozhin utilizzava un video originario di un ginecologo che mostrava sue pazienti. Quel video aveva un watermark originale, poi rimosso e tagliato per alterarne le proporzioni, rendendo molto difficile individuare la sua vera origine.
Questo dimostra quanto la manipolazione digitale oggi esplori tecniche sempre più complesse per nascondere tracce e confondere chi prova a verificare la veridicità di un contenuto.
Community notes e la difficoltà della moderazione collettiva sui social
Per affrontare la diffusione di notizie false, molte piattaforme social hanno scelto di affidarsi alla moderazione collettiva tramite strumenti come Community Notes, adottate da X, Facebook e Instagram. Chiunque entri a far parte della community con le credenziali adatte può segnalare e commentare contenuti, avvisando gli altri utenti della possibile inesattezza.
David Puente segnala però dei problemi nel funzionamento di questi sistemi. Spesso una segnalazione viene considerata vera anche prima che venga votata o verificata da altri utenti. In questo modo si crea un effetto a catena: se la nota coincide con ciò che le persone già credono, viene accettata immediatamente, anche se può essere falsa. Così una rete di sedicenti debunker contribuisce involontariamente ad aumentare la confusione.
Un caso recente riguarda una foto che il chatbot Grok di Elon Musk ha identificato erroneamente come una bambina yazida in Siria nel 2014, mentre in realtà si trattava di uno scatto recente da Gaza. L’errore di identificazione è diventato virale, con la smentita che a sua volta ha generato ancora più dubbi. Questo episodio dimostra come la manipolazione non arrivi solo dai falsi, ma anche dalle correzioni infondate.
Deepfake, foto artificiali e l’incertezza degli strumenti di verifica digitale
L’intelligenza artificiale permette la produzione di immagini e video profondamente realistici ma totalmente inventati. Puente mette in evidenza che la difficoltà sta nel fatto che queste immagini non possiedono un passato verificabile: un bambino ferito mostrato in una fotografia AI semplicemente non esiste, quindi non c’è modo di risalire a fatti concreti per autenticarla.
Gli strumenti online per riconoscere contenuti generati artificialmente spesso danno risposte sbagliate o contraddittorie. Il responsabile del fact-checking racconta come alcune sue foto scansionate, risalenti anche a quando non esistevano queste tecnologie, siano state segnate come create dall’AI. Lo stesso è successo a una figurina di calcio degli anni 90. Questi errori sono legati ai dettagli tecnici delle immagini, come pixel o sfondi, difficili da interpretare in modo univoco dai software.
Questa incertezza rende il lavoro di chi verifica ancora più complicato, perché non si può affidare completamente a questi strumenti digitali per distinguere fra vero e falso.
Errori nelle fonti tradizionali e rischi di attribuzioni sbagliate
Anche le fonti considerate più affidabili cadono in errori quando si tratta di immagini e video in contesti complessi. Puente riporta casi in cui agenzie fotografiche hanno diffuso materiali errati, come un video che mostrava bombardamenti attribuiti a Pakistan ma girato in Palestina.
Un episodio emblematico è quello avvenuto dopo il 7 ottobre, quando sono circolate immagini di una fossa comune erroneamente attribuite all’esercito israeliano che gettava cadaveri palestinesi, mentre in realtà la scena risaliva al conflitto siriano. Se fossero stati pubblicati con quelle informazioni sbagliate, le conseguenze sarebbero state gravi.
Il giornalista ricorda che spesso la fretta di pubblicare spinge molte testate a rinunciare a verifiche più approfondite. Questo atteggiamento aumenta il rischio di diffusione di disinformazione e alimenta tensioni.
Bias culturali degli algoritmi e la complessità di restare neutrali
Uno degli aspetti critici dell’uso dell’intelligenza artificiale nell’informazione consiste nell’inserimento di pregiudizi culturali o politici nei dati con cui i sistemi sono addestrati. Se un’AI viene creata in Russia, tenderà a sviluppare una narrazione favorevole a Mosca, mettendo in cattiva luce Zelensky e l’esercito ucraino.
I chatbot forniscono contenuti che sembrano neutri ma nascondono un orientamento di partenza. Questo crea una difficoltà ulteriore per chi cerca di ottenere informazioni corrette, perché i messaggi prodotti da queste macchine possono cambiare a seconda di chi li interroga.
Lo stesso Puente ha subito attacchi da opposte fazioni, venendo etichettato ora come pro-palestinese ora come filosionista, mostrando quanto anche i fact-checker finiscano coinvolti nelle guerre di narrazione, pur essendo soggetti a errori e limiti umani.
Il lavoro dei fact-checker rimane fondamentale nella lotta alle bufale digitali
Nonostante i problemi e le insufficienze degli strumenti disponibili, David Puente conferma che il lavoro umano di verifica resta indispensabile. I fact-checker sono cresciuti in numero e si sono organizzati in reti internazionali che collaborano per scovare l’origine delle bufale e fermarne la diffusione.
Questi professionisti adottano regole etiche e procedure precise per ridurre gli errori. Sono consapevoli dei rischi nell’affidarsi troppo a chi fa questo mestiere e cercano di evitare di farsi catturare dalle stesse trappole che cercano di sventare.
In un mondo in cui l’intelligenza artificiale produce immagini e narrazioni false a grandi velocità, il controllo umano rimane uno strumento essenziale per limitare l’impatto delle manipolazioni sulla realtà e fornire un filtro affidabile alla comunicazione pubblica.










