Nel pieno dell’era dei deepfake e della disinformazione visiva, il New York Times mostra come funziona il controllo editoriale sulle immagini, anche quando provengono da figure politiche di primo piano come Donald Trump. Un recente caso legato a una presunta foto del presidente venezuelano Nicolás Maduro evidenzia i limiti dell’AI e l’importanza del giornalismo responsabile.
Nel gennaio 2026 il New York Times si è trovato di fronte a una decisione delicata: pubblicare o meno un’immagine condivisa da Donald Trump su Truth Social che mostrerebbe Nicolás Maduro a bordo della USS Iwo Jima, nave d’assalto anfibia della Marina statunitense. L’immagine, già circolata online, sollevava dubbi immediati sulla sua autenticità.
Secondo quanto spiegato dalla direttrice della fotografia del Times, Meaghan Looram, diversi elementi hanno acceso l’allarme. Il formato verticale appariva insolito, suggerendo un ritaglio pesante dell’immagine originale. La qualità risultava degradata, compatibile con una foto scattata a uno schermo o a una stampa, piuttosto che con un file digitale nativo. Anche l’analisi tramite strumenti di rilevazione dell’intelligenza artificiale non ha fornito una conferma definitiva sull’origine dell’immagine.
Nonostante l’impossibilità di verificarne l’autenticità, il New York Times ha scelto di pubblicare l’immagine all’interno di un contesto giornalistico critico, spiegando chiaramente ai lettori i dubbi e le verifiche effettuate. Una decisione coerente con le linee guida etiche della testata, che privilegiano trasparenza e responsabilità editoriale rispetto alla spettacolarizzazione.
Il caso si inserisce in un contesto più ampio: la crescente diffusione di immagini generate o manipolate dall’AI, spesso utilizzate in ambito politico per orientare l’opinione pubblica. Secondo il Reuters Institute Digital News Report, oltre il 60% dei lettori europei teme che l’intelligenza artificiale renda più difficile distinguere il vero dal falso nelle notizie visive.
Per il giornalismo, la sfida non è solo tecnologica ma anche culturale: rafforzare i processi di verifica e mantenere la fiducia del pubblico in un ecosistema informativo sempre più fragile.
Approfondimento – Cronologia e contesto
- 2023–2024: Crescita dei deepfake politici durante campagne elettorali globali
Fonte: Commissione Europea – https://digital-strategy.ec.europa.eu - 2024: Linee guida del New York Times sull’uso e la verifica di contenuti AI
Fonte: New York Times Company – https://www.nytco.com - 2025: Allarme ONU su disinformazione visiva e stabilità democratica
Fonte: United Nations – https://www.un.org
Consigli di approfondimento
- Reuters Institute – AI e fiducia nei media: https://www.digitalnewsreport.org
- Poynter Institute – Visual journalism & AI: https://www.poynter.org
Abstract – Pro e rischi etici e sociali
Pro: maggiore trasparenza editoriale, educazione del pubblico, rafforzamento del fact-checking.
Rischi: normalizzazione di contenuti non verificabili, erosione della fiducia, strumentalizzazione politica.
Conseguenze future: senza standard condivisi e alfabetizzazione mediatica, l’interazione sociale rischia di essere sempre più mediata da immagini ambigue, con effetti diretti sui processi democratici.







