Mettiti in comunicazione con noi

29 Marzo 2026

Le Reti Sociali Sono Diventate un Campo di Battaglia E Noi Siamo le Vittime

Pubblicato

su

Di Marlene Madalena Pozzan Foschiera

C’era un tempo in cui la guerra si combatteva nelle trincee, con baionette e bombe. Poi arrivarono i carri armati, gli aerei, le armi nucleari. Ogni epoca ha inventato i propri strumenti di distruzione. Il nostro tempo ne ha inventato uno diverso, più sottile e forse più pericoloso: la guerra delle narrazioni, combattuta in tempo reale nei palmi delle nostre mani, nei feed che scorriamo distrattamente mentre prendiamo il caffè.

Nei primi giorni del conflitto in Iran, centinaia di video hanno circolato sui social media mostrando Tel Aviv in fiamme, aeroporti distrutti, città inghiottite dai missili. Uno dei più condivisi mostrava l’iconico Burj Khalifa di Dubai sotto attacco. Erano immagini terrificanti, viscerali, impossibili da ignorare. Raggiunsero milioni di persone prima che qualsiasi giornalista o analista potesse verificarne la veridicità.

Erano false. Generate dall’Intelligenza Artificiale. Ma avevano già compiuto il loro scopo.

La Velocità Come Arma

Il problema non è nuovo. La disinformazione accompagna i conflitti umani da sempre. Il regime nazista coniò il termine Lügenpresse — “stampa che mente” — per screditare qualsiasi notizia scomoda sulle sconfitte al fronte. Otto decenni dopo, Donald Trump ha resuscitato la stessa logica con l’etichetta di fake news, senza mai rivelare da dove avesse preso l’ispirazione.

Ciò che è cambiato, e cambiato in modo drammatico, è la velocità. E la scala. E l’assenza di qualsiasi attrito tra la menzogna e il pubblico.

Sui social media, un video falso generato dall’IA percorre il pianeta in pochi minuti. La verifica, quando avviene, richiede ore, giorni. E la scienza comportamentale lo conferma da tempo: la prima versione di una storia è quella che rimane impressa nella memoria. La correzione successiva raramente cancella il danno.

Le piattaforme digitali sono state costruite su una premessa semplice: il coinvolgimento prima di tutto. Più un contenuto provoca emozione — paura, rabbia, indignazione, stupore — più viene amplificato dagli algoritmi. La guerra, con tutto il suo carico emotivo, è il combustibile perfetto per questo motore. E i creatori di contenuti in tutto il mondo se ne sono accorti rapidamente.

La logica è inquietante nella sua semplicità: produrre un video falso di un attacco inesistente può fruttare migliaia di dollari in monetizzazione. La morte virtuale è redditizia. La disinformazione è diventata un modello di business.

Quando lo Stato Entra in Gioco

Sarebbe rassicurante se il problema si limitasse a creatori opportunisti in cerca di visualizzazioni. Ma ciò che il conflitto in Iran ha rivelato è qualcosa di più grave: una parte significativa della propaganda generata dall’IA proviene dai governi. E, in questo caso specifico, dalla più grande potenza del mondo.

Nel marzo di quest’anno, la Casa Bianca ha pubblicato un video che mescolava scene di film e serie televisive di Hollywood — Superman, Braveheart, Il Gladiatore, Breaking Bad, Iron Man — con immagini reali di attacchi militari americani all’Iran. Il messaggio era chiaro: la guerra degli Stati Uniti è eroica, cinematografica, inevitabilmente vittoriosa. È la sceneggiatura di Hollywood, non la realtà di corpi e macerie.

Il regista Ben Stiller ha reagito con indignazione vedendo brani del suo Tropic Thunder inclusi senza autorizzazione. “Guerra non è un film”, ha scritto. La Casa Bianca non ha risposto nel merito. Il video è rimasto online.

In una seconda pubblicazione, la stessa Casa Bianca ha alternato immagini reali di distruzione con scene di videogiochi, in cui il personaggio ripeteva, come in un loop: “Ah, cazzo, ci risiamo.” L’effetto è sinistro: umanizzare la guerra trasformandola in intrattenimento. Astrarre la sofferenza sostituendola con pixel.

Non è un caso. È strategia. Con difficoltà nel rovesciare il regime iraniano come sperava, il governo americano punta all’offensiva mediatica. Gli obiettivi sono duplici: creare la percezione, all’interno dell’Iran, che la forza americana sia invincibile; e, sul piano interno, presentare una guerra costosa e incerta come facile, pulita e glamour per una base elettorale sempre più inquieta.

La portavoce della Casa Bianca, Abigail Jackson, ha descritto questa strategia senza alcun imbarazzo: “Attraverso post coinvolgenti e meme incredibili, stiamo comunicando con successo l’agenda estremamente popolare del presidente.”

Meme. Su una guerra.

Le Piattaforme Sono Complici

Di fronte a questo scenario, cosa fanno i social media? Poco. Tardi. E con riserve.

La piattaforma X di Elon Musk ha annunciato che sospenderà temporaneamente dal programma di monetizzazione i creatori che pubblicano video di conflitti generati dall’IA senza la dovuta identificazione. Si noti cosa la misura non fa: non rimuove i contenuti falsi, non penalizza chi li crea, non ne interrompe la circolazione. Si limita a minacciare di tagliare il compenso a chi non etichetta adeguatamente la menzogna.

È come dire che un falsario può continuare a stampare denaro falso, purché scriva “falso” sulla banconota.

Le grandi piattaforme hanno un interesse strutturale a non risolvere il problema. I contenuti di guerra, veri o falsi, generano un coinvolgimento enorme. Rimuovere o limitare questi contenuti incide sul tempo di utilizzo, sulle metriche di crescita, sui ricavi pubblicitari. Il modello di business dei social media è fondamentalmente incompatibile con un serio contrasto alla disinformazione in tempi di conflitto.

Il Colpo Più Profondo

C’è un danno che va oltre la disinformazione puntuale. È un danno strutturale, civilizzatorio.

Quando non possiamo più fidarci di ciò che vediamo, qualcosa di fondamentale si spezza. La vista è sempre stata la nostra ancora più immediata nella realtà. La fotografia, il cinema, il video hanno conquistato credibilità storica proprio perché sembravano catturare la realtà senza mediazione. L’IA generativa ha distrutto questa premessa.

E quando tutto può essere falso, la sfiducia si generalizza. I cittadini che non sanno più di cosa fidarsi non riescono a prendere decisioni informate. Non riescono a chiamare i governi alle loro responsabilità. Diventano terreno fertile per chi offre certezze semplici nel caos — di solito, gli stessi che hanno prodotto il caos.

Cosa Fare?

Le piattaforme devono essere ritenute legalmente responsabili per i contenuti che amplificano. I governi democratici devono trattare la disinformazione generata dall’IA in contesti di guerra per quello che è: manipolazione con conseguenze reali. E noi, come cittadini, dobbiamo recuperare un’abitudine che i social media hanno fatto di tutto per distruggere — la pausa. L’intervallo tra il vedere e il condividere. La disponibilità a chiedersi, prima di inoltrare: è vero?

La guerra in Iran si combatte con missili e pixel. I missili distruggono edifici. I pixel distruggono qualcosa di più difficile da ricostruire: la fiducia nella realtà condivisa, senza la quale nessuna società riesce a sopravvivere.

E mentre scorriamo il feed, essa continua a sanguinare.


Articolo di opinione pubblicato il 30 marzo 2026.

Nota: Questo articolo è stato ispirato e si basa sul reportage “La guerra in Iran apre un’ondata senza precedenti di disinformazione e l’IA diventa un’arma”, di Jamil Chade, giornalista e corrispondente internazionale. I fatti e i dati qui menzionati sono stati raccolti e pubblicati originariamente dall’autore.