Logo

La guerra globale della disinformazione sul conflitto in Medio Oriente

Il risultato: inquinare il dibattito pubblico su Palestina e Israele e alimentare l’islamofobia e l’antisemitismo nel mondo

28 ottobre 2024
Condividi

Poche settimane fa è stata celebrata la ricorrenza del primo anno dall’attacco di Hamas a Israele. Il 7 ottobre 2023, 1.500 militanti del gruppo estremista palestinese, provenienti dalla Striscia di Gaza, sono entrati in territorio israeliano uccidendo più di 1.200 persone, tra civili e militari, e sequestrando 250 ostaggi. La reazione militare dell’esercito israeliano è arrivata il giorno seguente ed è tutt’ora in corso. Secondo i dati del Ministero della Salute di Gaza, pubblicati dall’Ufficio delle Nazioni unite per gli affari umanitari (Ocha), ad oggi oltre 40mila palestinesi sono stati uccisi dai bombardamenti israeliani. La situazione nella Striscia di Gaza è stata descritta dalle Nazioni Unite come una «catastrofe» umanitaria, con quasi 2 milioni di sfollati e la distruzione di infrastrutture civili. Nelle ultime settimane, poi, il conflitto si è allargato ulteriormente, con gli attacchi di Israele nel sud del Libano per colpire Hezbollah, organizzazione paramilitare islamista sciita libanese, concretizzando il pericolo di un guerra su larga scala ancora più devastante nella regione. 

In questo anno la disinformazione sull’attuale conflitto in Medio Oriente è apparsa essere un fenomeno globale, diffusa da una grande quantità e varietà di protagonisti: da singoli utenti, passando per influencer e importanti esponenti politici e governativi, fino ad arrivare a vere e proprie strategie social segrete di influenza politica organizzate da diversi Stati. Ma non solo. Le tipologie di notizie false e fuorvianti hanno riguardato ogni singola fase del conflitto e abbracciato tutte le possibili forme: da quelle più basilari, come foto e immagini presentate fuori contesto, all’uso dell’intelligenza artificiale. Una massa di contenuti che ha ottenuto milioni e milioni di visualizzazioni, comparendo in svariate lingue sui siti e sulle bacheche social in più continenti.

L’enorme vitalità delle disinformazione sviluppatasi dopo il 7 ottobre dello scorso anno si può ricollegare a diversi fattori, come ad esempio gli equilibri geopolitici in gioco e la polarizzazione che da tempo contraddistingue l’opinione pubblica in diversi Paesi sullo storico conflitto politico, sociale e militare tra Israele e Palestina che ha più di un secolo di vita. Todd Helmus, scienziato comportamentale specializzato in disinformazione ed estremismo violento presso Rand Corporation, think tank apartitico tra i più importanti negli Stati Uniti, ha spiegato infatti a PolitiFact che «le persone hanno forti opinioni su questo argomento, e ogni volta che hanno forti opinioni su qualcosa, sono molto ansiose di trovare informazioni che convalidino le loro posizioni». Non sorprende, quindi, che subito dopo l’attacco di Hamas del 7 ottobre contro Israele si siano viste circolare molte informazioni false e fuori contesto che confermano la propria convinzione sulla questione, ha concluso l’esperto.

In questo quadro articolato e complesso, dall’attacco di Hamas a oggi, a Facta abbiamo analizzato oltre 100 contenuti disinformativi. Proprio partendo dalle nostre analisi e intrecciandole con inchieste e articoli pubblicati in questo anno a livello internazionale sull’argomento, abbiamo provato a sciogliere questa matassa. Catalogando le modalità e i filoni principali con cui si è sviluppata e mappando, quando possibile, le finalità e gli obiettivi dietro tutte queste informazioni false e ingannevoli, che hanno inquinato inesorabilmente il dibattito pubblico su Palestina e Israele e contribuito ad alimentare l’islamofobia e l’antisemitismo nel mondo.  

“Una guerra mondiale online”

Già poco meno di un mese dopo il 7 ottobre 2023, Steven Lee Myers e Sheera Frenkel, giornalisti esperti di disinformazione online e tecnologia, scrivevano sul New York Times che il conflitto tra Israele e Hamas stava diventando «una guerra mondiale online». Come documentato infatti in un report di ottobre dello scorso anno dell’Institute for Strategic Dialogue (ISD), organizzazione indipendente con sede a Londra impegnata nella salvaguardia dei diritti umani e nel contrasto dell’estremismo e disinformazione, Russia, Iran e Cina hanno fin da subito sfruttato il caos informativo sul tema. Questi Paesi hanno utilizzato campagne di propaganda e disinformazione online per promuovere i propri programmi geopolitici e denigrare agli occhi dell’opinione pubblica Israele e il suo principale alleato, gli Stati Uniti. 

Il 17 ottobre 2023 si era verificata un’esplosione all’ospedale battista di Gaza Al-Ahli Arabi che aveva provocato morti e feriti tra i civili presenti all’interno. Hamas e l’esercito israeliano avevano negato la propria responsabilità, accusandosi a vicenda. Il giorno dopo Sputnik India, agenzia di stampa governativa russa, citando un analista militare russo, aveva diffuso una narrazione infondata secondo cui la responsabilità di quanto accaduto alla struttura sanitaria fosse israeliana e che gli Stati Uniti avessero fornito le armi utilizzate. In qualsiasi caso, ad oggi, dopo diverse analisi indipendenti con conclusioni contrastanti, la dinamica di quanto accaduto all’ospedale Al-Ahli Arabi non è chiara e manca di prove oggettive.

In altri casi il conflitto è stato utilizzato dai media e autorità russe e dalla propaganda filo-russa sui social per spingere narrazioni anti-occidentali e anti-ucraine, con la diffusione di svariate notizie false e prive di riscontri secondo cui l’Ucraina avrebbe fornito le armi ricevute dai Paesi alleati al gruppo estremista palestinese per l’attacco del 7 ottobre. In più occasioni sono stati attribuiti ai media occidentali falsi video o articoli in cui veniva riportato questo scoop inventato. A Facta ci siamo occupati svariate volte di simili contenuti

È stata attaccata anche la credibilità dei media occidentali e della loro copertura della guerra in Medio Oriente. Una delle notizie false divenuta virale in più Paesi, spinta anche da canali Telegram affiliati allo Stato iraniano, affermava che CNN avesse mandato in onda un servizio finto sugli attacchi con razzi di Hamas contro Israele. Nella clip condivisa sui social media si vedono due giornalisti dell’emittente statunitense che si riparano a terra al confine tra Israele e Gaza, mentre fuori campo si sente l’audio di un presunto membro dello staff che suggerisce loro come recitare al meglio la scena. Questo “errore” della CNN è stato sbandierato online come la prova della messinscena. Il video in questione però è frutto di manipolazione

La manipolazione dell’opinione pubblica

Non sono poi mancate operazioni “nascoste” che hanno puntato a condizionare l’opinione pubblica a favore sia delle azioni di Hamas che di quelle del governo israeliano.

Pochi giorni dopo l’attacco del gruppo estremista palestinese, Cyabra, un’azienda con sede in Israele che analizza la disinformazione online, ha pubblicato un report che, esaminando 2 milioni di post, immagini e video diffusi su Facebook, X, Instagram e TikTok nei primi due giorni di guerra (tra il 7 e il 9 ottobre), ha identificato decine di migliaia di profili falsi (uno su quattro di quelli analizzati) che diffondevano affermazioni fuorvianti a sostegno di Hamas, suggerendo, ad esempio, che i militanti erano stati compassionevoli con gli ostaggi in situazioni in cui le prove dimostravano il contrario, scrive Marianna Spring, giornalista della BBC esperta di disinformazione e social media. Nell’analisi si legge che i profili falsi erano stati creati in precedenza, ma che sono diventati attivi solo dopo l’inizio della guerra. 

Inoltre, è stato documentato che nei post analizzati contenenti propaganda pro-Hamas erano stati utilizzati hashtag pro-Israele, come #IStandWithIsrael o #Israel, «per ottenere maggiore visibilità e raggiungere un nuovo pubblico». Insieme a una pubblicazione costante, questo uso strategico degli hashtag risulta aver avuto «un ruolo cruciale nel rendere virale la propaganda dei profili falsi, con oltre 371.000 interazioni (risposte e condivisioni) e oltre 531 milioni di visualizzazioni in soli due giorni», sottolinea il report di Cyabra.

A marzo 2024, invece, FakeReporter, progetto di fact-checking israeliano, ha scoperto l’esistenza di una campagna di influenza formata da centinaia di account falsi che diffondevano in maniera coordinata sui social messaggi pro Israele, attaccando l’agenzia delle Nazioni Unite per il soccorso e l’occupazione dei profughi palestinesi (Unrwa) e respingendo le accuse di violazioni dei diritti umani rivolte da più parti al governo e all’esercito israeliani. I post erano indirizzati principalmente agli account social di almeno 128 legislatori statunitensi e al pubblico americano. L’intelligenza artificiale era stata usata per generare molti dei post diffusi ed erano stati creati anche falsi siti di notizie in lingua inglese con articoli a sostegno di Israele. A fine maggio, Meta – che possiede Facebook, Instagram, Threads e WhatsApp – e OpenAI – società che ha sviluppato ChatGPT, il chatbot basato sull’intelligenza artificiale -, hanno pubblicato due report che attribuivano questa campagna segreta di manipolazione a Stoic, un’azienda di marketing politico di Tel Aviv, specificando anche di averla bloccata per un uso non consentito delle loro piattaforme e tecnologie.

Secondo poi quanto pubblicato ai primi di giugno dal New York Times e dal quotidiano israeliano Haaretz questo piano di influenza era stato organizzato direttamente dal governo israeliano.

Il quotidiano statunitense racconta che, in base a quanto riferito da quattro funzionari israeliani coinvolti e a documenti relativi all’operazione, la campagna segreta, iniziata poche settimane dopo l’attacco di Hamas del 7 ottobre, è stata commissionata dal Ministero degli Affari della Diaspora di Israele, un organismo governativo che collega gli ebrei di tutto il mondo con lo Stato di Israele, stanziando circa 2 milioni di dollari e incaricando Stoic di realizzarla. Il ministero isrealiano ha negato il suo coinvolgimento nella campagna e di non aver alcun rapporto con la società di marketing coinvolta. Stoic non ha invece risposto alle richieste di commento.  

“Pallywood” e la disumanizzazione delle vittime

La teoria del complotto più diffusa sulla guerra in Medio Oriente è quella denominata “Pallywood”. Secondo questa tesi cospirativa, che nasce nei primi anni 2000 dopo la seconda intifada, esisterebbe una sorta di Hollywood palestinese che produrrebbe contenuti di propaganda per conto di Hamas, con delle vere e proprie messinscene cinematografiche realizzate utilizzando “attori di crisi” per accusare gli israeliani di crimini di guerra e ingannare l’opinione pubblica mondiale.

Secondo un’analisi di Logically Facts, il volume di post che hanno citato “Pallywood” da dopo il 7 ottobre è aumentato costantemente. Ad esempio, tra l’inizio dell’attuale conflitto e il 27 ottobre 2023 il termine era stato menzionato sui social media oltre 146.000 volte da più di 82.000 utenti unici, riporta il sito di fact-checking britannico. Questa teoria del complotto non è stata però diffusa solo da semplici sostenitori di Israele, ma anche dallo stesso account ufficiale dello Stato israeliano e da politici israeliani.

In questo anno, a Facta abbiamo smentito più e più volte video e foto utilizzate in maniera fuorviante per sostenere falsamente che le persone riprese fossero attori palestinesi a Gaza che inscenavano ferite o fingevano di essere morti in strada o negli ospedali della città. Una tesi cospirativa particolarmente odiosa perché in più occasioni ha cercato di negare l’uccisione di bambini nel corso dei raid israeliani lungo la Striscia, affermando che si trattassero di bambolotti mostrati a favore di foto.   

Contattato da France24, Robert Topinka, docente alla Birkbeck University di Londra e analista della disinformazione online, ha dichiarato che uno dei motivi per cui viene creata la disinformazione come Pallywood è quello di diluire gli aspetti disumani dei conflitti. Per l’esperto, però, in questo caso ci sono anche forti motivazioni politiche che guidano tale diffusione. «Pallywood è propaganda. È assolutamente chiaro che gli abitanti di Gaza stanno subendo sofferenze incredibili in questo momento. Ci sono infinite prove a riguardo. Quindi far sembrare che le persone stiano ingigantendo la sofferenza aiuta a raccontare una storia diversa su ciò che sta realmente accadendo. Fa sembrare la cosa meno un disastro umanitario», spiega il ricercatore. Per Shakuntala Banaji, esperta di disinformazione e direttrice del programma per il Master in Media, Comunicazione e Sviluppo alla London School of Economics and Political Science, contattata sempre dai giornalisti francesi, le teoria cospirazionista di “Pallywood” si adatta infatti «all’intero lessico della disumanizzazione dei palestinesi».

L’invasione di foto e video fuori contesto

Prima le immagini e i filmati delle violenze sui civili commesse dai militanti di Hamas il 7 ottobre in Israele e poi quelle che mostrano morte e sofferenza estrema a Gaza bombardata dai continui raid israeliani hanno popolato le pagine dei giornali e le bacheche social in tutto il mondo. Un flusso di foto e video costante che continua tuttora, con nuove scene di distruzione provenienti dal Libano. L’immagine è tra i principali strumenti di denuncia e testimonianza utilizzati nel racconto dell’attuale guerra in Medio Oriente. 

Questa dinamica ha contraddistinto in maniera speculare la disinformazione sul conflitto in atto. Fin da subito sono infatti iniziati a circolare online una moltitudine di foto e video presentati fuori dal loro contesto originario, con intenti vari, ma con alla fine la stessa conseguenza: alimentare confusione e distorcere la realtà dei fatti.

Il video di inizio 2022 di un bambino in Siria affamato che, seduto in un campo di terra, mangia dell’erba è stato condiviso in maniera fuorviante come una testimonianza della drammatica situazione della popolazione civile a Gaza dopo il 7 ottobre 2023. In un altro caso, il filmato di bambini che nel 2021 cercano cibo tra i legni bruciati di una capanna dopo un incendio in campo profughi siriano vicino alla città di Hanine, in Libano, è stato rilanciato sui social media spacciandolo per una scena con bambini di Gaza che cercano «del cibo bruciato sotto le macerie dopo un attacco aereo israeliano». L’esecuzione nel 2015 a Falluja, in Iraq, di quattro uomini, accusati di essere omosessuali, da parte di due miliziani del cosiddetto Stato Islamico è stata spacciata come l’uccisione da parte di Hamas dei cittadini di Gaza accusati di collaborare con Israele. E questi sono solo alcuni delle decine di casi che abbiamo analizzato a Facta finora.  

Questo tipo di disinformazione favorisce però anche conseguenze negative sulla vita delle persone coinvolte e sull’empatia nei confronti delle vittime negli scenari di guerra. Per John Wihbey, professore associato di innovazione e tecnologia dei media alla Northeastern University a Boston ed esperto di disinformazione, «quando le foto di persone traumatizzate o che si trovavano in situazioni orribili ricircolano, c’è una rivittimizzazione o ritraumatizzazione» di queste persone. Inoltre, usare video e immagini fuori contesto per cercare di ottenere una maggiore attenzione emotiva per il dolore dei civili a Gaza, rischia di creare l’effetto opposto, facendo poi perdere credibilità alle storie reali poiché gli utenti non fidano più di quello che vedono. 

Ma l’uso manipolatorio di immagini e video non riguarda solo contesti di guerra. In molti altri casi sono state utilizzate scene verificatesi in diverse parti del mondo, in alcuni episodi con protagonisti personaggi famosi, per ingigantire le manifestazioni di appoggio politico o di critica nei confronti della Palestina o di Israele. 

In particolare, uno dei video virali online sosteneva di mostrare la squadra di calcio femminile della Repubblica d’Irlanda under 17 girarsi di spalle al momento dell’inno della squadra avversaria, quella di Israele. Ma nella realtà la clip diffusa sui social ritrae le giocatrici irlandesi voltarsi al momento del proprio inno, verso la propria bandiera, posizionata sulla tribuna dietro di loro, com’è da tradizione per molte squadre irlandesi al momento dell’inno nazionale. Non è vero nemmeno che che i tifosi del Marocco hanno intonato cori pro-Palestina durante il mondiale di calcio maschile in Qatar, che il vincitore del Giro d’Italia ha portato sul podio la bandiera palestinese, che l’allenatore del Manchester City, Pep Guardiola, si è rifiutato di stringere la mano a un rappresentante israeliano, che l’attore statunitense Robert De Niro ha inveito contro manifestanti filo-palestinesi o che il re di Danimarca si è affacciato con in mano una bandiera palestinese. Ed è falso anche che a un poliziotto britannico è stato dato fuoco da manifestanti pro-Palestina e che la Torre Eiffel sia stata illuminata con la bandiera israeliana dopo l’attacco missilistico iraniano dello scorso 13 aprile contro Israele.

L’uso ingannevole dell’intelligenza artificiale 

Nella disinformazione sulla guerra in Medio Oriente ha avuto un ruolo importante anche l’utilizzo manipolatorio dell’intelligenza artificiale. 

Recentemente l’immagine di diverse tende in fiamme è diventata virale accompagnata dal messaggio secondo cui la scena mostrerebbe le conseguenze di un bombardamento israeliano su un accampamento di famiglie di profughi palestinesi a Gaza. Quella foto non è reale, ma è stata creata con l’intelligenza artificiale (IA). Anche in questo caso, invece di favorire una maggiore empatia, un simile uso di questa tecnologia, una volta scoperto l’inganno, può alimentarr solo sospetto e distacco verso le sofferenze reali dei civili palestinesi

In un’altra circostanza la tecnologia è stata utilizzata per manipolare un’immagine ripresa da un servizio televisivo sulle testimonianze di pazienti dell’ospedale Al-Shifa di Gaza dopo un’operazione militare israeliana nell’area dove si trovava la struttura sanitaria. A uno degli uomini ripresi, seduto su una sedia a rotelle, è stata aggiunta una terza gamba per far credere che la scena ripresa non fosse reale, ma creata con l’intelligenza artificiale, e quindi delegittimare quella testimonianza. Si sono verificati anche casi in cui scene realmente accadute di bambini palestinesi gravemente feriti fossero accusate sui social media in maniera infondata di essere state prodotte interamente con l’IA per ingannare le persone. 

In questo contesto anche i tool online per rivelare se un’immagine è stata creata con l’IA sono finiti al centro di notizie false con l’obiettivo di  negare gli orrori della guerra. È accaduto ad esempio quando lo Stato di Israele sul proprio account ufficiale di X ha pubblicato alcune foto di cadaveri di bambini carbonizzati per testimoniare una serie di atrocità compiute da Hamas nei confronti di civili israeliani nel corso dell’attacco del 7 ottobre. Sui social network è stata messa in discussione l’autenticità di queste foto, affermando che, in base ai risultati di software per verificare l’origine di una foto, sarebbero state create digitalmente con lo scopo di fare propaganda contro Hamas. Ma ad oggi questi programmi non sono in grado di stabilire con certezza se una foto sia stata creata con intelligenza artificiale. Per questo motivo, un loro uso non attento può diffondere false informazioni, invece che smentirle, come nel caso raccontato.

Tutto questo, avverte un’analisi dell’Associated Press, mostra quale sia il potenziale dell’IA nel diventare, nelle mani sbagliate, un’altra arma della disinformazione, offrendo uno scorcio di ciò che accadrà durante i futuri conflitti, elezioni e altri grandi eventi.

Potrebbero interessarti
Segnala su Whatsapp