In questo anno, a Facta abbiamo smentito più e più volte video e foto utilizzate in maniera fuorviante per sostenere falsamente che le persone riprese fossero attori palestinesi a Gaza che inscenavano ferite o fingevano di essere morti in strada o negli ospedali della città. Una tesi cospirativa particolarmente odiosa perché in più occasioni ha cercato di negare l’uccisione di bambini nel corso dei raid israeliani lungo la Striscia, affermando che si trattassero di bambolotti mostrati a favore di foto.
Contattato da France24, Robert Topinka, docente alla Birkbeck University di Londra e analista della disinformazione online, ha dichiarato che uno dei motivi per cui viene creata la disinformazione come Pallywood è quello di diluire gli aspetti disumani dei conflitti. Per l’esperto, però, in questo caso ci sono anche forti motivazioni politiche che guidano tale diffusione. «Pallywood è propaganda. È assolutamente chiaro che gli abitanti di Gaza stanno subendo sofferenze incredibili in questo momento. Ci sono infinite prove a riguardo. Quindi far sembrare che le persone stiano ingigantendo la sofferenza aiuta a raccontare una storia diversa su ciò che sta realmente accadendo. Fa sembrare la cosa meno un disastro umanitario», spiega il ricercatore. Per Shakuntala Banaji, esperta di disinformazione e direttrice del programma per il Master in Media, Comunicazione e Sviluppo alla London School of Economics and Political Science, contattata sempre dai giornalisti francesi, le teoria cospirazionista di “Pallywood” si adatta infatti «all’intero lessico della disumanizzazione dei palestinesi».
L’invasione di foto e video fuori contesto
Prima le immagini e i filmati delle violenze sui civili commesse dai militanti di Hamas il 7 ottobre in Israele e poi quelle che mostrano morte e sofferenza estrema a Gaza bombardata dai continui raid israeliani hanno popolato le pagine dei giornali e le bacheche social in tutto il mondo. Un flusso di foto e video costante che continua tuttora, con nuove scene di distruzione provenienti dal Libano. L’immagine è tra i principali strumenti di denuncia e testimonianza utilizzati nel racconto dell’attuale guerra in Medio Oriente.
Questa dinamica ha contraddistinto in maniera speculare la disinformazione sul conflitto in atto. Fin da subito sono infatti iniziati a circolare online una moltitudine di foto e video presentati fuori dal loro contesto originario, con intenti vari, ma con alla fine la stessa conseguenza: alimentare confusione e distorcere la realtà dei fatti.
Il video di inizio 2022 di un bambino in Siria affamato che, seduto in un campo di terra, mangia dell’erba è stato condiviso in maniera fuorviante come una testimonianza della drammatica situazione della popolazione civile a Gaza dopo il 7 ottobre 2023. In un altro caso, il filmato di bambini che nel 2021 cercano cibo tra i legni bruciati di una capanna dopo un incendio in campo profughi siriano vicino alla città di Hanine, in Libano, è stato rilanciato sui social media spacciandolo per una scena con bambini di Gaza che cercano «del cibo bruciato sotto le macerie dopo un attacco aereo israeliano». L’esecuzione nel 2015 a Falluja, in Iraq, di quattro uomini, accusati di essere omosessuali, da parte di due miliziani del cosiddetto Stato Islamico è stata spacciata come l’uccisione da parte di Hamas dei cittadini di Gaza accusati di collaborare con Israele. E questi sono solo alcuni delle decine di casi che abbiamo analizzato a Facta finora.
Questo tipo di disinformazione favorisce però anche conseguenze negative sulla vita delle persone coinvolte e sull’empatia nei confronti delle vittime negli scenari di guerra. Per John Wihbey, professore associato di innovazione e tecnologia dei media alla Northeastern University a Boston ed esperto di disinformazione, «quando le foto di persone traumatizzate o che si trovavano in situazioni orribili ricircolano, c’è una rivittimizzazione o ritraumatizzazione» di queste persone. Inoltre, usare video e immagini fuori contesto per cercare di ottenere una maggiore attenzione emotiva per il dolore dei civili a Gaza, rischia di creare l’effetto opposto, facendo poi perdere credibilità alle storie reali poiché gli utenti non fidano più di quello che vedono.
Ma l’uso manipolatorio di immagini e video non riguarda solo contesti di guerra. In molti altri casi sono state utilizzate scene verificatesi in diverse parti del mondo, in alcuni episodi con protagonisti personaggi famosi, per ingigantire le manifestazioni di appoggio politico o di critica nei confronti della Palestina o di Israele.
In particolare, uno dei video virali online sosteneva di mostrare la squadra di calcio femminile della Repubblica d’Irlanda under 17 girarsi di spalle al momento dell’inno della squadra avversaria, quella di Israele. Ma nella realtà la clip diffusa sui social ritrae le giocatrici irlandesi voltarsi al momento del proprio inno, verso la propria bandiera, posizionata sulla tribuna dietro di loro, com’è da tradizione per molte squadre irlandesi al momento dell’inno nazionale. Non è vero nemmeno che che i tifosi del Marocco hanno intonato cori pro-Palestina durante il mondiale di calcio maschile in Qatar, che il vincitore del Giro d’Italia ha portato sul podio la bandiera palestinese, che l’allenatore del Manchester City, Pep Guardiola, si è rifiutato di stringere la mano a un rappresentante israeliano, che l’attore statunitense Robert De Niro ha inveito contro manifestanti filo-palestinesi o che il re di Danimarca si è affacciato con in mano una bandiera palestinese. Ed è falso anche che a un poliziotto britannico è stato dato fuoco da manifestanti pro-Palestina e che la Torre Eiffel sia stata illuminata con la bandiera israeliana dopo l’attacco missilistico iraniano dello scorso 13 aprile contro Israele.
L’uso ingannevole dell’intelligenza artificiale
Nella disinformazione sulla guerra in Medio Oriente ha avuto un ruolo importante anche l’utilizzo manipolatorio dell’intelligenza artificiale.
Recentemente l’immagine di diverse tende in fiamme è diventata virale accompagnata dal messaggio secondo cui la scena mostrerebbe le conseguenze di un bombardamento israeliano su un accampamento di famiglie di profughi palestinesi a Gaza. Quella foto non è reale, ma è stata creata con l’intelligenza artificiale (IA). Anche in questo caso, invece di favorire una maggiore empatia, un simile uso di questa tecnologia, una volta scoperto l’inganno, può alimentarr solo sospetto e distacco verso le sofferenze reali dei civili palestinesi.
In un’altra circostanza la tecnologia è stata utilizzata per manipolare un’immagine ripresa da un servizio televisivo sulle testimonianze di pazienti dell’ospedale Al-Shifa di Gaza dopo un’operazione militare israeliana nell’area dove si trovava la struttura sanitaria. A uno degli uomini ripresi, seduto su una sedia a rotelle, è stata aggiunta una terza gamba per far credere che la scena ripresa non fosse reale, ma creata con l’intelligenza artificiale, e quindi delegittimare quella testimonianza. Si sono verificati anche casi in cui scene realmente accadute di bambini palestinesi gravemente feriti fossero accusate sui social media in maniera infondata di essere state prodotte interamente con l’IA per ingannare le persone.
In questo contesto anche i tool online per rivelare se un’immagine è stata creata con l’IA sono finiti al centro di notizie false con l’obiettivo di negare gli orrori della guerra. È accaduto ad esempio quando lo Stato di Israele sul proprio account ufficiale di X ha pubblicato alcune foto di cadaveri di bambini carbonizzati per testimoniare una serie di atrocità compiute da Hamas nei confronti di civili israeliani nel corso dell’attacco del 7 ottobre. Sui social network è stata messa in discussione l’autenticità di queste foto, affermando che, in base ai risultati di software per verificare l’origine di una foto, sarebbero state create digitalmente con lo scopo di fare propaganda contro Hamas. Ma ad oggi questi programmi non sono in grado di stabilire con certezza se una foto sia stata creata con intelligenza artificiale. Per questo motivo, un loro uso non attento può diffondere false informazioni, invece che smentirle, come nel caso raccontato.
Tutto questo, avverte un’analisi dell’Associated Press, mostra quale sia il potenziale dell’IA nel diventare, nelle mani sbagliate, un’altra arma della disinformazione, offrendo uno scorcio di ciò che accadrà durante i futuri conflitti, elezioni e altri grandi eventi.