Disclaimer: precisiamo per trasparenza che Facta.news riceve fondi da Meta all’interno del suo Third Party Fact-checking Program
Nelle ultime settimane, di pari passo con l’escalation della violenza tra Israele e Hamas, numerosi utenti dei social media hanno denunciato un vistoso calo nella visibilità dei propri post dedicati alla situazione in Medio Oriente. A segnalare il fenomeno è stata un’ampia varietà di professionisti e account impegnati nella divulgazione del conflitto, come l’influencer italo-egiziana Randa Ghazy, il mezzo d’informazione digitale Factanza e la community ufficiale dedicata all’ex segretario del PCI Enrico Berlinguer, che nei giorni precedenti aveva dedicato un post Instagram alla questione palestinese.
Ma l’inconveniente non è stato riscontrato solo in Italia. Molti account in lingua inglese hanno infatti riportato sui social l’esperienza di un oscuramento che riguarderebbe le principali piattaforme di social network e tra questi spicca la voce di Azmat Khan, premio Pulitzer e giornalista investigativa del New York Times.
Abbiamo deciso di approfondire la questione e di provare a capire se la lunga serie di denunce sia semplicemente il frutto di una percezione collettiva o se le piattaforme stiano realmente limitando la portata delle informazioni riguardanti lo scenario mediorientale.
Cos’è lo shadow ban
La dinamica fin qui descritta è ciò che in gergo si definisce “shadow ban” (letteralmente “divieto ombra”), il provvedimento ufficioso che alcune piattaforme di social media adottano per non amplificare il dibattito pubblico su temi considerati controversi.
«Quando parliamo di shadow ban parliamo dell’esperienza di utenti che si vedono nascondere il proprio profilo e i propri contenuti dalle ricerche Instagram» ha spiegato a Facta.news Donata Columbro, giornalista che si occupa di tecnologia e autrice del libro “Dentro l’algoritmo”, «Quindi non una vera e propria censura, ma una invisibilizzazione che opera l’algoritmo, anche se questo non è mai stato confermato, soprattutto con questo nome, da parte di Meta».
La prima attestazione del termine risale al 2012, quando gli utenti di Reddit accusarono gli amministratori della piattaforma di aver vietato la possibilità di linkare un articolo del sito web Gawker. Ma nel tempo il concetto si è evoluto fino a designare una precisa pratica di moderazione dei contenuti, non esattamente alla luce del sole e non prevista da alcun contratto di servizio pubblico delle piattaforme.
Il riferimento allo shadow banning è diventato particolarmente popolare nel 2022, quando l’imprenditore Elon Musk aveva accusato gli ex dirigenti di Twitter di aver utilizzato tattiche di moderazione aggressive per insabbiare alcuni documenti riguardanti Hunter Biden, figlio del presidente degli Stati Uniti. Ironicamente, qualche mese più tardi proprio Elon Musk – nel frattempo diventato proprietario della piattaforma – fu accusato di aver utilizzato lo shadow ban nei confronti di un account che monitorava i suoi spostamenti aerei.
Esiste uno shadow ban nei confronti di chi pubblica contenuti sulla Palestina?
Ma quindi, le piattaforme stanno davvero silenziando il dibattito pubblico sul tema della questione palestinese? «È possibile parlare di shadow ban sulle piattaforme dal punto di vista delle esperienze degli utenti rispetto a quello che sta succedendo in Palestina perché è un’esperienza reale» ci spiega Columbro, che sottolinea come le prove di questa dinamica non possano che essere empiriche.
Da un giorno all’altro, gli utenti si rendono semplicemente conto che i contenuti a tema Palestina ricevono una frazione della visibilità normalmente riservata ai contenuti dedicati ad altre tematiche. «Le persone notano che le loro Storie hanno 50 visualizzazioni al posto delle migliaia su altri temi, è tutto reale, non è inventato» ha aggiunto Columbro, «alcune persone denunciano di non poter essere cercate o trovate attraverso la barra di ricerca e ci sono casi di alcuni utenti che sono stati oscurati, anche persone che al momento sono nella striscia di Gaza».
Per aggirare questo ostacolo, gli attivisti e i reporter impegnati sul campo hanno sviluppato una serie di strategie, che includono l’utilizzo di immagini originali – e quindi pubblicate direttamente dal rullino delle foto e non ancora note all’algoritmo – e la censura di parole chiave come “Hamas”, “Gaza” e “Palestina”. Per questo motivo è molto probabile che in queste ore vi siate imbattuti in post contenenti espressioni come “H4m4s”, “G4z4” o “P4l3st1n4”: è ciò che viene definito algospeak, un linguaggio inventato dagli utenti della Rete per aggirare i filtri posti dalle piattaforme sulle parole.
Dal canto suo, Meta ha sempre negato l’esistenza di una strategia volta a silenziare il dibattito sui temi divisivi – attribuendo i problemi riscontrati dagli utenti a un non meglio definito «bug» – ma negli ultimi tempi qualcosa sta cambiando. Nel corso di una diretta Instagram registrata lo scorso 17 ottobre, l’esperta di moderazione di contenuti online Francesca Scapolo, content and social media lead presso Oversight Board, ha spiegato che, in seguito a una richiesta formale della Commissione europea, Meta ha dichiarato di aver limitato la visibilità di contenuti «per evitare che contenuti borderline che incitano all’odio o sono considerati violenti ricevano più engagement».
Non è la prima volta che succede
Non è la prima volta, però, che diversi utenti accusano le piattaforme di mettere al bando i propri contenuti, in particolare se questi riguardano la Palestina. Nell’aprile del 2022 la modella americana di origine olandese e palestinese Bella Hadid aveva dichiarato che Instagram stava censurando o mettendo in shadow ban le sue storie quando pubblicava post sulle violenze in Palestina.
Ma la modella non è l’unico caso di questo tipo. Nel maggio 2021, dopo settimane di tensione durante il mese del Ramadan, centinaia di palestinesi rimasero feriti negli scontri con le forze di sicurezza israeliane presso il complesso di Al-Aqsa a Gerusalemme, il terzo sito più sacro dell’Islam. Dopo aver chiesto a Israele di ritirare le forze di sicurezza dal complesso, Hamas ha scatenato una raffica di razzi da Gaza verso Israele, che aveva risposto con attacchi aerei su Gaza. I combattimenti proseguirono per 11 giorni, causando almeno 250 morti a Gaza e 13 in Israele. Durante questa escalation di violenza, alcuni attivisti che supportavano la causa palestinese avevano dichiarato che i loro contenuti erano stati oscurati da Instagram e Facebook e alcuni profili cancellati. Instagram aveva spiegato che ciò era dovuto a un «problema tecnico globale», ma diversi giorni dopo la comunicazione della piattaforma molti utenti ritenevano che il problema non fosse stato risolto.
Oversight Board è un organismo indipendente di Meta a cui gli utenti possono ricorrere se non sono d’accordo con le decisioni prese dalla stessa piattaforma sui contenuti condivisi su Facebook e Instagram. Sempre nel 2021, lo stesso organismo aveva lavorato su alcuni ricorsi degli utenti che avevano accusato Meta di aver censurato contenuti che riguardavano la Palestina e la violenza dell’escalation militare che aveva avuto luogo nel mese di maggio. In particolare, il 10 maggio dello stesso anno un utente Facebook in Egitto con oltre 15mila follower aveva condiviso un post della pagina verificata della testata Al Jazeera Arabic che riportava un testo e una foto che mostrava due uomini in divisa mimetica con i volti coperti mentre indossavano fasce con lo stemma del braccio armato di Hamas, cioè le Brigate al-Qassam. Facebook aveva rimosso il contenuto perché violava una delle sue normative e l’utente aveva inviato un ricorso all’Oversight Board. Successivamente alla selezione e all’analisi del caso da parte dell’organismo indipendente, Facebook aveva rilevato di aver rimosso il contenuto per errore e l’aveva ripristinato.
Secondo quanto riportato dal Board, dopo la sua segnalazione Facebook aveva rilevato che il contenuto non violava le regole su persone e organizzazioni pericolose, dal momento che non elogiava, supportava o rappresentava le Brigate al-Qassam o Hamas. Facebook non era poi stata in grado di spiegare perché le persone responsabili del controllo dei contenuti abbiano inizialmente giudicato il contenuto in violazione della normativa, sottolineando che i moderatori non sono tenuti a tenere traccia dei motivi alla base delle loro decisioni.
Spinto dalle accuse mosse nei confronti di Meta durante l’escalation di maggio 2021 tra Israele e Palestina, e successivamente al caso della rimozione del contenuto di Al Jazeera Arabic, l’Oversight Board aveva chiesto a Meta di presentare un rapporto redatto da un ente indipendente per verificare se i suoi sistemi di moderazione dei contenuti, compresi gli strumenti automatizzati, fossero applicati senza pregiudizi e nel rispetto dei diritti umani.
Nel settembre 2021 Meta ha commissionato la redazione del rapporto a Business for Social Responsibility (BSR), una rete di imprese sostenibili e una società di consulenza focalizzata sulla creazione di un mondo equo. Nel documento erano presenti alcune raccomandazioni che includevano, tra le altre, il suggerimento di aumentare la trasparenza su alcune delle funzioni di moderazione di Meta e comunicare chiaramente agli utenti le linee di applicazione di tali funzioni. Inoltre, BSR ha identificato anche una serie di pregiudizi e impatti negativi sui diritti umani che Meta deve affrontare, compreso l’impatto sui diritti degli utenti palestinesi alla libertà di espressione e ai diritti connessi, la prevalenza di contenuti antisemiti sulle piattaforme Meta e e casi di applicazione eccessiva delle politiche – contenuti rimossi erroneamente e penalizzazioni errate per gli account – e di applicazione insufficiente delle stesse – mancata rimozione dei contenuti violati e mancata applicazione delle penalizzazioni agli account colpevoli.
La piattaforma aveva successivamente risposto che delle 21 raccomandazioni del rapporto, si era impegnata a implementarne dieci e aveva comunque evidenziato che il processo di implementazione avrebbe richiesto tempo, impegnandosi a mantenere aggiornate le persone nel rapporto annuale sui diritti umani. Nel settembre 2023 Meta ha aggiornato la risposta, rendendo disponibile una lista delle azioni che sono state completate o che sono ancora in corso, rispetto alle dieci raccomandazioni contenute nel rapporto indipendente che la piattaforma aveva deciso di implementare.
L’Oversight Board, contattato da Facta.news, ha fatto sapere che al momento non sta esaminando nuovi casi sulla violenza tra Israele e Palestina, spiegando che «a causa della natura del nostro lavoro, i casi passerebbero prima attraverso il processo di appello interno di Meta, quindi ci vorrebbe un po’ di tempo prima che arrivino a noi».
È, inoltre, importante sottolineare che Meta e il governo israeliano negli anni hanno lavorato insieme per determinare come affrontare specifici contenuti condivisi sulle piattaforme e nel 2016 l’allora ministra della Giustizia israeliana Ayelet Shaked aveva dichiarato che Facebook, Google e YouTube «soddisfacevano fino al 95 per cento delle richieste israeliane di cancellare contenuti», quasi tutti che riguardavano la Palestina.
Nel frattempo su X la disinformazione e l’incitamento all’odio continuano senza ostacoli
Se da un lato Meta e TikTok dimostrano quasi un eccesso di zelo nella rimozione o nell’oscurare i contenuti che riguardano la violenza tra Israele e Hamas, su X la situazione è opposta: la moderazione dei contenuti permette alla disinformazione e al discorso d’odio di proliferare.
Come avevamo già spiegato su Facta.news in un recente approfondimento, da quando Elon Musk è alla guida del social network, quest’ultimo si è trasformato nel paradiso di estremisti, complottisti e antisemiti.
Lo stesso X, infatti, sta avendo un ruolo importante nella diffusione di notizie false sulla violenza in corso tra Israele e Palestina. Thierry Breton aveva inviato una lettera in cui chiedeva trasparenza anche a X, oltre che alle piattaforme che abbiamo nominato poco sopra, e il 10 ottobre aveva pubblicato il testo proprio su X. Nella lettera si legge che Breton dichiarava di avere indicazioni sul fatto che la piattaforma precedentemente nota come Twitter veniva utilizzata per diffondere contenuti illegali e disinformazione nell’Unione europea sulle violenze in corso tra Israele e Palestina e invitava l’imprenditore a «garantire con urgenza che i vostri sistemi siano efficaci e a riferire al mio team sulle misure di crisi adottate». Musk ha risposto al messaggio di Breton affermando che «la nostra politica è che tutto sia open source e trasparente» chiedendo di elencare le violazioni a cui alludeva.
Il 12 ottobre la Commissione Europea ha presentato una richiesta formale e giuridicamente vincolante di informazioni alla piattaforma di Elon Musk sulla sua gestione dell’incitamento all’odio, della disinformazione e dei contenuti violenti legati alla situazione tra Israele e Hamas. X, infatti, essendo considerata una “Very Large Online Platform” è tenuta a rispettare l’intera serie di disposizioni introdotte dal Digital Services Act, cioè un pacchetto di norme che si applicano a social network e piattaforme per la condivisione di contenuti dalla fine di agosto 2023, inclusa la valutazione e la mitigazione dei rischi legati alla diffusione di contenuti illegali, disinformazione, violenza di genere e qualsiasi effetto negativo sull’esercizio dei diritti fondamentali, dei diritti del bambino, della sicurezza pubblica e del benessere mentale.
Il social, infatti, non è solo terreno fertile per la disinformazione, ma si è trasformato anche in una camera di risonanza per discorsi d’odio e discriminazione che proliferano senza alcun controllo. Per esempio, 7amleh – l’Arab Center for the Advancement of Social Media, un’organizzazione senza scopo di lucro che difende i diritti digitali palestinesi, ha rilevato più di 19mila casi di incitamento all’odio in lingua ebraica su X, evidenziando che dal 7 ottobre, giorno in cui il gruppo palestinese Hamas ha lanciato un attacco dalla striscia di Gaza, c’è stato un aumento significativo di questi contenuti. Secondo quanto riportato dall’organizzazione i casi documentati includevano varie forme di contenuti dannosi, di cui il 50 per cento classificato come incitamento all’odio e il 30 per cento come notizie false o promozione della violenza. Il direttore generale di 7amleh, Nadim Nashif, ha esortato X ad adottare misure serie ed efficaci per rimuovere i contenuti che incitano all’odio dalla piattaforma sostenendo che tali post «possono potenzialmente tradursi in attacchi nel mondo reale contro i palestinesi, come visto in precedenza con l’incitamento sulla stessa piattaforma, portando ad attacchi organizzati da parte di coloni israeliani contro le comunità palestinesi sia in Cisgiordania che in Israele».
Quello della moderazione dei contenuti è un equilibrio molto sottile. Se da un lato ci sono piattaforme accusate di moderare troppo, arrivando ad oscurare molti dei contenuti che riguardano una delle due parti coinvolte nella violenza, dall’altra c’è un social network come X che è diventato il terreno fertile per disinformazione e discorso d’odio. E in entrambi questi casi chi ci rimette sono persone comuni, i civili, che oltre ad essere vittime della barbarie della violenza armata diventano bersaglio delle politiche troppo restrittive o troppo negligenti delle piattaforme social.