Logo

Meta ha scelto di puntare sulle Community Notes, ma il sistema lanciato da X ha già fallito

Mark Zuckerberg ha annunciato di voler introdurre un meccanismo di verifica dei contenuti dal basso, che però si è dimostrato pericolosamente inefficace

9 gennaio 2025
Condividi

Precisiamo che Facta riceve fondi da Meta all’interno del suo Third Party Fact-checking Program.

 

Annunciando la scelta di eliminare il programma di collaborazione con fact-checker terzi e indipendenti negli Stati Uniti, Meta ha comunicato l’intenzione di sostituirlo con un approccio basato sul controllo degli utenti. «Per prima cosa ci sbarazzeremo dei fact-checker e li sostituiremo con le Community Notes, simili a quelle di X, a cominciare dagli Stati Uniti», ha detto il fondatore Mark Zuckerberg, in un video pubblicato sul blog della società e sui suoi canali social. «Nei prossimi mesi, introdurremo gradualmente il più completo modello delle Community Notes», ha aggiunto il magnate americano. Si tratta di un modello di fact-checking dal basso o crowd-sourced, in inglese. In pratica, la moderazione dei contenuti su Facebook, Instagram e Threads verrà depotenziata e il lavoro oggi svolto da giornalisti e fact-checker professionisti sostituito con le osservazioni di utenti ammessi al programma.

Per molti, si tratta di un passo indietro nella lotta alla circolazione di disinformazione sui social di Meta e la ragione principale è che il modello di X si è rivelato inutile o dannoso nel contrasto alla disinformazione, soprattutto dopo l’acquisto della piattaforma da parte di Elon Musk.

Come funzionerà il Community Notes di Meta? 

Per il momento, tutto quello che si sa su come funzionerà il modello di Meta è basato sugli annunci fatti dalla società stessa. Nel testo pubblicato sul proprio blog, l’azienda specifica che «una volta che il programma sarà implementato, Meta non scriverà le community notes né deciderà quali verranno visualizzate. Saranno scritte e valutate dagli utenti che contribuiranno». Le persone interessate a prendere parte possono già mettersi in lista d’attesa sui social di Meta per partecipare al progetto, una volta che questo sarà funzionante. 

Quanto al concreto meccanismo delle proprie Community Notes, Meta dice che «proprio come su X, richiederanno un accordo tra persone con una serie di punti di vista diversi per aiutare a prevenire valutazioni distorte». Per ora è questo il requisito principale che una nota dovrà avere per essere pubblicata e visibile sui social interessati, ma Meta ha specificato che, a differenza di quanto accade con le etichette del fact-checking, non maschererà il contenuto già sottoposto a verifica con una grafica su cui cliccare, che oggi è prevista in modo che i lettori siano consapevoli che le informazioni di quel determinato contenuto sono false, parziali o incomplete prima di leggerle. Al contrario, verrà utilizzata un’etichetta che, in base alle parole del comunicato, sarà «molto meno invadente e indicherà che ci sono informazioni aggiuntive per coloro che vogliono vederle». 

Le caratteristiche annunciate per le note della comunità di Meta, in effetti, sembrano combaciare con quelle del social di Musk. Meta dice di volerlo adottare perché «abbiamo visto questo approccio funzionare su X». I fatti non sembrano dargli ragione.

Come funzionano le Community Notes di X

La pagina ufficiale delle Community Notes di X riporta che le annotazioni vengono create e valutate dagli utenti della piattaforma. Per rendere visibili le note aggiuntive sotto un post considerato fuorviante o infondato, non si tiene conto del numero di voti ricevuti, ma della diversità dei punti di vista degli utenti che hanno espresso la loro opinione. Questo significa che una nota viene considerata utile quando utenti con prospettive differenti concordano sulla sua rilevanza, mentre il criterio di maggioranza riveste un ruolo secondario. E cioè, spiega X, «i collaboratori che tendono a valutare le stesse note in modo simile hanno probabilmente punti di vista simili, mentre i collaboratori che valutano le note in modo diverso hanno probabilmente punti di vista diversi». 

Insomma, fino a quando non si raggiunge un numero sufficiente di valutazioni da parte di collaboratori con punti di vista differenti, la nota non diventa pubblica e rimane visibile solo agli utenti che sono stati ammessi al programma in base a determinati requisiti stabiliti da X. In pratica, un post che potrebbe veicolare notizie false, infondate o contenuti offensivi non viene etichettato in nessuna maniera se non c’è “diversità” nella composizione del consenso. A valutare l’esistenza della necessaria “diversità” è un algoritmo. Dopo aver ricevuto una nota a un suo post, a dicembre 2023, lo stesso Elon Musk disse che il sistema era stato «manipolato da attori statali».

Perché non funziona

Da quando Musk ha acquistato la piattaforma, prima conosciuta come Twitter, ha fatto della lotta al fact-checking una questione di principio. Community Notes è l’unico strumento di contrasto alla circolazione di notizie false attivo sul social, lo stesso Musk promuove la disinformazione e X è diventato un ricettacolo di estremismo, complottismo e contenuti offensivi.

Quanto al modello Community Notes in sé, a parte uno studio secondo cui il modello di moderazione collettiva aumenta la fiducia nel fact-checking, il meccanismo è ritenuto fallimentare dalla maggioranza degli esperti. Numerose inchieste condotte da autorevoli testate giornalistiche – tra cui Bloomberg, NBC e il Washington Post – sostengono l’inefficacia delle community notes, mentre fonti interne alla stessa azienda hanno raccontato che lo strumento ha peggiorato la situazione della disinformazione sulla piattaforma. 

A queste si aggiungono parecchie ricerche e analisi del meccanismo che hanno concluso che è poco efficace nel contrasto alla disinformazione. Il sistema, infatti, era in realtà originariamente pensato come un progetto pilota che ampliava le attività dell’azienda nel contrasto ai post che infrangevano le regole della piattaforma, come ad esempio la moderazione svolta all’epoca dal team “Trust and Safety” di Twitter. 

Come spiegato anche in un altro articolo pubblicato a novembre su Facta, il contrasto alla diffusione di disinformazione su X durante le recenti elezioni statunitensi è stato fallimentare. Secondo un report del 30 ottobre 2024 redatto dal Center for Countering Digital Hate (CCDH), un’organizzazione non governativa britannica-americana impegnata a contrastare la diffusione dell’incitamento all’odio e della disinformazione online, il sistema di Musk «sta fallendo». Analizzando set di dati pubblici di Community Notes, la ricerca ha scoperto che, nei mesi precedenti il voto presidenziale, «209 dei 283 post fuorvianti del campione contengono community notes che, nonostante siano accurate, non vengono mostrate a tutti gli utenti X, cioè il 74 per cento». «I 209 post fuorvianti del nostro campione che non mostravano le note» dice ancora la ricerca «hanno accumulato 2,2 miliardi di visualizzazioni», senza che gli utenti fossero avvisati in alcun modo di essere di fronte a contenuti contestati. A ciò si aggiunge l’attiva partecipazione di Musk nella campagna elettorale e nella diffusione di disinformazione, tanto che il social stesso recentemente avrebbe favorito i canditati repubblicani.

Un risultato simile lo ha prodotto una ricerca condotta dai colleghi spagnoli di Maldita.es all’indomani delle elezioni europee di giugno. Basandosi sugli articoli di fact-checking contenuti in un database (cui hanno contribuito decine di organizzazioni di fact-checking europee), Maldita ha controllato quali azioni sono state intraprese dalle piattaforme contro i contenuti dimostrati falsi dalle analisi giornalistiche, durante i mesi di campagna elettorale. Per quanto riguarda X, si legge nel rapporto, la piattaforma «non ha intrapreso alcuna azione visibile nel 70 per cento dei casi e le community notes erano visibili solo nel 15 per cento dei post già smentiti dai fact-checker indipendenti europei. Tra i 20 post già smentiti più virali che non hanno ricevuto alcuna azione da parte delle piattaforme, 18 si trovavano su X, con oltre un milione e mezzo di visualizzazioni ciascuno».

Nonostante il modello del fact-checking dal basso non sia uno strumento da scartare a priori, da solo non sembra sufficiente. La questione è che il consenso tra gli utenti delle piattaforme online, che favoriscono la polarizzazione, è spesso difficile da raggiungere. In più, anche quando questo avviene, spesso è troppo tardi per il breve ciclo di vita di notizie e contenuti, che a quel punto potrebbero aver influenzato con informazioni false e imprecise le percezioni di milioni di utenti. Inoltre, in alcuni casi, le stesse community notes sono state sfruttate per diffondere informazioni imprecise e fuorvianti, diventando esse stesse veicolo di disinformazione. 

Metà diventerà come X?

Escluso il riferimento all’adozione del modello Community Notes, le informazioni fornite da Meta sono piuttosto vaghe e gli effetti saranno evidenti solo quando le modifiche verranno implementate negli Stati Uniti. Molto dipenderà da come Zuckerberg e la sua amministrazione effettivamente gestiranno le operazioni. 

Se il modello di X dovesse essere replicato fedelmente, come le dichiarazioni suggeriscono, sono in molti a credere che il contrasto alla disinformazione  su Facebook, Instagram e Threads verrà sostanzialmente smantellato, come avvenuto sul social di Musk. Diversi osservatori ed esperti credono che la scelta avrà effetti deleteri sulla circolazione di contenuti falsi sulle varie piattaforme interessate. Alcune modifiche alle regole sulla moderazione di contenuti offensivi, poi, hanno inserito il permesso di pubblicare «accuse di malattia mentale o anormalità basate sul genere o sull’orientamento sessuale» ma anche «contenuti che sostengono le limitazioni in base al genere per la partecipazione in lavori militari, delle forze dell’ordine e riguardanti l’insegnamento». Questo, riporta Wired, permetterà la diffusione di insulti contro gay, donne e membri della comunità Lgbtq+.

Potrebbero interessarti
Segnala su Whatsapp