Logo

Come funziona davvero il programma di fact-checking indipendente di Meta

L’azienda ha annunciato la fine negli Stati Uniti del programma attivo su Facebook, Instagram e Threads, per passare al modello di contrasto alla disinformazione delle Community Notes di X

9 gennaio 2025
Condividi

Martedì 7 gennaio Meta ha annunciato la fine negli Stati Uniti del programma di collaborazione con i fact-checker per il contrasto alla diffusione di notizie false sui social network Facebook, Instagram e Threads. La notizia ha suscitato molte reazioni in tutto il mondo, portando attenzione su una collaborazione che fino ad ora non era molto conosciuta al grande pubblico. Al momento non ci sono notizie certe sulla prosecuzione del programma fuori dagli Stati Uniti, dove verrà interrotto nell’arco di un paio di mesi. Facta partecipa per l’Italia al programma, denominato Third Party Fact-checking Program (3PFC). In questo articolo vi vogliamo spiegare come funziona la partnership oggi e quali sono le informazioni sul cambio di rotta da parte del social network.

La decisione di Meta

L’annuncio della fine del 3PFC negli USA è arrivato il 7 gennaio 2025 con un comunicato firmato da Joel Kaplan e corredato da un video di circa cinque minuti girato dal cofondatore e CEO di Meta in persona, Mark Zuckerberg. Kaplan, ex consigliere di George W. Bush noto per i suoi legami con il partito repubblicano, è stato nominato a inizio 2025 come nuovo responsabile degli affari globali dell’azienda al posto dell’ex leader dei Libdem britannici Nick Clegg. 

Kaplan ha scritto che il programma di verifica dei contenuti pubblicati sui social media di Meta (Facebook, Instagram e Threads), finora gestito da fact-checker indipendenti, era stato «concepito per informare» ma «è diventato troppo spesso uno strumento per censurare». Per questo motivo, prosegue la nota, l’azienda inizierà a cambiare approccio, chiudendo con gradualità «l’attuale programma di verifica dei fatti di terze parti negli Stati Uniti» per passare al modello delle “Community Notes” simile a quello presente su X. In questo modello sarà la comunità di utenti iscritti al programma, con punti di vista e opinioni politiche differenti, a decidere quando i post sono potenzialmente fuorvianti e necessitano di più contesto da mostrare agli altri utenti. Come avevamo spiegato in questo approfondimento, ​​inchieste e analisi sembrano mostrare che le cosiddette “Community notes” attive su X si sono fin qui rivelate inefficaci contro la disinformazione – quando non direttamente responsabili di alimentarla.

Le novità non riguardano solo il programma che coinvolge i fact-checker. Kaplan ha infatti specificato che Meta interverrà anche sul sistema di moderazione dei contenuti (che, specifichiamo, non è collegato all’attività del programma di fact-checking indipendente), consentendo «più libertà di parola» con l’eliminazione delle restrizioni su alcuni argomenti che fanno parte del dibattito pubblico, come immigrazione e questioni di genere, e concentrando invece gli sforzi dell’azienda «sulle violazioni illegali e particolarmente gravi». Questo perché, continua il capo degli affari globali di Meta, negli ultimi anni sono stati sviluppati «sistemi sempre più complessi per gestire i contenuti sulle nostre piattaforme, in parte in risposta alla pressione sociale e politica per moderare i contenuti», che nel tempo hanno commesso «troppi errori, frustrando i nostri utenti e troppo spesso ostacolando la libera espressione che ci siamo prefissati di abilitare».

Lo stesso giorno Mark Zuckerberg ha condiviso sui propri profili social un video, riportato anche in testa al comunicato, in cui, nel raccontare del nuovo corso della società, ha dichiarato che «i fact-checker sono stati semplicemente troppo schierati politicamente e hanno distrutto più fiducia di quanta ne abbiano creata, specialmente negli Stati Uniti». Il CEO di Meta ha inserito inoltre queste nuove decisioni nel contesto delle recenti elezioni statunitensi vinte da Donald Trump che, dice, «sembrano un punto di svolta culturale per dare priorità alla libertà di espressione. Quindi torneremo alle nostre radici per concentrarci sulla riduzione degli errori, semplificare le nostre policy e ripristinare la libertà di espressione sulle nostre piattaforme». 

La svolta comunicata da Meta arriva a poco più di dieci giorni dall’insediamento ufficiale alla Casa Bianca del presidente eletto Donald Trump, che avverrà il 20 gennaio. Lo stesso Trump, in una conferenza stampa in Florida tenuta lo stesso 7 gennaio, il giorno dopo la certificazione da parte del Congresso di Washington della sua vittoria elettorale, ha elogiato la decisione di Meta. Alla domanda se credeva che Zuckerberg avesse apportato simili cambiamenti in risposta alle sue minacce precedenti – in un libro pubblicato a settembre 2024, Trump aveva minacciato di farlo imprigionare – il prossimo presidente degli Stati Uniti ha risposto: «Probabilmente». Negli anni, infatti, Trump e i repubblicani hanno espresso dure critiche a Facebook, etichettandolo come un «nemico del popolo», accusando Meta di censurare le opinioni conservatrici e attaccando la pratica giornalistica del fact-checking.

Al di là delle possibili ragioni e dei motivi politici dietro queste scelte di Meta, e in attesa di vedere come evolverà la situazione (Meta ha comunicato che questa decisione riguarda solo gli Stati Uniti e che «per ora» il programma in partnership con i fact-checker indipendenti proseguirà in Europa), le dichiarazioni di Zuckerberg e Kaplan hanno alimentato dibattiti e critiche sul fact-checking e in particolare al sistema stesso di contrasto alla disinformazione utilizzato finora dalla società, che hanno portato anche a commenti non informati sul suo funzionamento, generando confusione e malintesi. 

Le origini del programma di fact-checking di terze parti di Meta

Facebook, la società co-fondata da Mark Zuckerberg (che dal 2021 ha cambiato nome in Meta), ha lanciato il suo programma di fact-checking con l’aiuto di fact-checker esterni nel 2016, come risposta alle numerose critiche arrivate per la circolazione delle notizie false sulla piattaforma social durante le elezioni presidenziali statunitensi vinte all’epoca da Trump contro la candidata democratica Hillary Clinton. 

Attivo inizialmente negli Stati Uniti con la collaborazione di cinque organizzazioni di fact-checking (ABC News, Associated Press, FactCheck.org , Politifact e Snopes), il programma negli anni si è ampliato nelle sue funzioni. Oltre ai messaggi testuali pubblicati sulla piattaforma, ad esempio, nel tempo è stata data la possibilità di verificare anche video e immagini e di farlo anche su Instagram e Threads. Allo stesso tempo il 3PFC si è espanso fino a coinvolgere decine progetti di fact-checking in più continenti, diventando fruibile in sempre più lingue. Pagella Politica – il progetto di fact-checking politico “gemello” di Factaha iniziato a collaborare con questo sistema nel 2018, mentre a partire dal 2020 la partnership è stata gestita da Facta

Nel 2023 Meta ha comunicato che il programma era arrivato a includere quasi 100 organizzazioni di fact-checking, che lavorano in più di 60 lingue a livello globale.

Mappa pubblicata da Meta delle organizzazioni di fact-checking attive ad oggi nel programma di contrasto alla disinformazione

Chi partecipa 

Il programma di Meta prevede la collaborazione con organizzazioni di fact-checking indipendenti, certificate dall’International Fact-Checking Network (IFCN). L’IFCN riunisce la comunità di fact-checker in tutto il mondo e ha sede al Poynter Institute di St. Petersburg, Florida. Il Poynter Institute è un’organizzazione statunitense senza scopo di lucro con un centro di ricerca dedicato allo studio del giornalismo. Di recente la certificazione può essere ottenuta anche dall’European Fact-Checking Standards Network (EFCSN), organizzazione dei fact-checker europei (di cui fanno parte anche Pagella Politica e Facta). Per ricevere queste certificazioni, i progetti di fact-checking che ne fanno domanda devono rispettare determinati standard di qualità e trasparenza, valutati da un sistema di esperti indipendenti. 

Ad esempio, la certificazione non può essere concessa a organizzazioni il cui lavoro editoriale è controllato dallo Stato, da un partito politico o da un esponente politico. Inoltre, le organizzazioni firmatarie del Codice dei principi dell’IFCN devono dichiarare le proprie fonti di finanziamento. Un altro degli impegni del codice – la lista completa è qui – stabilisce che i fact-checker certificati dall’IFCN non sostengano o prendano posizioni politiche sulle questioni che analizzano e verificano.   

Fanno parte dei firmatari del Codice dei principi dell’IFCN (e della partnership con Meta, i cui partecipanti sono elencati qui) una grande varietà di media che vanno da grandi agenzie di stampa internazionali, (come l’Agence France-Presse con il suo servizio Factuel, l’Associated Press e Reuters), a reti televisive nazionali come la francese FranceInfo, a quotidiani come USA Today e l’irlandese The Journal, oltre a numerosi progetti di fact-checking indipendenti da tutto il mondo (come Facta).

Come funziona

Veniamo al funzionamento. Come spiega la stessa Meta, «lo scopo principale del programma di fact-checking su Facebook, Instagram e Threads consiste nell’individuare e combattere contenuti virali che diffondono disinformazione, in particolare bufale evidenti e prive di qualsiasi fondamento». Questi contenuti disinformativi possono essere trovati dai fact-checker in vari modi: sia tramite il monitoraggio attivo dei social media, che tramite le richieste di verifica inviate da utenti o feedback della community segnalati da Meta. I testi, le immagini e video pubblici presenti sui social media possono essere classificati come “falsi”, “parzialmente falsi”, “contesto mancante” (cioè presentati in maniera fuorviante) o “alterati”. 

Una volta che il contenuto viene individuato per la verifica, il fact-checker scrive un articolo con all’interno le fonti utilizzate per spiegare perché quel post contiene disinformazione. Questo articolo, poi, viene collegato al post analizzato. La lista intera degli articoli pubblicati da Facta all’interno di questo programma è disponibile qui, nella sezione del nostro sito chiamata “Antibufale”. Dal lancio ad aprile 2020, Facta ha pubblicato oltre 3.800 articoli di verifica puntuale di contenuti, la grande maggioranza dei quali (anche se non tutti) sono stati utilizzati poi nella partnership con Meta.

Per l’utente, in concreto, questo sistema ha alcune conseguenze pratiche e visibili. Appare un notifica a chi ha pubblicato il contenuto classificato come falso, a chi lo ha condiviso e a chi lo condivide successivamente. In sovrimpressione al post compare poi una nota, che fornisce un link all’articolo di fact-checking e un breve testo che recita: «Informazioni false, contenuto controllato da fact-checking indipendenti». Questo però non significa che il post venga censurato o rimosso e il messaggio stesso contempla la possibilità di ignorare l’indicazione e procedere alla visualizzazione del contenuto.

Screenshot della redazione di Facta di come si vedono due post verificati su Facebook, con l’etichetta che contiene il link all’articolo di fact-checking

Il contenuto infatti rimane online: chi vuole può continuare a fruirne, mentre gli utenti che vogliono sapere perché è falso possono leggere l’articolo di fact-checking allegato. La stessa Meta specifica che «i fact-checker non rimuovono contenuti, account o Pagine da Facebook. Rimuoviamo i contenuti quando violano i nostri Community Standard, che sono separati dal nostro programma di fact-checking».

Proprio per questo motivo Neil Brown, presidente del Poynter Institute, ha affermato che il giudizio di Zuckerberg riguardo il lavoro dei fact-checker attivi nel programma è stato deludente. «Perpetua un malinteso del suo stesso programma. I fatti non sono censura. I fact-checker non hanno mai censurato nulla. E Meta ha sempre dettato le regole. È ora di smetterla di invocare un linguaggio incendiario e falso nel descrivere il ruolo dei giornalisti e del fact-checking», ha detto Brown.

È bene poi precisare che gli utenti o le pagine che hanno ricevuto una notifica per aver pubblicato un contenuto disinformativo possono contestare la valutazione, indicando in modo chiaro il motivo per cui si ritiene che il giudizio dei fact-checker non sia stato corretto. Secondo dati forniti dalla stessa Meta, il social network ha ribaltato una decisione presa dai fact-checker solo nel 3 per cento dei casi, un numero che si può mettere a confronto con le percentuali di correzione delle decisioni di moderazione prese nei casi di bullismo (ribaltate nel 92 per cento dei casi in cui è stato presentato appello) e di violenza (88 per cento).

In base alle regole decise da Meta, il programma di fact-checking non prevede la possibilità di verificare post con opinioni «che sostengono idee, traggono conclusioni basate sull’interpretazione di fatti e dati e comunicano al pubblico il pensiero dell’autore merito a un evento o un tema». Insomma, opinioni e idee sono escluse.

Sono esclusi dal programma di fact-checking – cioè non possono essere verificati – post e inserzioni di partiti, candidati ed esponenti politici, così come contenuti multimediali creati o modificati digitalmente che mostrino con chiarezza l’indicazione che si tratti di un’immagine creata con IA.

Per fare qualche esempio concreto: di recente Facta ha verificato (e dunque potenzialmente limitato la diffusione) nell’ambito del 3PFC notizie false che riguardavano presunte cure miracolose; informazioni sbagliate sulle dimensioni dei ghiacci artici; notizie inventate sulla guerra in Ucraina; notizie satiriche su Donald Trump prese per vere.

Potrebbero interessarti
Segnala su Whatsapp