Logo

Quanto è efficace il fact-checking?

In media funziona, ma ci sono diverse variabili che possono aumentare o diminuire di molto la sua efficacia

14 gennaio 2025
Condividi

In seguito alle affermazioni di Mark Zuckerberg, che ha dichiarato di voler terminare il programma di fact-checking indipendente di Meta negli USA, si è aperto un grande dibattito sul fact-checking. Mentre la maggior parte dei commenti online riguarda la legittimità del programma di Meta, e cioè se sia giusto o meno affidare a degli esperti la verifica dei contenuti di un social, alcuni hanno anche criticato il fact-checking sotto il profilo della sua efficacia. La tesi è che il fact-checking di per sé non sia molto utile, perché non è in grado di contrastare la disinformazione; anzi, addirittura in qualche caso contribuisce alla sua diffusione.

In realtà, questo genere di conclusioni rischia di generalizzare eccessivamente i risultati della ricerca scientifica, che non sono interpretabili in maniera così netta; e anzi lasciano spazio a letture opposte a quella appena presentata. Va fatto invece un discorso più preciso, che specifichi innanzitutto su cosa interviene il fact-checking, e quindi su cosa può avere o meno effetto. Una volta stabilito il target del fact-checking, procediamo a discutere le evidenze finora disponibili sulla sua efficacia.

Cosa è il fact-checking

Il fact-checking è una pratica giornalistica (e una delle tecniche di contrasto alla disinformazione più diffuse) che consiste nella verifica della veridicità di notizie per fornire al pubblico utili informazioni contestuali. Per questo motivo il fact-checking lavora anche sulle convinzioni dei singoli individui che leggono o condividono quei contenuti analizzati su determinati argomenti, come ad esempio politica, economia o medicina. Molto spesso in letteratura queste convinzioni vengono chiamate misconception, indicando sia quelle patentemente false, sia quelle basate su evidenze insufficienti. Ad esempio, è una misconception sia la credenza che Papa Francesco ha sostenuto Donald Trump durante le elezioni presidenziali del 2016 sia la convinzione secondo cui aumentare le pene detentive riduce automaticamente i tassi di criminalità.

Tuttavia le misconception non sono tutte errate allo stesso modo. Un’altra caratteristica delle convinzioni, infatti, è quella che in letteratura viene chiamata accuracy (‘accuratezza’). L’accuratezza è una misura di quanto una credenza è aderente alla realtà dei fatti, e di solito viene calcolata su una scala numerica (es. da 0 a 5, con 0 accuracy nulla e 5 accuracy massima). Questo significa che ci sono convinzioni più (o meno) accurate di altre. La credenza che Roma e Milano distino 200 km è sbagliata, ma comunque più accurata della credenza secondo cui la distanza tra le due città è di 200 metri. L’accuratezza di una convinzione è una proprietà molto rilevante per gli studi sul fact-checking.

A livello sperimentale, infatti, l’efficacia del fact-checking dipende da se e quanto i soggetti migliorano l’accuratezza delle proprie convinzioni. Di solito, i ricercatori procedono in questo modo: si misura l’accuratezza delle credenza di tot individui con un questionario prima di un intervento di fact-checking – normalmente chiamato “correzione” – e poi li si divide in due gruppi: uno sperimentale, in cui viene somministrata la correzione, e uno di controllo. Entrambi i gruppi vengono poi sottoposti a nuovi questionari per misurare ancora una volta l’accuratezza delle loro convinzioni. Se gli individui nel gruppo sperimentale hanno migliorato il livello di accuratezza delle loro credenze – e se questi miglioramenti sono statisticamente significativi – allora si può dire che il fact-checking è stato efficace (e quanto lo è stato).

Questa specifica è importante, perché spesso nelle discussioni online si valuta la bontà del fact-checking sulla base di parametri vaghi, sbagliati, o troppo esigenti (vedi paragrafo finale). Ad esempio, ci si chiede se il fact-checking sia in grado di “contrastare” o “eliminare” la disinformazione online, ma non si capisce né in base a cosa parametrare il contrasto né come si possa pretendere che la disinformazione sparisca per effetto del fact-checking. L’efficacia del fact-checking si misura invece sulla sua capacità di rendere più accurate le convinzioni. Possiamo quindi tornare alla domanda di partenza e tradurla nella maniera corretta, cioè quella più aderente alla letteratura scientifica: il fact-checking riesce a migliorare l’accuratezza delle credenze errate? E se sì di quanto? La risposta breve è “sì ci riesce, ma il quanto è variabile”. Il fact-checking spesso riesce a migliorare l’accuratezza delle convinzioni, ma il quanto dipende molto dal tipo di argomento toccato, dal format utilizzato per la correzione e dall’orientamento politico del soggetto a cui viene ‘somministrata’ la correzione. Vediamo in breve cosa dicono alcuni studi.

Cosa dicono gli studi sull’efficacia del fact-checking

Nel 2019 Nathan Walter, professore associato alla Northwestern University, e colleghi hanno pubblicato una revisione di 30 studi sull’efficacia del fact-checking. Si tratta di una revisione di meta-analisi, una metodologia quantitativa che sintetizza e generalizza i risultati di studi precedenti su uno stesso argomento. Walter e i suoi colleghi hanno prima di tutto trovato che, su 30 esperimenti, il fact-checking ha avuto un effetto positivo e statisticamente significativo sulle convinzioni. Sui 30 studi analizzati, l’indice d di Cohen, una misura statistica generale che indica la dimensione dell’effetto, ha un valore medio di 0.29. Si tratta di un valore medio-basso, ma che varia molto da uno studio all’altro. Questo risultato rispecchia quello che abbiamo anticipato poco fa: il fact-checking in media funziona, ma ci sono diverse contingenze che possono aumentare o diminuire di molto la sua efficacia. Walter e colleghi ne elencano alcune. 

Un primo fattore riguarda l’orientamento politico, o l’ideologia, degli individui. Quando un individuo si imbatte in un contenuto di fact-checking che corregge un credenza ideologicamente opposta alla sua (pensiamo a un Democratico che legge un articolo di smentita su una dichiarazione di Trump), allora la dimensione dell’effetto è più alta (d = 0.43). Al contrario, quando invece si viene smentiti, cioè il fact-checking corregge una credenza che si allinea col proprio orientamento politico (es. il Repubblicano che legge un articolo di smentita su Trump), l’effetto è più basso (d = 0.28). Si è visto inoltre che un peso notevole ce l’ha la modalità di come vengono presentate le informazioni nell’articolo di fact-checking: quando nelle verifiche venivano usati dei grafici, paradossalmente l’efficacia diminuiva di molto (d = 0.19) rispetto a quelle puramente testuali (d = 0.31). Lo stesso vale per la complessità stilistica (fact-checking scritti in maniera semplice sono più efficaci di fact-checking sofisticati) e la parzialità di una verifica (fact-checking che prendono di mira solo un pezzo di una dichiarazione sono meno efficaci di quelli che hanno per oggetto una dichiarazione presa per intero). In generale, vale la regola seguente: quando l’argomento su cui interviene il fact-checking è politicizzato, è più probabile che la correzione sia meno efficace, al di là degli altri fattori elencati sopra. Questo accade perché, soprattutto quando si toccano argomenti politici, entrano in gioco dei fattori psico-sociali, come il motivated reasoning (‘ragionamento motivato’), che distorcono l’efficacia del fact-checking sulle credenze individuali.

Va detto però che, anche nei casi in cui il fact-checking è meno efficace, questo esercita comunque un effetto positivo sulle convinzioni, seppur lieve. Ad esempio, uno studio recente di Cameron Martel e David G. Rand sostiene che le note aggiunte dai fact-checker sui social media – e che compaiono nei post verificati – sono efficaci anche quando le persone non si fidano dei fact-checker. I due ricercatori hanno condotto 21 esperimenti che hanno coinvolto più di 14mila partecipanti; 10 di questi esperimenti esaminavano l’effetto delle note sull’accuratezza, gli altri quello sulle condivisioni dei post, nell’ipotesi che le note disincentivino le ricondivisioni di post falsi. Stando ai risultati di Martel e Rand, i soggetti che incontravano le note hanno ridotto in media la loro credenza nei post falsi del 27,6 per cento rispetto ai soggetti che non le incontravano (cioè i partecipanti nel gruppo di controllo); mentre la riduzione nella condivisione è stata del 24,6 per cento. Quando i soggetti erano diffidenti versi i fact-checker, queste percentuali si abbassano rispettivamente al 12,9 per cento e al 16,9 per cento (va però ricordato che la condivisione sui social è un atto che può essere guidato da motivazioni disparate, e non sempre chi ricondivide un post ne approva il contenuto, come avevamo spiegato in questa analisi). 

In generale, quindi, il fact-checking funziona – nel senso che abbiamo detto – anche se la sua efficacia è molto variabile. Questa sembra un’acquisizione piuttosto ferma in letteratura, ed è stata confermata anche da uno studio del 2021 che ha validato l’efficacia del fact-checking a livello globale, testando in simultanea soggetti che provenivano da Paesi culturalmente molto diversi: Argentina, Nigeria, Sud Africa, Regno Unito. Di solito, infatti, un problema degli studi sul fact-checking, e sulla disinformazione in generale, è che sono molto concentrati su soggetti che provengono in larga parte dagli Stati Uniti, per ragioni di finanziamento e di praticità (essendo lo spettro politico negli USA conteso praticamente da due soli partiti). Ma allora perché l’efficacia del fact-checking viene messa in dubbio? Ci sono due grandi questioni al riguardo. 

La prima, in parte risolta, riguarda la possibilità che il fact-checking abbia un effetto opposto a quello sperato: invece di rendere le credenze degli individui più accurate, ci possono essere casi in cui un soggetto finisce per credere con ancora più convinzione alla disinformazione. Questo fenomeno in letteratura è noto come backfire effect (‘effetto del ritorno di fiamma’), e si verifica quando presentando a una persona delle prove o delle evidenze che contraddicono le sue convinzioni, questa finisce addirittura per rinforzarle, radicalizzando la sua posizione sull’argomento. Tuttavia, si è visto in più occasioni che questo fenomeno è molto raro, e i pochi studi che ne hanno trovato traccia falliscono nel vedere i propri risultati replicati (ne abbiamo parlato approfonditamente qui).

La seconda questione, più sostanziale, è che secondo alcuni il fact-checking in generale non è in grado di contrastare la disinformazione perché non risolverebbe il problema alla radice. Il motivo è che la diffusione di disinformazione è il risultato di un sistema di incentivi che dipende molto da come sono state costruite le piattaforme social. I social, per loro natura, amplificano quelle che sono delle tendenze ineliminabili della psicologia umana. Ad esempio, come esseri umani tendiamo a ‘consumare’ il genere di informazioni che conferma le nostre opinioni, mentre rifuggiamo l’informazione che cozza con le nostre idee preconcette. A dispetto di quella che è la narrazione che si può trovare sui giornali, che parlano di “pandemia di fake news”, alcuni ricercatori sostengono con dati alla mano che la disinformazione non circola a causa di proprietà intrinseche – come se la disinformazione fosse appunto un virus. In realtà, sono gli utenti che deliberatamente selezionano un certo tipo di informazione; selezione che poi viene ripetutamente incentivata da strutture come le echo chamber e le filter bubbles, che sono fenomeni tipici dei social media. Dal momento che il fact-checking non va a intaccare direttamente questi fattori, allora non può risolvere il problema della disinformazione. 

Anche se questa critica coglie una verità importante sulla natura dei social, concludere che per questi motivi il fact-checking è inutile e va abbandonato risulta eccessivo. Innanzitutto, gli stessi scienziati che sostengono questa posizione includono il fact-checking tra le risorse che andrebbero utilizzate per migliorare il dibattito pubblico sui social media. Nel paper del 2024 di Budak e colleghi che abbiamo citato sopra – uno dei testi più menzionati in questa discussione – si riporta infatti la seguente raccomandazione di policy:

È fondamentale misurare l’esposizione a contenuti potenzialmente dannosi nel Sud del mondo e nei paesi autoritari, dove la moderazione dei contenuti potrebbe essere più limitata e l’esposizione a contenuti falsi ed estremisti sui social media conseguentemente più frequente. Fino a quando dati migliori non saranno disponibili per i ricercatori esterni, possiamo solo ipotizzare come ridurre al meglio i danni dei social media al di fuori dell’Occidente. Tali dati possono, a loro volta, essere utilizzati per arricchire le risorse di fact-checking e moderazione dei contenuti e per progettare esperimenti che testino interventi sulle piattaforme.

Anche se non può certo ‘risolvere’ il problema della disinformazione, qualunque cosa questo voglia dire, il fact-checking rimane un’utile risorsa di mitigazione. Oltretutto, se dovessimo seguire questa logica – ovvero, abbandonare tutti gli strumenti di policy che non risolvono completamente un problema – allora dovremmo fare a meno di numerosissime altre misure, e non soltanto nell’ambito della disinformazione via social. Ad esempio dovremmo eliminare le avvertenze sanitarie sui pacchetti di sigarette, perché moltissima gente continua a fumare. Tuttavia, proprio come per il fact-checking, abbiamo evidenza che ci consente di dire che le avvertenze sanitarie – soprattutto quelle che utilizzano immagini che cambiano nel tempo – hanno un’influenza sui comportamenti a lungo termine dei fumatori. Perché quindi dovremmo rinunciarvi?

Potrebbero interessarti
Segnala su Whatsapp