Sull’asse x c’è l’ideologia politica dell’individuo, mentre sull’asse y viene riportato l’effetto della correzione sul livello di accordo con la convinzione errata – in questo caso il possesso dell’Iraq di armi di distruzione di massa. Come si vede, spostandosi via via più a destra sull’asse x la correzione diventa sempre meno efficace, e passa da un valore negativo (cioè minore accordo con la misconception) a uno addirittura positivo (maggiore accordo con la misconception). Insomma, più si era conservatori e più si diventava convinti dell’errore.
Con gli altri tre esperimenti, Nyhan e Reifler limano un po’ le loro conclusioni e sostengono che è più probabile che si abbia backfire quando la convinzione erronea è politicamente molto saliente per l’individuo nel momento in cui gli viene “somministrata” una correzione. Il tipo di backfire identificato da Nyhan e Reifler in letteratura viene chiamato “worldview backfire effect”, perché è un tipo di reazione che gli individui hanno quando percepiscono che la loro visione del mondo è minacciata. Tracce di questo tipo di backfire sono state trovate da Nyhan e Reifler in altri casi – alcuni avevano a che fare con la disinformazione attorno alle riforme dell’assistenza sanitaria in USA, altri con quella sui vaccini.
I problemi degli studi sul backfire effect
Tuttavia, ci sono diversi elementi che fanno dubitare dell’esistenza del worldview backfire effect. Una prima debolezza dei risultati di Nyhan e Reifler, e dei successivi studi a supporto, è che usano variabili indipendenti spesso diverse per misurare l’effetto. Nel primo esperimento del 2010 si utilizza, come visto, il grado di accordo con una convinzione erronea (misurato con una scala Likert che va da 1 a 5), ma in altri casi sono state misurate variabili differenti, come le intenzioni di vaccinazione o il tasso di dipendenza (reliance) di una risposta verso un certo tipo di informazione falsa. Quando le variabili dipendenti differiscono, possono rappresentare aspetti diversi del fenomeno, il che complica il confronto diretto tra i risultati. Diventa poi difficile capire se i risultati riflettano realmente l’effetto studiato – in questo caso, quello di backfire – o siano invece influenzati dalla scelta delle variabili.
La letteratura scientifica sul backfire effect ha poi un altro grave problema: molti esperimenti successivi hanno fallito nel replicare i risultati ottenuti da Nyhan e Reifler nelle loro ricerche. Alcuni di questi, come ad esempio uno di Kathryn Haglin del 2017, hanno persino provato a riutilizzare la stessa metodologia e gli stessi questionari degli studi di Nyhan e Reifler, senza successo. La possibilità di replicare i risultati di un esperimento è un fattore molto importante nella ricerca scientifica. La replicabilità aiuta a verificare che i risultati di un esperimento non siano stati frutto del caso, di errori metodologici o di bias dei ricercatori. Se un risultato può essere ottenuto nuovamente seguendo lo stesso protocollo, c’è maggiore fiducia che l’effetto osservato – in questo caso il backfire effect identificato da Nyhan e Reifler – sia reale e generalizzabile. Il caso più clamoroso di insuccesso nella replicazione è forse quello di uno studio del 2018 di Thomas Wood ed Ethan Porter che ha coinvolto oltre 10mila partecipanti. In una serie di cinque esperimenti in cui l’ipotesi del backfire effect veniva testata su una cinquantina di questioni politiche altamente polarizzanti, Wood e Porter non hanno trovato alcuna traccia di un effetto boomerang delle correzioni.
A causa di queste difficoltà, molti pensano che il backfire effect sia estremamente specifico rispetto al contesto, al tema toccato e all’individuo in questione, oppure che semplicemente non esista. È pur vero però che il worldview backfire effect non è l’unico effetto di backfire registrato in letteratura. Si parla spesso infatti anche di un altro tipo di fenomeno – chiamato “familiarity backfire” – che è piuttosto legato a come la correzione viene presentata all’individuo: se essa ripete l’informazione falsa, la sua sola ripetizione rischia di rinforzare la credenza nella convinzione errata (è un effetto noto in letteratura come “illusory truth effect”, puoi approfondirlo qui). Ma anche l’esistenza di questo secondo effetto è stata messa in discussione; sia perché, come nel primo caso, non è stato sempre possibile replicare i risultati degli studi che ne davano conto, sia perché ce ne sono altrettanti che sembrano indicare che la ripetizione di un’informazione falsa in una correzione non comporti alcunché (e ce ne sono addirittura alcuni che arrivano a una conclusione opposta: in qualche caso ripetere l’informazione falsa durante la correzione renderebbe quest’ultima più efficace).
Come disinnescare le convinzioni errate
Ma quindi cosa dobbiamo aspettarci quando proviamo a “correggere” qualcuno, provando a disinnescare le sue convinzioni errate? Stando a quanto ci dice l’attuale stato della ricerca, non bisogna temere troppo di incorrere in un effetto di backfire: il fenomeno che 15 anni fa era stato intravisto da Nyhan e Reifler sembra estremamente improbabile, e il fact-checking rimane uno strumento valido. Lo stesso vale per il familiarity backfire: il pericolo di rafforzare una convinzione errata quando la si ripete in una correzione. Restano però valide delle accortezze generali che possono farci comodo quando vogliamo smascherare la disinformazione. Queste strategie sono fondate sullo studio dei meccanismi della disinformazione, e le potete trovare riassunte in un manuale di debunking del 2020, curato da scienziati ed esperti del settore.
Un buon modo per correggere una convinzione errata comincia sempre con lo spiegare come stanno prima di tutto i fatti. Questo primo step serve a fornire un’alternativa che riempia quello spazio che attualmente è occupato dalla convinzione errata. Presentare fin da subito una spiegazione permette di rimpiazzare più facilmente la convinzione errata, perché la persona ha modo di sostituirla subito con la nuova versione, evitando il vuoto. Il secondo step è quello di menzionare l’informazione errata, quella che si vuole sostituire. L’ideale è farlo però una volta sola, per schivare il rischio di rinforzare la disinformazione con la ripetizione. Il terzo step è invece la spiegazione di cosa non va nella convinzione errata: non basta limitarsi a dire che è sbagliata, ma bisogna fornire evidenze persuasive della sua inaccuratezza, e soprattutto è necessario spiegare perché, invece, l’alternativa menzionata al primo step è corretta. Infine, è utile riaffermare la versione alternativa presentata all’inizio per “fissarla” ulteriormente nella memoria dell’individuo.