Logo

Manuale di conversazione con lo zio complottista durante il cenone

Ovvero: come evitare che i tentativi di correggere tesi infondate vi si ritorcano contro

31 dicembre 2024
Condividi

Vi è mai capitato di ritrovarvi a discutere durante il pranzo di Natale o il cenone di San Silvestro con un parente – magari lo zio un po’ estremista in politica – convinti che, presentando prove chiare e dati incontrovertibili, sareste riusciti a cambiare la sua opinione? Magari gli avete portato un articolo di fact-checking che dimostra, dati alla mano, che le sue idee sull’immigrazione sono infondate, o che quella dichiarazione del politico Tal dei Tali non è mai stata davvero pronunciata. Eppure, dopo averci lungamente discusso, notate con frustrazione che non lo avete smosso di un millimetro dalla sua posizione. Anzi, certe volte avete l’impressione di aver addirittura rafforzato le sue convinzioni. 

Se avete avuto un’esperienza simile, è possibile che abbiate sperimentato quello che in letteratura viene chiamato “backfire effect”, un fenomeno associato ai tentativi di correzione di credenze ritenute false o ingiustificate. In sostanza, può capitare che, presentando a una persona delle prove o delle evidenze che contraddicono le sue convinzioni, questa finisca addirittura per rinforzarle, radicalizzando la sua posizione sull’argomento. 

Il “backfire effect”

A coniare l’espressione “backfire effect” sono stati i ricercatori Brendan Nyhan e Jason Reifler in un famoso articolo del 2010. Qui i due studiosi riportano i risultati di quattro esperimenti il cui scopo era verificare se, ed eventualmente fino a che punto, le convinzioni erronee o infondate di una persona sulla politica potessero essere corrette efficacemente adducendo prove. Tra le cosiddette “political misconceptions” di cui si occupano i due studiosi, ci sono sia le credenze palesemente false (es. “Papa Francesco ha sostenuto Donald Trump durante le elezioni presidenziali del 2016”) sia quelle non adeguatamente supportate dai fatti (es. “Aumentare le pene detentive riduce automaticamente i tassi di criminalità”); da questo momento in poi, per “convinzione errata” intenderemo entrambe le cose.

Nel loro studio, Nyhan e Reifler formulano due ipotesi:

  1. L’effetto delle correzioni sulle convinzioni politiche di un individuo è mediato dalla sua ideologia politica;
  2. Se una convinzione errata è ampiamente condivisa tra i sostenitori di una determinata ideologia, le correzioni risulteranno poco efficaci per coloro che vi aderiscono. E in certi casi, l’interazione tra correzione e ideologia sarà così forte da rafforzare la convinzione errata.

L’ultima riga della seconda ipotesi si riferisce proprio al backfire effect, che per Nyhan e Reifler è dovuto all’attrito che si crea fra una certa evidenza e gli assunti dell’ideologia politica di un individuo. I due studiosi non arrivano a questa ipotesi per caso. Era noto già da tempo che l’ideologia politica potesse avere un ruolo nel modo in cui l’informazione viene processata. Si pensi ad esempio agli studi in psicologia sociale sul ragionamento motivato (motivated reasoning): il famoso articolo di Ziva Kunda, uno dei primi sull’argomento, risale addirittura al 1990. Qui Kunda ipotizzava che le motivazioni e le preferenze di un individuo legate a valori personali influenzassero la costruzione di certe credenze e la loro successiva revisione. Questo fa sì che l’informazione che contraddice delle credenze già acquisite sia valutata dall’individuo in maniera più critica rispetto a un’informazione che invece è coerente con le proprie convinzioni. Ma Nyhan e Reifler si spingono un po’ più in là. Non c’è soltanto la possibilità che l’individuo rigetti la nuova informazione, ma può anche accadere che ci sia  un “ritorno di fiamma”: le credenze preesistenti ne escono addirittura rafforzate.

Nei quattro esperimenti di Nyhan e Reifler, alcuni soggetti leggono articoli di giornale fittizi contenenti la dichiarazione di un politico che supporta una convinzione politica errata. Nel primo esperimento, condotto nel 2005, l’articolo di giornale riportava un falso discorso di George W. Bush che paventava la possibile presenza di armi di distruzione di massa in Iraq. Nel design sperimentale, i soggetti sono stati divisi in due gruppi: il primo, di controllo, ha letto solamente l’articolo di giornale, l’altro, il gruppo sperimentale, ha trovato in calce anche una nota che spiegava che non era stata trovata nessuna arma di distruzione di massa in Iraq. La variabile dipendente che Nyhan e Reifler volevano misurare è stata definita come il grado di accordo del soggetto rispetto alla convinzione politica errata – in questo caso, la convinzione che l’Iraq possedesse armi di distruzione di massa – dopo che questi aveva letto la correzione (cioè la nota in calce all’articolo). Dal momento che la bufala sulle armi di distruzioni di massa in Iraq era più diffusa in ambito conservatore, Nyhan e Reifler si aspettavano che i soggetti con ideologia politica più conservatrice fossero maggiormente restii a credere nella correzione; e viceversa per i più progressisti (i liberal, per intenderci). E i risultati finali sembrano dargli ragione.

Al termine dell’esperimento, si è visto che per i soggetti molto progressisti, la correzione ha funzionato come previsto, rendendoli più propensi a dissentire dall’informazione che l’Iraq possedesse armi di distruzione di massa rispetto ai soggetti del gruppo di controllo. La correzione non ha avuto invece un effetto statisticamente significativo su individui che si definivano solo in parte “liberal”, e come più vicini al centro dello spettro politico.  Ma, cosa più importante, l’effetto della correzione per gli individui che si collocavano ideologicamente a destra ha avuto l’effetto opposto: i conservatori che avevano letto la nota erano più propensi a credere che l’Iraq avesse davvero armi di distruzione di massa rispetto a quelli nella condizione di controllo. In altre parole, la correzione aveva avuto un effetto di backfire. La percentuale di conservatori che concordavano con l’affermazione secondo cui l’Iraq possedeva armi di distruzione di massa è aumentata dal 32 per cento nella condizione di controllo al 64 per cento nella condizione sperimentale di correzione. Al contrario, per i non conservatori, l’accordo è passato dal 22 per cento al 13 per cento. La correzione è stata tanto più efficace quanto meno il soggetto era conservatore; oltrepassata una certa soglia, essa diventava addirittura “dannosa”.

Il grafico riportato nello studio di Nyhan e Reifler è piuttosto esplicito su questo: 

Sull’asse x c’è l’ideologia politica dell’individuo, mentre sull’asse y viene riportato l’effetto della correzione sul livello di accordo con la convinzione errata – in questo caso il possesso dell’Iraq di armi di distruzione di massa. Come si vede, spostandosi via via più a destra sull’asse x la correzione diventa sempre meno efficace, e passa da un valore negativo (cioè minore accordo con la misconception) a uno addirittura positivo (maggiore accordo con la misconception). Insomma, più si era conservatori e più si diventava convinti dell’errore.

Con gli altri tre esperimenti, Nyhan e Reifler limano un po’ le loro conclusioni e sostengono che è più probabile che si abbia backfire quando la convinzione erronea è politicamente molto saliente per l’individuo nel momento in cui gli viene “somministrata” una correzione. Il tipo di backfire identificato da Nyhan e Reifler in letteratura viene chiamato “worldview backfire effect”, perché è un tipo di reazione che gli individui hanno quando percepiscono che la loro visione del mondo è minacciata. Tracce di questo tipo di backfire sono state trovate da Nyhan e Reifler in altri casi – alcuni avevano a che fare con la disinformazione attorno alle riforme dell’assistenza sanitaria in USA, altri con quella sui vaccini. 

I problemi degli studi sul backfire effect

Tuttavia, ci sono diversi elementi che fanno dubitare dell’esistenza del worldview backfire effect. Una prima debolezza dei risultati di Nyhan e Reifler, e dei successivi studi a supporto, è che usano variabili indipendenti spesso diverse per misurare l’effetto. Nel primo esperimento del 2010 si utilizza, come visto, il grado di accordo con una convinzione erronea (misurato con una scala Likert che va da 1 a 5), ma in altri casi sono state misurate variabili differenti, come le intenzioni di vaccinazione o il tasso di dipendenza (reliance) di una risposta verso un certo tipo di informazione falsa. Quando le variabili dipendenti differiscono, possono rappresentare aspetti diversi del fenomeno, il che complica il confronto diretto tra i risultati. Diventa poi difficile capire se i risultati riflettano realmente l’effetto studiato – in questo caso, quello di backfire – o siano invece influenzati dalla scelta delle variabili.

La letteratura scientifica sul backfire effect ha poi un altro grave problema: molti esperimenti successivi hanno fallito nel replicare i risultati ottenuti da Nyhan e Reifler nelle loro ricerche. Alcuni di questi, come ad esempio uno di Kathryn Haglin del 2017, hanno persino provato a riutilizzare la stessa metodologia e gli stessi questionari degli studi di Nyhan e Reifler, senza successo. La possibilità di replicare i risultati di un esperimento è un fattore molto importante nella ricerca scientifica. La replicabilità aiuta a verificare che i risultati di un esperimento non siano stati frutto del caso, di errori metodologici o di bias dei ricercatori. Se un risultato può essere ottenuto nuovamente seguendo lo stesso protocollo, c’è maggiore fiducia che l’effetto osservato – in questo caso il backfire effect identificato da Nyhan e Reifler – sia reale e generalizzabile. Il caso più clamoroso di insuccesso nella replicazione è forse quello di uno studio del 2018 di Thomas Wood ed Ethan Porter che ha coinvolto oltre 10mila partecipanti. In una serie di cinque esperimenti in cui l’ipotesi del backfire effect veniva testata su una cinquantina di questioni politiche altamente polarizzanti, Wood e Porter non hanno trovato alcuna traccia di un effetto boomerang delle correzioni.

A causa di queste difficoltà, molti pensano che il backfire effect sia estremamente specifico rispetto al contesto, al tema toccato e all’individuo in questione, oppure che semplicemente non esista. È pur vero però che il worldview backfire effect non è l’unico effetto di backfire registrato in letteratura. Si parla spesso infatti anche di un altro tipo di fenomeno – chiamato “familiarity backfire” – che è piuttosto legato a come la correzione viene presentata all’individuo: se essa ripete l’informazione falsa, la sua sola ripetizione rischia di rinforzare la credenza nella convinzione errata (è un effetto noto in letteratura come “illusory truth effect”, puoi approfondirlo qui). Ma anche l’esistenza di questo secondo effetto è stata messa in discussione; sia perché, come nel primo caso, non è stato sempre possibile replicare i risultati degli studi che ne davano conto, sia perché ce ne sono altrettanti che sembrano indicare che la ripetizione di un’informazione falsa in una correzione non comporti alcunché (e ce ne sono addirittura alcuni che arrivano a una conclusione opposta: in qualche caso ripetere l’informazione falsa durante la correzione renderebbe quest’ultima più efficace).

Come disinnescare le convinzioni errate

Ma quindi cosa dobbiamo aspettarci quando proviamo a “correggere” qualcuno, provando a disinnescare le sue convinzioni errate? Stando a quanto ci dice l’attuale stato della ricerca, non bisogna temere troppo di incorrere in un effetto di backfire: il fenomeno che 15 anni fa era stato intravisto da Nyhan e Reifler sembra estremamente improbabile, e il fact-checking rimane uno strumento valido. Lo stesso vale per il familiarity backfire: il pericolo di rafforzare una convinzione errata quando la si ripete in una correzione. Restano però valide delle accortezze generali che possono farci comodo quando vogliamo smascherare la disinformazione. Queste strategie sono fondate sullo studio dei meccanismi della disinformazione, e le potete trovare riassunte in un manuale di debunking del 2020, curato da scienziati ed esperti del settore.

Un buon modo per correggere una convinzione errata comincia sempre con lo spiegare come stanno prima di tutto i fatti. Questo primo step serve a fornire un’alternativa che riempia quello spazio che attualmente è occupato dalla convinzione errata. Presentare fin da subito una spiegazione permette di rimpiazzare più facilmente la convinzione errata, perché la persona ha modo di sostituirla subito con la nuova versione, evitando il vuoto. Il secondo step è quello di menzionare l’informazione errata, quella che si vuole sostituire. L’ideale è farlo però una volta sola, per schivare il rischio di rinforzare la disinformazione con la ripetizione. Il terzo step è invece la spiegazione di cosa non va nella convinzione errata: non basta limitarsi a dire che è sbagliata, ma bisogna fornire evidenze persuasive della sua inaccuratezza, e soprattutto è necessario spiegare perché, invece, l’alternativa menzionata al primo step è corretta. Infine, è utile riaffermare la versione alternativa presentata all’inizio per “fissarla” ulteriormente nella memoria dell’individuo.

Potrebbero interessarti
Segnala su Whatsapp