Il 10 giugno 2023 la redazione di Facta.news ha ricevuto una segnalazione via WhatsApp che chiedeva di verificare un post condiviso su Facebook. Il post oggetto della nostra analisi riporta un articolo de La Verità pubblicato lo stesso giorno e intitolato “Zuckerberg si scusa per la censura: «Sul Covid la scienza aveva torto»”. La notizia è stata diffusa anche su TikTok.
Secondo quanto riportato nell’articolo de La Verità, Zuckerberg avrebbe dichiarato che ci sono tematiche su cui la società dibatte, «ad esempio il Covid: a inizio pandemia c’erano reali implicazioni per la salute ma non c’è stato il tempo di esaminare completamente la vastità delle ipotesi scientifiche che sono emerse». Secondo Zuckerberg, continua l’articolo, «una buona parte dell’establishment in un certo senso» si è «confuso su numerosi elementi fattuali» e ha «chiesto di censurare moltissime notizie che, ex post, si sono rivelate quantomeno discutibili se non addirittura vere. Questo alla fine ha logorato la fiducia dei cittadini nelle istituzioni».
Il riferimento è all’intervista rilasciata il 9 giugno 2023 da Mark Zuckerberg, amministratore delegato dell’impresa statunitense Meta che possiede Facebook, Instagram e WhatsApp, a Lex Friedman, ricercatore scientifico al Massachusetts Institute of Technology (MIT) e autore di podcast. Precisiamo, per trasparenza, che Facta.news riceve fondi da Meta all’interno del suo Third Party Fact-checking Program.
Il contenuto riportato da La Verità, però, è fuorviante e veicola una notizia falsa.
L’intervista in oggetto dura più di 2 ore e si può trovare nella sua versione integrale in inglese sul canale YouTube di Friedman. Qui, invece, è possibile trovare la trascrizione dell’intervista. La discussione si è focalizzata sul futuro di Meta e, in particolare nella prima parte, sul ruolo dell’intelligenza artificiale e sulla censura.
In una delle numerose domande poste da Friedman a Zuckerberg, il conduttore ha chiesto quale fosse il criterio secondo cui Meta valuta ciò che è dannoso, cosa è disinformazione, e cosa invece non lo è. Zuckerberg ha affermato che su alcune questioni tutti sono d’accordo che non dovrebbero trovare spazio sui social network perché dannose, come ad esempio lo sfruttamento sessuale di bambini, il terrorismo e l’incitamento alla violenza. Il fondatore di Facebook ha poi precisato che per quanto riguarda la disinformazione non esiste un’opinione netta, come sui casi precedenti: «ci sono cose che sono ovviamente false, giusto? O che sono fattuali, ma magari non sono dannose». Proprio per questo motivo, continua Zuckerberg, risulta difficile censurare qualcuno che ha sbagliato, ma non ha provocato alcun danno.
Zuckerberg, poi, ha portato l’esempio della disinformazione in materia di Covid-19: «In altri casi, invece, che riguardano contenuti sulla Covid a inizio pandemia, c’erano delle reali implicazioni per la salute, ma non c’era stato tempo per vagliare a fondo una serie di ipotesi scientifiche». In quel caso, continua Zuckerberg, «sfortunatamente, penso che diverse istituzioni hanno esitato su alcuni fatti e chiesto di censurare alcuni contenuti che, a posteriori, sono risultati essere discutibili o veri».
Come si può verificare quindi ascoltando l’intervista (o leggendo la sua trascrizione) Zuckerberg non ha mai affermato che «sul Covid la scienza aveva torto». In un discorso più in generale su come trattare la disinformazione, il fondatore di Facebook ha invece detto che a inizio pandemia, quando le informazioni a riguardo erano poche, era difficile capire quali contenuti fossero veri e quali invece casi di disinformazione.
Inoltre, Zuckerberg non si è scusato per quella che nell’articolo viene definita «censura». Su questo tema, infatti, Zuckerberg ha precisato che bisogna distinguere i contenuti che rappresentano un reale problema di sicurezza, dal modo in cui le persone preferiscono vedere alcuni contenuti, anche se disinformativi, ovvero se contrassegnati oppure no. Meta, infatti, ha recentemente introdotto uno strumento che consente alle persone di leggere il fact-checking dei contenuti. Chi non si fida del fact-checking, precisa il fondatore di Facebook, può non leggere l’articolo di verifica allegato al contenuto contrassegnato come disinformazione. Quindi in questo caso, il post non viene bloccato, ma continua a essere presente sul social network con una notifica, che può essere letta o no. Invece, conclude Zuckerberg, «se il contenuto viola qualche regola, come l’incitamento alla violenza, o qualcosa di simile, allora non sarà permesso».