Ma proprio su X, durante la corsa alla Casa Bianca, sono proliferate notizie false e fuorvianti sui candidati e sull’integrità del processo elettorale. Lo stesso Musk ha alimentato con il suo account da oltre 200 milioni di follower teorie cospirative anti-immigrazione e diffuso accuse infondate di brogli elettorali. Un’inchiesta della BBC ha mostrato la possibilità per gli utenti premium di X (cioè coloro che pagano un abbonamento mensile e hanno una ripartizione dei ricavi pubblicitari generati dalle interazioni del proprio profilo) di guadagnare anche migliaia di dollari pubblicando contenuti disinformativi sulle elezioni statunitensi.
Nel suo messaggio, Musk ha citato le community notes, il sistema di fact-checking implementato da X per contrastare la disinformazione sulla piattaforma, invitando, come abbiamo visto, le persone ad usarlo per creare un luogo dove trovare «la verità». Musk ha espresso in più occasioni apprezzamenti per questo metodo di verifica delle notizie basato sulla comunità degli stessi utenti della piattaforma. Inchieste giornalistiche e analisi indipendenti hanno dimostrato tuttavia che questo strumento si è rivelato inefficace e controproducente. E proprio le elezioni statunitensi hanno confermato il fallimento delle community notes nel garantire che X sia un luogo non inquinato da falsità e menzogne, nonostante i proclami del suo proprietario.
Da “Birdwatch” alle “Community Notes”
Dopo alcune settimane dal 6 gennaio 2021 – giorno del violento assalto al Parlamento statunitense da parte dei sostenitori di Donald Trump, alimentato anche da notizie false su presunti brogli alle elezioni presidenziali vinte da Joe Biden – l’allora Twitter aveva annunciato l’arrivo di “Birdwatch”, uno strumento pensato per rafforzare il contrasto alla disinformazione.
All’epoca Keith Coleman, vicepresidente del prodotto dell’azienda, in un post aveva spiegato che si trattava di un «nuovo approccio guidato dalla comunità per aiutare ad affrontare le informazioni fuorvianti» presenti sulla piattaforma. Questo strumento, si leggeva ancora, era stato ideato per consentire agli utenti comuni – e quindi non per forza fact-checker o esperti di disinformazione – «di identificare le informazioni nei tweet che ritengono fuorvianti e di scrivere note che forniscono un contesto informativo». Queste note sarebbero poi state aggiunte ai tweet contrassegnati e rese visibili al «pubblico globale di Twitter» dopo l’approvazione arrivata «da un ampio e diversificato insieme di collaboratori» iscritti a questo programma. Coleman aveva inoltre tenuto a specificare che si trattava di un progetto pilota che ampliava le attività dell’azienda nel contrasto ai post che infrangevano le regole della piattaforma, come ad esempio la moderazione svolta all’epoca dal team “Trust and Safety”.
A ottobre 2022 Twitter è stato poi acquistato da Elon Musk e sono stati apportati sostanziali cambiamenti nell’azienda, tra cambi al vertice, drastici ridimensionamenti del personale, con migliaia di licenziamenti, e la modifica dello stesso nome del social media che è diventato “X”. Il CEO di Tesla e SpaceX è intervenuto anche sui progetti di contrasto alla disinformazione. A novembre dello stesso anno “Birdwatch” ha preso il nome di “community notes”, il programma è stato ampliato e da dicembre le note sono diventate visibili in tutto il mondo. Lo stesso Musk ha affermato di puntare molto su questo strumento, definendolo «una svolta per migliorare l’accuratezza dei contenuti nella piattaforma».
Come funzionano le note della comunità di X
Come si legge sulla pagina ufficiale delle community notes, le note sono scritte e valutate «da utenti di X, proprio come te». Queste note, continua la spiegazione, non funzionano esclusivamente «in base ai principi di maggioranza», cioè quelle che diventano pubbliche non sono quelle più votate dai collaboratori, cioè gli utenti iscritti al programma di verifica.
Infatti, per far sì che le informazioni aggiuntive appaiano pubblicamente sotto a un post considerato fuorviante o infondato non viene tenuto in considerazione solo il numero di collaboratori che hanno valutato una nota come utile o non utile, ma anche il fatto «che gli utenti che l’hanno valutata abbiano punti di vista diversi». Questo significa che «se utenti che di solito non sono d’accordo nelle loro valutazioni concordano sul fatto che una determinata nota è utile, ciò è probabilmente indicativo del fatto che la nota è utile a utenti con opinioni differenti», specifica X. Fino a quando la nota non raggiunge il voto di «un numero sufficiente di collaboratori con punti di vista differenti» questa non diventa pubblica e rimane visibile solo alle persone iscritte al programma.
Nel tempo gli utenti che si sono iscritti per diventare collaboratori delle community notes sono cresciuti, passando dai circa 133 mila a novembre 2023 agli 800 mila di ottobre 2024 distribuiti in 70 Paesi in tutto il mondo, secondo i dati forniti da X. Anche le note e le loro visualizzazioni sono aumentate. Sempre in base a quanto comunicato dall’azienda, nel 2023 erano state mostrate al pubblico più di 37mila note, visualizzate oltre 14 miliardi di volte, mentre nei primi quattro mesi del 2024 le note sono state più di 29 mila, raggiungendo oltre 9 miliardi di visualizzazioni. Secondo poi diverse ricerche citate dall’azienda, i post che hanno ricevuto una nota – e che quindi sono stati etichettati pubblicamente come fuorvianti – vengono condivisi meno e nella maggior parte dei casi anche eliminati. Inoltre, il grande numero di persone iscritte al sistema consente di verificare più contenuti.
Questo quadro però non dimostra che le community notes, sostenute fortemente da Musk, funzionano nel contrastare la disinformazione su X.
I problemi delle community notes
Dopo l’acquisizione da parte di Elon Musk, il team che si occupa di moderazione e sicurezza è stato drasticamente ridotto. Come abbiamo visto, però, le note erano state pensate come uno strumento da utilizzare insieme alla moderazione dei contenuti del team “Trust and Safety”.
Per questo motivo, secondo ex lavoratori di Twitter sentiti da Wired, si è palesata subito una prima problematica per il corretto funzionamento delle community notes. Yoel Roth, ex capo del Trust and Safety di Twitter, ha dichiarato che «l’intenzione di Birdwatch è sempre stata quella di essere un complemento, piuttosto che una sostituzione, degli altri metodi di contrasto alla cattiva informazione presente su Twitter». Un altro ex dipendente di Twitter (ora X) che faceva parte del team di moderazione ha aggiunto che le «community notes sono un sostituto imperfetto dello staff di Trust and Safety».
Lo scorso settembre, quasi due anni dopo i licenziamenti nel team di Trust, Safety and Security dell’azienda, X ha aperto posizioni per assumere nuovi dipendenti per moderare i contenuti nella piattaforma. Come ha però scritto Techcrunch, sito specializzato in tecnologia e informatica, si tratta di numeri esigui rispetto al numero di dipendenti licenziati da Musk dopo l’acquisizione della società.
Inchieste di diverse testate giornalistiche – come Wired, Mashable, NBC News e Bloomberg – pubblicate tra ottobre e novembre dello scorso anno hanno inoltre documentato che le community notes non sembravano funzionare come previsto. Ad esempio molte note scritte dai collaboratori del programma non venivano mai viste dal pubblico. Spesso poi, le note con il fact-checking dei collaboratori sotto ai post virali con notizie false non apparivano in modo tempestivo. Il risultato era che la disinformazione riusciva a ottenere molte più visualizzazioni delle note contenenti le verifiche degli utenti iscritti alle community notes. Altre volte, invece, la nota dopo essere stata pubblicata non era più risultata visibile sotto un post, nemmeno dagli stessi membri del programma community notes.
In base poi al racconto di alcuni utenti coinvolti nel progetto, il sistema delle note potrebbe essere vulnerabile a manipolazioni sia direttamente da parte dei collaboratori che si coordinano per far votare una nota utile sia da parte di gruppi esterni. In altri casi invece la stessa comunità delle community notes è risultata lacerata da lotte intestine interne. È capitato poi che le stesse note approvate dai collaboratori hanno diffuso informazioni false o fuorvianti. Uno di questi episodi lo abbiamo raccontato anche a Facta a maggio scorso, quando sotto un video di una violenta azione di polizia ai danni di una donna trans a Milano è stata pubblicata una nota con informazioni sulla dinamica dei fatti già smentite dagli inquirenti.
Anche l’efficacia del principio secondo cui una nota diventa pubblica dopo il voto di collaboratori con punti di vista differenti è stata messa in dubbio. Per Alex Mahadevan, direttore di MediaWise di Poynter, principale rete di comunicazione e scambio per i fact-checker di tutto il mondo, «questo significa in pratica che conservatori e liberali devono concordare che un fact check venga aggiunto a un tweet prima che venga reso pubblico. E poiché ora tutto dipende dalle proprie posizioni politiche, è qualcosa di molto, molto difficile da fare». Il risultato per Mahadevan è che le community notes sembrano essere diventate fondamentalmente un battibecco tra collaboratori con visione politiche differenti che rallenta il processo di verifica.
L’ultimo fallimento: il contrastato alla disinformazione sulle elezioni USA
Queste debolezze e problematiche non hanno permesso al sistema di fact-checking dal basso di X di contrastare la disinformazione durante la campagna elettorale per le elezioni presidenziali USA, secondo un rapporto pubblicato il 30 ottobre 2024 da Center for Countering Digital Hate (CCDH), organizzazione non governativa britannica-americana impegnata a contrastare la diffusione dell’incitamento all’odio e della disinformazione online.