Logo
Questo articolo ha più di 1 mese

La Cina non è ancora molto brava a fare disinformazione

Le operazioni di propaganda all’estero sono antiquate, farraginose, e molto spesso non raggiungono i risultati sperati

5 novembre 2024
Condividi

Lunedì 14 ottobre, a Milano, si è tenuta la cerimonia organizzata dal China Media Group per festeggiare i vent’anni di partenariato strategico tra Italia e Cina. L’evento si è svolto nel Salone d’Onore della Triennale, dove la ministra del Turismo Daniela Santanchè ha tenuto il discorso di apertura della manifestazione. Assieme alla ministra erano presenti la vicepresidente di China Media Group Xing Bo, il console generale cinese a Milano Liu Kan e molti grandi nomi del mondo dei media italiano, tra cui il presidente di Mediaset Fedele Confalonieri. 

China Media Group è l’azienda di Stato che controlla il settore delle comunicazione televisiva e radiofonica nella Repubblica Popolare Cinese; e come spiega un articolo de Il Foglio, si tratta di una delle principali agenzie di propaganda del governo cinese all’estero, sotto controllo diretto del dipartimento centrale di Propaganda. Il China Media Group è nato nel 2018 dalla fusione della China Central Television, della China National Radio e della China Radio International. Quello stesso anno il governo cinese ha nominato Shen Haixiong presidente del gruppo, tuttora in carica.

 

La missione del China Media Group all’estero è quella di promuovere una visione positiva, e spesso edulcorata, della Cina e del governo di Xi Jinping. Il colosso di Stato cinese persegue questo obiettivo firmando accordi con le televisioni e i giornali dei Paesi occidentali: l’evento alla Triennale di Milano serviva, tra le altre cose, proprio a celebrare le collaborazioni siglate con i grandi media italiani.

Il secondo livello della propaganda cinese

Tuttavia, il China Media Group rappresenta solo il volto “visibile” dell’informazione cinese. La Cina infatti non si limita a collaborazioni internazionali con le proprie aziende di Stato, ma è anche impegnata nello sviluppo di massicce campagne di propaganda e disinformazione online. Una di queste, forse la più famosa, è l’operazione Dragonbridge, attiva su diverse piattaforme digitali, comprese YouTube, Facebook e X.

Il nome “Dragonbridge” è stato scelto dagli analisti di Mandiant, una nota società di cyber security di Google Cloud. Mandiant ha individuato le attività di questo network cinese nel 2019, assegnandogli un nome come parte della pratica di dare etichette identificative alle minacce digitali. “Dragon” si riferisce chiaramente al simbolismo cinese del dragone, mentre “bridge” indica la connessione che la campagna cerca di creare tra la Cina e le comunità internazionali. 

L’obiettivo di Dragonbridge è infatti quello di diffondere contenuti che promuovono gli interessi politici cinesi e screditano i Paesi rivali, soprattutto gli Stati Uniti e i loro alleati. Per farlo, il network messo in piedi dal governo cinese utilizza profili falsi, bot e deepfake per manipolare l’informazione online. Ad esempio, è noto che gli account Google associati a Dragonbridge sono ottenuti da rivenditori di account all’ingrosso, che creano e vendono account social a scopo di lucro. Molti dei contenuti di Dragonbridge sono infatti progettati per sembrare provenienti da account autentici in varie parti del mondo, ma in realtà dietro di loro non c’è un utente reale. Ma quand’è che il governo di Pechino ha utilizzato Dragonbridge per i suoi scopi?

Gli obiettivi di Dragonbridge

Uno dei bersagli prediletti di Dragonbridge, fin dalla sua nascita, è stato Taiwan. Quando nell’aprile 2022 fu annunciata una possibile visita di Nancy Pelosi a Taipei a luglio, Dragonbridge ha cominciato a diffondere narrazioni critiche nei confronti di Pelosi e della sua famiglia. Più tardi, in agosto, con le esercitazioni militari dell’Esercito Popolare di Liberazione (PLA) intorno a Taiwan, Dragonbridge ha intensificato la sua retorica con contenuti che includevano riferimenti al PLA, oltre a video che invitavano il presidente di Taiwan, Tsai Ing-wen, e i suoi alleati a “sottomettersi”. 

Alcuni analisti sostengono che lo scopo di quell’incursione di Dragonbridge fosse influenzare negativamente la percezione del rapporto tra Taiwan e Stati Uniti e scoraggiare il sostegno all’indipendenza della regione asiatica. 

Ma Taiwan non è l’unico obiettivo. Dragonbridge ha diffuso contenuti che mettono in dubbio le politiche interne degli Stati Uniti, con post mirati a evidenziare divisioni e presunte inefficienze. Durante il ciclo elettorale del 2022 e in preparazione a quello del 2024, l’operazione ha sfruttato temi divisivi e socialmente sensibili, come le disuguaglianze razziali e il controllo delle armi. In altri casi, Dragonbridge ha anche utilizzato profili falsi per insultare e inviare minacce di morte a cittadini americani; soprattutto a utenti che avevano condiviso post critici verso il governo di Beijing.

Perché la disinformazione cinese non funziona

Ma nonostante lo sforzo enorme in termini di finanziamenti e infrastrutture, sembra che le operazioni cinesi di disinformazione non siano molto efficaci. Secondo il direttore generale del Threat Analysis Center di Microsoft, Clint Watts, le campagne di disinformazione cinese del 2024 hanno più o meno lo stesso livello di sofisticazione di quelle fatte dalla Russia dieci anni prima. Sono antiquate e farraginose; e molto spesso non raggiungono i risultati sperati.

Un altro centro di monitoraggio, quello di Google, lo scorso giugno ha pubblicato un report di follow-up su Dragonbridge che conferma il giudizio di Watts. Nel 2023, Google è riuscita a interrompere oltre 65 mila casi di attività di Dragonbridge su YouTube e Blogger, mentre solo nel primo trimestre del 2024, Google ne ha interrotti altre 10mila. Se cumulati con quelli degli scorsi anni, arriviamo a oltre 175 mila casi bloccati da Google sin dalla nascita di Dragonbridge nel 2019. 

Il team del centro di analisi di Google afferma che i contenuti di Dragonbridge sono spesso di bassa qualità, e che nonostante la loro continua produzione e l’ampiezza delle operazioni, non riescano a ottenere interazione organica. In sostanza, significa che non vengono condivisi o commentati da utenti reali, ma solo da altri utenti falsi dell’infrastruttura di Dragonbridge.

Nel 2023, tra più di 57 mila canali YouTube disattivati da Google, l’80 per cento non aveva alcun iscritto. Tra gli oltre 900mila video sospesi, più del 65 per cento aveva meno di 100 visualizzazioni e il 30 per cento addirittura nessuna visualizzazione. 

LEGGI ANCHE
Numero di visualizzazioni dei video fra tutti i canali YouTube di Dragonbridge disabilitati da Google.

Uno degli ultimi insuccessi di Dragonbridge riguarda ancora Taiwan. Nei giorni precedenti alle elezioni generali di Taiwan del 13 gennaio 2024, Foreign Policy racconta che Dragonbridge ha diffuso migliaia di video e commenti su YouTube per far girare un documento falso – intitolato “La storia segreta di Tsai Ing-wen” – che danneggiava la reputazione del presidente uscente. 

I contenuti dei video mostravano conduttori di notizie generati da intelligenza artificiale che parlavano direttamente alla telecamera nello stile di un telegiornale. La qualità di produzione dei video variava notevolmente, con alcuni che apparivano realistici a prima vista; altri invece erano animazioni al computer facilmente riconoscibili, anche da non esperti. Questa ennesima campagna di disinformazione contro Taiwan ha però avuto una diffusione limitata, con un tasso di condivisione organica praticamente inesistente. 

Ma come mai la Cina non riesce a produrre disinformazione efficace? Gli esperti credono che questo sia dovuto a un mix di ragioni. 

Innanzitutto, potrebbe essere un problema di adattamento a un nuovo contesto. Il governo cinese è infatti abituato a gestire solo i flussi di informazione interni alla Cina, i quali si muovono in un ambiente ipercontrollato. Le app di messaggistica come WeChat e Weibo – molto diffuse in Cina – sono assai diverse da piattaforme come Facebook, X e Instagram, dove le restrizioni ai contenuti sono (quasi) inesistenti. Fare disinformazione in un contesto con logiche della comunicazione molto diverse da quello domestico può essere quindi difficile per il governo cinese, che per ora è costretto a improvvisare, con pochi risultati.

Altri ancora, come lo stesso Clint Watts, pensano che l’inefficacia di Dragonbridge sia dovuta allo scarso livello di coordinamento. Al contrario delle campagne di influenza russe – che tendono a coordinarsi su più livelli, coinvolgendo portavoce governativi, media statali, influencer e account bot sui social media – gli operatori di Dragonbridge sembrano puntare esclusivamente sulla quantità: si limitano a disseminare contenuti sui social, senza una vera e propria organizzazione verticale.

Al di là delle ragioni, il caso Dragonbridge è la dimostrazione che per condurre una campagna di disinformazione efficace non basta inondare la Rete di contenuti. Serve qualcosa in più. Resta comunque da vedere se questo network saprà evolversi in vista dei prossimi appuntamenti internazionali. Tra questi c’è sicuramente l’imminente elezione americana, a cui Dragonbridge si è già interessata

La posta in gioco internazionale rende plausibile che, pur con i suoi limiti, Dragonbridge e operazioni simili possano tentare di sfruttare la polarizzazione politica negli Stati Uniti per amplificare divisioni e influenzare il dibattito pubblico. Anche dopo il voto.

Potrebbero interessarti
Segnala su Whatsapp