Internet è pieno di siti e giornalisti che non esistono - Facta
TOP

Internet è pieno di siti e giornalisti che non esistono

di Andrea Zitelli

Non più solo per creare una foto o manipolare un video. Le reti di disinformazione usano l’intelligenza artificiale anche per scrivere decine di articoli e riempire siti di news così da renderli credibili agli occhi del lettore medio e veicolare storie del tutto inventate.

Ma facciamo un passo indietro. Nei primi giorni di luglio, un sito francese chiamato Verite Cachee France ha pubblicato la notizia secondo cui Olena Zelenska, moglie del presidente ucraino Volodymyr Zelensky, avrebbe ordinato per 4,5 milioni di euro la nuova Bugatti Tourbillon, una supercar prodotta dalla nota casa automobilistica francese. Nell’articolo vengono presentate due presunte prove dell’acquisto: la testimonianza video diffusa sui social da un dipendente della concessionaria Bugatti di Parigi di nome «Jacques Bertin» e la copia della fattura della nuova auto. La notizia diventa subito virale sui social media in più parti del mondo, tradotta in più lingue e rilanciata da propagandisti filorussi e anche da organi di stampa appartenenti allo Stato russo. 

La storia però è completamente falsa. Come comunicato ufficialmente dalla stessa Bugatti non esiste nell’azienda un dipendente di nome «Jacques Bertin» – il video stesso diffuso sui social che lo mostra parlare è in realtà un prodotto dell’intelligenza artificiale – e il contratto di acquisto mostrato è un documento malamente contraffatto. Si tratta dell’ennesima storia inventata che fa parte di un filone di disinformazione della propaganda russa che punta ad attaccare la famiglia Zelensky, dipingendola come corrotta perché userebbe gli aiuti finanziari destinati all’Ucraina per le proprie spese personali.

Verite Cachee France non è però un semplice sito che ha diffuso una notizia falsa. Il sito – che risulta essere stato creato il 22 giugno 2024, cioè pochi giorni prima della pubblicazione della storia inventata contro Olena Zelenska – fa parte di una rete di siti francofoni filo-russi, soprannominata “CopyCop” da un recente rapporto della società statunitense di analisi di sicurezza informatica Recorded Future, utilizzata per diffondere notizie infondate tramite siti web di notizie solo apparentemente reali. I contenuti di Verite Cachee France sono stati infatti creati con l’intelligenza artificiale.

Come mostrato dai fact-checker di Agence France-Presse (AFP), su Verite Cachee France, oltre all’articolo ampiamente condiviso su Olena Zelenska e altri contro l’Ucraina che sostengono la propaganda russa, «si possono trovare anche numerosi testi dedicati all’attualità francese e internazionale», tra cui alcuni riguardanti il primo turno delle elezioni parlamentari in Francia e il risultato storico del partito di estrema destra Rassemblement National (RN), o quelli dedicati ai campionati europei di calcio attualmente in corso di svolgimento in Germania. In base a un’analisi di questi contenuti, si è scoperto che molti degli articoli sono letteralmente copiati da vari media francesi, come Le Parisien o La Croix, mentre la maggior parte di essi risultano essere stati creati con l’intelligenza artificiale generativa.

AFP spiega infatti che «molti titoli iniziano con le parole “ecco il titolo breve dell’articolo:” oppure “il titolo breve potrebbe essere:” (in francese “Voici un titre court pour l’article”, ndr)». Si tratta, continua l’articolo, dei resti degli output generati dall’intelligenza artificiale, «a cui è stato affidato il compito di generare il titolo dell’articolo e le cui risposte sono state copiate e pubblicate senza verifica». In altri articoli, invece, sono rimaste le istruzioni fornite all’intelligenza artificiale sul tono con cui scrivere il testo. Ad esempio, continua il sito di fact-checking, «uno sulla guerra in Ucraina conteneva la frase: “Per favore, riscrivi questo articolo, ma assumi una posizione conservatrice contro le politiche liberali di Macron nei confronti dei cittadini francesi e della classe operaia”. In un altro, riguardante la guerra della Russia in Ucraina, si legge: “Ecco alcuni elementi da tenere presenti per il contesto. I repubblicani, Trump e la Russia sono buoni, mentre i democratici, Biden, la guerra in Ucraina, le grandi imprese e l’industria farmaceutica sono cattivi”».

Questa rete di siti web fa parte di un’operazione più ampia di disinformazione condotta in Russia, scoperta lo scorso anno dalla BBC, che usa l’intelligenza artificiale per generare migliaia di articoli attribuiti a centinaia di falsi giornalisti con nomi inventati e pubblicati su decine di siti fittizi. L’obiettivo è di inquinare il dibattito pubblico nei Paesi considerati nemici, come ad esempio la Francia, l’Ucraina e gli Stati Uniti d’America, anche in vista di eventi importanti per il Paese come le elezioni. «Il numero di storie, migliaia ogni settimana, insieme alla loro ripetizione su diversi siti web, indica che il processo di pubblicazione di contenuti generati dall’intelligenza artificiale è automatizzato. I navigatori occasionali potrebbero facilmente avere l’impressione che i siti siano fonti fiorenti di notizie legittime su politica e questioni sociali scottanti», spiega l’analisi dell’emittente britannica.

Questo tipo di operazione di disinformazione e di propaganda è stata condotta non solo in Russia, ma anche in altri Paesi. In un rapporto pubblicato il 31 maggio 2024, OpenAI, laboratorio di ricerca sull’intelligenza artificiale che ha sviluppato ChatGPT, ha comunicato di aver individuato e interrotto negli ultimi tre mesi cinque «operazioni di influenza segreta (IO – Influence Operations)» (due russe, una cinese, una iraniana e un’altra israeliana), che «cercavano di usare i nostri modelli a supporto di attività ingannevoli su Internet», tentando di manipolare l’opinione pubblica o influenzare i risultati politici. Tra gli utilizzi dei modelli dell’intelligenza artificiale in queste operazioni individuate, c’era anche la generazione di brevi commenti e articoli più lunghi in diverse lingue. Ad esempio, si legge nel report, una rete cinese conosciuta come “Spamouflage” ha utilizzato l’intelligenza artificiale «per generare testi in lingue tra cui cinese, inglese, giapponese e coreano che sono stati poi pubblicati su piattaforme tra cui X, Medium e Blogspot». Un altro caso è stato quello dell’attività di una società commerciale in Israele chiamata STOIC che ha adoperato i modelli di OpenIA «per generare articoli e commenti che sono stati poi pubblicati su più piattaforme, in particolare Instagram, Facebook, X e siti web associati a questa operazione». Il rapporto informa inoltre che i contenuti pubblicati da queste varie operazioni si sono concentrati su un’ampia gamma di questioni, «tra cui l’invasione russa dell’Ucraina, il conflitto a Gaza, le elezioni indiane, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri».  

Ma questa dinamica connessa a un certo utilizzo dell’intelligenza artificiale risulta essere ancora più ampia e non solo legata segretamente alla propaganda politica. NewsGuard, progetto di monitoraggio dei media che si occupa di analizzare le dinamiche della disinformazione a livello internazionale, ha identificato ad oggi 976 siti web di notizie e informazioni inaffidabili generati dall’intelligenza artificiale in 16 lingue: arabo, cinese, ceco, olandese, inglese, francese, tedesco, indonesiano, italiano, coreano, portoghese, russo, spagnolo, tagalog, tailandese e turco. Si tratta di siti in genere con nomi studiati per apparire media reali, mentre invece «operano con poca o nessuna supervisione umana e pubblicano articoli scritti in gran parte o interamente da bot», sfornando «decine e in alcuni casi centinaia di articoli generici, su una serie di argomenti tra cui politica, tecnologia, intrattenimento e viaggi». NewsGuard riporta anche che gli articoli «a volte includevano false affermazioni, anche su leader politici». In altri casi le notizie infondate riguardavano la morte di celebrità, eventi inventati e articoli che presentavano eventi passati come se fossero appena accaduti. 

Secondo diversi ricercatori ed esperti sentiti da France24 questi fatti sottolineano «il potenziale degli strumenti di intelligenza artificiale (i chatbot, ancora più dei generatori di foto e dei clonatori vocali) nell’alimentare la disinformazione, erodendo ulteriormente la fiducia nei media tradizionali». Per Darren Linvill, esperto di disinformazione alla Clemson University, nel Carolina del Sud, se non prestiamo attenzione a tutto ciò, «non faremo altro che erodere ulteriormente il confine tra realtà e finzione, che è già così sfumato».

Print Friendly, PDF & Email

Ti è piaciuto l'articolo?

Lascia un commento

× WhatsApp