Durante il fine settimana del 24-25 marzo 2023, un’immagine di Papa Francesco vestito con un vistoso piumino bianco è diventata virale in tutto il mondo. Pochi giorni prima, milioni di persone hanno potuto vedere una serie di immagini di Donald Trump arrestato e gettato in prigione. Quelle immagini non erano reali: Trump non era all’epoca in custodia della polizia e il Papa non ha mai indossato quel piumino. Le immagini sono state prodotte utilizzando l’Intelligenza Artificiale generativa (Generative AI), una tecnologia in grado di produrre contenuti di diversi formati – testuali, audio o visivi – a partire dalle istruzioni fornite dagli utenti, i cosiddetti “prompt“.
È possibile che, in entrambi i casi sopra menzionati, molti utenti abbiano subito capito che il contenuto (che è stato rapidamente coperto dai fact-checker di tutto il mondo) era un falso. Nel caso di Trump, ad esempio, era facilmente verificabile che nessun mezzo di informazione avesse dato notizia di un arresto così clamoroso. Ma molti altri utenti hanno sicuramente scambiato le immagini per reali. Nel caso di Papa Francesco, l’incidente è stato definito, potenzialmente, “il primo vero caso di disinformazione dell’AI a livello di massa”.
Gli autori di queste immagini false sono noti. L’outlet americano Buzzfeed News ha intervistato l’operaio edile di 31 anni dell’area di Chicago che ha originariamente creato con l’AI l’immagine del Papa per poi diffonderla su Reddit, sito di social news e forum di discussione tra utenti, e su un gruppo Facebook dedicato all’arte generata con l’AI. L’autore dell’immagine non aveva alcuna intenzione che diventasse uno scandalo globale. La serie di immagini dell’arresto di Trump è poi stata originariamente twittata da Eliot Higgins, il fondatore del progetto Osint Bellingcat – stranamente, senza watermark o altri chiari segni della sua inautenticità, una precauzione di base usata da molti fact-checker per evitare la diffusione involontaria di contenuti falsi.
Una straordinaria coincidenza
Anche se diversi strumenti di Generative AI come Midjourney o Dall-E esistono ormai da alcuni mesi (entrambi sono stati rilasciati in una versione open beta nel luglio 2022), probabilmente non è un caso che il loro ruolo cruciale negli incidenti di disinformazione di grande rilievo sia emerso nelle stesse settimane in cui un’altra tecnologia è entrata nel discorso pubblico: la Generative AI con output testuali, la famosa GPT di OpenAI e altri modelli di linguaggio di grandi dimensioni (Large Language Models, LLMs) simili.
L’ampia discussione attorno al chatbot ChatGPT – e alla successiva iterazione, GPT-4, che tra l’altro fornisce come risultato e accetta come prompt sia testi che immagini –, e alle sue conseguenze per il sistema mediatico e informativo, si sviluppa parallelamente alle nuove sfide che presentano i più datati, ma non meno influenti, strumenti di Generative AI con output visivi.
La fine di marzo 2023 segna l’inizio di una nuova era per la disinformazione, una in cui il progresso tecnologico inaugura nuove dinamiche nella produzione e diffusione di contenuti falsi e fuorvianti.
Queste dinamiche tuttavia sono solo parzialmente simili e, a nostro avviso, devono essere valutate e affrontate separatamente.
Output testuali
I tools di Generative AI con output principalmente testuali, come ChatGPT di OpenAI o altri LLM simili, presentano numerosi rischi potenziali per la produzione e diffusione di disinformazione – lasciando da parte i problemi che non hanno strettamente a che vedere con la qualità dell’informazione, come i timori in ambito privacy (che, il 31 marzo 2023, hanno spinto il Garante per la protezione dei dati personali italiano a disporre la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, di conseguenza sospeso per gli utenti italiani) o i possibili output violenti o inquietanti.
Prima di tutto, questi tools sono inclini a produrre le cosiddette “allucinazioni”, cioè errori fattuali nell’informazione fornita all’utente (noi sconsigliamo di usare termini come “allucinazione”, che implicano l’umanizzazione della tecnologia). Le presentazioni pubbliche di LLM da parte di giganti della tecnologia come Microsoft e Google sono state offuscate da simili errori, anche nei relativi video promozionali. Gli esperti mettono in guardia sul fatto che questi errori non sono dei semplici glitch del sistema, ma risultati inevitabili allo stato corrente della tecnologia. Come sintetizza efficacemente un articolo pubblicato su MIT Technology Review: «I modelli di linguaggio dell’Intelligenza Artificiale sono notoriamente “cacciaballe” [bullshitters nell’originale n.d.r.], spesso presentano falsità come fatti. Sono eccellenti nel predire la parola successiva in una frase, ma non hanno conoscenza di cosa la frase significhi veramente». Insomma, il modo in cui sono strutturati e l’attuale livello di sviluppo tecnologico rendono i LLM dei buoni strumenti per alcuni cose (ad esempio scrivere codici) e dei cattivi strumenti per (molte) altre, tra cui ad esempio capire i giochi di parole o…fornire informazioni accurate.
In secondo luogo, c’è un problema di dimensioni. I LLM sono fatti per produrre testi a comando, inclusi testi su teorie del complotto e leggende urbane, e molti commentatori hanno fatto notare che questo rischia di produrre “una produzione frenetica di fake news”. È importante sottolineare che OpenAI ha riconosciuto il possibile utilizzo improprio della sua tecnologia per portare avanti campagne di disinformazione e ha provato a prevedere i futuri sviluppi in un paper, prodotto in collaborazione con ricercatori indipendenti, che affronta il tema delle “possibili minacce e delle possibili misure di riduzione del danno”.
Crediamo che l’aspetto più inquietante collegato ai chatbot che usano LLM derivi dall’accesso diretto, che hanno gli utenti, a un modo di presentare i contenuti personalizzato, quasi-umano e colloquiale. Se confrontati con i tradizionali motori di ricerca, tool come ChatGPT si differenziano in quanto forniscono agli utenti un’unica risposta, che potrebbe essere facilmente interpretata come il risultato migliore o più accurato per la loro ricerca di informazioni online. Gli utenti – specialmente se non informati adeguatamente circa questa tecnologia, i suoi punti di forza e debolezza, e le sue reali capacità – potrebbero essere spinti erroneamente a fidarsi più dei risultati forniti da un chatbot di conversazione che non da quelli forniti da altri tool di ricerca delle informazioni più aperti. In questo modo diventa più difficile per gli utenti stabilire nel modo corretto la veridicità di un certo risultato, e in ultima analisi esercitare il proprio pensiero critico.
A peggiorare le cose, c’è da considerare il fatto che gli utenti accedono ai LLM senza mediazione: mentre nei tradizionali motori di ricerca agli utenti viene presentata una lista di risultati che sono stati prodotti e pubblicati altrove – in un certo senso scandagliando quanto già esiste là fuori -, attraverso i chatbot gli utenti hanno accesso diretto a “nuove” informazioni, prodotte dai LLM in risposta ai loro specifici prompt.
Questo accesso non mediato rende l’informazione fornita all’utente praticamente impossibile da sottoporre a fact-checking, a meno che l’utente decida di prendere l’informazione stessa e portarla al di fuori del loro (altrimenti inaccessibile) botta e risposta con l’AI. I LLM produrranno risultati falsi o fuorvianti e li mostreranno direttamente agli utenti, mentre fino ad ora la disinformazione doveva quantomeno essere pubblicata da qualche parte – un sito web, un account social, un podcast e via dicendo – per essere accessibile agli utenti.
In conclusione, la nostra opinione è che il principale problema originato dai LLM non è la quantità o nemmeno la qualità dell’informazione, ma la sua distribuzione. Sono necessarie campagne di informazione del pubblico, al fine di far conoscere i limiti di questi tool e anche i loro rischi.
Output visuali
Il problema con la disinformazione di carattere visuale generata da AI è in gran parte differente. Allo stato attuale delle cose, è l’utente che deve dare il suo prompt al sistema al fine di ottenere l’immagine richiesta. In questo caso, e al contrario di quanto accade con gli output testuali, non è possibile che l’utente che formula la richiesta all’AI lo faccia senza sapere che il risultato che otterrà sarà eventualmente diverso dalla realtà. Insomma, la disinformazione qui può essere prodotta solo intenzionalmente.
Questa, in un certo senso, è una semplice evoluzione dell’attuale modalità di produzione di disinformazione visuale: fino ad ora, questa era prodotta principalmente diffondendo vecchie immagini e vecchi video, accompagnati da didascalie ingannevoli e ri-contestualizzati in modo da far credere che siano relativi all’attualità. Manipolazioni primitive, ma spesso delle semplici foto fuori contesto sono state in grado di avere un impatto significativo. La quantità di contenuti falsi che l’AI potrebbe fornire a chi produce questo genere di disinformazione è potenzialmente infinita.
Accanto al problema della quantità, c’è anche il problema della qualità. Con le tecnologie che diventano sempre più avanzate, è possibile prevedere un futuro in cui i risultati prodotti da AI saranno indistinguibili da foto vere per l’occhio non allenato (o forse anche per l’occhio più espero). È pertanto cruciale che ai fact-checkers, e anche agli utenti in generale, vengano forniti gli strumenti tecnologici in grado di rilevare immediatamente se un’immagine o un video sono stati prodotti dall’Intelligenza Artificiale o meno. È possibile ovviamente esplorare anche altre soluzioni (per quanto non prive di problemi significativi), come un watermark obbligatorio sui contenuti generati da AI o altri segni tecnologici di riconoscimento (ad esempio, come parte dei metadati).
In conclusione
La tecnologia dell’Intelligenza Artificiale generativa ha mostrato anche altri inquietanti aspetti e possibili applicazioni in attività fraudolente e in campagne di disinformazione, come ad esempio frodi telefoniche automatizzate o presentazione di documenti falsi. La tecnologia è in costante evoluzione e nuove sfide, insieme a nuove opportunità, cresceranno in parallelo.
Dal punto di vista della disinformazione, i tool come chatbot basati sull’Intelligenza Artificiale generativa danno agli utenti un accesso non mediato a risultati che non sono necessariamente accurati o degni di fiducia; gli output visuali di tool di Intelligenza Artificiale generativa danno potenzialmente ad attori in mala fede una capacità senza precedenti di produrre immagini e video realistici.
Maggiori ricerche sono necessarie per meglio capire come stabilire correttamente i rischi posti dall’Intelligenza Artificiale e come contrastarli, e all’alba di una nuova era per la disinformazione è di capitale importanza uno sforzo comune da parte dei professionisti dei mezzi di informazione, fact-checkers, sviluppatori e utenti per garantire che questa tecnologia, con i suoi molteplici aspetti positivi e il suo potenziale innovativo, sia usata in modo costruttivo, etico e responsabile.