
All’intelligenza artificiale si può far dire qualsiasi cosa, con un po’ di allenamento
I LLM possono essere manipolati per produrre disinformazione, sfruttando domande tendenziose o inondando il web di falsità
Negli ultimi due anni, i Large Language Model (LLM) sono diventati uno strumento molto diffuso per accedere rapidamente a informazioni e conoscenze in una vasta gamma di ambiti. I LLM sono sistemi di intelligenza artificiale progettati per elaborare e generare testo in linguaggio naturale. Vengono addestrati su enormi quantità di dati testuali – come libri, articoli, conversazioni online – imparando a riconoscere schemi, strutture e relazioni tra le parole. I LLM vengono utilizzati quotidianamente da milioni di persone, offrono risposte sintetiche e generano contenuti su richiesta, con livelli variabili di accuratezza. Sebbene siano strumenti utili per svolgere piccole task, ottimizzare i tempi di lavoro e generare contenuti testuali o visuali, molte persone usano erroneamente i chatbot – un applicativo dei LLM – come se fossero veri e propri motori di ricerca, ignorando le differenze tra i due strumenti.
Questo uso improprio si manifesta, ad esempio, quando si chiede a un chatbot (come ChatGPT, DeepSeek o Grok ) di fornire dati aggiornati, analisi di eventi in corso o fonti affidabili per una notizia, dando per scontato che il chatbot restituisca informazioni attendibili. In realtà, i chatbot basati su LLM, anche quando dotati di funzioni di navigazione, non interagiscono con il web nello stesso modo in cui lo fa un utente con Chrome, Firefox, o qualsiasi altro browser. Il chatbot non verifica l’attendibilità delle fonti che cita, e inoltre, dato che questi sistemi prediligono la coerenza con la richiesta del prompt rispetto alla veridicità, talvolta i LLM possono formulare risposte che all’apparenza sembrano corrette, ma che in realtà non lo sono (è il fenomeno delle hallucination, le allucinazioni). Un caso tipico è quando un chatbot cita come fonte uno studio scientifico che non esiste, ma che suona molto credibile.
Affidarsi a questi strumenti per la ricerca può quindi risultare rischioso, soprattutto quando si tratta di informazioni sensibili, decisioni importanti o temi di attualità. A causa delle sue limitazioni strutturali, i chatbot che usano tecnologia LLM possono essere manipolati per produrre disinformazione a scapito degli utenti. Ci sono diversi modi per farlo, e alcuni di questi coinvolgono fasi differenti dell’attività di un LLM, come il “malicious prompting” e il “LLM grooming”.
Il malicious prompting
Il malicious prompting (in italiano, “prompting malevolo”) consiste nell’indurre il chatbot a produrre risposte che violano le sue regole di sicurezza o i suoi limiti etici, sfruttando particolari tecniche di manipolazione del prompt. In pratica, si formulano richieste ingannevoli, tendenziose o creative che portano il chatbot a generare contenuti falsi, dannosi o non autorizzati dalle policy di sicurezza del modello. Questo metodo può essere usato per diffondere disinformazione in diversi modi: ad esempio, spingendo il chatbot a generare notizie false, guide su pratiche illegali, narrazioni manipolate o a confermare teorie complottiste.
Ad esempio, chi utilizza questa modalità può sfruttare la fiducia che molti utenti ripongono nei chatbot per amplificare la portata della disinformazione, rendendola più credibile perché presentata in forma chiara, coerente e autorevole. Come segnalato da NewsGuard, progetto di monitoraggio dei media che si occupa di analizzare le dinamiche della disinformazione a livello internazionale, un caso simile si è verificato qualche settimana fa con la versione beta di Grok 3, il chatbot sviluppato da xAI, la società di Elon Musk.
A fine marzo, il sito “ScienceofClimateChange.org” – che dichiara di diffondere presunti studi scientifici sul cambiamento climatico in contrasto con le osservazioni dell’IPCC (l’Intergovernmental Panel on Climate Change, ossia il principale organismo scientifico internazionale che si occupa di studiare il cambiamento climatico) – ha pubblicato un articolo secondo cui sarebbe la radiazione solare, e non l’uso di combustibili fossili, la vera causa dell’innalzamento delle temperature globali. L’articolo è stato rilanciato sui social da account apertamente negazionisti del cambiamento climatico, per poi essere diffuso da blog conservatori di estrema destra, come questo, e da personalità social note per diffondere disinformazione, come Robert Malone.

La tesi che considera il sole la causa principale del surriscaldamento globale circola da tempo tra i blog online che esprimono visioni scettiche sul cambiamento climatico, ma è già stata confutata molte volte. La novità questa volta, però, non sta tanto nel contenuto dell’articolo, quanto nella lista dei suoi autori.
Infatti, a comparire come primo autore dell’articolo ci sarebbe proprio la versione beta di Grok 3, seguita nella lista da altri quattro autori, alcuni dei quali sono noti contestatori del consenso scientifico sulla crisi climatica, riporta NewsGuard. Stando al comunicato stampa che accompagna l’articolo, Grok 3 avrebbe condotto analisi sui dati, elaborato l’argomentazione principale del paper e scritto la bozza dell’articolo, lasciando agli autori umani il compito di correggere, orientare e finalizzare il contenuto. Viene anche sottolineato che, a quanto risulta, questo sarebbe il primo studio scientifico sul clima sottoposto a revisione paritaria ad avere un’intelligenza artificiale come autore principale.
Tuttavia, utilizzare un chatbot per riassumere i risultati esistenti della ricerca scientifica, o per produrne di nuovi, non è affatto garanzia di affidabilità. Proprio perché le risposte di un chatbot dipendono (anche) dal prompt dell’utente, se questo formula la propria domanda con la specifica intenzione di generare un contenuto disinformativo il chatbot potrebbe restituire un output deviato. E uno degli aspetti più problematici di questa storia è proprio che non sappiamo quali prompt siano stati usati per guidare Grok 3 nella stesura dello studio. E questo ha implicazioni enormi.
In un normale processo scientifico, i metodi devono essere descritti in modo trasparente e replicabile: chi legge uno studio deve poter sapere come sono stati ottenuti i risultati, con quali dati, strumenti e procedure. Se un’intelligenza artificiale viene usata come “autore”, ma i prompt e i criteri di selezione delle risposte non vengono dichiarati, tutto il processo diventa opaco. Non sappiamo, ad esempio, se Grok è stato spinto intenzionalmente a produrre certe conclusioni; se è stato selezionato solo ciò che confermava la tesi degli autori; o quanto il testo prodotto sia frutto dell’AI e quanto delle modifiche umane successive. Oltretutto, poiché gli output di un LLM non sono mai esattamente gli stessi, ma cambiano di volta in volta anche se si conversa sullo stesso argomento, qualsiasi analisi di questo tipo non è mai completamente replicabile.
Questa mancanza di trasparenza apre le porte a manipolazioni molto facili. Chi ha progettato i prompt può aver impostato Grok in modo da esplorare solo alcune ipotesi e ignorarne altre, o da dare priorità a fonti “alternative” già criticate dalla comunità scientifica. Eppure, all’esterno, il risultato viene venduto come frutto di un’analisi oggettiva guidata da un’intelligenza artificiale. È molto probabile, però, che gli autori dello studio abbiano utilizzato dei prompt tendenziosi – e quindi malevoli – per ottenere determinate risposte dal chatbot.
Il motivo è che se si chiede direttamente a Grok 3 se le attività dell’uomo hanno contribuito al cambiamento climatico, il chatbot risponde affermativamente, e aggiunge che stando al consenso scientifico prevalente l’impatto dell’uomo è molto più significativo di un (possibile) contributo della radiazione solare. Perciò, è verosimile pensare che gli autori abbiano utilizzato un prompt strategico che manipola la risposta di Grok.

Il LLM grooming
Un secondo modo per manipolare un chatbot con tecnologia LLM è di influenzare i dati su cui il modello è stato addestrato. Questa strategia viene chiamata grooming (“adescamento”), termine che compare per la prima volta in uno report di febbraio dell’American Sunlight Project, un’organizzazione no-profit contro la disinformazione.
Nel report viene descritta l’attività di un network di propaganda russo chiamato Pravda (“verità” in russo). Si tratta di una rete di siti web con contenuti filo-russi creata per diffondere disinformazione, in particolare sulla guerra in Ucraina, su scala globale. Il suo obiettivo principale è saturare l’internet con contenuti favorevoli al Cremlino, utilizzando un sistema automatizzato di duplicazione e traduzione di articoli provenienti da altre fonti pro-Russia. Pravda si distingue in particolare per l’uso di numerosi domini e sottodomini che rilanciano articoli senza aggiungere contenuti originali, con una frequenza altissima di pubblicazione (il report stima fino a 650 articoli ogni ora, ma gli autori dicono che sia una stima al ribasso). Solo nel 2024, Pravda avrebbe pubblicato ben 3,6 milioni di articoli, tradotti in decine di lingue in diverse regioni geografiche.
Di norma, qualcuno potrebbe pensare che la strategia di Pravda sia semplicemente quella di saturare la rete di contenuti filo-russi per aumentarne la visibilità. In parte è così, ma il network non è progettato solo per attrarre gli utenti umani che navigano il web. Stando agli analisti dell’American Sunlight Project, il vero obiettivo di Pravda è quello di influenzare i cosiddetti web crawler.
I web crawler sono programmi automatici che scandagliano il web in modo sistematico. Il loro compito principale è esplorare siti web, seguire i collegamenti tra le pagine e raccogliere dati. Sono progettati per “leggere” i contenuti delle pagine web, registrarli e, in molti casi, archiviarli o analizzarli per altri scopi – ad esempio i motori di ricerca come Google li utilizzano per registrare (indicizzare) nel proprio database nuovi siti web appena scoperti, o per aggiornarne di vecchi.
Alcuni web crawler però, e questo è il punto fondamentale, vengono utilizzati anche per costruire i dataset con i quali vengono addestrati i LLM. Perciò se un attore malevolo sa come dirigere l’attenzione dei crawler su determinati contenuti, può cominciare a “contaminare” il database su cui si basano i modelli. Un modo per farlo è proprio quello di inondare la rete di contenuti tutti molto simili fra di loro come fa Pravda: in questo modo si crea una “bolla” informativa che, se intercettata dal crawler, finisce per far parte del dataset di addestramento del LLM, contaminandolo.
Come conseguenza, il chatbot diventa progressivamente più allineato a una determinata agenda. In questo senso si parla di adescamento: si tratta a tutti gli effetti di una manipolazione subdola e graduale, che condiziona le risposte del chatbot all’insaputa dell’utente. In un report di inizio marzo, NewsGuard ha osservato che molti dei principali chatbot in circolazione sono sensibili alla disinformazione di Pravda, e in diversi casi citano i suoi articoli come fonti legittime sulla guerra in Ucraina.
Alla luce di questi fenomeni, è sempre più evidente che l’uso dei chatbot IA richiede consapevolezza critica. Gli LLM non sono strumenti neutri o infallibili: rispecchiano i dati e le logiche con cui sono stati costruiti, e possono essere esposti a manipolazioni sia durante la fase di addestramento sia attraverso l’interazione diretta. Per questo, quando si utilizzano chatbot per informarsi o prendere decisioni, è fondamentale ricordarsi dei loro limiti, verificare sempre le fonti e mantenere uno sguardo vigile sui meccanismi – spesso invisibili – che ne influenzano i risultati.
- Il video del premier britannico che bacia un deputato laburista è falsoIl video del premier britannico che bacia un deputato laburista è falso
- No, questo non è «il vero volto di Gesù» ricostruito con l’IA dai ricercatoriNo, questo non è «il vero volto di Gesù» ricostruito con l’IA dai ricercatori