Logo

L’IA di Musk viene usata per inondare X di contenuti razzisti sui calciatori della Serie A

Immagini di atleti, allenatori e dirigenti vengono generate tramite Grok, l’IA di X, promuovendo contenuti estremisti e offensivi

17 dicembre 2024
Condividi

Ci sono Acerbi in veste di schiavista, atleti in sedia a rotelle e dittatori che indossano la maglietta di questa o quella squadra. Nella bolla dei calciofili su X – il social prima noto come Twitter e ora di proprietà di Elon Musk – il trend negli ultimi giorni sfrutta l’intelligenza artificiale e l’attualità calcistica per proporre vecchi stereotipi razzisti, abilisti e omofobi, che si mescolano a sfottò più innocenti e contenuti meno esplicitamente offensivi.

Grok, il chatbot di X basato sull’IA, è diventato disponibile gratuitamente per gli utenti in Italia dal 9 dicembre 2024. Inizialmente riservato agli abbonati premium della piattaforma, ora può essere utilizzato da tutti, anche se con alcune limitazioni: ad esempio, è possibile inviare fino a 10 messaggi ogni due ore e analizzare un massimo di tre immagini al giorno. Un’altra caratteristica importante è la generazione di immagini, che ha già attirato le attenzioni di molti utenti del social.

Basta scrivere una descrizione (o prompt) e lo strumento genera immagini molto realistiche, basandosi su un nuovo modello di IA chiamato Aurora. Senza un abbonamento, la creazione è limitata a tre immagini al giorno ma è stato sufficiente per diffondere in poco tempo parecchi contenuti razzisti ed estremisti sulla piattaforma, in particolare legati al mondo del calcio.

Il razzismo nel calcio incontra l’IA

Il tifo italiano, in particolare per quanto riguarda il calcio maschile, ha una triste e nota componente razzista, che spesso in passato ha rivolto cori offensivi a calciatori neri. Tra i più famosi, ci sono i casi di Mario Balotelli e Romelu Lukaku. Da quando qualche giorno fa Grok ha permesso la generazione a tutti gli utenti di immagini iper realistiche, questo razzismo sta affollando X, in modo particolare nella bolla chiamata “calcio twitter”, cioè quella degli appassionati del pallone che popolano il social da prima che cambiasse nome e proprietà.

Alcuni contenuti generati dagli utenti tramite Grok mostrano calciatori neri che mangiano banane nella foresta (sfruttando la narrazione razzista che dipinge gli atleti come scimmie) mentre altri scomodano lo schiavismo di una delle pagine più oscure della storia americana, quando con la tratta degli schiavi persone catturate in Africa venivano rivendute come merce negli Stati Uniti e schiavizzate per lavorare nelle piantagioni di cotone. Numerosi contenuti hanno raffigurano diversi calciatori – tra cui Lukaku (Napoli), Osimhen (Galatasary, ex Napoli), Tomori (Milan) – intenti a lavorare in piantagioni di cotone, riecheggiando anche direttamente le vergognose pratiche schiaviste. Alcuni post di questo tipo hanno raggiunto anche centinaia di migliaia di visualizzazioni, oltre che migliaia di like. 

Immagini create con Grok da alcuni utenti su X

Un particolare filone si concentra su Acerbi, difensore dell’Inter accusato (e poi assolto dal giudice sportivo, perché i filmati della partita non permettevano di dimostrarlo) di aver rivolto insulti razzisti all’avversario Juan Jesus durante un incontro con il Napoli di marzo 2024. Riecheggiando le questioni di quel caso, che fu molto dibattuto, nei giorni scorsi sono comparse immagini generate da Grok di Acerbi raffigurato come uno schiavista nei campi di cotone, in un’uniforme che ricorda quella nazista oppure in compagnia di Mussolini o Hitler.

Immagine creata con Grok da un utente su X

Anche altri giocatori, allenatori e dirigenti sportivi sono stati raffigurati in uniformi da regime autoritario o in compagnia di Mussolini. E ci sono anche molte immagini generate che accostano dittatori alle squadre di calcio: Mussolini laziale e Stalin romanista, Kim Yong-Un juventino oppure Hitler e Mussolini con la coppa della Champions League. La produzione di questi contenuti su razzismo e regimi autoritari in relazione al calcio è un fenomeno rintracciato anche in Spagna da Maldita.es, una delle più importanti organizzazioni di fact-checking spagnole.  

 

Sfottò finiti male

Grossa parte del nuovo tormentone della bolla del “Twitter calcio”, comunque, sfrutta la generazione di immagini a fini ironici, per i classici sfottò calcistici. Zlatan Ibrahimovic, che pur essendo stato uno dei giocatori più forti della sua generazione non ha vinto la Champions, viene raffigurato con la coppa in mano; il periodo non brillante della Juventus viene deriso con immagini dell’attuale allenatore, Thiago Motta, che chiede consiglio al suo predecessore esonerato; o le più classiche canzonature da spogliatoio, come quella del calciatore “scarpone” o che dovrebbe “cambiare lavoro”. C’è poi tutta una serie di immagini di Grok che si rifanno al banter calcistico su “Vincenzo Iraniano”, storpiatura del nome di Vincenzo Italiano, attuale allenatore del Bologna, che è considerato un integralista del proprio stile di gioco. Grok è stato sfruttato per estendere il trend ad altri tecnici, raffigurati come talebani o in scenari legati all’Iran o al terrorismo, spesso in modo caricaturale o stereotipato.

In alcuni casi, però, lo sfottò ha superato il limite del cattivo gusto. Un esempio è l’immagine dell’allenatore del Napoli, Antonio Conte, come malato di cancro (cosa che secondo l’utente lui preferirebbe a non far giocare Politano), ma simili “scherzi” sono toccati anche al tecnico del Milan, Fonseca. In altri casi, l’intesa professionale tra dirigenti o calciatori è stata derisa con contenuti omofobi, mentre le prestazioni giudicate sotto le aspettative di qualche calciatore vengono attaccate con contenuti abilisti, che fanno leva su una retorica discriminatoria nei confronti delle persone con disabilità. 

Immagine creata con Grok da un utente su X

La caratteristica sorprendente delle immagini generate da Grok, e probabilmente anche la ragione della loro popolarità nella bolla calciofila, è proprio il loro realismo. I contenuti riescono a replicare in maniera fedele i tratti dei personaggi famosi, caratteristica sfruttata da tutti gli esempi fin qui menzionati, ma che potrebbe avere un impatto significativo anche in termini di disinformazione. Ad esempio, alcune immagini generate hanno riguardato calciatori infortunati o altri che firmano contratti, mentre il grande momento dell’Atalanta, attualmente capolista, viene attribuito dalle immagini generate con Grok al fatto che l’allenatore dopi alcuni calciatori, tanto da essere arrestato. Se nella bolla del Twitter calcio gli utenti possono essere consapevoli della battuta, contenuti così creati potrebbero essere ripresentati altrove e generare casi gravi di disinformazione su una grande varietà di temi. 

I rischi di disinformazione

A fronte del realismo delle foto generate, a certificare il fatto che esse siano un prodotto artificiale c’è solo un loghetto di Grok in basso a destra, spesso difficilmente visibile. È il cosiddetto watermarking, che utilizza una filigrana per segnalare le foto create con IA, ma che secondo diversi studi è facilmente aggirabile e non sufficiente a frenare il loro uso a fini disinformativi.  Ora che le immagini sono ancora più realistiche, il timore è che questa capacità venga sfruttata per veicolare narrazioni false, che potrebbero essere diffuse senza contesto su X o su altre piattaforme. Una presunta foto del dittatore siriano Bashar Al-Assad in compagnia di Tucker Carlson, noto presentatore e cospirazionista statunitense, ha iniziato a circolare giorni fa, ma in realtà era stata creata con Grok. E presto potrebbero comparire i primi casi tutti italiani.

A preoccupare è anche l’atteggiamento della stessa azienda. Nei termini di servizio di Grok c’è scritto che l’utente deve assicurare che il proprio input «non include nudità; discorsi di odio, minacce o attacchi diretti a un individuo o a un gruppo; contenuti abusivi, molesti, illeciti, diffamatori, calunniosi o invasivi della privacy altrui; contenuti discriminatori; contenuti che contengono autolesionismo o violenza eccessiva; contenuti illegali o che favoriscono attività dannose o illegali». Nei fatti, però, questi usi non sono impediti in nessuna maniera, come invece accade in alcuni altri software di generazione di immagini, come Midjourney

La generazione di immagini di Grok invece non ha filtri e, in effetti, già la versione precedente dello strumento è stata utilizzata per veicolare notizie false, anche da parte dallo stesso Elon Musk, la cui gestione ha mostrato ritrosia a qualsiasi forma di moderazione dei contenuti anche tra i più estremisti e violenti, che anzi lo stesso proprietario incoraggia. Tanto che la condotta di X è attualmente sotto inchiesta, dopo che la Commissione europea ha aperto una procedura di infrazione nei suoi confronti. La Commissione ritiene che la piattaforma abbia violato gli obblighi imposti dal Digital Services Act, la normativa europea che disciplina il settore dei servizi online, su questioni come trasparenza, disinformazione e contenuti illegali.

Potrebbero interessarti
Segnala su Whatsapp