Il finto Sfera Ebbasta che fa rinascere le vecchie teorie del complotto su TikTok
Su TikTok stanno diventando virali video in cui vengono sfruttate le immagini e la voce di trapper come Sfera Ebbasta per diffondere vecchie teorie del complotto
Da qualche mese, su TikTok, circolano video – in alcuni casi diventati virali – in cui vengono riproposte vecchie teorie del complotto tramite la voce del rapper italiano Sfera Ebbasta, ricreata grazie a software di sintesi vocale.
Nei video, che in genere iniziano con immagini tratte da sue interviste in radio o in podcast, si può ascoltare un “clone digitale” dell’artista – fuoricampo e fuori sincrono – promettere lo svelamento di un mistero: sulle “lattine sataniche”, sulle ombre trapelate “dal dark web” che abitano i nostri sonni, o sui cinque nomi di persona “che attirano gli spiriti”, per fare qualche esempio.
Le clip, a quel punto, continuano proponendo una serie di filmati che servirebbero a confermare queste teorie o a creare un’atmosfera cupa, accompagnati da una delle canzoni solitamente adottate sulla piattaforma per musicare i contenuti a tema horror e cospirazioni.
Il tono del “falso Sfera Ebbasta”, in questi video, è colloquiale e molto naturale: la parlata è ricca di esitazioni e sospiri, ed è effettivamente verosimile a un orecchio meno attento.
A poco, in alcuni casi, servono infatti i disclaimer inseriti nelle descrizioni dei post – che non sempre appaiono ben visibili – in cui si parla di «video solo a scopo di intrattenimento»: dando un’occhiata ai commenti, si trovano decine e decine di utenti che ammettono di aver pensato si tratti della voce del “vero Sfera”, o che chiedono chiarimenti al resto della community.
In alcuni casi, addirittura, il numero dei “Mi piace” nei commenti di chi dice di esserci cascato supera le decine di migliaia.
A condividere questi contenuti è il profilo TikTokLeggende Tenebrose: una pagina da due milioni di “Mi piace” specializzata in «storie e teorie terrificanti», come si legge dalla descrizione.
I video condivisi, al momento in cui scriviamo, sono circa un centinaio. Il primo risale all’ottobre scorso e, attraverso una generica voce maschile ricreata da un software di sintesi vocale, parla di un asteroide destinato a colpire la Terra che ci ucciderà tutti «entro undici mesi».
Da quel punto, nelle settimane successive, il voice over anonimo ha cominciato a venir affiancato anche dal tono di un finto Sfera Ebbasta, e la pagina a crescere in termini numerici.
Il video con più visualizzazioni, più di tre milioni in totale, ripropone per esempio una vecchissima teoria del complotto infondata esposta grazie alla “partecipazione” inconsapevole del rapper: quella secondo cui il logo del noto marchio di energy drink Monster sarebbe composto da «un simbolo ebraico che si traduce nel numero sei» ripetuto tre volte, e che capovolto rappresenterebbe il demonio.
In fondo al video, il “finto Sfera” racconta poi di aver trovato delle immagini «davvero inquietanti» che non può «mostrare qui», e che quindi – prescrive – sarebbe meglio premere su «condividi» e poi su «foto». Garantendo così al contenuto un’altra preziosissima interazione.
C’è perfino un altro tipo di contenuto, forte di un trend che ruota attorno ai video sulla vita nelle navi che solcano il Mare del Nord, all’interno dei quali il “falso Sfera” interviene inspiegabilmente dopo una manciata di secondi per raccomandare la disinstallazione di un’app attraverso la quale – sostiene – potrebbero ascoltarci.
Sfera Ebbasta, quello vero, è un 31enne di Cinisello Balsamo (MI) ed è certamente l’interprete più rappresentativo e influente del genere “trap”, una derivazione contemporanea del rap diffusasi nel nostro Paese a partire dal 2015. Al momento in cui scriviamo la sua ultima uscita, “X2VR”, ha conquistato un disco di platino in una sola settimana, ed è diventato l’album italiano con più stream di sempre nelle prime 24 ore.
Non può stupire, quindi, se le voci di queste “nuove celebrità”, così influenti soprattutto presso le nuove generazioni, vengono sfruttate all’interno di contenuti creati da software basati sull’intelligenza artificiale, e riversati su TikTok. Soprattutto se si considera che operare su strumenti di questo tipo è sempre più facile e comune, e che a farlo sarebbero in buona parte anche gli appartenenti alla cosiddetta Gen Z.
Appena pochi giorni fa, nel corso del podcast Muschio Selvaggio, i due conduttori Fedez e Mr. Marra avevano per esempio mostrato a Rondodasosa – loro ospite e rapper della nuova scena – un video TikTok da lui mai visto prima, in cui una versione manipolata della sua immagine e della sua voce consigliava di fare acquisti su un sito di abbigliamento.
Sempre su TikTok, inoltre, le voci di rapper e trapper sono da tempo al centro di una sorta di trend delle “canzoni fake” ricreate con la loro timbrica, con testi inventati da zero ma talvolta verosimili, e spesso scambiate dagli utenti per leak e uscite ufficiali.
A rendere possibile ed efficace questo tipo di produzione, in buona parte dei casi, sarebbero software text-to-speech, degli strumenti all’interno dei quali è possibile trascrivere il testo che si vuol fare riprodurre, e scegliere la voce che poi lo interpreterà. Una volta scaricato, questo file audio potrà quindi essere facilmente associato a delle immagini attraverso un’app di editing su cui finalizzare il filmato, da pubblicare poi sui social.
Da qualche tempo, insieme ai timbri vagamente robotici e anonimi di uomini e donne in realtà inesistenti, le librerie di questi software si sono arricchite delle voci di personaggi famosi, diventando – specie nell’ultimo anno – sempre più raffinati per ricostruzione e lettura delle frasi.
Uno di questi, spesso richiamato dagli utenti nei commenti sotto ai video di Leggende Tenebrose, è ElevenLabs: strumento creato da una company statunitense che, come riporta il New York Times, permetteva abbastanza facilmente di riprodurre testi attraverso vari timbri e intonazioni, e persino di utilizzare la voce di chiunque per poterne poi produrre una copia digitale.
Di realtà come queste si è cominciato a parlare molto, nel circuito giornalistico, soprattutto nella seconda metà dello scorso anno: quando in un video fake diventato virale, accompagnato da un audio fake creato tramite l’intelligenza artificiale, un fake Barack Obama provava a difendersi dall’accusa di aver ucciso tramite annegamento il suo cuoco.
Proprio in queste ore, su TikTok e altre piattaforme, stanno circolando immagini e video manipolati digitalmente in cui la Torre Eiffel di Parigi sembra prendere fuoco – tanto che uno di questi post, in particolare, è riuscito a collezionare decine di milioni di like. In alcuni casi i segni di manipolazione sarebbero chiari, riporta Euronews, eppure tra i commenti parrebbe essere abbastanza facile imbattersi in messaggi di utenti increduli e allarmati.
Sebbene la propagazione di notizie false sulle piattaforme online sia un fenomeno vecchio sostanzialmente quanto i social network, sfruttare la voce di una celebrità così “digitale” come quella di Sfera Ebbasta porta forse processi di questo tipo a un nuovo livello: più contemporaneo, più generazionale, e più adatto alla comunicazione su TikTok, già adesso piattaforma sempre più dominante nella quotidianità della Gen Z, anche quando si tratta di ricercare informazioni.
E benché deepfake di questo tipo, diffusi sul social attraverso la finta testimonianza di un finto rapper, nella maggior parte dei casi non suonino propriamente politici, i numeri che riescono a raccogliere e il modo in cui l’attenzione degli utenti viene catturata possono certamente indurre a fare un paio di ragionamenti più approfonditi.
Non è un caso, per esempio, se i video di maggior successo della pagina citano brand famosi, da Monster a Oreo a Samsung: una tendenza registrata anche in un report del luglio scorso di NewsGuard, che dimostrava quanto buona parte delle informazioni manipolate su marchi famosi fossero frutto di immagini create tramite intelligenza artificiale.
Jack Brewster, che per NewsGuard è Enterprise Editor, suggeriva al New York Times l’idea che sempre più spesso, alla base dei progetti di disinformazione contemporanei, sembra si cominci col lavorare sulla condivisione di rumor e gossip senza troppe pretese contenutistiche, per poi cercare di catturare l’attenzione di più persone possibili – alle quali sottoporre, con calma e in un secondo momento, anche teorie politicamente più rilevanti.
«È uno dei modi con cui questi account si fanno strada, per ottenere seguito e attirare il coinvolgimento di un vasto pubblico», spiegava il rappresentante dell’hub di ricerca sulla disinformazione al quotidiano USA. «Così, ottenuta la credibilità di tanti follower, a quel punto possono provare a condividere un po’ alla volta anche qualche contenuto di carattere complottista».
Potrebbero interessarti
No, questo non è un reale spettacolo di droni che ricostruisce la struttura del Colosseo
Si tratta di un progetto artistico grafico, e non di una reale performance