Gli attori del documentario si sono prestati a essere filmati mentre replicavano i movimenti degli attivisti intervistati.
Successivamente, con strumenti di intelligenza artificiale e machine learning, i volti degli attori sono stati sovrapposti a quelli dei testimoni reali, mantenendo intatti la voce e il contesto delle interviste.
Ovviamente, la qualità delle immagini sintetiche utilizzate nel documentario di France non è paragonabile a quella della tecnologia disponibile nel 2024. Negli ultimi due anni, le intelligenze artificiali generative sono progredite moltissimo e spesso software vecchi di anche solo un anno risultano già obsoleti, se confrontati con quelli disponibili attualmente sul mercato. Tuttavia, la tecnologia impiegata da France e il suo team ha permesso di creare una sorta di “maschera digitale” che segue i movimenti e le emozioni del soggetto reale, rendendo l’effetto estremamente realistico.
I rischi di questa pratica
Ma potrebbero esserci anche dei rischi nell’utilizzo di IA generative per l’anonimizzazione dei testimoni. Un primo problema è che, a volte, questi tool possono essere stati addestrati su un insieme di dati statisticamente biased. Le IA generative, come modelli linguistici o di immagini, vengono addestrate su grandi quantità di dati prelevati da internet, libri, articoli e altre fonti. Se queste fonti contengono stereotipi di genere o razziali, l’IA potrebbe impararli e riprodurli, perpetrando così lo stereotipo.
Un altro rischio è invece quello di deumanizzare l’intervistato che si vuole rendere anonimo. Di norma, gli spettatori tendono a connettersi emotivamente con i volti degli intervistati; espressioni sottili, come un sopracciglio aggrottato o delle lacrime, in certi casi possono evocare una forte risposta emotiva. Anche se gli avatar IA replicano queste fattezze, il fatto che il volto non sia “genuino” e l’imitazione imperfetta può creare una barriera psicologica tra intervistato e spettatore. Certo, questo effetto può verificarsi anche, se non soprattutto, con le tecniche di anonimizzazione classiche, dove addirittura è frequente l’oscuramento totale del volto dell’intervistato. Tuttavia, gli avatar che riproducono in maniera imperfetta la fisionomia e le espressioni del volto in qualche caso possono addirittura risultare più sgradevoli della semplice sfocatura.
Gli avatar generati da IA, infatti, a volte sono percepiti come disturbanti quando sembrano realistici ma non completamente naturali; ad esempio, quando riproducono movimenti oculari innaturali o gesti rigidi. Questa reazione viene chiamata “uncanny valley effect”: una sensazione di disagio o repulsione che le persone provano quando osservano un oggetto, un robot o un’immagine digitale che appare quasi umana ma non del tutto convincente.
Questo effetto è stato descritto per la prima volta nel 1970 dal roboticista giapponese Masahiro Mori. Secondo Mori, la nostra reazione emotiva agli oggetti antropomorfi è descrivibile con un grafico a forma di valle.