Stupore e grandi critiche per la decisione dell’emittente televisiva inglese Channel 4 di trasmettere un messaggio natalizio “alternativo” con il deepfake della regina Elisabetta II
L’emittente televisiva inglese Channel 4 – che trasmette in tutto il Regno Unito e in Irlanda – l’ha combinata grossa. Si, perché, quest’anno, il messaggio di Natale mandato in onda sul canale 104 si è rivelato unico quanto discutibile: esso era lanciato nientemeno che dalla regina Elisabetta II. Una trovata pazzesca, se non fosse che a pronunciare questo messaggio non sia stata la regina Elisabetta in persona ma la sua alterazione digitale, detta deepfake. Ma prima di parlare del contenuto del messaggio e delle reazioni che esso ha suscitato, occorre fare una piccola premessa.
In parole povere, il deepfake è una tecnica che permette di creare un video o un’immagine fasulla, generata sovrapponendo ad arte immagini della “vittima” a sequenze filmate girate a parte. Essa permette quindi di creare video che molti stentano a riconoscere come non autentici. Questo perché essa fa ricorso al cosiddetto apprendimento automatico (machine learning), che sfrutta l’intelligenza artificiale al fine di ricreare in maniera artificiosa il volto e la voce di un individuo. Per fare ciò bastano anche pochissime immagini statiche della vittima, da inserire nella falsa sequenza filmata.
Il deepfake è balzato agli onori della cronaca nel 2018, in quanto utilizzato per creare falsi comizi politici ma soprattutto per generare falsi video pornografici ritraenti celebrità che non hanno mai compiuto questi fatti. Ad oggi, esiste praticamente un deepfake di ogni celebrità e non solo: sono stati creati anche quelli di persone celebri come Albert Einstein, Salvador Dalì e Marilyn Monroe, tanto per fare qualche esempio.
Il messaggio – visibile anche su YouTube – dura circa 4 minuti e mostra il deepfake della regina Elisabetta condividere le sue riflessioni sul difficile anno quasi giunto al termine: si parla anche della controversa scelta dei duchi di Sussex Harry e Meghan di ritirarsi dagli incarichi pubblici della famiglia reale e del coinvolgimento del Duca di York con l’imprenditore caduto in disgrazia Jeffrey Epstein, deceduto nel 2019. Ma oltre alla discussione di temi delicati, non manca la satira: infatti la “Deepfake Queen”, doppiata dall’attrice Debra Stephenson, esegue anche un bizzarro balletto per la piattaforma di social media TikTok. Il deepfake è stato creato dallo studio VFX Framestore; Buckingham Palace ha fatto sapere alla BBC di non avere commenti sulla trasmissione.
Il messaggio si conclude con la finta regina che discute riguardo la “fiducia”, avvertendo gli spettatori di chiedersi sempre “se ciò che vediamo e sentiamo è davvero come sembra”. Channel 4 afferma che il segmento ha infatti il fine di dimostrare come la tecnologia avanzata del deepfake possa consentire la disinformazione e il diffondersi di fake news. “La tecnologia deepfake è la spaventosa nuova frontiera nella battaglia tra disinformazione e verità“, ha dichiarato il direttore di Channel 4 Ian Katz. “Il discorso di Natale alternativo di quest’anno – apparentemente pronunciato da una delle figure più familiari e fidate della nazione – è un potente promemoria che non possiamo più fidarci dei nostri occhi“.
Leggi Anche:
Tuttavia, la decisione – anticipata dall’emittente – è stata ampiamente criticata dagli utenti dei social media già prima che andasse effettivamente in onda il giorno di Natale. Diversi utenti di Twitter hanno risposto al “promo” di Channel 4 riguardante il messaggio natalizio chiedendo addirittura un boicottaggio della stazione televisiva, mentre altri si sono limitati a definirlo “vergognoso” e “irrispettoso” nei confronti della regina. Il corrispondente reale della BBC Nicholas Witchell ha criticato la qualità dell’impersonificazione, affermando che “ci sono state innumerevoli imitazioni della regina. Questa non è particolarmente buona. […] La voce suona per quello che è, e risulta un tentativo piuttosto scarso di impersonarla. Ciò che lo rende preoccupante (il messaggio, n.d.r.) è l’uso della tecnologia video per tentare di sincronizzare le sue labbra con le parole che vengono pronunciate.”
Al The Guardian, l’esperto di deepfake Henry Ajder sulla questione ha dichiarato: “Penso che in questo caso il video non sia sufficientemente realistico da costituire un problema, ma l’aggiunta di un disclaimer (dichiarazione di esclusione di responsabilità) prima che venga mostrato un video deepfake, può aiutare a diffonderli in modo responsabile”.
Avete mai visto una televisione così particolare come questa? Probabilmente no, ma intanto è tra…
The Sims 4 riceve un update decisamente importante, il quale era atteso da molti giocatori…
L'applicazione di SmartThings Find ha appena raggiunto dei numeri da record che non possono essere…
SpaceX ha scelto di rendere ancora più efficiente il suo servizio migliorandolo di moltissimo, e…
Mai più file alla cassa del supermercato grazie ad Amazon ed al nuovo servizio Dash…
L'Xbox Series X che tutti noi conosciamo potrebbe essere in grado di garantirci un tipo…