Iperfake, come barare in una campagna elettroale
Immaginate il presidente Usa, Joe Biden, annunciare in un video di voler sganciare l’atomica su Mosca. Oppure quello della Russia, Vladimir Putin, autorizzare il bombardamento della Germania. Quanto impiegherebbe il mondo a collassare? E chi si prenderebbe poi l’onere di spiegare ai sopravvissuti della guerra nucleare che era tutto uno scherzo? Un fake, come dicono gli inglesi. Anzi: un «iperfake». Si chiamano così i filmati prodotti dall’intelligenza artificiale che tolgono il sonno ai servizi segreti di mezzo mondo. Copie perfette di personaggi famosi quasi impossibili da scoprire, se non dopo un lungo e laborioso lavoro di analisi tecnica, che potrebbero rappresentare l’arma non convenzionale delle prossime elezioni europee e americane. Una versione più cattiva e pericolosa della finta invasione aliena che quel genio di Orson Welles trasmise in diretta radiofonica il 30 ottobre del 1938, scatenando una psicosi di massa negli Stati Uniti. A doverne sperimentare la scottatura è stato nelle settimane scorse Emmanuel Macron. In un videomontaggio, messo online sul social X pochi giorni prima della fine del 2023, il sosia del presidente francese ha annunciato che avrebbe ridotto gli investimenti nelle politiche sociali annullando la costruzione di diecimila alloggi di emergenza. «Stiamo già investendo una quantità enorme di denaro nei minimi sociali», si è giustificato l’inquilino dell’Eliseo. Le reazioni sono state violentissime e, dopo qualche ora, l’autore dello scherzo ha dovuto chiedere pubblicamente scusa e spiegare che era solo una messinscena.
Guai però a ridurre il fenomeno a un passatempo da smanettoni con uno scadente senso dell’umorismo. Il direttore dell’MI5, il controspionaggio di Sua Maestà britannica, Ken McCallum, è ossessionato dal rischio di una proliferazione di iperfake sui social network tanto da aver dichiarato, in una recente audizione in Parlamento, che le agenzie di intelligence «sono in allerta per individuare l’uso delle tecnologie più sofisticate» prima che si aprano le urne nel Regno Unito. Gli Stati canaglia sott’osservazione sono due, Cina e Russia. Ma anche lo Zar del Cremlino è rimasto vittima di una trappola del genere. Il suo clone è apparso in un filmato, all’apparenza trasmesso dalla tv di Stato, mentre annunciava l’inizio della legge marziale e la mobilitazione totale di tutta la cittadinanza a causa dell’invasione, da parte dell’Ucraina, di alcune grandi città russe. «La particolarità di questi inganni è che l’illusione è quasi totale. Il movimento delle labbra corrisponde più o meno perfettamente a ciò che viene pronunciato», spiega a Panorama un esperto della polizia postale italiana. «Siamo a un livello di pericolo superiore rispetto a quello delle fake news che i lettori più accorti potevano, con alcuni accorgimenti e buonsenso, smascherare. Ma con una replica quasi identica all’originale chi riesce a dubitarne?».
Servirebbe una regolamentazione internazionale per arginare i disastri provocati dall’uso sconsiderato degli iperfake. Il disegno di legge dell’Ue per «proteggere lo spazio digitale» prevede in particolare la «menzione obbligatoria dell’uso dell’intelligenza artificiale» per questo genere di comunicazioni. Ma la soluzione non è così semplice. «Una volta che un video è diventato virale, nessuna smentita o nessuna censura potranno impedire alle persone meno accorte di credere a quel che hanno visto e sentito» conclude la nostra fonte. Come ha sperimentato, qualche settimana fa, uno dei leader del partito progressista slovacco, colpito e «affondato» da una falsa registrazione due giorni prima delle ultime politiche. Nell’audio, generato da un chatbot - un software che simula ed elabora le conversazioni umane - si poteva ascoltare la sua voce mentre confidava a un giornalista amico il piano per truccare le elezioni e comprare voti. All’esca hanno abboccato alcuni media nazionali che hanno rilanciato il falso scoop per qualche ora. Nonostante la truffa sia stata poi scoperta e denunciata, gli elettori sono rimasti col dubbio che qualcosa di vero comunque ci fosse e hanno punito il politico lasciandolo a casa. Si spiega così l’appello che il ministro francese del Digitale, Jean-Noël Barrot, ha lanciato dalle colonne di Le Figaro: «Sconsiglio vivamente di utilizzare gli iperfake per scopi politici». Ma è una raccomandazione inutile, nessun partito lo farebbe pubblicamente. È la guerra sporca delle trincee digitali a minacciare la democrazia.