Effettua la tua ricerca
More results...
La nostra crescente dipendenza dai media digitali per informarci, soprattutto in ambito politico, compromette il nostro criterio nell’accesso a fonti di informazione autentiche. Non sono più rari i casi in cui questa ambiguità viene sfruttata a fini politici, attraverso la manipolazione di video e audio con l’intelligenza artificiale, con l’obiettivo di confondere, diffamare, offuscare e distrarre la popolazione e i suoi leader.
Sebbene il termine deepfake non goda attualmente di una definizione condivisa, per arrivare a una nozione trasversale possiamo fare riferimento a quanto espresso da Nina Schick (2020), che lo definisce come: “un tipo di media digitale (audio, video e immagini) generato interamente o parzialmente dall’intelligenza artificiale (IA) con uno scopo malevolo o disinformativo” [1]. In questo senso, un deepfake consiste nella creazione o modifica (con fini malevoli) dell’aspetto fisico di una persona o persino della sua voce, inserendola digitalmente in luoghi in cui non è mai stata o facendole dire cose che non ha mai detto, semplicemente facendo muovere la sua immagine secondo un comando, con l’IA come strumento principale di questo processo.
È importante, tuttavia, delimitare le dimensioni del concetto. Il deepfake è, come detto in precedenza, un montaggio intenzionale, assistito dall’IA, con possibili fini disinformativi o malevoli da parte del creatore (escludendo quindi gli utilizzi “positivi”, come il semplice intrattenimento o la dimostrazione tecnologica)[2]. Questa concettualizzazione lascia fuori i montaggi che non richiedono IA, così come quelli realizzati nel cinema per ricreare i volti di attori deceduti (come nel caso della Principessa Leia nel film Star Wars: Rogue One). Inoltre, grazie a questa assistenza totale o parziale dell’IA, i deepfake non richiedono un elevato grado di intervento umano[3], poiché il lavoro più complesso viene svolto in modo automatico, consentendo all’uomo di definire semplicemente l’intento del deepfake.
Per quanto riguarda la loro finalità, secondo le statistiche dell’azienda tecnologica olandese Deeptrace[4], il 96% dei deepfake video attualmente in circolazione viene utilizzato per scopi pornografici e, in misura molto minore, per finalità comiche (scherzi) o di manipolazione politica. Inoltre, sebbene si tratti ancora di un uso marginale, il National Artificial Intelligence Program degli Stati Uniti, nel suo rapporto del 2021, aveva già segnalato il potenziale pericolo dell’uso intenzionale dei deepfake con fini politici[5].
Nel 2020, il Center for Security and Emerging Technologies, un think tank con sede presso l’Università di Georgetown (USA), ha pubblicato il rapporto Deepfakes: a Grounded Threat Assessment (Una valutazione fondata sulle minacce). Nel documento, l’ente evidenzia la crescente preoccupazione della comunità della sicurezza nazionale statunitense riguardo agli usi potenzialmente pericolosi dei deepfake, soprattutto quelli legati alla manipolazione di video con figure politiche e alle loro conseguenze a livello nazionale e internazionale. Si sottolinea che la diffusione massiccia dei deepfake coincide con un’epoca in cui “we can no longer believe what we see” (“non possiamo più credere a ciò che vediamo”), in un contesto in cui gran parte della diffusione informativa avviene attraverso piattaforme digitali, facilmente manipolabili e progettate per polarizzare e compartimentare l’opinione pubblica.
È fondamentale comprendere che i deepfake si diffondono e si collocano all’interno di un contesto ben definito: quello delle fake news. Secondo la Federazione Internazionale dei Giornalisti[6], il termine fake news viene utilizzato per concettualizzare la divulgazione di notizie false che creano un pericoloso ciclo di disinformazione intenzionale[7]. Esse possono assumere diversi formati, come articoli di stampa, contenuti audio o video, su Internet o sotto forma di semplici voci.
I deepfake, quando hanno un’intenzionalità politica, possono essere considerati parte dell’orbita delle fake news, ovvero notizie intenzionalmente false. È importante sottolineare che le notizie false o controverse non sono un fenomeno nuovo, ma l’innovazione delle fake news risiede nel loro principale mezzo di diffusione (i social media) e nel contesto socio-informativo noto come post-verità.
Il concetto di post-verità[8], secondo il Dizionario di Oxford (1992), si riferisce a un quadro simbolico in cui i fatti oggettivi diventano meno rilevanti nella formazione dell’opinione pubblica, mentre prevalgono le emozioni e le credenze popolari[9]. Questa definizione è essenziale per comprendere l’impatto dei deepfake sull’opinione pubblica, nonché gli errori di elaborazione studiati dalla Psicologia Cognitiva. Si tratta di un concetto cruciale per capire perché i deepfake rappresentano una minaccia per la sicurezza nazionale e internazionale, soprattutto considerando il contesto tecnologico che ne favorisce la diffusione.
Effetti Politici (Casi)
L’uso politico dei deepfake è meno comune rispetto alle loro applicazioni in ambito pornografico o satirico, ma quando vengono impiegati con fini di manipolazione politica possono avere conseguenze profonde sulla stabilità di un governo, sui processi elettorali o persino sull’andamento di un conflitto bellico. In questi casi, la chiave sta nella manipolazione dell’opinione pubblica attraverso immagini o video falsificati per seminare dubbi sulla legittimità di un governo, influenzare il sostegno a politiche di Stato, indirizzare il voto a favore o contro un candidato, diffamare figure politiche o addirittura influenzare le percezioni economiche per scopi speculativi.
Nei seguenti esempi vengono presentati casi in cui i deepfake hanno prodotto o sono stati sul punto di produrre cambiamenti politici significativi. I governi sono sempre più consapevoli del potere di queste tecniche, dotandosi di esperti incaricati di rilevarle e smentirle prima che possano raggiungere una grande diffusione. Sia i deepfake che i cheapfake (senza l’uso dell’IA) possono manipolare efficacemente l’opinione pubblica, talvolta senza richiedere ingenti risorse tecniche.
Nel 2018, gli Stati Uniti hanno assistito a un cambiamento sorprendente nella percezione del potere dei deepfake, quando l’attore e regista Jordan Peele ha diffuso un video falso dell’ex presidente Barack Obama. Intitolato “You won’t believe what Obama says in this video!“, il filmato mostrava l’ex capo di Stato mentre pronunciava dichiarazioni offensive nei confronti di Donald Trump, con un realismo inquietante. Data la reputazione di Obama e la popolarità di Peele, il video ha attirato una massiccia attenzione mediatica e ha rappresentato un primo campanello d’allarme su come la manipolazione digitale di alta precisione potesse essere utilizzata per diffondere informazioni false. Peele, in un gesto di trasparenza, ha rapidamente rivelato la propria paternità del video, spiegando che il suo obiettivo era sensibilizzare la società sulla facilità con cui la tecnologia deepfake può ingannare l’opinione pubblica se usata in modo irresponsabile.
Un anno dopo, nel 2019, la presidente della Camera dei Rappresentanti degli Stati Uniti, Nancy Pelosi, divenne protagonista involontaria di un altro episodio di manipolazione attraverso un cheapfake. Nel video, che si diffuse rapidamente sui social media, appariva mentre parlava con lentezza, dando l’impressione di essere ubriaca. Sebbene la tecnica fosse molto più semplice rispetto al caso di Obama—fu sufficiente rallentare il filmato originale—l’impatto mediatico fu simile in termini di diffusione, portando vari media e figure politiche a mettere in discussione il suo stato di salute e la sua capacità di governare. Pelosi fu costretta a rilasciare dichiarazioni ufficiali per smentire il video, dimostrando che anche manipolazioni rudimentali, prive di algoritmi di IA, possono danneggiare la reputazione di leader politici e alimentare narrazioni che ne minano l’immagine pubblica.
Nello stesso anno, in Gabon, la prolungata assenza del presidente Ali Bongo scatenò voci sulla sua salute e sulla sua capacità di esercitare il potere, alimentate da un video in cui appariva con una dizione innaturale e movimenti strani. Molti cittadini e membri dell’opposizione arrivarono a sospettare che si trattasse di un deepfake creato per nascondere la morte o l’incapacità del leader, generando un tale livello di sfiducia da contribuire a un tentativo di colpo di Stato. Sebbene in seguito fu dimostrato che il video era autentico e che l’aspetto di Bongo era dovuto agli effetti di interventi chirurgici e trattamenti medici (motivi della sua assenza), il caso mise in luce la vulnerabilità di un governo di fronte alla semplice ipotesi di una manipolazione audiovisiva. Il panico collettivo e la mancanza di informazioni ufficiali coerenti fecero sì che un semplice sospetto su un deepfake rischiasse di provocare il crollo di un governo, sottolineando il potenziale di questa tecnologia nel destabilizzare interi Paesi.
Nel 2021, la Lettonia fu teatro di un episodio che illustrò un altro rischio legato ai deepfake: la sostituzione di identità in incontri politici o diplomatici di alto livello. Diversi eurodeputati, tra cui Richard Kols, credettero di partecipare a una videoconferenza con Leonid Volkov, oppositore russo e capo della campagna del defunto Alexei Navalny. Tuttavia, in realtà stavano conversando con un impostore che utilizzava un deepfake in tempo reale. L’inganno, attribuito ai comici russi Vovan & Lexus, rivelò la vulnerabilità delle istituzioni internazionali di fronte a strategie di manipolazione digitale sempre più sofisticate, le quali potrebbero potenzialmente alterare discussioni geopolitiche sensibili se non vengono rilevate in tempo.
Infine, nel 2022, il conflitto armato in Ucraina offrì il primo grande esempio di deepfake utilizzati con fini psicologici e militari. Comparvero video in cui il presidente ucraino Volodymyr Zelensky sembrava chiedere la resa delle truppe ucraine alle autorità russe, un contenuto che fu immediatamente smentito dalle autorità di Kiev. Poco dopo, un presunto sindaco di Kiev convocò alcuni leader europei in un altro video falso. Entrambe le operazioni furono attribuite alla Russia e riflessero l’uso crescente dei deepfake per demoralizzare la popolazione e minare la legittimità dei leader nei contesti di guerra. Tuttavia, la rapidità con cui questi video furono smascherati dimostrò un miglioramento nella consapevolezza del fenomeno e nella capacità di risposta, segnando un nuovo capitolo nell’uso dell’informazione (e della disinformazione) come arma strategica.
I casi menzionati sono tra i più rilevanti, ma non sono gli unici. Dal 2019, i deepfake sono aumentati in modo significativo nel contesto delle campagne elettorali in tutto il mondo. Parlare di deepfake significa ormai affrontare una realtà destinata, secondo le tendenze attuali, a crescere ulteriormente. Per contrastarne gli effetti, sarà essenziale non solo il miglioramento dei sistemi di rilevamento, ma anche l’educazione della popolazione sui potenziali rischi e sulle vulnerabilità psicologiche che i deepfake mirano a sfruttare.
[1] Schick, N. (2020) – Deepfakes: the coming infoapocalypse. Editorial Tamang Ventures, New York, USA. p. 9.
[2] Botha, J., Pieterse, H. (2020) – Fake news and deepfakes: a dangerous threat for 21st Century Information Security. Consiglio per la Ricerca Scientifica e Industriale, Governo del Sudafrica..
[3] Westerlund, M. (2019) – The Emergence of Deepfake Technology: A Review en Technology Innovation Managment Review, Vol. 9.
[4] Cafranc, P. (2019) – Deepfake, cuando lo que vemos ya no es fiar, pág 6.
[5] National Program for Artificial Inteligence (2021) – Deepfake Guide.
[6] Federación Internacional de Periodistas – ¿Qué son las fakenews? (in spagnolo).
[7] Ídem.
[8] Post-truth e il termine in inglese.
[9] Disponibile in: https://www.oxfordlearnersdictionaries.com/spellcheck/english/?q=postruth
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link