Vai al contenuto

L’intelligenza artificiale nelle strategie hacker cinesi per manipolare le elezioni

Gli hacker collegati al governo cinese stanno sfruttando sempre più l’intelligenza artificiale e i deepfake per interferire nelle elezioni straniere, come rilevato da una recente ricerca di Microsoft.

L’interferenza nelle elezioni straniere da parte di gruppi di hacker affiliati al governo cinese rivela una crescente approccio tecnologico. Secondo un recente studio di Microsoft, vi è un incremento dell’uso di deepfake e altri contenuti generati da intelligenza artificiale per influenzare i risultati del voto. In questa nuova strategia, un ruolo fondamentale lo svolgono le piattaforme social e i siti di notizie fake, utilizzati per diffondere propaganda di Stato, inserire informazioni false nel discorso online e alimentare le reali divisioni esistenti nella società americana. Tuttavia, la Cina sta anche sperimentando nuovi strumenti per diffondere le proprie narrazioni all’estero, compresi Taiwan e gli Stati Uniti.

Il rapporto di Microsoft ha rivelato l’uso di immagini manipolate dall’intelligenza artificiale da parte degli attori della disinformazione collegati alla Cina per alimentare teorie del complotto. Per esempio, sono stati diffusi contenuti che sostengono l’idea secondo cui il governo degli Stati Uniti avrebbe deliberatamente causato un deragliamento ferroviario in Kentucky e incendi boschivi a Maui, Hawaii nel 2023. Alcuni dei post hanno utilizzato immagini create da intelligenza artificiale di quello che il rapporto descrive come “strade costiere e residenze in fiamme per rendere il contenuto più accattivante”.

Le recenti elezioni a Taiwan illustrano la versatilità della tecnologia nel campo della disinformazione. Gli osservatori di Microsoft hanno notato gruppi di propaganda cinesi creare notiziari generati da intelligenza artificiale, con finte presentatrici per influenzare le elezioni dell’isola. Alcuni di questi clip sono stati generati utilizzando CapCut, uno strumento di montaggio alimentato da intelligenza artificiale di proprietà di ByteDance.

“Questo è stato il primo caso in cui Microsoft Threat Intelligence ha assistito al tentativo di un attore legato a uno Stato sovrano di utilizzare contenuti AI per influenzare una elezione estera”, sottolinea il rapporto. Vi è stato un “aumento notevole” di contenuti che rappresentano figure politiche taiwanesi, e il politico più puntato è stato Lai Ching-te, presidente eletto di Taiwan e membro del partito filo-indipendentista al potere a Taiwan. Lai è stato l’oggetto di numerose disinformazioni atteggiate da intelligenza artificiale, tra cui meme generati da AI che accusavano lui e il suo partito di corruzione e video manipolati di una donna che affermava che Lai aveva molte amanti e figli illegittimi.

Inoltre, i tentativi di influenza da parte della Cina si estendono anche oltre Taiwan. Negli Stati Uniti, le campagne di influenza cinese hanno utilizzato account social fasulli per condurre sondaggi online su questioni divisive, come il cambiamento climatico, l’immigrazione e il finanziamento USA a Israele e Ucraina, e per impersonare elettori americani online. L’uso dei sondaggi online si è focalizzato sempre di più su questioni politiche americane, qualcosa che secondo la Microsoft potrebbe essere un tentativo di comprendere meglio l’elettorato americano e individuare possibili aree di sfruttamento in vista delle elezioni del 2024.