Vai al contenuto

L’impegno delle grandi tech contro le minacce AI

L’accordo tra giganti della tecnologia segna un passo avanti nella lotta contro l’uso malintenzionato dell’intelligenza artificiale nelle elezioni.

In un mondo sempre più digitalizzato, l’intelligenza artificiale (AI) non rappresenta solamente un’opportunità di crescita e miglioramento per l’efficienza e il progresso. È diventata anche una preoccupante fonte di manipolazione nelle elezioni democratiche. Per affrontare attivamente questa minaccia, una coalizione costituita dai grandi nomi del settore tecnologico si è impegnata a limitare l’uso malevolo di deepfakes e altre forme di AI che potrebbero ingannare o manipolare gli elettori.

Annunciato durante la Munich Security Conference, l’AI elections accord comprende una serie di impegni che mirano a rendere più difficile per gli attori malevoli l’utilizzo di AI generativa, modelli di linguaggio avanzato ed altri strumenti AI per influenzare il voto. Tra i firmatari figurano colossi quali Microsoft, Amazon, Meta, TikTok e piattaforme di social media come X, insieme a attori chiave e meno noti nel settore dell’IA come StabilityAI e ElevenLabs.

Questo accordo sottolinea l’impegno delle compagnie a supportare lo sviluppo di strumenti in grado di rilevare, verificare o etichettare media generati o manipolati sinteticamente. Si sono anche impegnati ad eseguire valutazioni dedicate sui modelli di AI per capire meglio come questi possano essere sfruttati per turbare le elezioni e a sviluppare metodi migliorati per tracciare la distribuzione di contenuti generati da AI che diventano virali sui social media. I firmatari hanno assunto l’impegno di etichettare i media AI dove possibile, rispettando usi legittimi come la satira.

Queste iniziative rappresentano il tentativo più ampio fino ad oggi da parte delle compagnie tecnologiche globali di affrontare le modalità con cui l’intelligenza artificiale potrebbe essere utilizzata per manipolare le elezioni. Emergono in seguito a diversi episodi in cui i deepfakes sono stati utilizzati come parte di operazioni di influenza. Ad esempio, un video con un conduttore di notizie francese generato da AI che sosteneva una cancellazione del viaggio in Ucraina del presidente Macron a causa di un attentato sventato, si è diffuso rapidamente online.

Il senatore Mark Warner ha evidenziato che i metodi utilizzati nelle elezioni passate sono ormai superati rispetto alle sfide odierne. Gli strumenti di AI si moltiplicano e i politici sollecitano le aziende ad integrare con maggiore rapidità metodi per identificare i contenuti generati dall’intelligenza artificiale. L’accordo include dunque la promozione di “segnali di provenienza” per identificare l’origine del contenuto dove appropriato e tecnicamente fattibile.

Queste tecnologie di rilevamento possono offrire solo una stima della probabilità che un media sia stato manipolato sinteticamente, e molti di questi strumenti si basano su tecnologie di apprendimento automatico che gli attori maligni possono studiare per creare falsi ancora più convincenti.

Le compagnie, tuttavia, sono sottoposte a pressioni da coloro che considerano gli sforzi per limitare la disinformazione abilitata dalla tecnologia come tentativi di censurare o sopprimere il discorso politico. Il presidente di Microsoft, Brad Smith, ha fatto notare che il diritto alla libera espressione non autorizza nessuno a mettere le proprie parole in bocca a qualcun altro in modo che inganni il pubblico.

Questi sforzi per contrastare i rischi legati alle elezioni legate all’intelligenza artificiale sono ancora agli albori. OpenAI, ad esempio, ha svelato un nuovo modello per la generazione di video di alta qualità, ma ha sottolineato che lo strumento, chiamato Sora, non è reso pubblicamente disponibile. La vicepresidente per gli affari globali di OpenAI, Anna Makanju, ha sottolineato l’importanza di comprendere lo stato attuale della tecnologia e di costruire una resilienza sociale intorno ad essa.