Vai al contenuto

La tutela delle elezioni: promesse mantenute o non da parte delle aziende di intelligenza artificiale?

Aziende di AI promettono di proteggere l’integrità delle elezioni, ma i professionisti del settore temono che queste rassicurazioni non siano tradotte in misure effettive. Dopotutto, una promessa non basta: bisogna vedere i fatti.

Tre mesi fa, un gruppo selezionato di sviluppatori di intelligenza artificiale (AI) si è impegnato a mettere in atto misure di protezione per difendere le elezioni dall’intrusione delle tecnologie di machine learning. Tuttavia, oggi policy maker e ricercatori manifestano il loro allarme poiché non avvertono azioni significative da parte delle grandi aziende tecnologiche per mantenere le promesse fatte.

Infatti, alla Conferenza sulla Sicurezza di Monaco, svoltasi a febbraio, 20 importanti aziende tecnologiche hanno aderito a un patto sulle elezioni e l’AI, impegnandosi a sviluppare strumenti e implementare politiche per prevenire l’utilizzo malevolo dell’AI per influenzare le elezioni. Successivamente, altre sei società hanno firmato il patto volontario che costituisce un ampliamento di un importante impegno preso nell’anno precedente, in cui le aziende di AI si impegnano a dare priorità alla sicurezza nella progettazione dei sistemi di machine learning.

Tuttavia, il panorama attuale sta sollevando preoccupazioni in numerosi osservatori dell’AI: sembra infatti che questi impegni volontari non si stiano traducendo in misure concrete. Il senatore Mark Warner (D-Va), in occasione della conferenza RSA a San Francisco, ha espresso il suo incoraggiamento per gli impegni presi dalle aziende, ma ha sottolineato che non è chiaro che cosa sia stato fatto per implementarli.

Nel mentre si svolgono le elezioni in India, le elezioni parlamentari europee a giugno e quelle statunitensi a gennaio, Warner sostiene sia arrivato il momento per le aziende di AI di “farci vedere i fatti”. Da qui, l’invio di una lettera alle aziende firmatarie del patto elettorale, in cui chiede un aggiornamento sui progressi realizzati. Quest’appello riflette le critiche provenienti da gruppi della società civile.

Uno dei problemi maggiori sollevati è legato alla questione dell’accountability: “Cosa stanno facendo esattamente e fino a che punto è efficace?”, si interroga Dhanaraj Thakur, direttore di ricerca presso il Center for Democracy and Technology, orientato a sinistra.

Irene Solaiman, responsabile della politica globale in Hugging Face, afferma che l’accesso ai modelli da parte di ricercatori esterni fornisce spesso nuovi punti di vista in grado di scoprire vulnerabilità o vettori di attacco unici nei grandi modelli di linguaggio. “L’accesso ai modelli può aiutare a esaminarli, a studiarli, a migliorarli e a svilupparli in modi innovativi”, afferma Solaiman. “Le visioni esterne possono fornire intuizioni sui sistemi che potrebbero non sorgere mai all’interno delle organizzazioni di sviluppo”.

Anche se da quando è stato firmato l’accordo sulle elezioni si sono registrati alcuni progressi sulle misure tecniche relative alla sicurezza elettorale, il Brennan Center for Justice esprime preoccupazione riguardo ai patti firmati dalle aziende di AI. Afferma, infatti, che pur contenendo impegni corretti, sono “completamente inapplicabili e non includono modi per misurare i progressi dei firmatari nel conseguimento dei loro obiettivi”.

Anche Dave Leichtman, direttore della responsabilità civile aziendale presso Microsoft, esprime fiducia nel fatto che le aziende rispetteranno i loro impegni su AI ed elezioni. Tuttavia, sottolinea che “la prova è nel pudding” e che sarà necessario aspettare l’esito delle elezioni per affermare con certezza se è stato svolto un buon lavoro.