Vai al contenuto

Rischi Cyber in Finanza: L’Allarme del Tesoro USA

L’uso dell’intelligenza artificiale nel settore finanziario potrebbe comportare nuovi rischi cyber, avverte un report del Dipartimento del Tesoro USA.

Lo sviluppo e l’adozione dell’intelligenza artificiale (AI) nel settore dei servizi finanziari sta generando crescenti preoccupazioni per quanto riguarda i rischi di cyber-frode. Un report recentemente pubblicato dal Dipartimento del Tesoro degli Stati Uniti evidenzia queste minacce, sottolineando come gli attori malintenzionati possano sfruttare gli strumenti AI per perpetrare frodi in un settore già complesso e delicato come quello finanziario.

Il documento, preparato dall’Ufficio per la Cybersecurity e la Protezione delle Infrastrutture Critiche, parte dall’ordine esecutivo sull’AI del Presidente Joe Biden, mirando a sensibilizzare su specifici rischi cyber legati all’utilizzo di queste tecnologie. Pur non contenendo mandati specifici o raccomandazioni in merito all’uso dell’AI nell’industria finanziaria, il report invita il settore a prestare attenzione alle potenziali implicazioni dell’AI nella proliferazione di frodi.

La segretaria al Tesoro per la Finanza Domestica, Nellie Liang, ha messo in risalto l’impegno dell’amministrazione Biden nel lavorare con le istituzioni finanziarie per sfruttare le tecnologie emergenti tutelando, al contempo, la resilienza operativa e la stabilità finanziaria. Nel contesto delle cyber minacce, il report incoraggia le istituzioni finanziarie a rafforzare la gestione del rischio e le pratiche di cybersecurity, suggerendo anche un aumento dell’integrazione delle soluzioni AI e un potenziamento della collaborazione, in particolare per quanto concerne la condivisione delle informazioni sulle minacce.

L’attenzione è posta sull’urgenza di adeguare le pratiche di gestione dei rischi AI alle migliori prassi di protezione dei sistemi IT. Alcune istituzioni finanziarie, che hanno preso parte al report, hanno evidenziato come le loro attività attuali rispecchino elementi del quadro di gestione dei rischi IA del National Institute of Standards and Technology (NIST), nonostante la complessità nell’istituire politiche pratiche e aziendali per tecnologie emergenti come l’AI generativa.

Tra le altre istituzioni interpellate nel settore, alcune hanno dichiarato di stare sviluppando autonomamente quadri di gestione dei rischi specifici per l’AI, basati sui principi del NIST, sui principi IA dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OECD) e sulla guida alla sicurezza e alla privacy dell’IA del Progetto di Sicurezza delle Applicazioni Aperte a livello mondiale (OWASP).

Il documento rileva una “crescente disparità di capacità” tra le grandi e le piccole aziende del settore, con le prime che possono disporre di molteplici risorse dedicate alla prevenzione delle frodi AI, mentre le ultime spesso dipendono esclusivamente da fornitori di terze parti per queste competenze.

Nonostante queste sfide, molte istituzioni finanziarie riconoscono l’importanza dell’adozione dell’AI, vista la sua capacità di migliorare significativamente la qualità e l’efficienza dei costi nelle funzioni di cybersecurity e gestione anti-frode. Il report denuncia inoltre l’uso potenziale dell’AI da parte degli attori delle minacce cyber in attività quali ingegneria sociale, generazione di malware e codice, scoperta di vulnerabilità e disinformazione.

Le tecnologie AI potrebbero anche consentire alle istituzioni finanziarie di adottare posizioni più proattive in termini di cybersecurity e prevenzione delle frodi. Infine, il settore chiede una maggiore uniformità nella terminologia degli strumenti AI per favorire discussioni più produttive con parti terze e regolatori.

Nel prossimo futuro, il Dipartimento del Tesoro lavorerà a stretto contatto con il settore finanziario e altri enti per affrontare le sfide legate all’IA nel settore finanziario, facendo perno anche sulla collaborazione internazionale e sulla regolamentazione federale e statale.