Vai al contenuto

Difesa Proattiva nell’Era dell’IA contro gli Attacchi Cyber

Scopri come innovazioni come ChatGPT e l’intelligenza artificiale generativa stanno plasmando la nuova frontiera della sicurezza informatica.

Il campo della cyber security si trova a un punto di svolta: l’avvento dell’intelligenza artificiale (IA) generativa ha aperto nuovi orizzonti nella lotta contro gli attacchi informatici. In questo contesto, la collaborazione tra Microsoft e OpenAI si rivela cruciale nel definire le strategie di difesa contro i ciberattacchi più sofisticati e veloci di sempre.

Ad esempio, ChatGPT, il modello di linguaggio sviluppato da OpenAI, si sta dimostrando uno strumento potente sia per gli attaccanti che per i difensori nel mondo digitale. Gli attori malevoli cercano incessantemente di sfruttare la tecnologia dell’IA per migliorare l’efficacia delle loro campagne malevole, ad esempio attraverso l’iniezione di prompt o il tentativo di abuso di grandi modelli linguistici (LLM). Questo scenario di minacce emergenti, frutto della ricerca congiunta di Microsoft e OpenAI, rivela un panorama di sfide e opportunità mai visto prima d’ora per chi lavora a tutela della sicurezza informatica.

A fronteggiare questo scenario, Microsoft e i suoi alleati non hanno ancora osservato tecniche particolarmente innovative abilitate dall’IA originate dall’uso della stessa da parte degli attori di minacce. Tuttavia, la situazione è monitorata assiduamente per anticipare e contrastare le mosse dei cybercriminali. Il lavoro di ricerca in questo campo ha infatti lo scopo di identificare in anticipo comportamenti e strategie malevoli, fornendo alla comunità di difensori le conoscenze per rimanere un passo avanti.

Il partenariato tra Microsoft e OpenAI, che ha anche portato alla creazione di iniziative come il Microsoft Copilot for Security, mira a garantire l’uso sicuro e responsabile delle tecnologie IA come ChatGPT, al fine di tutelare la comunità da eventuali utilizzi distorti. Microsoft ha già intrapreso azioni decisive, ad esempio interrompendo beni e conti associati agli attori minacciosi e migliorando la protezione delle tecnologie LLM e degli utenti da attacchi o abusi.

Inoltre, Microsoft ha annunciato una serie di principi che modellano le proprie politiche e azioni per mitigare i rischi associati all’utilizzo dei propri strumenti e API IA da parte di minacce persistenti avanzate di stato-nazione (APT), manipolatori persistenti avanzati (APM) e sindacati di cybercriminalità tracciati. Questi principi si basano sull’identificazione e azione contro l’utilizzo degli attori minacciosi, la notifica agli altri fornitori di servizi IA, la collaborazione con altri stakeholder e la trasparenza, intendendo informare il pubblico e gli stakeholder sulle azioni intraprese.

L’impegno di Microsoft per un’innovazione responsabile dell’IA si manifesta nel rispetto dei diritti umani e degli standard etici, posizione rafforzata dall’adesione ai principi della Dichiarazione di Bletchley, endossata da 29 paesi. Le difese complementari messe in campo da Microsoft e OpenAI mirano a proteggere le piattaforme IA, studiando da vicino l’utilizzo di LLM e altre tecnologie emergenti da parte degli avversari.

L’industria deve pertanto rimanere vigile, riconoscendo che mentre gli attori minacciosi continueranno a mostrare interesse per l’IA e a sondare le capacità attuali delle tecnologie e i controlli di sicurezza, è fondamentale mantenere questi rischi in contesto. Pratiche di igiene informatica, come l’autenticazione multifattore (MFA) e le difese Zero Trust, restano essenziali in quanto gli aggressori possono utilizzare strumenti basati sull’IA per affinare gli attacchi cibernetici correnti che si affidano all’ingegneria sociale e alla ricerca di dispositivi e account non protetti.

Microsoft continuerà a tracciare gli attori di minacce e l’attività malevola che abusa degli LLM, lavorando con OpenAI e altri partner per condividere l’intelligence, migliorare le protezioni per i clienti e aiutare l’intera comunità di sicurezza.