Vai al contenuto

Microsoft e la sicurezza nell’AI generativa

Microsoft lancia PyRIT, uno strumento per l’analisi dei rischi nell’IA generativa, segnando un passo avanti nella cyber security.

Microsoft ha annunciato il rilascio di un framework di automazione aperto chiamato PyRIT (Python Risk Identification Toolkit per l’intelligenza artificiale generativa), uno strumento progettato per sostituire processi manuali onerosi nella verifica dei sistemi di AI generativa.

L’obiettivo di questo toolkit è di fornire ai professionisti della sicurezza e agli ingegneri del machine learning gli strumenti necessari per valutare proattivamente i rischi nei propri sistemi di IA generativa. Questo passo rappresenta l’ultimo degli investimenti sostenuti da Microsoft per la sicurezza dell’IA fin dal 2019. L’azienda evidenzia che la protezione dell’IA deve essere un’impegno condiviso all’interno dell’ecosistema tecnologico globale.

Il red teaming, ovvero l’attività di valutazione della sicurezza che simula attacchi informatici, è essenziale per individuare potenziali minacce e vulnerabilità nei sistemi di intelligenza artificiale. Tuttavia, nel contesto dell’IA generativa, ciò si presenta con sfide uniche. Questi sistemi sono notevolmente più probabilistici rispetto a quelli tradizionali, il che significa che possono generare risultati diversi a fronte dello stesso input, rendendo più complessa l’identificazione di pattern coerenti.

PyRIT si distingue per l’efficienza con cui permette di condurre esercizi di red teaming. Ad esempio, riesce a generare migliaia di prompt dannosi e a valutarne i risultati in poche ore piuttosto che settimane. Ciò dimostra quanta strada sia stata fatta da quando sono stati sviluppati i primi script nel 2022 per la valutazione di tali sistemi.

Attraverso l’uso di PyRIT, Microsoft intende non solo incrementare l’efficienza delle proprie operazioni di red teaming ma anche estendere l’uso di questi strumenti di sicurezza all’intera industria, migliorando le pratiche di sicurezza in maniera collaborativa. PyRIT è considerato una risorsa fondamentale nell’arsenale del Microsoft AI Red Team e un alleato nell’automazionazione di compiti ripetitivi, permettendo ai professionisti della sicurezza di focalizzarsi su incognite e scenari rischiosi più sofisticati.

I cinque elementi principali di PyRIT includono: obiettivi, set di dati, un motore di valutazione, strategie di attacco e memoria, tutti progettati per essere il più estensibili e adattabili possibile. Questa strutturazione consente ai professionisti della sicurezza di adattare l’uso di PyRIT a vari contesti e scenari all’interno del red teaming di IA generativa.

Microsoft incoraggia i professionisti e gli enti del settore a sperimentare direttamente con PyRIT per valutare e ridurre i rischi dell’intelligenza artificiale nelle loro applicazioni. La condivisione dell’uso di queste risorse tra gli addetti del settore aumenta la sicurezza complessiva e la responsabilità nell’uso dell’IA.