Vai al contenuto

Guida Condivisa per un’Implementazione Sicura dei Sistemi di Intelligenza Artificiale

Una sinergia di agenzie internazionali rilascia una guida condivisa per un’implementazione sicura dei sistemi di intelligenza artificiale, evidenziando le migliori pratiche da adottare.

Recentemente, il Centro di Sicurezza dell’Intelligenza Artificiale dell’Agenzia di Sicurezza Nazionale (NSA AISC) ha rilasciato la scheda informativa sulle cybersecurity “Deploying AI Systems Securely”, elaborata in collaborazione con la CISA (Cybersecurity and Infrastructure Agency), l’FBI (Federal Bureau of Investigation) e numerose altre agenzie di sicurezza di paesi come Australia, Canada, Nuova Zelanda e Regno Unito.

Ciò che rende questa guida particolarmente importante è il suo intento: offre le migliori pratiche per implementare e operare con sicurezza i sistemi di intelligenza artificiale (AI) sviluppati esternamente con l’obiettivo di migliorarne la riservatezza, l’integrità e la disponibilità. Inoltre, la guida mira a garantire che ci siano le adeguate mitigazioni per affrontare le vulnerabilità note nei sistemi di IA e fornisce metodologie e controlli per proteggere, rilevare e rispondere ad attività dannose nei confronti dei sistemi di IA e dei dati e servizi associati.

La CISA incoraggia le organizzazioni che stanno implementando e operando con sistemi di IA sviluppati esternamente a rivedere e applicare tale guida in quanto applicabile. È inoltre sottolineato il forte incoraggiamento all’analisi delle guide precedentemente pubblicate sulla sicurezza dei sistemi di IA. Difatti, con l’avvento sempre più radicale della cybersecurity nel quotidiano, sia a livello personale che aziendale, l’adozione di strategie di protezione sta diventando di vitale importanza. Guidelines che abbracciano queste tematiche, come quella rilasciata da NSA AISC, contribuiscono alla crescita della consapevolezza e alla formazione di una cultura della sicurezza.