Vai al contenuto

L’AI ACT: Impatto su Aziende, PA e Autorità dopo la Pubblicazione in Gazzetta Ufficiale UE

Una nuova legge europea per l’intelligenza artificiale punta a garantire diritti fondamentali e stimolare l’innovazione. Scopri il suo impatto.

Il Regolamento sull’Intelligenza Artificiale, conosciuto come AI Act, è stato recentemente pubblicato in Gazzetta Ufficiale dell’Unione Europea, segnando l’inizio di una serie di fasi volte alla sua completa implementazione entro due anni. Questa legge mira a salvaguardare i diritti fondamentali dei cittadini UE e a incentivare gli investimenti nell’innovazione tecnologica, toccando sia enti pubblici che privati. Sono esclusi dall’applicazione alcuni ambiti, come i sistemi utilizzati esclusivamente per scopi militari e di ricerca.

Protezione dei Diritti e Promozione dell’Innovazione

L’AI Act è progettato per bilanciare due esigenze fondamentali: la protezione dei diritti fondamentali e la promozione dell’innovazione tecnologica. Questo regolamento è cruciale per assicurare che l’Europa mantenga una posizione di leadership nel settore emergente dell’intelligenza artificiale, proteggendo al contempo la democrazia, lo Stato di diritto e la sostenibilità ambientale.

Entrata in Vigore e Scadenze

La legge entrerà in vigore ufficialmente il 2 agosto, con una completa operatività prevista per il 2 agosto 2026. La sua implementazione sarà graduale, con scadenze differenti per le varie disposizioni. Ad esempio, le pratiche di IA vietate avranno un termine di attuazione di 6 mesi, mentre le disposizioni relative alle autorità di notifica avranno una tempistica di 12 mesi. Per la completa integrazione dei sistemi di IA ad alto rischio sarà necessario attendere 36 mesi.

Obblighi Diversificati per gli Sviluppatori

L’AI Act introduce obblighi specifici a seconda del caso d’uso e del rischio percepito. Mentre l’uso dell’intelligenza artificiale a basso rischio non sarà regolamentato, un piccolo numero di applicazioni ad alto rischio o proibite sono suddivise in categorie specifiche.

Destinatari e Obblighi

Vari sono i destinatari della normativa: dai provider ai deployer (utilizzatori di IA), fino agli stati membri che dovranno designare le autorità nazionali competenti. In Italia, ad esempio, l’AGID e l’ACN avranno ruoli chiave nell’implementazione e monitoraggio delle disposizioni dell’AI Act.

Le aziende e le amministrazioni dovranno condurre valutazioni e gestioni del rischio per ridurre i pericoli associati all’uso dell’AI. Due sono le macrocategorie di soggetti coinvolti: i provider di IA, che includono le Big Tech, e i deployer, che comprendono tutte le entità che utilizzano sistemi di IA in ambito professionale.

Definizione dei Deployer

I deployer sono soggetti che utilizzano professionalmente i sistemi di IA, ad esempio per la selezione del personale o la concessione di crediti bancari. Le regole impongono alle aziende tre principi: responsabilità, trasparenza e controllo umano sull’AI. Questi accorgimenti mirano a garantire che le tecnologie di IA siano utilizzate in modo etico e responsabile.

Sistemi Vietati

Ai sensi dell’AI Act, sono immediatamente vietati:

  • Sistemi di manipolazione cognitiva e scoring sociale.
  • Ai per la polizia predittiva basati sulla profilazione biometrica.
  • Ai che utilizzano il recognition facciale attraverso lo scraping non mirato di immagini.
  • Ai per l’inferenza delle emozioni in contesti lavorativi ed educativi, tranne se destinati a fini medici o di sicurezza.
  • Identificazione biometrica remota per attività di contrasto.

Iter Normativo e Ufficio Europeo sull’IA

A partire dal 2 febbraio 2025, entreranno in vigore i divieti per le applicazioni di AI con rischio inaccettabile, seguite dalle norme sui sistemi di AI generali. L’AI Act sarà pienamente operativo dal 2 agosto 2026, con alcune eccezioni estese fino al 2027.

A febbraio di quest’anno, è stato creato un Ufficio Europeo sull’IA, diretto da Lucilla Sioli, per supervisionare l’applicazione delle nuove normative. Questo organismo fungerà da punto di riferimento per garantire che le tecnologie di AI rispettino i diritti e la dignità umana.

Queste misure non solo mirano a prevenire e mitigare i rischi associati all’uso dell’intelligenza artificiale, ma intendono anche creare un ambiente favorevole allo sviluppo tecnologico, migliorando la competitività dell’Europa a livello globale.