L’AI Act rappresenta un passo avanti significativo nella creazione di un ambiente sicuro e innovativo per lo sviluppo dell’intelligenza artificiale, posizionando l’UE come leader globale nella regolamentazione di questa tecnologia emergente.
AI Act: un passo storico per la regolamentazione globale
Il 21 maggio 2024 il Consiglio dell’Unione Europea ha approvato ufficialmente l’AI Act, segnando una pietra miliare nella regolamentazione globale dell’intelligenza artificiale. Questa legislazione pionieristica introduce un approccio armonizzato e basato sul rischio per la regolamentazione dei sistemi di intelligenza artificiale, stabilendo così un nuovo standard mondiale. L’obiettivo principale è garantire che l’AI possa essere sviluppata e utilizzata in modo sicuro e affidabile, promuovendo al contempo l’innovazione e tutelando i diritti fondamentali dei cittadini europei.
Un approccio basato sul rischio per regolamentare l’AI
L’AI Act classifica i sistemi di intelligenza artificiale in base ai livelli di rischio che rappresentano per la società. I sistemi a basso rischio saranno soggetti a obblighi di trasparenza minimi, mentre quelli ad alto rischio dovranno soddisfare requisiti e obblighi rigorosi per poter accedere al mercato dell’UE. Alcune tecnologie, come la manipolazione comportamentale cognitiva e il social scoring, saranno completamente vietate a causa del loro rischio inaccettabile. Allo stesso modo, l’uso dell’AI per la polizia predittiva basata sul profiling e per la categorizzazione delle persone tramite dati biometrici sarà proibito.
Struttura di governance e sanzioni previste dall’AI Act
Per garantire l’applicazione efficace delle nuove norme, verranno istituiti vari organismi di governance, tra cui un Ufficio per l’AI all’interno della Commissione Europea, un pannello scientifico di esperti indipendenti, un Consiglio per l’AI con rappresentanti degli Stati membri e un forum consultivo per gli stakeholder. Le violazioni dell’AI Act saranno sanzionate con multe proporzionali al fatturato globale annuale dell’azienda colpevole, con penalità adeguate alle PMI e alle start-up.
Innovazione, trasparenza e prospettive future
Oltre a stabilire norme rigorose, l’AI Act promuove un quadro giuridico favorevole all’innovazione. Prevede la creazione di “sandbox regolatorie” per consentire lo sviluppo, il test e la validazione di sistemi di intelligenza artificiale innovativi in condizioni reali. La trasparenza è un altro pilastro della legislazione: i sistemi di AI ad alto rischio dovranno essere registrati in un database UE, e l’uso di sistemi di riconoscimento delle emozioni dovrà essere comunicato alle persone coinvolte.
Il regolamento entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta Ufficiale dell’UE e sarà applicabile due anni dopo, con alcune eccezioni per specifiche disposizioni. Questa nuova regolamentazione non solo influenzerà i 27 stati membri dell’Unione Europea, ma avrà un impatto globale, poiché le aziende al di fuori dell’UE che utilizzano dati dei clienti europei dovranno conformarsi alle nuove regole. Altri paesi potrebbero seguire l’esempio dell’Unione, adottando norme simili per regolamentare l’AI.