Un nuovo capitolo per l’Europa digitale: approvato l’AI Act
di Moreno Stracci
Il 13 marzo 2024 il Parlamento europeo ha compiuto un passo storico approvando il Regolamento sull’intelligenza artificiale, noto come Artificial Intelligence Act o AI Act, considerato il primo quadro normativo completo al mondo per l’IA. Con 523 voti favorevoli, 46 contrari e 49 astensioni i deputati hanno sancito l’impegno dell’Unione Europea a normare in modo organico lo sviluppo, l’uso e la diffusione dei sistemi di intelligenza artificiale sul mercato europeo.
La legge, frutto di anni di negoziati tra Parlamento, Commissione e Stati membri, mira a garantire sicurezza, tutela dei diritti fondamentali, democrazia e Stato di diritto, promuovendo al contempo l’innovazione tecnologica nel rispetto dei valori europei.
Un elemento chiave della nuova legge è l’approccio basato sul rischio: i sistemi di IA vengono suddivisi in categorie in funzione del potenziale impatto su persone, società e ambiente. Le applicazioni considerate ad alto rischio — ad esempio quelle legate a infrastrutture critiche, istruzione, servizi pubblici, occupazione o giustizia — dovranno rispettare requisiti stringenti di trasparenza, sicurezza, controllo umano e valutazione dei rischi.
Tra le misure più significative approvate vi sono divieti per pratiche ritenute pericolose o incompatibili con i diritti fondamentali. Questi includono sistemi di identificazione biometrica in tempo reale su spazi pubblici raccolti in banche dati senza rigorose garanzie, strumenti di “credito sociale” automatizzato e tecnologie che manipolano il comportamento umano o sfruttano vulnerabilità psicologiche.
La legge introduce anche obblighi di trasparenza per molti sistemi di IA, con l’obiettivo di assicurare che le decisioni automatizzate siano comprensibili, e consente ai cittadini di presentare reclami o ottenere spiegazioni qualora un sistema influenzi i loro diritti fondamentali. Per proteggere l’innovazione, il testo prevede inoltre la creazione di “sandbox normative”, spazi di sperimentazione controllata per start-up e PMI che sviluppano tecnologie basate sull’IA.
Un altro punto di rilievo riguarda i modelli di IA per finalità generali (GPAI), cioè quei sistemi che servono come base per molteplici applicazioni (come grandi modelli linguistici o di generazione di immagini). Anche per questi sono previsti requisiti specifici, inclusi criteri di trasparenza e valutazione dei rischi sistemici.
L’AI Act non si limita alla crisi regolatoria interna: per estensione, norme europee su diritti, trasparenza e responsabilità tecnologica potrebbero diventare uno standard globale, simile all’effetto avuto in passato dal Regolamento generale sulla protezione dei dati (GDPR).
Dal punto di vista procedurale, l’approvazione di marzo costituisce una tappa fondamentale: il testo, dopo la verifica finale dei giuristi-linguisti e l’adozione del Consiglio dell’Unione, proseguirà il suo iter per l’entrata in vigore formale. Secondo la tabella di marcia concordata, le norme cominceranno ad applicarsi gradualmente nei prossimi anni, con alcune disposizioni già operative entro il 2025 e altre — come gli obblighi per sistemi ad alto rischio — in una fase successiva.
Questo voto del Parlamento europeo non è solo un atto giuridico: rappresenta un segno di leadership internazionale nella governance delle tecnologie emergenti, cercando di conciliare sviluppo e responsabilità in una delle aree più strategiche dell’economia digitale contemporanea.
