L'Unione Europea approva l'AI Act

L'Unione Europea approva l'AI Act

la prima legge al mondo sull'intelligenza artificiale

Nell'epoca digitale in cui viviamo, l'Intelligenza Artificiale (AI) si è affermata come un pilastro fondamentale nella trasformazione dei settori industriali, sanitari, finanziari e della mobilità. Tuttavia, questa rapida evoluzione tecnologica ha sollevato importanti questioni etiche e morali, rendendo imperativo un quadro normativo per garantirne un utilizzo responsabile e sicuro. Con 523 voti a favore, si impone un nuovo standard per mettere questa strabiliante e ormai celebre tecnologia al servizio dell'uomo e del cittadino.

Cos'è l'AI Act e perché è importante
Mercoledì 13 marzo, il Parlamento europeo ha approvato, con ampia maggioranza il Regolamento sull’Intelligenza Artificiale (il cosiddetto “AI Act”). L'AI Act è un regolamento progettato per assicurare che l'utilizzo dell'IA all'interno dell'UE sia conforme ai valori e ai diritti fondamentali dell'Unione stessa. «Stiamo regolamentando il meno possibile, ma quanto necessario!», ha commentato il commissario al Mercato interno e al Digitale Thierry Breton. Mentre il correlatore della commissione per le libertà civili Dragos Tudorache ha sottolineato che l’Ue ha «collegato per sempre il concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società».

Le regole dell'AI Act
Il regolamento stabilisce quattro livelli di rischio per categorizzare le applicazioni AI, ciascuno con requisiti specifici per garantire la conformità e la sicurezza:
  • Rischio inaccettabile: vietate le applicazioni che utilizzano tecniche subliminali o sistemi di punteggio sociale, così come i sistemi di identificazione biometrica remota in tempo reale utilizzati dalle forze dell'ordine.
  • Rischio alto: applicazioni che includono settori critici come trasporti, istruzione, impiego e welfare. Prima di essere messe sul mercato, queste applicazioni devono essere sottoposte a una valutazione di conformità e soddisfare una serie di requisiti per garantirne la sicurezza.
  • Rischio limitato: comprende tutti quei sistemi AI che devono rispettare obblighi specifici di trasparenza (ad esempio, informando gli utenti quando interagiscono con un chatbot).
  • Rischio minimo: applicazioni ampiamente diffuse come filtri antispam e videogiochi abilitati all'IA.


L'AI in Italia: alcuni dati
In Italia, l'adozione delle applicazioni AI è in costante crescita. Secondo l'Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato dell'IA ha registrato un valore di 500 milioni di euro nel 2023, con un aumento del 32% rispetto al 2021. Le imprese italiane stanno abbracciando sempre più questa tecnologia, con il 61% delle grandi imprese e il 15% delle PMI che hanno già avviato progetti AI, con previsioni di crescita nei prossimi anni.

Gli ultimi passi
Dopo l'approvazione formale del Parlamento e del Consiglio, si dovrà attendere la pubblicazione in Gazzetta Ufficiale. L'applicazione delle norme sarà scaglionata, con una applicabilità generale entro il consueto termine di ventiquattro mesi ed alcune specifiche eccezioni: entro sei mesi diventeranno già operative le prescrizioni riguardanti le pratiche AI vietate (Prohibited Artificial Intelligence Practices), entro un anno quelle relative alle GPAI (General Purpose AI), entro trentasei mesi alcune norme sui sistemi AI "High Risk".

Scopri Cofoundry Hub il centro sviluppo e ricerca dedicato all'intelligenza artificiale natro in Cofoundry

Cofoundry Hub

Cofoundry: spazi e servizi per le aziende
info@cofoundry.it

02 89771259