AI Act: nuove regole e responsabilità per chi sviluppa e utilizza l’intelligenza artificiale in europa
L’Unione Europea ha introdotto un’importante regolamentazione sull’intelligenza artificiale con l’entrata in vigore dei primi articoli dell’AI Act il 2 febbraio 2025. Questo nuovo quadro normativo richiede alle aziende di prestare maggiore attenzione all’uso dell’IA, sia quando viene sviluppata internamente, sia quando viene adottata da terzi.
Il regolamento stabilisce regole basate sul livello di rischio dei sistemi di intelligenza artificiale. Vengono vietate alcune pratiche considerate dannose, mentre per i sistemi a rischio elevato sono previsti requisiti specifici, come il controllo umano, la qualità dei dati e la documentazione tecnica.
L’AI Act non si applica solo ai fornitori e agli sviluppatori di tecnologie di IA. Anche chi utilizza questi sistemi in ambito aziendale deve rispettare gli obblighi previsti. Questo significa che aziende e organizzazioni che impiegano l’IA, anche senza averla progettata, sono tenute a valutarne il rischio, a garantire l’uso corretto degli strumenti e a formare il personale coinvolto. In particolare, chi utilizza sistemi classificati come ad alto rischio dovrà adottare misure concrete per assicurare la conformità.
I soggetti interessati comprendono produttori di tecnologie, distributori, importatori e utenti finali. Questo include anche chi impiega l’IA in attività quotidiane, ad esempio per selezionare candidati in un processo di assunzione, monitorare dipendenti, prendere decisioni nel settore sanitario o fornire servizi essenziali ai cittadini.
I settori più coinvolti comprendono le infrastrutture essenziali, l’istruzione, la gestione del personale, la sanità, la giustizia, la pubblica amministrazione e i servizi privati di base. In questi ambiti, l’uso dell’intelligenza artificiale dovrà essere attentamente monitorato e regolato.
Nella preparazione delle attività di compliance, le aziende dovranno tenere conto non solo dei requisiti previsti per chi sviluppa l’IA, ma anche degli obblighi che ricadono su chi la utilizza. La conformità non riguarderà quindi soltanto l’aspetto tecnico, ma anche i processi interni, la governance, la gestione del rischio e la formazione delle persone che interagiscono con queste tecnologie.
Le aziende devono iniziare da subito a valutare i propri sistemi di IA e capire se e come rientrano nella classificazione dell’AI Act. Sarà necessario raccogliere la documentazione richiesta, verificare eventuali obblighi di certificazione, e avviare percorsi di formazione per garantire un utilizzo consapevole e conforme.
Le scadenze principali sono tre. Dal 2 febbraio 2025 saranno vietate alcune pratiche ad alto rischio. Dal 2 agosto 2025 scatteranno gli obblighi per i fornitori di modelli di IA generica, ma anche per le aziende che utilizzano questi modelli in contesti ad alto rischio: in questi casi, devono assicurarsi che l’uso sia conforme alle regole europee, e che il personale coinvolto sia adeguatamente formato. Infine, dal 2 agosto 2026 il regolamento sarà pienamente applicato a tutti i sistemi ad alto rischio.
Parallelamente, l’Italia sta lavorando a una propria legge sull’intelligenza artificiale, che introdurrà autorità nazionali competenti e misure per sostenere l’innovazione e regolamentare settori chiave come sanità, lavoro e diritto d’autore.
L’AI Act rappresenta quindi un cambiamento importante per tutte le organizzazioni che operano in Europa. Non è una normativa riservata a chi sviluppa intelligenza artificiale, ma riguarda anche chi la utilizza. Per questo è fondamentale che le aziende inizino subito a prepararsi, includendo anche l’uso dell’IA nelle proprie strategie di compliance, valutando i rischi, e investendo nella formazione delle persone che interagiscono con questi strumenti.