L’intelligenza artificiale rimane al centro dell’attenzione nell’Unione europea. Con l’entrata in vigore parziale dell’Ai Act lo scorso 2 febbraio 2025, le discussioni su come normare questa tecnologia sono tutt’altro che chiuse. Mancano indicazioni fondamentali come linee guida e codici di condotta, e sono in corso i dibattiti su ritardi o cambiamenti nell’attuazione delle norme chiave. Nel frattempo, esperti, istituzioni e aziende si confrontano per definire il futuro di un settore che impatta molti aspetti della vita quotidiana e dell’economia europea.
L’applicazione iniziale dell’ai act e le criticità emerse
La prima fase dell’Ai Act è entrata in vigore nel febbraio 2025, vietando i sistemi di intelligenza artificiale riconosciuti come a “rischio inaccettabile”. Sono stati fissati requisiti per le imprese che operano sul mercato comunitario, ma molti aspetti restano da definire. Mancano documenti essenziali come il codice di condotta e le linee guida, richieste per dare chiarezza all’applicazione. Questi ritardi generano dubbi e incertezze fra i protagonisti del settore.
Dibattito a milano con andrea bertolini
Durante la tavola rotonda organizzata dall’Ispi a Milano, Andrea Bertolini, direttore del Centro per la regolazione della robotica e dell’IA alla Scuola Superiore Sant’Anna, ha espresso forti critiche. Ha sottolineato l’ambiguità del termine “intelligenza artificiale” e la difficoltà di classificare i sistemi secondo livelli di rischio precisi. Per Bertolini, “l’effetto è che le norme non riescono a distinguere chiaramente tra applicazioni vietate o a rischio elevato, generando incertezza per le aziende e gli utenti.” Le linee guida, non vincolanti, non danno inoltre quella elasticità necessaria a gestire le diverse tecnologie e casi d’uso. Questa situazione potrebbe portare a interpretazioni divergenti sul territorio europeo e a un’applicazione disomogenea del regolamento.
Leggi anche:
Opinioni divergenti sulla regolamentazione e il confronto con gli Stati uniti
Mentre Bertolini critica la formulazione attuale dell’Ai Act, Edoardo Raffiotta, professore di diritto dell’intelligenza artificiale all’Università di Milano Bicocca, difende la normativa. Secondo lui, “attribuire all’Ai Act la responsabilità di rallentare l’innovazione in Europa è sbagliato.” Raffiotta indica come vero problema la proliferazione di regolamenti eccessivi, specie a livello statale, che creano un quadro confuso.
Prendendo l’esempio degli Stati Uniti, dove quasi tutti i 50 Stati adottano normative indipendenti per l’intelligenza artificiale, Raffiotta mostra come non sia indispensabile una regolamentazione uniforme per favorire lo sviluppo. Negli Usa la responsabilità è affidata al mercato e l’intervento delle autorità è ex post, cioè dopo che i problemi emergono. Questo modello non impedisce comunque l’innovazione né la crescita del settore, segnalando che l’Europa dovrebbe concentrarsi su quali regole eliminare o modificare, più che discutere la presenza stessa di una regolamentazione.
La visione europea per il futuro
L’Ai Act vuole mettere ordine in uno scenario complesso, riguardando tutte le organizzazioni che sviluppano o usano sistemi di intelligenza artificiale che influiscono su cittadini o mercati europei. La normativa vuole rendere queste tecnologie più sicure, ridurre i rischi per la sicurezza pubblica, assicurare il controllo umano sui sistemi di IA, tutelare la privacy dei dati e garantire trasparenza sulle modalità di funzionamento e impiego degli algoritmi.
Sul piano geopolitico, questo regolamento rappresenta per l’Europa un tentativo di affermarsi come protagonista del digitale e del cosiddetto soft power tecnologico. Essere la prima grande giurisdizione a mettere a terra una regolamentazione completa può influenzare il modello seguito in altre parti del mondo. Però, le tensioni transatlantiche restano elevate. Il modello europeo, che si basa su una classificazione del rischio e una regolamentazione preventiva, si scontra con quello statunitense più orientato a lasciar agire il mercato con interventi a posteriori. Questo porta a un mosaico normativo molto diverso, complicando la gestione di aziende e investitori che operano a livello internazionale.
Le difficoltà delle aziende e l’esempio di meta
Le imprese che operano in Europa sentono il peso della normativa ancora poco chiara e frammentata. Luca Colombo, country director Italia di Meta, ha sottolineato come l’intelligenza artificiale faccia fatica a svilupparsi sul mercato europeo. Meta spende tra i 15 e i 20 miliardi di dollari nella ricerca e sviluppo ogni anno, ma spesso le innovazioni, una volta trasferite in Europa, non trovano un terreno favorevole.
Secondo Colombo, “serve maggiore chiarezza nell’ambito regolatorio per evitare continui aggiustamenti di strategia da parte delle aziende.” Meta ha dovuto modificare le proprie politiche due volte solo nell’ultimo anno per conformarsi a nuove regole che riguardano anche la pubblicità personalizzata, settore chiave per molte imprese, soprattutto le piccole e medie. Questa incertezza rallenta il mercato e mette pressione sia sulle imprese straniere, sia sulla capacità europea di produrre innovazione pratica, soprattutto nella valorizzazione delle applicazioni derivate dall’intelligenza artificiale.
Uno sguardo sulla complessità normativa
L’incontro di Milano mette in luce la complessità del momento, con diversi punti di vista che riflettono lo stato di una regolamentazione in divenire, in cui la definizione di norme efficaci appare ancora lontana da un equilibrio stabile. “Laudazione di un adattamento necessario da parte degli attori coinvolti, per orientare un settore strategico senza frenare lo sviluppo tecnologico.”