La legge europea sull’intelligenza artificiale entra in vigore: impatti e preparativi per le aziende

La Legge Europea Sullintellig La Legge Europea Sullintellig
La legge europea sull'intelligenza artificiale entra in vigore: impatti e preparativi per le aziende - Gaeta.it

L'entrata in vigore della Legge Europea sull'Intelligenza Artificiale rappresenta un momento cruciale nel panorama normativo globale, poiché per la prima volta viene stabilito un quadro legislativo specifico che si applica ai sistemi di AI esistenti e in fase di sviluppo. Questa normativa, adottata dai legislatori a marzo e pubblicata nella Gazzetta ufficiale a luglio, ha scatenato una reazione a catena in vari settori, richiedendo un adeguamento delle pratiche aziendali in tutta l'Unione Europea. Diverse aziende si preparano a rispettare i requisiti normativi in un contesto in continua evoluzione.

Il quadro normativo dell'UE per l'AI

Gli scopi fondamentali della legge sull'AI

La legge sull'Intelligenza Artificiale dell'Unione Europea è stata concepita per regolamentare l'uso dell'AI sulla base dei rischi connessi. Essa stabilisce regole chiare che classificano i sistemi di intelligenza artificiale in quattro categorie principali: nessun rischio, rischio minimo, rischio elevato e sistemi di AI vietati. Ogni categoria prevede un diverso livello di regole e di scadenze per la conformità, con l'obiettivo di garantire uno sviluppo responsabile e sicuro della tecnologia.

La presidente della Commissione EU, Ursula von der Leyen, ha sottolineato l'importanza di questa legislazione per costruire fiducia nei sistemi di AI e promuovere l'innovazione, specialmente per le piccole e medie imprese e le startup. Queste normative mirano a proteggere i cittadini e a garantire che i prodotti e i servizi offerti dalle aziende siano sicuri e non pregiudichino la privacy o i diritti fondamentali.

Classificazione per il rischio e regole specifiche

La categorizzazione dei sistemi di AI si basa su valutazioni di rischio, con la norma che vieta completamente pratiche che possono compromettere la sicurezza e la privacy degli utenti. A partire da febbraio 2025, l'Unione Europea applicherà divieti su sistemi come quelli che manipolano il processo decisionale degli utenti e quelli che si servono dello scraping per l'espansione dei database di riconoscimento facciale.

Per i sistemi categorizzati come "alto rischio", che includono tecnologie utilizzate nella raccolta di dati biometrici o per decisioni occupazionali, saranno imposte norme più severe. Queste aziende dovranno infatti dimostrare trasparenza sui dati di addestramento e garantire la supervisione umana dei processi cruciali.

Preparazione aziendale per l'attuazione della normativa

Tempi e modalità di conformità

Le aziende interessate devono iniziare a conformarsi alla nuova normativa, con un'infarinatura che varia da tre a sei mesi, a seconda della specificità dell'uso dell'AI all'interno delle loro operazioni. Heather Dawe, responsabile dell'AI responsabile presso UST, ha evidenziato come la maggior parte dei clienti stia già adeguando le loro pratiche alle nuove leggi. La preparazione implica l'esistenza di linee guida chiare, ma varia per complessità in base alla dimensione e alla struttura dell’azienda.

Per garantire che l’AI venga utilizzata in modo etico e conforme, molte organizzazioni stanno considerando l'istituzione di comitati interni di governance rappresentati da esperti legali, tecnologici e di sicurezza. Questi comitati avranno il compito di condurre audit completi delle tecnologie in uso e di implementare le necessarie modifiche per soddisfare i requisiti.

Violazioni delle normative possono portare a sanzioni pecuniarie significative, che possono arrivare fino al sette percento del fatturato annuale globale dell'azienda.

Monitoraggio da parte della Commissione Europea

La Commissione Europea ha istituito un Ufficio AI il cui compito principale sarà quello di monitorare la conformità alle norme. Circa 60 membri del personale della Commissione sono stati trasferiti a questo nuovo ufficio, con l’intento di assumere ulteriori 80 candidati esterni nel prossimo anno. Un comitato per l'AI, formato da delegati di tutti e 27 gli Stati membri dell'UE, ha già iniziato a lavorare per armonizzare l'attuazione delle norme.

Le autorità nazionali avranno tempo fino ad agosto dell'anno prossimo per istituire organi competenti per supervisionare l'applicazione delle leggi, mentre aziende come OpenAI e DeepMind, che offrono AI di uso generale, dovranno dimostrare la conformità alle normative sul copyright e garantire la protezione dei dati.

L'innovazione nell'era dell'AI regolamentata

Investimenti e sfide future

In un contesto in cui le normative si fanno sempre più stringenti, la Commissione europea ha annunciato un piano di investimenti nell'AI che prevede 1 miliardo di euro nel 2024, con target fino a 20 miliardi di euro entro il 2030. Regnier, portavoce della Commissione, ha difeso l'approccio normativo, sottolineando come la regolamentazione non sia opposta all'innovazione, ma piuttosto mirata a creare un ambiente più sicuro e favorevole per le imprese.

La sfida principale della Commissione risiede ormai nella regolamentazione delle nuove tecnologie di AI che emergeranno nei prossimi anni. Il sistema di valutazione basato sul rischio è visto come una strategia per affrontare velocemente qualsiasi nuova realtà che possa sorgere in questo campo in rapida evoluzione.

Lacune nella normativa e potenziali miglioramenti

Nonostante l’avanzamento normativo, esperti come Risto Uuk del Future of Life Institute ritengono che la Commissione debba fornire ulteriori chiarimenti sulle tecnologie considerate rischiose. Uuk ha sollevato il problema di situazioni che, pur ricadendo in categorie problematiche, non appaiono immediatamente rischiose, suggerendo che una maggiore specificità nelle linee guida aiuterebbe le aziende a orientarsi meglio.

Inoltre, si prevede che la normativa possa evolversi ulteriormente per affrontare sfide relative a settori come la cybersecurity e i diritti umani. Alcuni gruppi, come European Digital Rights, hanno espresso preoccupazioni riguardanti le lacune nella legislazione, soprattutto nelle aree relative alla biometria e alla sicurezza. La prossima fase della legislazione potrebbe dunque concentrarsi sul rafforzamento di questi aspetti, per garantire migliori standard di protezione.

Ultimo aggiornamento il 1 Agosto 2024 da Armando Proietti

Google News Subscription Box
Seguici su Google News
Resta aggiornato con le ultime notizie 📰
Seguici ora!
Add a comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *