Regolamento europeo sull’intelligenza artificiale (AI Act): l’ok del Parlamento Ue

Il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’intelligenza artificiale (AI ACT)

15 Marzo 2024
Scarica PDF Stampa
Modifica zoom
100%

Il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’intelligenza artificiale (AI ACT), che dovrà ormai solo attendere la pubblicazione in Gazzetta Ufficiale per essere pienamente in vigore. Dopo un lungo iter legislativo il Regolamento è legge e tutte le aziende e le PA dovranno adeguarsi alle nuove norme dell’Unione, che, come tutti i regolamenti, sono self executive e dunque non richiedono alcuna legge di recepimento, entrando direttamente nel corpo legislativo nazionale di ciascun Stato membro.

>> IL TESTO DELL’AI ACT.

AI Act: l’ok del Parlamento europeo

Il fulcro dell’AI Act fa riferimento alla precisa definizione di intelligenza artificiale. Questo punto cruciale, che ha sollevato notevoli dibattiti, è essenziale per delineare l’ambito di applicazione della normativa: ciò che rientra nel quadro regolamentare e ciò che ne rimane escluso. Inizialmente, la Commissione UE aveva proposto una definizione flessibile di “sistema di IA”, successivamente rivisitata per allinearsi alla definizione dell’OCSE. Ora l’AI Act identifica i sistemi AI come entità automatizzate capaci di adattarsi e influenzare realtà fisiche o virtuali. Comprendere queste sfumature sarà vitale per navigare i nuovi requisiti e responsabilità introdotti.
Come si legge nell’articolo scritto da Luisa DI Giacomo su Diritto.it, “con il voto del 13 marzo 2024, l’Unione europea è la prima al mondo a regolamentare la rivoluzione dirompente dell’intelligenza artificiale, diventando apripista e pioniera nella tecnologia che oggi promette di cambiare per sempre la vita di tutti noi”.  L’approvazione è stata quasi plebiscitaria, con 523 voti a favore, 46 contrari e 49 astenuti e a Strasburgo si parla di “giornata storica”. Grande attenzione è stata data alla definizione di sistema di intelligenza artificiale, che è stata così espressa: “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

L’entrata in vigore

Le regole dell’AI Act, così come era avvenuto per il GDPR, entreranno in vigore scaglionate nel tempo, lasciando alle aziende e alle PA il tempo per prendere confidenza con il nuovo Regolamento, anche se il mercato tenderà a premiare chi si adeguerà tempestivamente invece di aspettare l’ultimo minuto (come avvenne nel maggio 2018 quando divenne pienamente operativo il GDPR, entrato in vigore ben due anni prima e snobbato dai più).
I tempi sono comunque ridotti: entro sei mesi dall’entrata in vigore dovranno essere eliminati gradualmente i sistemi vietati dall’AI Act, entro dodici si applicheranno le norme di governance generali a tutte le aziende e le PA. Entro due anni dall’entrata in vigore il Regolamento sarà pienamente applicabile, comprese le norme per i sistemi ad alto rischio.

FORMATO CARTACEO

Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT

Nell’anno appena trascorso l’intelligenza artificiale generativa, una delle sue forme più “creative”, è stata ed è ancora oggi uno dei temi più dibattuti. Avvocati e giuristi hanno iniziato a chiedersi se, oltre alla curiosità, le opinioni e i primi esperimenti, non sia opportuno iniziare a formarsi e acquisire nuove competenze nel proprio bagaglio professionale, ma nel mare magnum di informazioni molti si stanno ponendo la stessa domanda: “Da dove inizio?”. Questo libro nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti: quali sono gli aspetti che interessano la professione? Qual è lo stato dell’arte?  Le norme in vigore e in corso di approvazione che disciplinano l’utilizzo di AI nei settori principali del diritto, le prime esperienze presso gli studi legali, gli esempi e le istruzioni sui principali tool.Attraverso il racconto dei fatti, vengono naturalmente toccati anche i principali dibattiti in corso: gli aspetti etici, i temi della responsabilità civile in caso di danno, la tutela del copyright per le opere realizzate con le AI generative.Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale. Professoressa a contratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.

Claudia Morelli | Maggioli Editore 2024

Una nuova realtà

Il nuovo Regolamento, in cui c’è molto del “vecchio” GDPR, si applicherà a tutti i soggetti pubblici e privati che producono strumenti con tecnologia di intelligenza artificiale rivolti al mercato europeo, indipendentemente dal fatto che le aziende siano o meno europee: anche i Big americani, dunque, se vorranno continuare ad operare sul mercato del vecchio continente, dovranno pertanto adeguarsi. Non solo i fornitori, ma anche gli utilizzatori dovranno assicurarsi che il prodotto sia compliant.
Luisa Di Giacomo segnala anche le eccezioni nell’applicazione del Regolamento, che non varrà per i sistemi di AI per scopi militari, di difesa o di sicurezza nazionale, a quelli per scopi di ricerca e sviluppo scientifico, o a quelli rilasciati con licenze free e open source (fatta salva la verifica di sussistenza di un rischio), per l’attività di ricerca, prova e sviluppo relative a sistemi di intelligenza artificiale e per le persone fisiche che utilizzano i sistemi di AI per scopi puramente personali (ricalcando quanti previsto dal GDPR, che non si applica tra privati).
L’approccio è quello già noto basato sul rischio. I sistemi di AI sono divisi in quattro macrocategorie: a rischio minimo, limitato, alto ed inaccettabile. Come sempre, maggiore è il livello di rischio maggiori saranno le responsabilità e i limiti per sviluppatori e utilizzatori. Vietati in ogni caso gli utilizzi dei sistemi di AI per manipolare i comportamenti delle persone, per la categorizzazione biometrica in riferimento ai dati sensibili, per la raccolta massiccia e illimitata di foto di volti da internet, per il riconoscimento delle emozioni sul posto di lavoro o a scuola, per i sistemi di punteggio sociale o social scoring e per meccanismi di polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.

>> LEGGE ZERO, la newsletter gratuita di Maggioli Editore su intelligenza artificiale, diritto e l’interazione tra questi due ambiti. ISCRIVITI QUI.

Redazione