A.I. ACT: Approvato dal Parlamento Europeo


Dopo un percorso durato 2 anni, il 14 Giugno 2023 il Parlamento Europeo ha dato il via libera all’AI Act, il Regolamento Europeo sull’Intelligenza Artificiale, approvandolo a stragrande maggioranza*.
Quello che sarà il primo testo normativo al mondo su questo tema dovrebbe venire approvato definitivamente dall’UE entro fine anno per entrare poi in vigore nel 2024, diventando direttamente applicabile negli Stati Membri.



NORME COMUNI PER PROTEGGERE I CITTADINI EUROPEI

Da inizio 2023, l’IA** è entrata sempre più nella vita quotidiana delle persone in tutto il mondo (siti internet del tutto automatizzati, advertising robotizzati, chatbot capaci di dialogare al pari di un essere umano o di generare immagini plausibili…). Professionisti e lavoratori temono già di venire sostituiti da IA evolute che potrebbero svolgere il loro stesso lavoro più velocemente e a costo zero. Al contempo le IA potrebbero un giorno decidere se erogare di un mutuo o quale dipendente assumere. Tutto ciò tocca la sfera dei diritti delle persone.

E’ in questo scenario che interviene Bruxelles, regolamentando l’impiego dell’IA nell’Unione Europea, in modo che questa rispetti i diritti dei cittadini: dovrà essere sempre sicura, trasparente, tracciabile e non discriminatoria.
Si mira dunque a fissare gli standard europei per la creazione e l’utilizzo di questa nuova tecnologia entrata ormai in ogni settore, stabilendo obblighi per i fornitori e per coloro che impiegano sistemi di IA, a seconda del livello di rischio che questa può generare.



OBBLIGHI E DIVIETI

Il regolamento segue un approccio basato sulla tipologia di RISCHIO che le IA possono creare per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche:
– rischio basso/minimo
– rischio alto: IA consentite se rispettano requisiti di trasparenza e siano valutate conformi (es: i sistemi che interagiscono con gli esseri umani o generano contenuti).
– rischio inaccettabile: IA vietate

Sono dunque vietati i Sistemi di IA per:
– Riconoscimento facciale e biometrico in tempo reale in aree pubbliche
– Identificazione biometrica a distanza a posteriori (unica eccezione per le forze dell’ordine nel perseguire reati gravi e solo previa autorizzazione giudiziaria)
– Social scoring (classificazione delle persone tramite caratteristiche sensibili: sesso, razza, etnia, cittadinanza, religione, orientamento politico)
– Polizia predittiva
– Riconoscimento delle emozioni nelle forze dell’ordine, nei luoghi di lavoro e scuole
– Database di immagini facciali prese da Internet o da filmati di telecamere



GLI OBBLIGHI PER AZIENDE PRODUTTRICI E UTILIZZATRICI DI IA

L’interesse verso le IA generative da parte delle aziende è alto, in ragione del grande valore che queste possono apportare all’economia. Ciò significa però esporsi a responsabilità per eventuali danni o sanzioni privacy.
Ecco cosa fare per adottare al meglio l’IA nel rispetto delle norme.
Le aziende che utilizzano o producono IA devono accertarsi che esse siano conformi alle regole Europee.
E’ consigliabile catalogare le app IA in uso/in realizzazione per capire il loro livello di rischio, secondo il modello dell’AI Act.
Per app ad Alto Rischio, occorrerà svolgere una Valutazione di Conformità (è ammessa anche l’autovalutazione) per ottenere il bollino CE.
Si dovrà monitorare anche il post vendita, per individuare eventuali criticità inizialmente non previste.
In caso di app a Basso Rischio – che non impattano direttamente sulla vita delle persone – sono previsti obblighi di trasparenza (es: avvisare i clienti che sono in uso soluzioni di intelligenza artificiale, creare informative privacy sempre più trasparenti).

In ogni caso ci saranno 2 anni di “grace period” dopo l’entrata in vigore del Regolamento che serviranno alle aziende per costruire i propri processi di compliance.



CONCLUSIONI

Ci sono basi economiche sotto l’adozione dell’AI Act: questa legge fa parte della strategia dell’Unione per il mercato unico digitale; con l’adozione di questo Regolamento, il Parlamento Europeo non intende soffocare lo sviluppo delle intelligenze artificiali, anzi, vuole favorirlo. Il suo obiettivo rimane quello di garantire il miglior funzionamento del mercato interno attraverso regole condivise.
Solo con la pratica capiremo se il testo reggerà alla velocità dello sviluppo dei sistemi di IA e se, una volta divenuto applicabile, rimarrà uno strumento utile e non obsoleto.





* 499 voti a favore, 28 contrari e 93 astenuti

** Definizione di Sistema di IA: software che può generare, per una determinata serie di obiettivi, output come contenuti, previsioni o raccomandazioni che influenzano gli ambienti con cui interagiscono.