Applicazioni vietate, trasparenza, diritti. Il Parlamento europeo vota il regolamento sull’intelligenza artificiale
Il Parlamento europeo ha approvato il regolamento sull’intelligenza artificiale per “proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio” e promuovere al contempo l’innovazione
Il Parlamento europeo ha approvato la prima legislazione al mondo che disciplina l’intelligenza artificiale. Ci saranno limiti per l’uso dei sistemi di identificazione biometrica e divieti per quelle applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini – no dunque a sistemi di credito sociale e all’estrapolazione indiscriminata di immagini facciali da internet per banche dati di riconoscimento facciale.
È la prima volta che un’istituzione regola in modo dettagliato l’intelligenza artificiale, attraverso la previsione di quattro livelli di pericolosità, fra i quali il rischio inaccettabile è attributo ai sistemi che rappresentano una minaccia per la sicurezza e i diritti delle persone. Oggi il Parlamento europeo ha dunque approvato il regolamento sull’intelligenza artificiale (IA) frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.
L’obiettivo, spiega una nota del Parlamento, “è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto”.
Durante il dibattito conclusivo di martedì, ha spiegato il correlatore della commissione per il mercato interno Brando Benifei (S&D, Italia): «Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’IA».
Intelligenza artificiale e applicazioni vietate
Le nuove norme mettono fuori legge le applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini.
Tra queste, spiega il Parlamento europeo, “i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone”.
Eccezioni per le forze dell’ordine
Alcune eccezioni sono previste per le forze dell’ordine. In linea di principio, queste non potranno usare sistemi di identificazione biometrica “tranne in alcune situazioni specifiche espressamente previste dalla legge”.
L’identificazione “in tempo reale”, spiega il Parlamento europeo, “potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato”.
Intelligenza artificiale e sistemi ad alto rischio
Ci sono obblighi chiari anche per i sistemi di intelligenza artificiali considerati “ad alto rischio”. Sono quelli che possono danneggiare salute, sicurezza, diritti fondamentali, ambiente, democrazia.
In questa categoria rientrano “gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni)”. Per questi sistemi ci sarà l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana.
cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
Le norme prevedono obblighi di trasparenza sui sistemi di Intelligenza Artificiale usati per finalità generali e il rispetto del diritto d’autore durante le fasi di addestramento dei modelli. Le immagini e i contenuti audio o video artificiali o manipolati (i “deepfake“) dovranno essere chiaramente etichettati come tali.
Il percorso non è finito. Il regolamento dovrà essere sottoposto alla verifica dei giuristi-linguisti e dovrebbe essere adottato prima della fine della legislatura, quindi formalmente approvato dal Consiglio. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).