Intelligenza artificiale e regolamento europeo: un’AI che tutela i diritti umani (Foto di Alexandra_Koch da Pixabay, immagine generata dall'AI)

Un modello di intelligenza artificiale che tutela i diritti umani. È l’approccio del regolamento sull’intelligenza artificiale che il Parlamento europeo si è dato, la prima regolamentazione al mondo che interviene su questo vasto campo. A illustrare il regolamento, oggi in video streaming durante il convegno organizzato dall’Ircaf, Brando Benifei, co-relatore per il Parlamento europeo sull’AI Act della Ue.

Sull’intelligenza artificiale, ha detto Benifei, «non credo di esagerare nel dire che rappresenta un’innovazione che potremmo paragonare alla scoperta dell’elettricità per l’impatto che ha nella trasformazione delle attività della vita quotidiana. Oggi la legislazione europea, regolamento direttamente applicabile, agisce direttamente senza passaggi dal parlamento nazionale».

Intelligenza artificiale, punti centrali del regolamento europeo

Il regolamento, ha spiegato Benifei, va a regolamentare e a gestire i rischi dell’Intelligenza artificiale, andando a individuare ambiti di uso considerati maggiormente sensibili e rischiosi, «per esempio l’uso nell’ambito dei luoghi di lavoro, del rapporto medico-paziente, dell’amministraziione della giustizia e nei processi democratici».

In questi ambiti, i sistemi di AI dovranno essere sottoposti a verifica di conformità su alcuni aspetti, come quelli che riguardano qualità, appropriatezza dei dati usati per allenare i sistemi, controllo umano, cybersicurezza.

«Oggi senza queste verifiche abbiamo sistemi che nel lavoro hanno un bias algoritmico, una discriminazione per cui vanno ad agire avendo imparato ad esempio che nella selezione dei cv le donne vanno escluse dai lavori di una certa importanza – ha spiegato Benifei – È un classico esempio di bias algoritmico che andiamo a contrastare».

Il regolamento europeo sull’AI vieta così il riconoscimento delle emozioni nei luoghi di studio e di lavoro, la polizia predittiva, le telecamere a riconoscimento biometrico in tempo reale negli spazi pubblici tranne che per la ricerca di criminali per crimini efferati.

I divieti entreranno in vigore fra sei mesi mentre il resto del regolamento entrerà in vigore in un periodo di tempo compreso fra un anno e mezzo e due anni.

«La legge regola i prodotti dell’IA, né le imprese né la tecnologia in quanto tale, perché in questo modo resiste maggiormente ai cambiamenti tecnologici».

Fra gli aspetti da sottolineare, c’è la trasparenza: significa rendere riconoscibili nel quotidiana i prodotti dell’Intelligenza artificiale, come i video e gli audio deep fake, per evitare fra l’altro forme di discriminazione, crimini, atti di cyberbullismo e di fatto manipolazione e rischi che si accentuano in periodo di elezioni. Cosa si prevede? Di «etichettare con una filigrana digitale leggibile dai device per distinguerli dai contenuti reali».

Altro campo affrontato è la tutela del diritto d’autore. Il regolamento contiene «regole per tutelare i creatori di contenuti che oggi vedono le loro opere usate per allenare i sistemi di IA generativa senza avere indietro nulla. È una legge che è la prima al mondo, non inventa cose nuove, mettiamo un percorso che rende obbligatorie queste pratiche e azioni per ridurre i rischi e creare fiducia».

È un approccio, ha concluso Benifei, che tutela lavoratori, consumatori e cittadini sotto vari aspetti ma non basta: «è un modello che perché possa essere competitivo deve avere la forza di ricerca comune e investimenti comuni. Vogliamo che l’Europa possa diventare un’eccellenza. Il valore aggiunto creato dall’IA non può finire nelle tasche di pochi ma deve essere redistribuito».


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)