Intelligenza Artificiale, Parlamento UE: no alla sorveglianza di massa
Intelligenza Artificiale, Parlamento UE: no alla sorveglianza di massa
Il Parlamento UE chiede forti salvaguardie quando gli strumenti di intelligenza artificiale sono utilizzati dalle forze dell’ordine e dice no a banche dati private di riconoscimento facciale, alla polizia comportamentale e al sistema di punteggio sociale. Dal Parlamento UE anche uno studio sull’applicazione dell’IA alle “smart cities”
Il Parlamento UE ha dichiarato di essere preoccupato per le implicazioni sulla privacy delle tecnologie di Intelligenza Artificiale. Per questo motivo i deputati chiedono forti salvaguardie quando tali strumenti sono utilizzati dalle forze dell’ordine, al fine di combattere la discriminazione e garantire la privacy.
In particolare, in una risoluzione adottata da 377 a favore, 248 contro e 62 astenuti, i deputati sottolineano il rischio di pregiudizi algoritmici nelle applicazioni che usano l’Intelligenza Artificiale (IA); rischio che rende necessari una supervisione umana e un chiaro quadro giuridico, soprattutto se le tecnologie vengono utilizzate dalle forze dell’ordine e di controllo delle frontiere.
Inoltre, le persone monitorate dai sistemi alimentati dall’IA devono avere accesso a ricorsi – aggiungono i deputati.
Intelligenza artificiale, le richieste del Parlamento UE
Nel testo approvato si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, i quali danneggiano soprattutto le persone che appartengono a determinati gruppi etnici, le persone della comunità lgbtq+, i bambini, gli anziani e le donne: situazione particolarmente preoccupante in contesti in cui operano le forze dell’ordine e la magistratura.
“Per garantire il rispetto dei diritti fondamentali – affermano i deputati – gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati, e le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source”.
Per rispettare la privacy e la dignità umana, i deputati chiedono un divieto permanente dell’utilizzo del riconoscimento automatico delle persone negli spazi pubblici, notando che i cittadini dovrebbero essere monitorati solo se sospettati di un crimine.
Il Parlamento chiede di vietare anche l’uso di banche dati private di riconoscimento facciale (come il sistema Clearview AI, banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network, già in uso) e la polizia predittiva basata sui dati comportamentali.

Inoltre chiedono di vietare i sistemi di punteggio sociale, che cercano di valutare l’affidabilità dei cittadini in base al loro comportamento o personalità. Infine, il Parlamento si dice preoccupato dall’uso di dati biometrici per identificare a distanza le persone.
“Ad esempio – spiegano i deputati – i cancelli di controllo alle frontiere che utilizzano il riconoscimento automatico e il progetto iBorderCtrl (un “sistema intelligente di rilevamento delle bugie” per l’ingresso dei viaggiatori nell’UE) non dovrebbero essere più utilizzati”.
Il Parlamento sollecita, dunque, la Commissione ad aprire procedure di infrazione contro gli Stati membri, se necessario.
Smart Cities, rischi e potenzialità dell’IA
Sul tema Intelligenza Artificiale e sulle implicazioni in materia di protezione dei dati personali è intervenuto anche il Garante Privacy, riportando i dati dello studio “Artificial Intelligence and Urban Development”, commissionato dal Parlamento europeo.
Tale studio evidenzia, in particolare, che l’applicazione delle tecnologie di intelligenza artificiale allo sviluppo delle cosiddette “smart cities” (o “città intelligenti) può comportare seri rischi, sia per i singoli individui che per i delicati equilibri di coesione territoriale. Potrebbe crearsi un vero e proprio divario, in termini di sviluppo e opportunità sociali ed economiche, tra singole zone delle città, tra città e contesto extra-urbano e fra le varie città di un dato territorio.
La ricerca – spiega il Garante – non manca di valorizzare gli aspetti positivi delle smart cities, ad esempio le potenzialità ai fini dello sviluppo socio-economico e del miglioramento della qualità della vita individuale e collettiva (mobilità della gestione dei rifiuti, dell’efficienza energetica e così via).
L’intelligenza artificiale presenta, tuttavia, potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (Big Data, cloud, Internet delle cose).
Lo studio propone, pertanto, alcuni indirizzi operativi: un’attenta cooperazione tra le istituzioni; lo sviluppo di politiche e pratiche focalizzate su una precisa regolazione dell’accesso ai dati e della loro condivisione; un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari; lo sviluppo di competenze e capacità adeguate – anche in chiave data protection – da parte dei soggetti chiamati a gestire lo sviluppo delle tecnologie connessi alle smart cities.

