L’intelligenza artificiale è già fra noi (e le sfide che pone sono tante)
L’intelligenza artificiale è già fra noi (e tante sono le sfide che pone)
Oggi l’evento di Consumers’ Forum “ Governance dell’AI e tutela dei consumatori. Il ruolo delle Autorità indipendenti”. Legislazione, competenze e sfide dell’intelligenza artificiale dall’AI Act europeo alla possibile governance nazionale
L’intelligenza artificiale è già fra noi. Quello che serve è comprensione della tecnologia e regolamentazione del suo uso, nel rispetto dei diritti umani (il Regolamento europeo per l’intelligenza artificiale, AI Act, parla di un’AI “antropocentrica e affidabile”) e delle sfide tecnologiche e innovative che questa pone.
Intelligenza artificiale, tutela dei consumatori e Autorità sono al centro dell’evento annuale organizzato oggi da Consumers’ Forum sul tema “Governance dell’AI e tutela dei consumatori. Il ruolo delle Autorità indipendenti”. Quello che emerge dall’evento, il filo rosso che unisce relazioni e interventi dal palco, è il richiamo alla collaborazione e al coordinamento fra le diverse Autorità indipendenti e Agenzie nell’applicazione dell’AI Act e nella regolamentazione di tutti gli aspetti che riguardano l’intelligenza artificiale.
Secondo il Regolamento europeo sull’intelligenza artificiale, infatti, i singoli Stati devono designare delle “autorità competenti” in materia di notifica e di vigilanza sul mercato. In Italia, il ddl presentato dal Governo (1146, Disposizioni e delega al Governo in materia di intelligenza artificiale) intende designare come autorità competenti AgID, Agenzia per l’Italia digitale, e ACN, Agenzia per la cybersicurezza nazionale.
L’AgID è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale e provvede a definire le procedure a esercitare funzioni e compiti in materia di notifica, valutazione, accreditamento. L’ACN è responsabile per la vigilanza, incluse attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, ed è responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza. Si tratta, come evidenzia la ricerca Consumerism 2024, di Agenzie e non di Autorità indipendenti.
“Condizione del Regolamento – ha detto Maddalena Rabitti, professore ordinario di Diritto dell’economia Università Roma Tre, fra gli autori della ricerca – è che sia garantito l’esercizio del potere in modo indipendente e imparziale. Diventa necessaria la relazione fra le Agenzie e le Autorità indipendenti”.
Consumerism 2024: ipotesi per un coordinamento
Il Dossier Consumerism 2024 propone allora una modifica al ddl nel senso di: prevedere una procedura d’urgenza; conferire espressamente alle autorità nazionali per l’intelligenza artificiale (AgID e ACN), un ruolo di consulenza a favore della Pubblica amministrazione, delle autorità nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell’Unione a tutela dei diritti fondamentali, e delle altre Autorità indipendenti.
E insieme a questo “prevedere una collaborazione strutturale tra: le autorità nazionali per l’intelligenza artificiale, (rispettivamente, AGiD per la notifica e ACN per la vigilanza sul mercato) e le autorità nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell’Unione a tutela dei diritti fondamentali ai sensi dell’art. 77 del Regolamento”. Ancora, la proposta avanzata è quella di prevedere un ruolo di consulenza dell’ACN per le autorità che ne facciano richiesta.
Truzzi, Consumers’ Forum: collaborazione e coordinamento
Il richiamo alla collaborazione e al coordinamento fra Agenzie e Autorità arriva dalle parole di Furio Truzzi, presidente di Consumers’ Forum, che nella sua relazione introduttiva spiega: “La XIX edizione dell’appuntamento annuale con le Authority ha rappresentato un momento alto per affrontare il tema della collaborazione e del coordinamento tra Agenzie e Autorità. Tra chi, ai sensi dell’art. 70 del regolamento AI, viene chiamato a svolgere la funzione di autorità competente, sia questa di notifica o di vigilanza sul mercato dell’AI e chi, ai sensi dell’art. 77, eserciti poteri a tutela dei diritti fondamentali. Non è escluso che si renda necessaria una migliore definizione legislativa che aiuti anche normativamente questo modus operandi”.
“Auspico la promozione di comportamenti proattivi e la creazione di nuove figure di gestione dell’AI, attingendo da modelli di protezione dei consumatori che si sono rivelati vincenti – spiega ancora Truzzi – Mi riferisco in particolare a quanto disposto dal Regolamento Generale per la Protezione dei Dati GDPR e dal Codice del Consumo. Sottolineo l’importanza di prestare attenzione al professionista (nel caso dell’AI l’azienda utilizzatrice) e al consumatore (utilizzatore di ultima istanza) e non solo, come prevede attualmente il regolamento sull’AI, ai fornitori primari e ai distributori.“
“Perché non prevedere, così come è stato fatto, per la tutela della privacy, una precisa responsabilizzazione, una accountability dell’AI che sappia organizzare, superando ogni formalismo, un idoneo sistema documentale di gestione che assicuri la conformità al regolamento e una esplicita motivazione delle scelte effettuate? – si chiede Truzzi – Perché non introdurre la figura del responsabile dell’AI, con il compito di mettere in atto misure tecniche e organizzative adeguate a soddisfare la conformità ai requisiti, la gestione del rischio, la governance dei dati e la sorveglianza umana dell’AI e a garantire la tutela dei diritti del consumatore finale sia ad opera del fornitore che del “professionista”? Infine, laddove siano utilizzati sistemi AI ad alto rischio, perché non prevedere l’AIPO (Artificial Intelligence Protection Officer)?”.

Intelligenza artificiale e diritti della persona
“Ci troviamo nella fase della weak AI”, ha esordito nel suo intervento il direttore generale dell’Agid Mario Nobile, ma ci sarà una “super AI”. “L’AI Act è nato cercando di disciplinare tutto”, ha detto Nobile ripercorrendo la governance e i gruppi di lavoro previsti. “Nel piano strategico triennale, entro fine anno licenzieremo tre linee guida per l’adozione, lo sviluppo e il procurement dell’intelligenza artificiale”.
Nel panel sull’AI e i diritti della persona sono intervenuti il presidente dell’Autorità per le garanzie nelle comunicazioni Giacomo Lasorella e il presidente dell’Autorità garante per la protezione dei dati personali Pasquale Stanzione.
Per Lasorella “l’intelligenza artificiale è una tecnologia orizzontale che vale per tutti i settori”, destinata dunque a trasformarli tutti. “L’intelligenza artificiale è già tra noi, si tratta di regolarne concretamente l’uso”.
Stanzione ha ricordato che “sulla governance nazionale l’AI Act riconosce un ampio margine di discrezionalità al legislatore interno”. Si è soffermato sulla necessità di coordinamento fra le Autorità, sulle competenze del Garante Privacy (che aveva suggerito di attribuire alla Privacy la designazione di autorità competente in tema di AI) e sulla peculiarità dell’approccio europeo all’intelligenza artificiale.
“La via europea all’intelligenza artificiale”, ricorda Stanzione, si articola su “un modello di bilanciamento fra innovazione e diritti. La sfida europea è tentare di governare l’innovazione imprimendo una direzione compatibile con la tutela dei diritti fondamentali. Più che di larvato protezionismo, si tratta della proiezione extraterritoriale di tutele a vocazione universalistica”.
Intelligenza artificiale, mercato e imprese
Un secondo panel si è occupato di AI, mercato e imprese, con le ripercussioni (e i rischi per i consumatori) dell’intelligenza artificiale su energia, trasporti, concorrenza.
Quello che è cambiato, ha detto il presidente dell’Autorità per energia reti e ambiente Stefano Besseghini, “è la pervasività di questa tecnologia. Tutte le tecnologie non sono nate tre anni fa, sono diventate pervasive tre anni fa”. E manca una comprensione profonda dei meccanismi che vi stanno alla base.
“I trasporti sono uno degli ambiti più dinamici in cui l’intelligenza artificiale può esprimere il suo potenziale. L’AI sta ridisegnando il modo in cui ci muoviamo”, ha detto in collegamento video il presidente dell’Autorità dei Trasporti Nicola Zaccheo, che ritiene i tempi maturi per “proporre un tavolo di collaborazione ampio aperto a tutte le Autorità competenti. I tempi sono maturi per pensare a un coordinamento nazionale con un tavolo che potrebbe essere presieduto dall’ACN (Agenzia per la cybersicurezza, ndr)”.
L’intelligenza artificiale veicola però anche trappole e rischi per i consumatori. Spiega allora il presidente dell’Antitrust Roberto Rustichelli: “L’IA offre strumenti potenti, tuttavia l’uso distorto e improprio dell’intelligenza artificiale può favorire condotte scorrette” nei confronti dei consumatori.
C’è poi il richiamo ai principi di fondo sui quali dovrebbero basarsi gli algoritmi. La trasparenza, la non discriminazione, il controllo umano.
Giuseppe Busia, presidente dell’Autorità nazionale anticorruzione (Anac), spiega: “L’intelligenza artificiale può essere uno strumento per dare più poteri ai cittadini-consumatori rispetto alle decisioni che vengono prese. L’IA può essere uno strumento per creare più trasparenza nella Pubblica amministrazione e favorire la partecipazione, che sarà on demand, resa adeguata ai bisogni informativi”. Emerge l’esigenza della “trasparenza algoritmica”, quella di “capire l’algoritmo” che prende decisioni che hanno un impatto reale sulla vita delle persone. Inoltre “l’algoritmo non deve discriminare”. C’è poi la domanda relativa alla necessità di “lasciare alle persona – spiega Busia – la responsabilità della decisione ultima: ma nel concreto, il funzionario sarà in grado di distaccarsi dalla decisione algoritmica?”. Una possibile risposta la offre Besseghini (Arera): “Contrasteremo l’intelligenza artificiale con l’intelligenza artificiale”. L’idea: scrivere gli algoritmi in modo da integrarvi e innervarvi proprio quei principi.

