La bussola dei diritti. ChatGPT: il gioco vale la privacy? (Foto Sanket Mishra per Pexels)

“Caro utente di ChatGPT, Siamo spiacenti di informarti che abbiamo disabilitato l’accesso a ChatGPT per gli utenti in Italia su richiesta del Garante per la protezione dei dati personali”.

Così inizia il messaggio con cui OpenAI informa i propri utenti della momentanea sospensione di ChatGPT – il noto software intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane – e prosegue evidenziando il proprio impegno ad offrire un servizio in conformità con le previsioni del G.D.P.R., e a collaborare con il Garante italiano della tutela dei dati personali al fine di ripristinare l’accesso a ChatGPT il prima possibile.

Cos’è ChatGPT e a che serve?

ChatGPT – Chat Generative Pre-trained Transformer- è un prototipo evoluto di chatbot basato sulla intelligenza artificiale e il machine learning, sviluppato da OpenAI, una società di ricerca sull’intelligenza artificiale che si pone l’obiettivo di promuovere lo sviluppo della Intelligenza Artificiale al fine di renderla un beneficio per l’intera società.

Il bot altamente intelligente, accessibile a tutti dallo scorso novembre, attraverso una conversazione aperta con un assistente di intelligenza artificiale e sulla base della enorme mole di dati presenti in rete in continuo aggiornamento, è in grado di rispondere a qualsiasi domanda e svolgere numerose funzioni, come ad esempio, fare traduzioni, scrivere articoli o poesie, tradurre testi difficili in concetti più semplici, dialogare, risolvere operazioni matematiche, generare codici, e molto altro, il tutto migliorando di volta in volta la propria performance.

La rivoluzione digitale, di cui ChatGPT fa parte, è davvero l’opportunità del futuro?

Non v’è dubbio che siamo davanti a una straordinaria innovazione, ma molto dipenderà da come riusciremo a governarla.

La tecnologia finora per molti rappresenta una grande opportunità da implementare e saper cogliere, per altri più una preoccupazione per il possibile utilizzo improprio che ne potrebbe derivare e la scarsa attenzione alla tutela della privacy dei suoi utenti.

In effetti la chatbot è in grado di immagazzinare una quantità di informazioni tale da conoscere in modo approfondito, ad esempio, lo stato di salute, il modo di pensare, i gusti, le ansie e le preoccupazioni delle persone con cui interagisce, forse più dei loro affetti e delle persone care con cui si è soliti condividere momenti di vita quotidiana.

Oggi, grazie o a causa dei social network, viviamo, in modo abituale, una vita sospesa tra mondo reale e mondo virtuale, con una interazione sempre più connessa tra la macchina e l’uomo. Complice anche la pandemia globale che ci siamo lasciati da poco alle spalle, questa interazione oggi necessaria, è possibile grazie a un utilizzo di internet diffuso e legato, tra l’altro, a molti oggetti di uso comune; allo sviluppo di algoritmi sempre più intelligenti e complessi e alla società attuale dei big data, che abbiamo contribuito a costruire con le nostre ricerche in rete.

Siamo sicuri di riuscire a governare in modo responsabile questa rivoluzione digitale? E la privacy degli utenti è adeguatamente tutelata?

La vicenda italiana di ChatGPT

È il 30 marzo 2023 quando il Garante per la protezione dei dati personali tramite il Provvedimento n.112 impone, con effetto immediato, lo Stop a ChatGPT -finché non rispetterà la disciplina della privacy- disponendo la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società che ha sviluppato e gestisce la piattaforma. L’Autorità italiana rileva l’assenza di una informativa agli utenti e alle persone interessate i cui dati sono raccolti da OpenAI, ma in particolare l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

OpenAI risponde con favore al provvedimento dell’Autorità italiana e il 5 aprile 2023 si svolge un incontro in videoconferenza, tra i rappresentanti di OpenAI e il Garante per la protezione dei dati personali, a seguito del quale, come informa il Garante, “OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT”.

L’8 aprile 2023, dopo l’incontro in video conferenza, il Garante per la tutela della privacy si riunisce in seduta straordinaria, per un primo esame dei due documenti fatti pervenire da OpenAI e informa che tornerà a riunirsi il martedì seguente, “per proseguire l’esame delle misure proposte dalla società statunitense per rendere il trattamento dei dati degli utenti e degli interessati conforme alla normativa privacy”.

L’11 aprile 2023 il Garante si riunisce ed emette nei confronti di OpenAI un secondo Provvedimento n.114, con il quale “invita il titolare del trattamento destinatario del provvedimento, entro fine aprile ad adottare una serie di misure concrete specificamente enunciate nel Provvedimento.

In particolare, il Garante informa che OpenAI “dovrà predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti. L’informativa dovrà essere facilmente accessibile e collocata in una posizione che ne consenta la lettura prima di procedere all’eventuale registrazione al servizio”. “L’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione dovrà essere loro richiesto di dichiarare di essere maggiorenni”.

Il Garante nel comunicato stampa del 12 aprile fa sapere che, “per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori”.

In ultimo il Garante informa che, “di concerto col Garante, entro il 15 maggio, OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi”.

È del 13 aprile 2023 la notizia pubblicata in un comunicato stampa dell’Autorità italiana, che “i Garanti della privacy europei, riuniti nel Comitato europeo per la protezione dei dati (EDPB), hanno deciso di lanciare una task force su ChatGPT” con l’obiettivo di “promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l’applicazione del Regolamento europeo condotte dalle Autorità di protezione dati”.

Per concludere dunque, partendo dalla vicenda di ChatGPT, se da una parte non si possono ignorare i risultati raggiunti in termini di innovazione tecnologica e di interazione macchina-persona, dall’altra è quanto mai necessario riuscire a comprenderne le potenzialità e governarle in modo etico ed efficace nel rispetto delle normative vigenti e in previsione di nuove normative da costruire a livello europeo e/o internazionale.


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Scrive per noi

Claudia Ciriello
Claudia Ciriello, cittadina attiva, da sempre dalla parte dei più deboli. Da anni impegnata in Cittadinanzattiva a tutela dei cittadini in particolare per l'area consumatori.E' stata responsabile del settore delle politiche della Conciliazione e del settore delle telecomunicazioni.Oggi si occupa anche dell'area salute.

Parliamone ;-)