Più trasparenza nella profilazione e nelle decisioni automatizzate. Perché se una decisione dipende da un algoritmo, c’è il rischio di finire intrappolati negli stereotipi e nella discriminazione: è necessario un intervento umano nella valutazione e la garanzia di potersi opporre alla decisione. Dai Garanti europei della privacy arrivano una serie di linee guida che chiedono trasparenza nelle attività di profilazione e nei processi decisionali automatizzati, usati sempre più spesso in settori pubblici e privati, dalle banche alla sanità, dal marketing alla pubblicità.

“Profilazione più trasparente, no a decisioni completamente automatizzate che possono produrre effetti giuridici per la persona o che incidano su di essa in modo significativo, pieno riconoscimento e tutela dei diritti e delle libertà degli utenti”: questi i principi che ispirano le Linee guida su profilazione e decisioni automatizzate adottate di recente dalle Autorità di protezione dati europee alla luce del Regolamento europeo in materia di protezione dei dati personali. A darne notizia è la newsletter del Garante Privacy italiano, che spiega come all’utilità della profilazione facciano da contraltare evidenti rischi per i diritti e le libertà delle persone. “Oltre ad essere spesso poco trasparenti – spiega il Garante Privacy – questi trattamenti di dati possono confinare una persona all’interno di una determinata categoria limitandone le scelte o suggerendone altre sulla base di quelle già espresse, perpetuare stereotipi, dar luogo a previsioni inesatte, impedire l’accesso a servizi o prodotti e, in taluni casi, causare forme ingiustificate di discriminazione”.

Nelle Linee guida le Autorità europee chiariscono le previsioni normative introdotte dal Regolamento in materia di profilazione e decisioni automatizzate, fornendo indicazioni a chi tratta i dati per mettersi in regola con la nuova normativa. Le società dovranno innanzitutto improntare il trattamento dei dati ai principi di privacy by design e privacy by default e minimizzare il loro uso. Particolare attenzione dovrà essere posta agli obblighi di trasparenza: le società dovranno informare chiaramente gli utenti sull’attività di profilazione e garantire loro il diritto di conoscere quali dati e quali categorie di dati personali sono stati utilizzati. I titolari dovranno poi informare gli utenti sull’esistenza e sulle conseguenze di processi decisionali totalmente automatizzati che possono produrre effetti giuridici per la persona o che incidano su di essa in modo significativo, come, ad esempio, l’eventuale esclusione dal credito sancita da un algoritmo. “Alla persona interessata – spiega il Garante –  non occorrerà conoscere le formule alla base dell’algoritmo, quanto piuttosto, individuare, in maniera comprensibile i criteri e le modalità di aggregazione dei dati che hanno portato alla sua collocazione in una categoria predeterminata. Ma soprattutto, all’interessato dovrà essere sempre garantito il diritto di ottenere l’intervento umano nella valutazione e di poter contestare la decisione”. Particolare l’attenzione che dovrà essere posta al trattamento dati che riguarda i minori.


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)