Deepfake: cosa sono, come riconoscerli (Foto Pixabay)
Deepfake, quanto ne sappiamo davvero? I dati e le proposte legislative in atto
Deepfake e Intelligenza Artificiale, l’indagine Ipsos rileva la conoscenza di questa tecnologia da parte degli italiani. Legislatori italiani e europei già a lavoro per regolamentare pro e contro di questi nuovi strumenti
Deepfake e Intelligenza Artificiale. Se ne sente parlare tanto ma sono ancora in molti a non sapere esattamente di cosa si tratta e soprattutto quali sono le opportunità e i rischi legati alla diffusione e all’utilizzo di questi strumenti.
A fare chiarezza sull’effettiva consapevolezza della popolazione italiana e mondiale circa le potenzialità positive e negative a disposizione ci ha pensato un’indagine dal titolo “Deepfake, tra realtà e illusione”, condotta da Ipsos per conto di Studio Previti e presentata oggi a Roma, nella sede di “Esperienza Europa – David Sassoli” a Roma.
I dati dell’indagine Ipsos
L’indagine rileva che ben il 74% delle persone a livello mondiale, e il 71% in Italia, è a conoscenza delle capacità dell’Intelligenza Artificiale di generare immagini e narrazioni estremamente realistiche. Paesi come Indonesia (89%), Perù (82%) e Cile (81%) sono tra i più consapevoli.
Per quanto riguarda la preoccupazione per la disinformazione e fake news, il 51% degli intervistati ritiene che l’IA aumenti il rischio di diffusione di notizie false. In Italia, questa percentuale scende al 46%. Sempre nel nostro Paese, inoltre, solo il 30% della popolazione conosce precisamente il termine deepfake.
A destare particolare preoccupazione nell’utilizzo di questi strumenti è soprattutto l’ambivalenza che essi possiedono (28%). Come sottolineato, infatti, dalla Vicepresidente del Garante per la protezione dei dati personali, Ginevra Cerrina Feroni, “ I programmi a disposizione offrono grandi opportunità in molti campi, dalla medicina al cinema. Ma allo stesso tempo, la manipolazione di immagini, video e voce può essere utilizzata anche per privare la persona del controllo sulle proprie idee e azioni”. “Occorre quindi definire con chiarezza strumenti che siano in grado di porre dei confini tra realtà e finzione”.
L’intervento del legislatore europeo
L’Unione Europea ha recentemente introdotto l’AI Act, una nuova regolamentazione destinata a disciplinare l’utilizzo dell’intelligenza artificiale all’interno del mercato europeo.
Secondo stime recenti, il mercato europeo dell’intelligenza artificiale valeva circa 34 miliardi di dollari nel 2023, con una crescita prevista fino a 209 miliardi entro il 2030. Questo rapido sviluppo evidenzia l’importanza di una regolamentazione adeguata per garantire una crescita sostenibile e sicura.
L’AI Act propone una classificazione dei sistemi di intelligenza artificiale in base al loro livello di rischio per la sicurezza e i diritti delle persone, stabilendo requisiti e obblighi sia per i fornitori che per specifici utenti di tali sistemi. Questi provvedimenti mirano a garantire che l’AI contribuisca positivamente alla società, tutelando al contempo la sicurezza e i diritti dei cittadini.
L’eurodeputato Brando Benifei, relatore di questo importante Regolamento, intervenendo all’evento con un videomessaggio, ha precisato che la legislatura europea appena iniziata avrà tra le sue priorità quella di portare avanti il percorso di implementazione dell’AI Act, in quanto strumento fondamentale e necessario per disciplinare un ambito così importante per lo sviluppo futuro della nostra società e per la tenuta stessa delle nostre democrazie.
Deepfake come reato
In Italia, intanto, il ddl in materia è ora all’esame delle Commissioni del Senato e potrebbe andare al voto entro l’anno.
“Penso che sia un intervento assolutamente virtuoso, perché pone diversi temi, come la difesa del diritto d’autore e la tracciabilità dei contenuti prodotti dall’IA”, ha detto l’On. Baraccini, Sottosegretario di Stato del Dipartimento per l’informazione e l’editoria. “Sul tema del deepfake abbiamo fatto un passo avanti con una nuova autonoma fattispecie di reato. È un passaggio fondamentale. Con un deepfake negativo – ha proseguito – si abbassa la reputazione di una persona senza che lei abbia fatto nulla”.
“Bisogna far comprendere ai cittadini – ha detto ancora – che la difesa della propria identità digitale è fondamentale. La mancata percezione che questo non è un gioco è il primo problema”.

