Deepfake: cosa sono, come riconoscerli
Dalle immagini false che ritraevano Papa Francesco vestito con un anomalo piumino bianco, al falso video con Mara Venier, testimonial a sua insaputa di un servizio finanziario che promette guadagni facili. Si chiamano “deepfake”
Dalle immagini false che ritraevano Papa Francesco vestito con un anomalo piumino bianco, al falso video con Mara Venier, testimonial a sua insaputa di un servizio finanziario che promette guadagni facili. Si chiamano “deepfake”.
Da più di 20 anni modifichiamo immagini con programmi dedicati come Adobe Photoshop, tra i più utilizzati per il fotoritocco, ma non li abbiamo mai pensati come una potenziale “arma” da cui difendersi. Non ci siamo mai posti il problema della pericolosità del fotoritocco eppure oggi ci si interroga molto sui deepfake e sui rischi collegati. Ci sarebbe da chiedersi: come mai fino a oggi un software di fotoritocco non ha mai destato tutta questa preoccupazione mentre i deepfake sono cosi al centro dell’attenzione? Quali i pericoli e le insidie che si nascondono?
Se da una parte il software di ritocco delle immagini, come ad esempio Photoshop, è in grado di elaborare e ottimizzare immagini digitali, fotografie, illustrazioni e video, modificando in meglio il soggetto ripreso nella foto; il deepfake è in grado di creare una immagine che non esiste e dunque cambiare la realtà con l’intento specifico di ingannare gli occhi di chi guarda.
Pur essendo le tecniche dei deepfake simili a quelle delle APP con cui ci si può divertire a invecchiare o ringiovanire il soggetto di una foto – un deepfake, partendo da una immagine o da una voce originale, è in grado di trasformarla in un “falso digitale”.
Deepfake, di cosa si tratta
Ma cos’è un deepfake? La parola è un neologismo che nasce dalla crasi di “Deep Learning”, una particolare tecnologia di intelligenza artificiale (IA) e “Fake”, cioè falso.
Il deepfake è una foto, un video o un audio creato grazie a software di intelligenza artificiale (IA) che, partendo da contenuti reali – come immagini e audio – riesce a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo imitandone fedelmente una determinata voce. È dunque una tecnologia che se utilizzata consapevolmente può essere utile a migliorare immagini audio, video, ma se utilizzata con scopi malevoli può diventare una minaccia per la riservatezza e la dignità delle persone coinvolte in prima persona.
Nel nostro Paese il Garante per la protezione dei dati personali ha messo a punto un Vademecum sui rischi connessi agli usi malevoli di questa nuova tecnologia proprio con il fine di sensibilizzare gli utenti sui possibili rischi sempre più frequenti, anche a causa della diffusione di applicazioni che consentono di realizzare deepfake anche da un semplice smartphone.
A livello europeo l’Agenzia dell’Unione europea per la cybersicurezza considera la tecnologia “deepfake” una delle principali minacce.
I deepfake corrono sul filo dei social
L’informazione e i “deepfake” oggi corrono veloci sul filo dei social media tanto da aumentarne la loro diffusione e i rischi derivanti. Il più delle volte è proprio la vita “social” che, per la fretta di apparire e di commentare, contribuisce al dilagare di informazioni e di immagini non veritiere.
Quali i possibili rischi? L’uso e abuso di immagini, audio e video “falsi”, elaborati da intelligenza artificiale, sono in grado di ottenere dei risultati sempre più somiglianti al vero, pur essendo dei “fake”. Certo è che con l’avvento e il “sopravvento” dell’intelligenza artificiale, dei deepfake e il rincorrersi di informazioni – “fake news” gli utenti non sono più in grado di distinguere il vero dal falso, con il rischio di creare disinformazione, alterare la percezione della realtà e il modo di informarsi.
I rischi dei deepfake
Tra i possibili rischi collegati ai deepfake ci sono i deepnude: falsi video nei quali persone ignare vengono rappresentate in situazioni compromettenti o in pose discinte; il cyberbullismo: dove un video può essere creato per denigrare e screditare le persone coinvolte – spesso molto giovani – fino ad arrivare a ricattarle chiedendo loro delle somme in denaro per cancellarlo o comunque non diffonderlo in rete; le fake news: informazioni non veritiere finalizzate ad alimentare disinformazione; il cybercrime: dove i deepfake possono essere utilizzati per attività telematiche illecite, come lo spoofing, ovvero il furto di informazioni attraverso la falsificazione della identità delle persone coinvolte finalizzato a ottenere la trasmissione di dati, il phishing, la ricezione di una e-mail con scopo malevolo e il ransomware, il blocco informatico malevolo con connessa richiesta di riscatto per il ripristino delle funzionalità bloccate.
Come riconoscere un deepfake e potersi difendere? Sicuramente con un occhio attento ci si può accorgere se una immagine è più sfocata o una parte della foto o un video può manifestare delle anomalie – come ad esempio luci e ombre non corrette o parti del viso o del corpo che non sono proporzionati al rispetto al contesto; una persona che fa qualcosa di insolito o si trova in un evento che non si è mai verificato; una voce che può avere un leggero ritardo rispetto all’audio corrispondente. Spesso però la fretta è una cattiva consigliera che fa commettere degli errori evitabili. E cosi inconsciamente può capitare di condividere una foto o un video “fake” senza darci il giusto peso. Il rischio è che si entra in una spirale da cui è poi complicato uscire.
Per questo prima di condividere o di commentare sulle piattaforme “social” è utile verificare bene prima l’informazione che sia vera e non falsa, per evitare così di contribuire creare e divulgare disinformazione tra gli utenti del web. Laddove ci si trovasse davanti a un possibile deepfake, è bene sapere che si può inviare una segnalazione all’Autorità Garante per la protezione dei dati personali o alla piattaforma social su cui è stato caricato. Una maggiore consapevolezza è necessaria anche prima di pubblicare foto personali o familiari, possibili oggetto di deepfake. Ma per riuscire a governare e contenere in modo efficace il dilagare di queste nuove tecnologie generate da IA sarebbe essenziale prevedere una adeguata formazione ed educazione sul tema, partendo proprio dai più giovani, per creare quel senso di consapevolezza tra rischi e benefici dell’IA.
Una buona pratica sembra che sarà presto posta in essere da YouTube. Come si apprende dall’Ansa la piattaforma digitale ha in programma di indicare se il filmato caricato è stato generato interamente o anche solo in parte dall’intelligenza artificiale (IA) in modo da dare una corretta informazione agli utenti del web. L’intelligenza artificiale entrerà sempre di più a far parte del nostro quotidiano pertanto sarà fondamentale un approccio olistico che, valutando rischi e benefici di questa nuova tecnologia, sia in grado di governarla e regolamentarla. L’Europa con l’AI Act è un passo avanti, ma sarà necessaria una armonizzazione regolatoria di livello globale.