Le immagini di abusi sessuali su minori generati dall’Intelligenza artificiale sono sempre più diffuse (Foto Pixabay, immagine generata dall'AI)
Le immagini di abusi sessuali sui minori generati dall’Intelligenza artificiale sono sempre più diffuse
La denuncia di Internet Watch Foundation: le immagini di abusi sessuali su minori generati dall’intelligenza artificiale sono sempre più presenti nelle aree di Internet accessibili al pubblico. L’AI si addestra su contenuti di abusi reali
Aumenta l’esposizione del pubblico a video e immagini agghiaccianti di abusi sessuali su minori generati dall’Intelligenza Artificiale. Nono sono nel dark web ma in aree internet accessibili al pubblico. Il dramma è duplice: da un lato, sono fatte in modo che gli analisti fanno fatica a distinguere se l’immagine raffigura un bambino reale che ha bisogno di aiuto; dall’altro, le raffigurazioni e i video delle vittime reali vengono usate dall’IA per generare immagini raccapriccianti in qualsiasi possibile scenario. I programmi di intelligenza artificiale si addestrano insomma su immagini, foto e video di bambini realmente vittime di abusi.
È una denuncia agghiacciante quella che arriva dall’IWF, Internet Watch Foundation, una rete europea che opera nel Regno Unito per la ricerca e la rimozione di immagini di abusi sessuali su minori da Internet. La denuncia è stata riportata anche dal Guardian.
Gli analisi dell’IWF fra l’altro continuano a imbattersi in immagini e video di vittime minorenni esistenti, reali, usate per generare nuove immagini di abusi realizzate attraverso l’Intelligenza artificiale e nuovi video deepfake di abusi. Molti sono video pornografici per adulti, manipolati poi con strumenti di intelligenza artificiale.
Immagini di abusi e AI, segnalazioni in aumento
Solo negli ultimi sei mesi, gli analisti dell’IWF hanno riscontrato un aumento del 6% delle segnalazioni confermate contenenti materiale pedopornografico generato dall’intelligenza artificiale, rispetto ai 12 mesi precedenti. Quasi tutti i contenuti (il 99%) sono stati trovati in aree accessibili al pubblico, come forum o gallerie di AI, e non nel dark web. E il 78% delle segnalazioni viene dal pubblico, solo il resto dalla ricerca proattiva degli analisti.
Gli analisi inoltre raccontano che “guardare contenuti generati dall’intelligenza artificiale che ritraggono bambini vittime di abusi sessuali può essere tanto angosciante quanto vedere bambini veri in immagini di abusi, se una persona non è preparata o formata ad affrontare la visione di tale materiale”.
L’IWF traccia i siti in cui sono ospitati contenuti pedopornografici, in modo che gli analisti possano intervenire per rimuoverli rapidamente e bloccarli. Oltre la metà dei contenuti generati dall’intelligenza artificiale trovati negli ultimi sei mesi, spiega ancora la rete, erano ospitati su server in due paesi, la Federazione Russa (36%) e gli Stati Uniti (22%), seguiti rispettivamente da Giappone e Paesi Bassi con l’11% e l’8%.
Il dramma dei sopravvissuti
Ha raccontato un Senior Internet Content Analyst presso l’IWF: «Questo contenuto criminale non è confinato a luoghi misteriosi del dark web. Quasi tutti i report o gli URL di cui ci siamo occupati che contenevano materiale di abuso sessuale su minori generato dall’intelligenza artificiale sono stati trovati sul clear web. Lo trovo davvero agghiacciante, perché sembra che siamo a un punto di svolta e che organizzazioni come la nostra e la polizia possano essere travolte da centinaia e centinaia di nuove immagini, senza sempre sapere se c’è un bambino vero che ha bisogno di aiuto».
C’è anche il dramma dei sopravvissuti, che hanno raccontato quanto sia traumatico per loro rivedere le immagini dei loro abusi che continuano a circolare anche attraverso le immagini generati dall’AI.
Spiega Derek Ray-Hill, amministratore delegato ad interim dell’IWF : «Le persone non possono farsi illusioni sul fatto che il materiale di abusi sessuali su minori generato dall’intelligenza artificiale causi danni orribili, non solo a coloro che potrebbero vederlo, ma anche ai sopravvissuti che sono ripetutamente vittime ogni volta che immagini e video dei loro abusi vengono sfruttati senza pietà per il divertimento contorto dei predatori online. Per creare il livello di sofisticatezza osservato nelle immagini dell’intelligenza artificiale, il software utilizzato ha dovuto essere addestrato anche su immagini e video di abusi sessuali esistenti di vere vittime minorenni, condivisi e distribuiti su Internet. La protezione dei bambini e la prevenzione delle immagini di abuso dell’IA devono essere considerate prioritarie dai legislatori e dall’industria tecnologica rispetto a qualsiasi pensiero di profitto. Gli ultimi mesi dimostrano che questo problema non sta scomparendo e anzi sta peggiorando. Abbiamo urgente bisogno di adeguare le leggi all’era digitale e di vedere misure tangibili che affrontino i potenziali rischi».

