Questo articolo è stato pubblicato da questo sito
L’evoluzione dell’AI generativa ha portato con sé un’ottimizzazione notevole del lavoro in alcuni settori professionali, ma ha anche contribuito a un incremento della diffusione di contenuti pedopornografici generati dalla stessa intelligenza artificiale. Un problema che si è fatto sempre più urgente negli US, tanto da convincere i procuratori generali di tutti i 50 stati del paese a inviare una lettera al Congresso richiedendo ai legislatori di “istituire una commissione di esperti per studiare i mezzi e i metodi dell’intelligenza artificiale che possono essere utilizzati per sfruttare specificamente i bambini” e di ampliare le restrizioni esistenti sui materiali pedopornografici al fine di includervi anche le immagini generate dall’AI.
Come sottolineato dal procuratore generale della Carolina del Sud Alan Wilson, tra i principali pericoli legati all’intelligenza artificiale c’è la creazione di contenuti deepfake, ossia video e immagini generate dall’AI utilizzando immagini di bambini abusati e non, così pure come la generazione ex novo di “immagini sessualizzate nuove e realistiche di bambini che non esistono, ma che potrebbero somigliare” a minorenni realmente esistenti. Il vero problema della gestione di questi contenuti, come sottolineato dallo stesso Wilson, riguarda proprio la loro natura virtuale, che implica il fatto che il minore non venga considerato realmente sfruttato, nonostante la sua immagine venga diffusa pubblicamente e la sua persona diffamata.
Una situazione complessa, che richiede una soluzione ben strutturata da parte delle autorità governative. Nonostante gli US si siano mossi per cercare di regolamentare l’uso dell’AI, sono ancora ben lontani da una legislazione vera e propria – come quella che l’Unione Europea sta attuando sul suo territorio -. Dal canto loro, però, i colossi tecnologici si stanno dimostrando alquanto interessati a fermare la diffusione di contenuti pedopornografici generati dall’AI. Meta, OnlyFans, TikTok e Pornhub, per esempio, hanno deciso di supportare il tool online Take It Down, che consente ai minori di segnalare immagini e video espliciti di se stessi presenti online. Uno strumento utile, che testimonia al meglio l’interesse del settore nel proteggere i soggetti più fragili e a rischio, i minori. In fondo, come si legge chiaramente nella lettera dei procuratori degli US, “la sicurezza dei bambini non dovrebbe passare in secondo piano quando si valutano i rischi dell’intelligenza artificiale”.