Questo articolo è stato pubblicato da questo sito
C’è un nuovo elemento in politica che potrebbe avere un ruolo determinante alle prossime elezioni: è l’intelligenza artificiale. La diffusione dell’innovativa tecnologia che facilita la creazione di immagini false accresce il timore che la disinformazione intorno alle prossime campagne elettorali sia in aumento, tanto che Google richiederà presto che gli annunci politici sulle sue piattaforme facciano sapere quando immagini, audio o testi sono stati creati con l’AI.
Dato che nel 2024 due miliardi di persone voteranno in più di 50 elezioni nel mondo, tra cui quelle negli Stati Uniti, in India e nell’Unione Europea, i social network provano a tutelarsi mentre le istituzioni monitorano la situazione. Tuttavia, alcuni esempi recenti di diffusione di fake news generate con l’intelligenza artificiale hanno già dimostrato come l’interferenza dell’Ai in politica sia una novità di cui tenere conto nei risultati elettorali.
Le nuove regole di Google
Google presto richiederà che gli annunci politici sulle sue piattaforme informino le persone quando immagini e audio sono stati creati usando l’intelligenza artificiale. Queste regole sono state introdotte in risposta alla “crescente diffusione di strumenti che producono contenuti sintetici“, ha dichiarato un portavoce di Google alla Bbc. Il cambiamento è previsto per novembre, circa un anno prima delle prossime elezioni presidenziali negli Stati Uniti e delle elezioni europee di giugno 2024.
Alphabet ha già politiche pubblicitarie che vietano la manipolazione dei media digitali per ingannare o fuorviare le persone in materia di politica, questioni sociali o affari di interesse pubblico. Con la nuova appendice, gli annunci legati alle elezioni dovranno “evidenziare in modo chiaro se contengono contenuti sintetici che raffigurano persone o eventi reali o realistici”. Google suggerisce etichette e watermark come “questa immagine non raffigura eventi reali” o “questo video è stato generato sinteticamente” al fine di segnalare i post creati con l’intelligenza artificiale. L’azienda ha affermato di continuare a investire in tecnologia per rilevare e rimuovere tali contenuti dal suo motore di ricerca e da YouTube.
X content
This content can also be viewed on the site it originates from.
Cosa fanno gli altri
L’azione di Google potrebbe esercitare una necessaria pressione su altre piattaforme online affinché seguano l’esempio. Meta, la società di Facebook e Instagram, non ha una regola specifica per gli annunci politici generati dall’intelligenza artificiale, ma limita già l’audio e le immagini falsificate, manipolate o trasformate utilizzate per la disinformazione. TikTok non consente annunci politici, ma sono invece ammessi i deepfake di personaggi pubblici con contenuto artistico o educativo. X, ex Twitter, non ha al momento rilasciato commenti a riguardo, ma il sito di Elon Musk appare come quello maggiormente a rischio.
All’inizio dell’anno, su Twitter è circolato un video falso che sembrava mostrare il presidente degli Stati Uniti, Joe Biden, mentre annunciava di aver reintrodotto la leva obbligatoria e di voler mandare gli americani a combattere in Ucraina. Inizialmente il video riportava una didascalia che lo descriveva come “un’immaginazione” dell’AI, ma ha perso rapidamente il testo di accompagnamento in seguito alla sua diffusione, dimostrando quanto facilmente l’uso della tecnologia, pur se condiviso in modo trasparente, possa eventualmente trasformarsi in disinformazione.