Questo articolo è stato pubblicato da questo sito
Nell’agosto del 2024 Donald Trump postava sul suo social network Truth un collage di immagini e screenshot delle Swifties for Trump. Il post divenne subito virale e tutti notarono che solo una delle quattro foto era autentica, le altre erano state create, almeno parzialmente, con l’intelligenza artificiale generativa. Come sappiamo, l’endorsement da parte di Taylor Swift non è mai avvenuto, anzi la cantante avrebbe poi dichiarato di sostenere Kamala Harris. Sui media comparvero diversi articoli sul pericolo rappresentato dalla gen AI e sull’ondata di disinformazione che avrebbe generato. Il curriculum di Trump come megafono di notizie false e ingannevoli però inizia da ben prima dell’avvento dell’IA generativa e, in fondo, sarebbe stato possibile creare quelle stesse immagini con qualsiasi software di fotoritocco, come PhotoShop, a costi piuttosto modesti. Inoltre, qualche sostenitrice di Trump tra le le fan di Taylor Swift c’era davvero, visto che una delle foto era autentica. Certamente l’AI riduce i tempi e i costi, ma questo problema esiste da ben prima dei deep fake, ed è ampiamente documentato dalla letteratura sui cheap fake.
Secondo il World Economic Forum la disinformazione è il rischio a breve termine più severo che il mondo deve affrontare, e l’intelligenza artificiale sta amplificando le informazioni fuorvianti che possono destabilizzare la nostra società. Dopo i dodici mesi che hanno portato alle urne il maggior numero di votanti della storia, possiamo provare a capire quale sia stato l’impatto di questa tecnologia. I dati raccolti dal Wired AI Elections Project su 78 casi di utilizzo dei deep fake nel 2024 mostrano come la metà dei contenuti analizzati non era ingannevole e quel tipo di materiale poteva essere riprodotto, senza AI, a costi contenuti. Questa tesi è piuttosto diffusa in ambito accademico ed è stata esposta in una serie di ricerche che appaiono in contrasto con i toni e le argomentazioni dominanti nel mondo del giornalismo e dei cosiddetti esperti di settore, che, in linea con le piattaforme in cui operano, prediligono racconti sensazionalistici ed emotivamente polarizzanti.
A sostenerlo, tra gli altri, ci sono Sayash Kapoor e Arvind Narayanan, autori di una ricerca che esamina i dati riportati qui sopra. A commento dei casi analizzati, i due concludono che l’impatto a livello globale sia stato minore di quanto temuto. La loro catalogazione dei risultati però non considera come ingannevoli contenuti come le informazioni errate prodotte dai chatbot (comunemente chiamate allucinazioni) o i deepfake utilizzati come parodia o satira nei confronti degli avversari politici, minimizzando quindi altre problematiche. In fondo, se metà dei deep fake erano ingannevoli, la percentuale è comunque alta. Tuttavia, anche altre ricerche pubblicate su prestigiose riviste accademiche confermano questa tesi.
Che i timori nei confronti del pericolo di disinformazione legato all’IA fossero esagerati si poteva leggere anche in un articolo della Harvard Kennedy School datato ottobre 2023. Secondo gli autori, l’aumento dell’offerta di disinformazione generato dalle nuove tecnologie non incontrerebbe un aumento della domanda, che proviene principalmente da frange estremiste e già polarizzate, non dal consumatore medio di informazioni. La disinformazione sarebbe quindi concentrata nella dieta informativa di una piccola, e molto attiva, parte della popolazione online, e nella maggior parte dei casi sarebbero questi gruppi a cercare narrazioni che riflettono le loro tendenze, esacerbate poi dagli algoritmi. In sostanza, a trovare le teorie del complotto online sarebbe soprattutto chi le cerca o già le sostiene.