È YouTube ad aver generato estremisti e complottisti?

0
138
Questo post è stato pubblicato qui

Un tempo era rotonda, poi è arrivato YouTube e a causa sua la Terra è diventata piatta. Si potrebbe riassumere così la dinamica raccontata da molteplici inchieste che hanno cercato l’origine della diffusione di alcune tra le più note teorie del complotto nell’epoca dei social network. “Per due anni abbiamo guardato un video dopo l’altro”, ha per esempio raccontato al New Yorker il terrapiattista Darryle Marble. “Dal complotto dell’11 settembre fino agli Illuminati, i Rothschild e i Bilderberg. Tutte cose che si trovano grazie ai suggerimenti e ai video correlati”.

Tra questi video, inevitabilmente, sono spuntati anche quelli sulla Terra piatta: “E tutto ha iniziato ad avere molto più senso”, racconta sempre Marble. “Ero incline ad accettare l’idea del terrapiattismo, perché ero già giunto alla conclusione che ci stessero ingannando su un sacco di cose. Di conseguenza, era ovvio che stessero mentendo anche su questo aspetto”. Non è un caso isolato: praticamente tutte le persone intervistate per l’inchiesta del New Yorker, quando veniva loro chiesto come avessero iniziato a credere che la Terra fosse piatta, davano sempre la stessa risposta: YouTube.

È la teoria che gli anglofoni definiscono rabbit hole e che noi potremmo chiamare del buco nero: una discesa algoritmica, a furia di video correlati, nei meandri più oscuri di YouTube e in grado di inculcare negli utenti le teorie più assurde. Il responsabile di tutto ciò – secondo le tesi sostenute dalla giornalista del New York Times Zeynep Tufekci (che ha definito YouTube il grande radicalizzatore) – sarebbe infatti la selezione algoritmica dei video che si succedono uno dopo l’altro, che porta quasi naturalmente a vedere video sempre più estremi, radicali, complottisti. E che proprio per questa ragione hanno maggiori probabilità di conquistare la nostra attenzione e tenerci incollati alla piattaforma di proprietà di Google.

Il problema è che le persone non si limitano a vedere video che sostengono teorie assurde, ma, secondo questa chiave di lettura, iniziano anche a crederci. Tutto ciò si applica ovviamente anche alla politica tradizionale. Sempre secondo Tufekci, partendo dalla visione su YouTube di qualche contenuto mainstream di chiaro indirizzo politico (per esempio di Fox News) è fin troppo facile finire in un turbine di contenuti sempre più estremi, fino a precipitare nel buco nero del suprematismo bianco, dell’antisemitismo o delle teorie del complotto di estrema destra come QAnon o il Pizzagate.

Ma funziona davvero così? A cercare di smentire chi vede in YouTube uno dei responsabili dell’attuale clima politica sono due scienziati politici della statunitense Penn State University, autori di un recente studio sul tema: “Pensiamo che questa tesi sia incompleta e potenzialmente fuorviante. E riteniamo che abbia rapidamente trovato posto al centro degli studi su YouTube soprattutto perché offre una facile soluzione politica.

Attenzione: questo studio – condotto da Kevin Munger e Joseph Phillips – non nega che su YouTube domini politicamente una narrativa complottista e di estrema destra. Addirittura, secondo i calcoli dei due, il complesso dei canali riconducibili alla alt-right ha ormai un’audience superiore alle tre principali reti di informazione via cavo statunitense.

I due ricercatori hanno però usato questi dati per rovesciare la tesi dominante: non è YouTube che crea gli estremisti, ma gli estremisti che finalmente hanno trovato un luogo dove rifornirsi di contenuti altrimenti irreperibili. In poche parole, come si legge sull’edizione statunitense di Wired, “la radicalizzazione su YouTube deriva dagli stessi fattori che fanno cambiare idea alle persone nella vita reale: entrare in contatto con nuova informazione. Da questo punto di vista, “la quantità e popolarità dei media politici alternativi (principalmente di estrema destra) su YouTube è alimentata dalla domanda e dall’offerta”.

L’offerta cresce perché YouTube offre ospitalità a personalità che altrove non potrebbero mai trovare spazio, e in questo modo va a soddisfare una latente domanda di video estremisti o conservatori: “L’inquietante quantità di persone che consuma contenuti nazionalisti non è causata dal fatto che YouTube radicalizza un’audience altrimenti moderata”, scrivono i due ricercatori nel paper. “Piuttosto, crediamo che questa audience esistesse già, ma era alle prese con un’offerta limitata”.

Chi ha ragione? Non si può escludere che, ancora una volta, la verità stia nel mezzo. YouTube potrebbe essersi limitata a offrire contenuti in grado di saziare un appetito già esistente, allo stesso tempo la quantità esorbitante di video estremisti potrebbe aver contribuito a radicalizzare una fascia di popolazione che, altrimenti, non sarebbe mai entrata in contatto con materiale di questo tipo. C’è un modo per valutare scientificamente da che parte penda la bilancia?

In realtà, sì. Manoel Ribeiro è un ricercatore dell’Istituto tecnologico di Losanna (Svizzera), che ha recentemente condotto quello che è stato definito lo studio “più completo e rigoroso” sui meccanismi di YouTube e il loro impatto politico. Per il suo studio, ha analizzato oltre 300mila video provenienti da 349 canali della piattaforma di streaming, dividendoli in quattro categorie: dal giornalismo mainstream alla destra moderata, arrivando a quella conservatrice e infine all’estrema destra. Secondo gli studi di Ribeiro, chi parte dal giornalismo mainstream ha solo una probabilità su 100mila di entrare in contatto con i video più estremi, mentre chi parte dal gruppo di destra moderata ha una possibilità su 1.700.

E quindi, Ribeiro ha dimostrato che la teoria del buco nero sia da consegnare agli archivi? Dobbiamo rassegnarci al fatto che l’attuale ondata estremista sia solo frutto del clima socio-economico? Non proprio. Lo studio di Manoel Ribeiro si limita semmai a sminuire il ruolo dell’algoritmo di YouTube e l’impatto sugli utenti occasionali, ma offre conclusioni diverse quando analizza il comportamento degli utenti attivi, dimostrando come gli iscritti ai canali del secondo e terzo gruppo (destra moderata e destra conservatrice) finiscano spesso nel quarto gruppo, quello di estrema destra.

Per individuare questo fenomeno, Ribeiro ha utilizzato un dataset di oltre 72 milioni di commenti e analizzato il comportamento degli utenti più attivi su YouTube. “Una significativa quantità di utenti attivi passa sistematicamente dal commentare i contenuti più moderati a commentare quelli più estremi”, si legge nel paper. “Riteniamo che ciò fornisca delle prove significative che ci sia effettivamente stata, e continui a esserci, una radicalizzazione degli utenti di YouTube. (…) Questo fenomeno migratorio non solo è consistente nel corso degli anni, ma è anche significativo in termini di quantità assoluta”.

Nonostante questo studio sia stato utilizzato sia per confermare sia per smentire il ruolo di YouTube nella radicalizzazione politica, in realtà non c’è contraddizione tra le conclusioni apparentemente opposte a cui giunge. Gli utenti normali, che si limitano a guardare i video, hanno una probabilità molto ridotta di venire “radicalizzati” a furia di video. Lo stesso non si può invece dire per gli utenti più attivi, che sono parte integrante delle comunità che ruotano attorno ai vari canali conservatori o alt-right. Tra questi, secondo lo studio, il rischio di passare a gruppi estremisti è parecchio più elevato.

Lo studio di Ribeiro sembra comunque scagionare l’algoritmo di YouTube dalle colpe che gli vengono addossate, confermando in entrambi i casi come sia semmai la possibilità di entrare a contatto con fonti d’informazione “alternative” a coinvolgere (e magari travolgere) alcuni utenti. Come già dimostrato da altri studi, i social network e le piattaforme seguono le stesse dinamiche della vita reale, ma su una scala molto più grande, con una velocità e con una facilità d’accesso enormemente superiore rispetto al passato.

Più in generale, c’è un dato del primo studio che merita maggiore attenzione: nel corso del 2019, i video più radicali hanno perso una significativa parte di audience [N.B. nel grafico sono stati invertiti due colori, il rosso è relativo all’alt-right]. Il merito di questo declino è probabilmente ascrivibile alla decisione di YouTube di limitare il più possibile la visibilità di questi contenuti, senza eliminarli ma affossandoli algoritmicamente (vale a dire, rendendo sempre più difficile individuarli a meno non si abbia il link diretto). Chiunque abbia ragione sul ruolo politico giocato dalla piattaforma di proprietà di Google, questa è probabilmente la novità più importante. Forse, YouTube sta trovando il modo di chiudere il buco nero.

The post È YouTube ad aver generato estremisti e complottisti? appeared first on Wired.