Perché l’algoritmo di YouTube ti mostra video violenti, omofobi o razzisti?

0
148
Questo post è stato pubblicato qui
La campagna di Mozilla su Youtube
La campagna di Mozilla su Youtube

Vi sarà certamente capitato di guardare un video su YouTube per poi essere inesorabilmente attratti dai video suggeriti dall’algoritmo onnisciente della piattaforma di Google e finire così scaraventati in un vortice di video assurdi a cui non è possibile sfuggire, finendo persino a guardare dei video su cui non avremmo mai voluto cliccare.

Mozilla, l’associazione non-profit che fra le altre cose sviluppa il browser Firefox, ha deciso di lanciare la campagna #YouTubeRegrets proprio per raccogliere e raccontare, in uno sforzo corale, le esperienze degli utenti con l’algoritmo di YouTube. Tutti possono contribuire. L’obiettivo, oltre a spezzare così l’esperienza individuale della piattaforma, è quello di chiedere a YouTube maggior apertura nei confronti dei ricercatori che tentano di studiare l’algoritmo e capirne i suoi effetti ed eventuali pericoli.

Nell’ultimo anno, l’attenzione rivolta all’algoritmo di YouTube da parte di ricercatori e giornalisti ha portato alla luce episodi in cui l’algoritmo ha contribuito alla radicalizzazione di giovani ragazzi e casi in cui video di minori venivano suggeriti a fianco di video sessualmente espliciti, dando così l’impressione che l’algoritmo stesse favorendo il comportamento dei pedofili.

Il trabocchetto dell’algoritmo

Le piattaforme digitali ruotano intorno ad algoritmi di personalizzazione che, sulla base di numerosi segnali e parametri a noi sconosciuti, ci convincono di sapere quale sia il contenuto che a noi piacerà di più. L’esperienza individuale che noi facciamo su queste piattaforme non ci permette però di vedere il quadro complessivo e rischia di indurci a pensare che ciò che noi vediamo sia la norma anche per tutti gli altri utenti. In questo modo perdiamo la possibilità di confronto con gli altri e rischiamo che molte storture degli algoritmi passino inosservate.

Per questo motivo Mozilla ha pubblicato 28 storie di altrettante persone che si sono trovate a scendere negli inferi dell’algoritmo di suggerimento, maledicendosi per essersi lasciate guidare da YouTube.

C’è la storia dell’insegnante che partendo da documentari storici sull’Apollo 11 si è trovato a navigare in mezzo a video di teorie della cospirazione. Chi guardando videoblog di drag queen ha visto comparire unicamente video anti-lgbtq e contenuti d’odio. Video di vichinghi che hanno portato a contenuti legati al suprematismo bianco e apertamente razzisti. E filmati di incontri di pugilato che spingono l’algoritmo a suggerire risse da strada e violenza urbana.

L’algoritmo di YouTube sembrerebbe programmato per ottimizzare i tempi di permanenza degli utenti sul sito offrendo contenuti che attirano l’attenzione. Molto spesso, però, questi contenuti coincidono con temi e immagini disturbanti, violente, divisive e ultra-polarizzanti. Purtroppo, però, queste congetture rischiano di rimanere soltanto ipotesi dal momento che non è possibile accedere ai dati per capire esattamente come funziona l’algoritmo.

E come sottolineano quelli di Mozilla, la loro campagna non mira alla rimozione o al divieto di specifici contenuti, ma è una questione di trasparenza e fiducia nei confronti degli utenti: l’obiettivo, dicono, è “attirare l’attenzione sul modo in cui l’Ai, sotto forma di motori di raccomandazione, può amplificare alcuni tipi di contenuti più di altri.

Lo scorso agosto Mozilla ha inviato una lettera a YouTube chiedendo una maggiore apertura e collaborazione con i ricercatori. Circa un mese dopo YouTube ha acconsentito a un incontro con Mozilla per discutere il tema e la piattaforma aveva già pubblicato una nota a giugno sottolineando le azioni che stanno mettendo in atto. La maggior parte delle quali, però, riguarda la rimozione di contenuti legati all’odio online e la riduzione della diffusione di contenuti ritenuti borderline.

Questione di trasparenza

Mozilla chiede che ai ricercatori venga concesso l’accesso a dati significativi riguardo un campione rappresentativo su larga scala di video e canali pubblici, inclusi i dati relativi al numero di visualizzazioni, l’engagement generato, testi e annotazioni che accompagnano i video. Inoltre, richiedono anche l’introduzione di sistemi per simulare il comportamento degli utenti in modo da valutare il funzionamento dell’algoritmo e poter raccogliere così dati da analizzare.

Come ricorda Mozilla, le storie raccolte nella loro campagna sono aneddotiche e non è stato possibile effettuare una verifica accurata. YouTube stessa, in una dichiarazione rilasciata a Cnet, dichiara che non ha potuto verificare la veridicità delle storie ma che, comunque, hanno progettato i sistemi “per garantire che i contenuti provenienti da fonti più autorevoli siano portati in evidenza nei suggerimenti.” Sempre secondo YouTube, ci sarebbe stato “un calo del 50% del tempo di visione dei contenuti borderline e di disinformazione negli Stati Uniti.

Questa impossibilità di verificare e analizzare la piattaforma è, purtroppo, la situazione in cui tutti si trovano al momento. Non c’è altra via per poter comparare le diverse immagini del mondo che vengono proiettate dagli algoritmi sui nostri schermi.

Ed è anche per questo motivo che le richieste di Mozilla sono sì un buon primo passo ma probabilmente non sono sufficientemente radicali da perturbare concretamente la nube che avvolge YouTube. In questo modo ci si rimette per l’ennesima volta nelle mani della piattaforma, a cui si concede la possibilità di dettare i termini per l’accesso e la fruizione dei dati da analizzare.

Simili promesse erano già state fatte da Facebook riguardo i dati sulla disinformazione ma, come riportato da un recente articolo del New York Times, sembra che dopo più di un anno i ricercatori non abbiano ancora ricevuto tutti i dati che erano stati promessi—a causa anche di problemi legati alla gestione della privacy dei post.

Se vogliamo effettivamente squarciare il velo che ci costringe a vivere un’esperienza individuale della piattaforma dovremmo chiedere l’apertura completa dei dati, garantendo così la possibilità di effettuare comparazioni fra i video suggeriti a persone diverse, ampliando così la nostra sfera di lettura del mondo, costruendo un mosaico fatto di infinite proiezioni di ciò che l’algoritmo pensa siano i nostri interessi e portare così in superficie più facilmente anche tutte quelle macchie di sporco che si annidano su YouTube.

The post Perché l’algoritmo di YouTube ti mostra video violenti, omofobi o razzisti? appeared first on Wired.