Questo articolo è stato pubblicato da questo sito
Nel mondo dei social media le decisioni su quello che è o non è consentito sono sempre state prese solo ed esclusivamente dalle società proprietarie e dai governi. Gli utenti, che sono i principali fruitori delle piattaforme, non solo non sono mai stati presi in considerazione nei processi decisionali, ma non hanno neppure mai avuto l’occasione per contestarne le scelte. Almeno fino a ora. Da oggi gli utenti possono contestare le decisioni di moderazione dei contenuti su Facebook, TikTok e YouTube, facendo riferimento a un nuovo organismo indipendente, l’Appeals Centre Europe (Ace).
Se un utente o un’organizzazione non sono d’accordo con la decisione di una piattaforma di rimuovere o confermare un contenuto, a partire da ora possono presentare una vertenza all’Appeals Centre – all’indirizzo www.appealscentre.eu -, accompagnata da una dichiarazione che ne esponga le motivazioni. Una volta presentato il ricorso, si vedranno addebitare un costo di 5 euro, che gli verrà rimborsato nel caso in cui la vertenza vada a buon fine. Spetterà poi ai revisori del centro valutare se la decisione presa dalle piattaforme è davvero coerente con la loro policy, oltre che con i diritti umani. Tra i temi trattati dall’Appeals Centre, infatti, ci sono il bullismo, l’incitamento all’odio, le molestie, la disinformazione e qualunque altra cosa possa risultare dannosa per gli utenti, inclusi i video e le immagini alterate dall’AI.
Inoltre, per il momento il centro tratterà soltanto ricorsi relativi ai contenuti pubblicati in sei lingue – francese, inglese, spagnolo, italiano, tedesco e olandese – ma l’intenzione è quella di ampliarne il raggio d’azione in futuro. “Sebbene le piattaforme abbiano spesso le regole giuste, il numero elevato di post significa che non sempre le applicano correttamente – ha commentato Thomas Hughes, Ceo dell’Appeals Centre, ubicato a Dublino. “E quando le piattaforme sbagliano, gli utenti ne pagano il prezzo. I reportage dei giornalisti vengono rimossi solo per aver nominato gruppi terroristici. I post che mostrano i sintomi del cancro al seno vengono eliminati, nonostante le eccezioni per la sensibilizzazione in questo settore. In altri casi, invece, vengono lasciati in piedi i discorsi d’odio che violano le politiche, perché le persone giocano con il sistema per evitare di essere scoperte”.
Certo, le piattaforme dovranno fare la loro parte per risolvere le controversie sollevate da utenti e organizzazioni dato che, ai sensi del Digital Services Act, le decisioni degli organi di risoluzione extragiudiziale come l’Appeals Centre non sono da ritenersi legalmente vincolanti. Ma questo potrebbe aiutare gli organi europei a capire quali sono le tematiche su cui gli utenti incontrano maggiori problemi sulle piattaforme, al fine di poter intervenire sulle modalità di moderazione dei contenuti che queste adottano.