|

Algoritmo YouTube e tasto “dislike”: ecco perché incide molto poco

Avatar photo
21 Settembre 2022
Il tempo di un caffè

Uno studio di Mozilla ha evidenziato come i feedback degli utenti sembrano non avere effetti sul controllo dei contenuti raccomandati dalla piattaforma

L’algoritmo torna a far discutere e sotto i riflettori ora c’è YouTube: il tasto “Non mi piace” sembra non avere l’effetto desiderato per i video della piattaforma. È quanto emerge da un report di Mozilla dal titolo “Does This Button Work? Investigating YouTube’s ineffective user controls”. Lo studio vuole dimostrare come i video suggeriti non tengano in considerazione le preferenze espresse dagli utenti proprio attraverso i tasti “Non mi piace”, “Non mi interessa” o “Non consigliare il canale”. Il problema – segnala Mozilla – riguarda anche contenuti violenti, di hate speach e di disinformazione politica.

LO STUDIO

A segnalare la questione erano stati proprio gli utenti, che lamentavano uno scarso controllo sulla propria esperienza con l’algoritmo: il team di ricerca di Mozilla ha intervistato 2.757 partecipanti, interrogandoli sui loro sentimenti a riguardo, svolgendo poi un confronto – tra dicembre 2021 e giugno 2022 – con i dati forniti da 22.722 utenti relativi alle interazioni con YouTube, in collaborazione con l’Università di Exeter, usando un modello di machine learning per analizzare le somiglianze nei video. I risultati dello studio hanno evidenziato la percezione degli utenti che i feedback forniti attraverso gli strumenti della piattaforma non avessero effetti sui video raccomandati e che quindi i meccanismi di controllo di YouTube risultano inadeguati, dando priorità all’engagement più che alla soddisfazione degli utenti.

IL BOTTA E RISPOSTA MOZILLA-YOUTUBE

Per la controparte, Elena Hernandez, portavoce della piattaforma, ha giustificato la questione spiegando come tali comportamenti siano intenzionali, in quanto YouTube non vuole bloccare tutti i contenuti riguardanti un determinato argomento o punto di vista, al fine di evitare l’effetto echo-chambers. E spinge l’accusa dall’altra parte: Mozilla – spiega Hernandez – non avrebbe tenuto in considerazione il modo in cui i controlli della piattaforma sono progettati, né il meccanismo alla base dei contenuti raccomandati.

QUALI SOLUZIONI?

Per ovviare al problema, Mozilla suggerisce quattro raccomandazioni per YouTube e i policymakers: primo tra tutti, la facilità d’accesso e di comprensione degli strumenti forniti agli utenti per il controllo dei contenuti. Un altro punto, sempre legato alla user experience, è mettere l’utente al primo posto nell’ideazione dei meccanismi, dando loro il comando delle proprie esperienze. Altro tema è la trasparenza: YouTube – suggerisce il report – dovrebbe migliorare gli strumenti d’accesso ai dati per lo studio del funzionamento dell’algoritmo. Infine, sempre sul tema dei ricercatori, un monito per i policymaker che – sentenzia Mozilla – dovrebbero salvaguardare l’interesse pubblico attraverso leggi e meccanismi di protezione legale.

Ci leggiamo presto!

A cura di
Avatar photo
Gazzetta PRO