Tutti i problemi che stanno lentamente sgretolando Facebook

Avatar photo
22 Gennaio 2022
Tocca mettersi comodi

Da simbolo di un mondo interconnesso a ricettacolo di disinformazione e intolleranza. La creatura di Zuckerberg, sta affrontando un calo di gradimento senza precedenti. Un gigante che affonda o un’araba fenice? Dagli inizi ad oggi, come siamo arrivati al disfacimento di un mito.

Chiariamoci, a fine 2021 Facebook è ancora il primo social network e il terzo sito più cliccato al mondo. Nonostante un anno difficile, con uno scandalo importante e un blackout da 6 miliardi di dollari, la popolarità della piattaforma rallenta la crescita ma non si ferma.

Tuttavia si aprono delle crepe, la fascia dei giovanissimi che migra su altri social, la fuga di notizie scottanti, le accuse dei dipendenti e il ruolo controverso in diverse vicende sociali e politiche mondiali. La salute di Facebook non è così florida.

Image credits: We are social, Hootsuite

Sua maestà l’algoritmo

Nei suoi primi anni, l’algoritmo di Facebook ha dato rilievo a segnali come Like, clic e commenti per stabilire quali post amplificare sulla piattaforma. Editori, marchi e singoli utenti hanno presto imparato a creare post e titoli progettati per indurre tali reazioni, dando origine a ciò che è diventato noto come clickbait, i titoli acchiappa click.

Dopo pochi anni Facebook ha notato una crescente diffidenza degli utenti nei confronti dei titoli teaser fuorvianti e la società ha ricalibrato il suo algoritmo, nel 2014 e poi nel 2015, per eseguire il downgrade di clickbait e concentrarsi su nuove metriche, come la quantità di tempo che un utente trascorre leggendo un post o guardando un video. 
Nel 2017 ha sviluppato una nuova serie di metriche, definite “interazioni sociali significative”, progettate per mostrare agli utenti più post di amici e familiari e meno di grandi editori e brand. In aggiunta ha offerto ai suoi utenti cinque nuovi modi per reagire a un post nel loro feed di notizie, oltre all’iconico “mi piace” sono comparse le emoji  “amore”, “haha”, “wow”, “triste” e “arrabbiato”.

“L’obiettivo della modifica è quello di migliorare l’esperienza delle persone dando la priorità ai post che ispirano le interazioni, in particolare le conversazioni, tra familiari e amici”, ha affermato Adam Isserlis, portavoce di Facebook.

Image credits: freepick

Interazioni sociali positive?

Il limite di questo approccio, o l’errore alla base, è risultato evidente negli ultimi anni.

Nella misura in cui i contenuti controversi sono spesso più coinvolgenti dei contenuti senza ambiguità o dibattito, il ranking per coinvolgimento dei post corre il rischio di favorire terreno di scontro. Oltretutto l’algoritmo è programmato per imparare dai comportamenti individuali e questo non fa che radicalizzare alcune posizioni, favorendo il perpetrare di atteggiamenti aggressivi e violenti lì dove si manifestano.

Ad esacerbare la situazione, dal 2017 al 2019 l’algoritmo di Facebook viene riprogrammato per valutare le reazioni delle emoji come quattro volte più influenti dei Like. La teoria era semplice: i post che provocavano molte reazioni emoji tendevano a mantenere gli utenti più coinvolti e questa è la chiave del business di Facebook. A un certo punto, il CEO Mark Zuckerberg ha persino incoraggiato gli utenti, in una risposta pubblica sullo stesso social, a usare la reazione arrabbiata per segnalare il proprio disappunto.

Image credits: Washington Post

I data scientist dell’azienda hanno confermato nel 2019 che i post che hanno suscitato reazioni rabbiose con emoji avevano una probabilità sproporzionata di includere disinformazione, tossicità e notizie di bassa qualità. Ciò significa che Facebook per tre anni ha sistematicamente amplificato alcuni dei peggiori contenuti della sua piattaforma.

Fake news e manipolazione

“La rabbia e l’odio sono il modo più semplice per crescere su Facebook”, ha detto Frances Haugen, l’ex dipendente della società responsabile della fuga di notizie di Settembre scorso.

I documenti interni mostrano che per il milione di utenti americani più politicamente orientati, quasi il 90% dei contenuti che Facebook mostra loro riguarda la politica e le questioni sociali. Gli stessi utenti sono anche le principali vittime di disinformazione, un post ogni 40 nel loro feed è portatore di notizie false o manipolate.

Sempre Adam Isserlis afferma: “Stiamo continuando ad apportare modifiche coerenti con questo obiettivo, come nuovi test per ridurre i contenuti politici su Facebook sulla base di ricerche e feedback”. Anche Nick Clegg, vice presidente di Facebook, risponde alle accuse di diffusione di false notizie riguardo la pandemia da Covid-19, affermando che il social network si stava impegnando a rimuovere tutti i messaggi che diffondevano notizie false o non verificate a proposito del virus.

Ma i risultati lasciano a desiderare, come ci racconta Kaveh Waddell su  Consumer Reports.

Waddell ha inserito informazioni volutamente false in una serie di sette annunci a pagamento con un falso profilo su Facebook. Per quanto gli annunci non siano mai usciti al pubblico perché in programmazione, tutti sono stati approvati dal social network per la pubblicazione, “Facebook rimuove spesso gli annunci problematici dopo che hanno iniziato a circolare. Se avessi pubblicato i miei annunci di prova, Facebook probabilmente li avrebbe trovati e rimossi alla fine. Ma è impossibile sapere fino a che punto si sarebbero diffusi o quanti danni avrebbero fatto.” racconta Waddell.

Image credits: Consumer Reports

La fallacia dei controlli è suffragata anche da una ricerca del German Marshall Fund Digital, centro di ricerca sulle politiche pubbliche. In totale, i Like, i commenti e le condivisioni di articoli di Facebook che pubblicano regolarmente notizie false e contenuti fuorvianti sono quasi triplicati dal terzo trimestre del 2016 al terzo trimestre del 2020.

Image credits: German Marshall Fund

Il gruppo ha utilizzato le valutazioni di NewsGuard, che classifica i siti di notizie in base a come sostengono nove principi giornalistici, per classificarli in “produttori di contenuti falsi”, che pubblicano ripetutamente contenuti dimostrabili falsi, e “manipolatori”, che presentano regolarmente affermazioni infondate o che distorcono le informazioni per argomentare tesi specifiche.

Scegliendo quali tipi di post verranno visualizzati, Facebook scolpisce il panorama mondiale delle informazioni in base alle sue priorità aziendali.

Quanto ci segui da 1 a Instagram?

Ogni giorno sui nostri social media pubblichiamo notizie esclusive che non puoi trovare sul sito. News, pills, stories e sondaggi per aiutarti a comprendere sempre meglio il mondo del marketing e della pubblicità! Ti basta scegliere a quale canale sei più affezionato e cliccare qui sotto.

Pollice in giù per Facebook?

All’interno dell’azienda si alzano voci che vorrebbero vedere l’algoritmo utilizzato per promuovere esplicitamente determinati valori, come la democrazia e la tolleranza. Altri hanno suggerito di sviluppare e dare priorità a nuove metriche, come con un esperimento del 2020 in cui l’algoritmo è stato addestrato per prevedere quali post sarebbero risultati  “buoni per il mondo” e “cattivi per il mondo” , dando più visibilità ai primi.

In un articolo del New York Times, Farhad Manjoo si interroga sul destino della piattaforma più famosa e più discussa del mondo. L’articolo si apre con una provocazione: Il principale scoglio nell’affrontare il problema di Facebook è che non c’è molto accordo su quale sia esattamente il problema.

Nel contesto politico americano la sinistra sostiene che è l’amplificazione di odio, estremismo e disinformazione. Il presidente Biden l’ha detto senza mezzi termini, “Stanno uccidendo le persone”. L’ex presidente Donald Trump e altri a destra affermano il contrario: i giganti dei social media sono gestiti da liberali decisi a mettere a tacere le opinioni opposte.

Queste visioni, date anche le informazioni fornite finora, possono forse essere sintetizzate in un problema più ampio: il potere allarmante di Facebook. L’azienda è un immenso contenitore di dati privati e una delle fonti di notizie più trafficate del pianeta e sembra possedere la capacità, in una certa misura, di alterare il discorso pubblico. Oltretutto l’azienda fa capo a un solo uomo, Mark Zuckerberg.

Manjoo analizza la questione insieme ad alcuni esperti ed elenca alcune proposte di salvataggio.

Image credits: Game news 24

Frammentare

Sotto l’amministrazione Obama il Dipartimento di Giustizia e la Federal Trade Commission hanno permesso a Facebook di inghiottire potenziali rivali in rapida crescita. Pensare di dividere Meta (nuovo nome della società) in più società indipendenti annullerebbe questo accentramento e ridurrebbe istantaneamente l’influenza di Zuckerberg a livello globale. 

Potrebbe anche migliorare la qualità dell’informazione poiché le nuove reti indipendenti “si farebbero concorrenza tra loro differenziandosi come prodotti migliori e più sicuri“, ha affermato Matt Stoller, direttore della ricerca presso l’American Economic Liberties Project, un gruppo di difesa antimonopolista.

Tuttavia, come osserva Stoller, una rottura potrebbe essere una misura necessaria, ma non sufficiente; dopo una divisione rimarremmo con diverse società che conservano tutti i dati di Meta e le sue numerose patologie aziendali. 

Regolamentare il capitalismo di sorveglianza

Colpire Facebook dritto al cuore, ovvero vietargli di raccogliere e salvare i dati degli utenti per ostacolare la sua attività principale: la pubblicità mirata.

Il “capitalismo di sorveglianza”, è l’inquietante etichetta della docente di Harvard, Shoshana Zuboff. In altri settori, come automobili, prodotti farmaceutici o prodotti finanziari ne mitighiamo l’ingerenza attraverso una rigida legislazione. Per quanto riguarda i social media le autorità di regolamentazione europee hanno tentato di contenerne gli effetti  attraverso le norme sulla privacy, ma siamo ancora lontani dalla severità necessaria.

“Come minimo”, ha affermato Roger McNamee, uno dei primi investitori di Facebook che ora è uno dei suoi critici più accesi, “le autorità di regolamentazione dovrebbero vietare l’uso a seconde e terze parti dei dati più intimi, come salute, posizione, cronologia del browser.”

Image credits: no spoiler

Esigere il rilascio dei dati interni

Nathaniel Persily, professore alla Stanford Law School, descrive così il problema di Facebook: “Al momento non sappiamo nemmeno quello che non sappiamo”.

Persily propone di perforare la scatola nera prima di fare qualsiasi altra cosa. Ha scritto una bozza di legge che vorrebbe obbligare le grandi piattaforme tecnologiche a fornire a ricercatori esterni una serie di dati sulle strategie utilizzate e sulle informazioni fornite agli inserzionisti e ai governi.

Rashad Robinson, presidente del gruppo di difesa dei diritti civili Color of Change, è favorevole a un’altra proposta di legge, l’Algorithmic Justice and Online Platform Transparency Act, che richiederebbe la trasparenza delle piattaforme riguardo l’uso di informazioni personali come razza, etnia, sesso, religione, identità di genere, orientamento sessuale e stato di disabilità degli utenti, al fine di verificare se i loro sistemi vengano applicati in modo discriminatorio.

Migliorare l’alfabetizzazione digitale

Renée Di Resta, responsabile della ricerca tecnica presso l’Osservatorio Internet di Stanford e studiosa di lunga data della presenza digitale del movimento no-vax, ha descritto la sua idea come “non sexy ma necessaria”: educare gli utenti a resistere dal credere a tutto ciò che vedono online.

Ciò di cui abbiamo bisogno è un impegno a livello sociale per insegnare alle persone ad elaborare correttamente le informazioni digitali. Ad esempio, Mike Caulfield, esperto di alfabetizzazione digitale presso l’Università di Washington, ha sviluppato un processo in quattro fasi chiamato SIFT per valutare la veridicità delle informazioni, lo scopo è quello di fornire strumenti adeguati per approcciare ai contenuti digitali. Ha affermato lo stesso Caulfield testando il metodo sui suoi studenti: “stiamo vedendo gli studenti arrivare a giudizi migliori su fonti e affermazioni in soli 90 secondi rispetto a quanto non facessero in 20 minuti”.

Attendere

Nel suo nuovo libro, “Tech Panic: Why We Shouldn’t Fear Facebook and the Future”, Robby Soave, editore della rivista Reason, sostiene che i media e i legislatori si sono preoccupati troppo della minaccia di Facebook. L’argomentazione di Soave è ragionevole.

Facebook guadagna ancora un sacco di soldi, ma ha perso la fiducia dei consumatori, l’aura di innovazione e gran parte dei suoi dipendenti sono scossi e sfiduciati; è un progetto che rischia di decretare da solo la sua fine, e se non avverranno cambiamenti importanti a breve, non resterà che guardare il relitto affondare.

Ci leggiamo presto!

A cura di
Avatar photo
Gazzetta PRO