Nuovi rapporti sottolineano il ruolo di Facebook nell'aggravare le divisioni politiche - Ma Facebook agirà?

Pubblicato: 2021-03-02

Nell'ambito dell'indagine in corso sulla potenziale attività antitrust tra i giganti della tecnologia statunitense, i CEO di Google, Facebook, Amazon e Apple sono apparsi tutti di recente davanti al Comitato giudiziario della Camera degli Stati Uniti, dove è stata posta loro una serie di domande relative a diverse preoccupazioni su come il loro le aziende operano.

E una di queste domande era particolarmente pertinente mentre ci avviciniamo al periodo delle elezioni negli Stati Uniti del 2020 - nel tempo assegnato, il rappresentante David Cicilline ha posto questa dichiarazione al CEO di Facebook Mark Zuckerberg:

" Facebook trae profitto e amplifica la disinformazione che danneggia gli altri, perché è redditizia. Questo non è un problema di linguaggio, si tratta del modello di business di Facebook che dà la priorità al coinvolgimento al fine di mantenere le persone sulla piattaforma di Facebook per offrire loro più pubblicità".

È vero? Facebook trae profitto dalla divisione e dall'impegno che genera?

Nella sua risposta, Zuckerberg, prevedibilmente, ha detto che questo non è corretto e che Facebook mostra alle persone "ciò che sarà più significativo per loro", non solo ciò che genererà il maggior coinvolgimento. Cicilline ha poi seguito un esempio di un recente video di cospirazione COVID-19 che ha collezionato 20 milioni di visualizzazioni in 5 ore su Facebook.

"Molte persone lo hanno condiviso", ha risposto Zuckerberg.

Quindi questo significa che era "significativo" per loro? Zuckerberg è ingenuo eludendo le specificità della query?

Questo è uno degli elementi chiave del dibattito nell'ampliamento del divario politico: che ruolo hanno i social media, e Facebook in particolare, nell'esacerbare la divisione sociale esistente? C'è sempre stato un livello di dibattito da entrambi i lati dello spettro politico, ma sembra essere diventato più pronunciato e più influente negli ultimi tempi, e il più grande cambiamento in quel periodo è il numero di persone che ora ricevono i loro contenuti di notizie da piattaforme sociali.

E la logica alla base della preoccupazione ha senso: l'algoritmo di Facebook dà la priorità al coinvolgimento. Se pubblichi qualcosa che genera molte condivisioni e discussioni, ciò garantirà che i tuoi post successivi abbiano più portata, poiché il sistema di Facebook cerca di coinvolgere più persone in tali scambi per mantenerli sulla piattaforma più a lungo.

Ciò ha modificato gli incentivi per gli editori di notizie rispetto al modo in cui pubblicano. Un articolo di opinione intitolato "COVID-19 è una bufala, ecco la vera verità" genererà più risposte di uno con il titolo "Gli scienziati studiano COVID-19 da anni". Entrambi gli articoli potrebbero avere lo stesso contenuto, ma un titolo è più salace e gioca al desiderio intrinseco delle persone che credono di essere maltrattati dal governo.

Ancora una volta, quell'approccio è sempre stato efficace: dai un'occhiata alle riviste di gossip delle celebrità e al modo in cui coinvolgono i lettori con voci e racconti infondati. Ma Facebook ha trasformato molti più editori in macchine di gossip, dando anche a questo tipo di materiale infinitamente più portata e quindi influenza.

Facebook lo sa. Per quanto Zuckerberg potrebbe provare a ripagarlo e fingere di non essere a conoscenza, o che spetta alle persone decidere cosa vogliono, e che Facebook non ha un ruolo reale da svolgere, oltre a essere la piattaforma per ospitare tale discussione. Facebook sa che i suoi algoritmi esacerbano la divisione: hanno ammesso così tanto.

All'inizio di quest'anno, il dirigente di Facebook Andrew Bosworth, ex capo del reparto annunci per dispositivi mobili dell'azienda, ha rilasciato una nota interna in cui condivideva i suoi pensieri su varie controversie sul funzionamento di Facebook, sul suo ruolo nell'influenzare le elezioni, la condivisione dei dati, ecc.

Tra i suoi appunti, Bosworth ha respinto l'idea delle bolle di filtro che sono facilitate dall'algoritmo di Facebook e teoricamente vedono gli utenti di Facebook mostrare più contenuti con cui saranno d'accordo e meno di ciò che non vogliono.

Bosworth ha affermato che il sistema di Facebook garantisce effettivamente che gli utenti siano esposti a molte più fonti di contenuto di quanto avrebbero visto prima di Internet.

" Chiediti quanti giornali e telegiornali hanno letto / guardato prima di Internet. Se hai indovinato" uno e uno "in media hai ragione, e se hai indovinato che quelli erano ideologicamente allineati con loro hai ragione di nuovo. Internet li smaschera a molti più contenuti da altre fonti (il 26% in più su Facebook, secondo la nostra ricerca). "

Il COO di Facebook Sheryl Sandberg ha citato questa stessa ricerca nell'ottobre dello scorso anno, sottolineando più specificamente che il 26% delle notizie che gli utenti di Facebook vedono nel loro rappresenta "un altro punto di vista".

Quindi, va meglio, vero? Facebook in realtà garantisce che le persone vedano più prospettive, quindi non può essere ritenuto responsabile del rafforzamento della divisione politica. Giusto?

Non esattamente - ancora una volta, da Bosworth:

" L'attenzione alle bolle di filtro fa sì che le persone perdano il vero disastro che è la polarizzazione. Cosa succede quando vedi il 26% in più di contenuti da persone con cui non sei d'accordo? Ti aiuta a entrare in empatia con loro come tutti hanno suggerito? No. Ti fa disprezzare ancora di più. Questo è anche facile da dimostrare con un esperimento mentale: qualunque sia la tua inclinazione politica, pensa a una pubblicazione dall'altra parte che disprezzi. Quando leggi un articolo da quello sbocco, magari condiviso da uno zio o nipote, ti fa ripensare ai tuoi valori? O ti fa ritirarti ulteriormente nella convinzione della tua correttezza? Se hai risposto alla prima, congratulazioni sei una persona migliore di me. Ogni volta che leggo qualcosa di Breitbart I ottenere il 10% più liberale ".

Quindi, Bosworth riconosce effettivamente che, sì, l'algoritmo di feed di notizie di Facebook amplifica la divisione. Non nel modo in cui molti pensano, restringendo la loro prospettiva mostrando loro solo i contenuti con cui sono d'accordo, ma in realtà il contrario: mostrando agli utenti più contenuti da più fonti, Facebook li spinge ulteriormente su entrambi i lati del divario politico.

Ancora una volta, questo è un dirigente di Facebook che lo riconosce, Facebook ne è a conoscenza. Zuckerberg potrebbe negarlo, ma lo sa bene quanto Bosworth, poiché questa è una discussione che si è tenuta tra i leader di Facebook.

E questo sembra destinato a peggiorare man mano che sempre più persone dipendono da Facebook per i contenuti delle notizie. Migliaia di editori locali sono costretti a chiudere, con la pandemia COVID-19 che è l'ultimo chiodo nella bara per le loro attività. E quando la gente del posto non può più ricevere notizie locali da un punto di fiducia, dove pensi che si rivolgerà?

Facebook quindi rafforza ulteriormente tale divisione ospitando estremisti all'interno di gruppi privati, dove la loro discussione è fuori dagli occhi del pubblico e quindi al di là di un esame approfondito. Ciò è stato sottolineato ancora una volta questa settimana con la fuga di documenti interni che mostrano che Facebook attualmente ospita migliaia di gruppi e pagine, con milioni di membri e follower, che supportano la teoria del complotto di QAnon.

QAnon ha guadagnato un fervente seguito online per aver presumibilmente condiviso intuizioni segrete sulla battaglia in corso dell'amministrazione Trump contro lo `` stato profondo '', una raccolta di uomini d'affari e celebrità d'élite che controllano segretamente il mondo.

Twitter ha annunciato un giro di vite sugli account QAnon collegati il ​​mese scorso e anche Facebook, secondo quanto riferito, sta valutando le sue opzioni. Ma la portata della portata del gruppo su Facebook è sbalorditiva e sottolinea il ruolo che Facebook può svolgere nell'amplificare visioni estreme e teorie marginali.

Non è difficile vedere come la combinazione tra l'amplificazione dei contenuti che divide e l'hosting di gruppi simpatizzanti per entrambe le parti, a livello di Facebook, potrebbe essere un grosso problema. E ancora, Facebook negherà questo, minimizzerà il suo ruolo, affermerà di sapere poco dei suoi gruppi utilizzati per tali attività. Ma non si tratta di informazioni nuove: diversi rapporti hanno evidenziato le stesse preoccupazioni per anni.

E in mezzo a questo, hai affermazioni secondo cui Facebook rimuove i controlli dei fatti al fine di evitare conflitti con i leader politici, consentendo all'incitamento all'odio di rimanere sulla sua piattaforma perché è `` nell'interesse pubblico '' e consentendo ai politici il libero regno di mentire a titolo definitivo. i loro annunci in modo che le persone possano decidere.

A conti fatti, quando si valutano i vari fattori, è difficile non concludere che Facebook preferirebbe lasciare tali contenuti da soli, poiché in effetti stimola un maggiore coinvolgimento. Facebook ne trae vantaggio? Sì lo fa. Se Facebook fosse stato costretto a prendere una posizione più dura su post e opinioni controverse, costerebbe soldi a Facebook e probabilmente lo vedrebbe perdere impegno? Sì, lo sarebbe.

In sostanza, Facebook vuole tutti i vantaggi di essere la piattaforma social più utilizzata al mondo, ma nessuna responsabilità. Ma con 2,7 miliardi di utenti, la sua influenza è semplicemente troppo grande perché possa adottare un approccio diretto: questa responsabilità è enorme e dovrebbero esserci delle conseguenze per il fallimento in questo senso.

Mark Zuckerberg preferirebbe concentrarsi sul positivo, sulla visione idealistica dei social media come strumento connettivo che unisce il mondo per sempre. Ma non è quello che sta succedendo e l'azienda deve riallinearsi con il modo in cui viene effettivamente utilizzata, al fine di mitigare le tendenze pericolose che permeano dai suoi angoli bui.

In caso contrario, aspettati che la divisione politica peggiori nel tempo.