Novos relatórios destacam o papel do Facebook na exacerbação das divisões políticas - mas o Facebook tomará medidas?

Publicados: 2021-03-02

Como parte da investigação em andamento sobre a potencial atividade antitruste entre os gigantes da tecnologia dos EUA, os CEOs do Google, Facebook, Amazon e Apple compareceram recentemente ao Comitê Judiciário da Câmara dos EUA, onde foram feitas uma série de perguntas relacionadas a várias preocupações sobre como seus empresas operam.

E uma dessas perguntas foi particularmente pertinente à medida que avançamos para o período de eleições nos EUA de 2020 - em seu tempo concedido, o deputado David Cicilline fez esta declaração ao CEO do Facebook, Mark Zuckerberg:

“O Facebook está lucrando e ampliando a desinformação que prejudica os outros, porque é lucrativo. Este não é um problema de discurso, é sobre o modelo de negócios do Facebook que prioriza o engajamento a fim de manter as pessoas na plataforma do Facebook para veicular mais anúncios”.

Isso é verdade? O Facebook lucra com a divisão e com o engajamento que ela gera?

Em sua resposta, Zuckerberg, previsivelmente, disse que isso é incorreto e que o Facebook mostra às pessoas "o que será mais significativo para elas", não apenas o que gerará mais engajamento. Cicilline então deu seguimento com um exemplo de um recente vídeo de conspiração COVID-19 que acumulou 20 milhões de visualizações em 5 horas no Facebook.

“Muitas pessoas compartilharam isso”, respondeu Zuckerberg.

Então, isso significa que foi "significativo" para eles? Zuckerberg está sendo hipócrita ao ignorar os detalhes da consulta?

Este é um dos principais elementos do debate na crescente divisão política - que papel as mídias sociais, e especificamente o Facebook, têm em exacerbar a divisão social existente? Sempre houve um nível de debate de ambos os lados do espectro político, mas parece ter se tornado mais pronunciado e mais influente nos últimos tempos, e a maior mudança nesse período é o número de pessoas que agora recebem seu conteúdo de notícias plataformas sociais.

E a lógica por trás da preocupação faz sentido - o algoritmo do Facebook prioriza o engajamento. Se você postar algo que gere muitos compartilhamentos e discussões, isso garantirá que suas postagens subsequentes tenham mais alcance, já que o sistema do Facebook busca envolver mais pessoas em tais trocas para mantê-las na plataforma por mais tempo.

Isso alterou os incentivos para os editores de notícias com relação à forma como publicam. Um artigo de opinião intitulado 'COVID-19 é uma farsa, aqui está a verdade real' irá gerar mais respostas do que um com o título 'Cientistas têm estudado COVID-19 há anos'. Ambos os artigos poderiam ter o mesmo conteúdo, mas uma manchete é mais lasciva e joga com o desejo inerente das pessoas de acreditar que estão sendo maltratadas pelo governo.

Novamente, essa abordagem sempre foi eficaz - basta dar uma olhada nas revistas de fofoca de celebridades e a maneira como elas envolvem os leitores com boatos e contos infundados. Mas o Facebook transformou muito mais editores em máquinas de fofoca, ao mesmo tempo que deu a esse tipo de material infinitamente mais alcance e, portanto, influência.

O Facebook sabe disso. Por mais que Zuckerberg tente pagar e fingir que não sabe, ou que cabe às pessoas decidir o que querem, e que o Facebook não tem um papel real a desempenhar, a não ser ser a plataforma para hospedar tal discussão. O Facebook sabe que seus algoritmos exacerbam a divisão - eles admitiram muito.

No início deste ano, o executivo do Facebook Andrew Bosworth, ex-chefe do departamento de anúncios móveis da empresa, divulgou um memorando interno no qual compartilhava suas idéias sobre várias controvérsias sobre como o Facebook funciona, seu papel em influenciar eleições, compartilhamento de dados, etc.

Entre suas notas, Bosworth rejeitou a ideia de bolhas de filtro que são facilitadas pelo algoritmo do Facebook e, teoricamente, ver os usuários do Facebook mostrado mais conteúdo com o qual eles concordarão e menos do que não.

Bosworth disse que o sistema do Facebook realmente garante que os usuários sejam expostos a significativamente mais fontes de conteúdo do que antes da Internet.

" Pergunte a si mesmo quantos jornais e programas de notícias as pessoas leram / assistiram antes da internet. Se você adivinhou“ um e um ”em média, você está certo, e se você adivinhou que eles estavam ideologicamente alinhados a eles, você está certo novamente. A Internet os expõe a muito mais conteúdo de outras fontes (26% a mais no Facebook, de acordo com nossa pesquisa). "

A COO do Facebook, Sheryl Sandberg, citou essa mesma pesquisa em outubro do ano passado, observando mais especificamente que 26% das notícias que os usuários do Facebook veem em seus representam "outro ponto de vista".

Então, isso é melhor certo? O Facebook, na verdade, garante que as pessoas vejam mais perspectivas, por isso não pode ser responsabilizado por reforçar a divisão política. Direita?

Não exatamente - novamente, de Bosworth:

" O foco nas bolhas do filtro faz com que as pessoas percam o verdadeiro desastre que é a polarização. O que acontece quando você vê 26% a mais de conteúdo de pessoas com as quais não concorda? Isso o ajuda a ter empatia com eles, como todos têm sugerido? Não. Faz com que você não goste deles ainda mais. Isso também é fácil de provar com um experimento de pensamento: qualquer que seja sua inclinação política, pense em uma publicação do outro lado que você despreza. Ao ler um artigo desse meio, talvez compartilhado por um tio ou sobrinho, isso o faz repensar seus valores? Ou faz você recuar ainda mais na convicção de sua própria correção? Se você respondeu a primeira, parabéns, você é uma pessoa melhor do que eu. Cada vez que leio algo de Breitbart I obtenha 10% mais liberal. "

Então, Bosworth efetivamente reconhece que, sim, o algoritmo do Feed de notícias do Facebook amplifica a divisão. Não da maneira que muitos pensam, ao estreitar sua perspectiva mostrando-lhes apenas o conteúdo com o qual concordam, mas na verdade o oposto - ao mostrar aos usuários mais conteúdo de mais fontes, o Facebook os empurra ainda mais para os dois lados da divisão política.

Novamente, este é um executivo do Facebook reconhecendo isso, o Facebook está ciente disso. Zuckerberg pode negar, mas ele sabe tão bem quanto Bosworth, pois esta é uma discussão que está sendo travada entre os líderes do Facebook.

E isso só tende a piorar à medida que mais pessoas se tornam mais dependentes do Facebook para o conteúdo de notícias. Milhares de editoras locais estão sendo forçadas a fechar, com a pandemia COVID-19 sendo o último prego no caixão de seus negócios. E quando os moradores locais não puderem mais obter notícias locais de um meio de comunicação confiável, para onde você acha que eles se voltarão?

O Facebook, então, reforça ainda mais essa divisão ao hospedar extremistas em grupos privados, onde sua discussão está fora dos olhos do público e, portanto, além do escrutínio ampliado. Isso foi sublinhado novamente esta semana com o vazamento de documentos internos que mostram que o Facebook atualmente hospeda milhares de grupos e páginas, com milhões de membros e seguidores, que apóiam a teoria da conspiração QAnon.

QAnon ganhou seguidores fervorosos online por supostamente compartilhar percepções secretas sobre a batalha contínua da administração Trump contra o 'estado profundo', uma coleção de empresários de elite e celebridades que controlam secretamente o mundo.

O Twitter anunciou uma repressão às contas vinculadas ao QAnon no mês passado, e o Facebook agora também está avaliando suas opções. Mas o escopo do alcance do grupo no Facebook é impressionante e destaca o papel que o Facebook pode desempenhar na amplificação de visões extremas e teorias marginais.

Não é difícil ver como a combinação de amplificação de conteúdo divisionista e a hospedagem de grupos simpáticos a ambos os lados, na escala do Facebook, pode ser um grande problema. E, novamente, o Facebook vai negar isso, vai minimizar seu papel, vai alegar que sabia pouco sobre seus grupos sendo usados ​​para tal atividade. Mas esta não é uma informação nova - vários relatórios destacaram as mesmas preocupações durante anos.

E, entre isso, você tem alegações de que o Facebook remove as checagens de fatos para evitar conflitos com líderes políticos, permitindo que o discurso de ódio permaneça em sua plataforma porque é "do interesse público" e permitindo que os políticos reine para mentir abertamente seus anúncios para que as pessoas possam decidir.

Em suma, ao avaliar os vários fatores, é difícil não concluir que o Facebook prefere deixar esse conteúdo de lado, já que ele realmente gera mais engajamento. O Facebook se beneficia disso? Sim. Se o Facebook fosse forçado a adotar uma postura mais dura em relação a postagens e opiniões controversas, isso custaria dinheiro ao Facebook e provavelmente perderia o engajamento? Sim, seria.

Em essência, o Facebook quer todos os benefícios de ser a plataforma social mais usada do mundo, mas nada da responsabilidade. Mas, com 2,7 bilhões de usuários, sua influência é simplesmente grande demais para uma abordagem sem intervenção - essa responsabilidade é enorme e deve haver consequências para o fracasso nesse aspecto.

Mark Zuckerberg prefere focar no positivo, na visão idealista da mídia social como uma ferramenta conectiva que une o mundo para sempre. Mas não é isso que está acontecendo, e a empresa precisa se realinhar com a forma como está realmente sendo usada, a fim de mitigar as tendências perigosas que permeiam seus cantos sombrios.

Do contrário, espere que a divisão política piore com o tempo.