Nowe raporty podkreślają rolę Facebooka w zaostrzaniu podziałów politycznych - ale czy Facebook podejmie działania?
Opublikowany: 2021-03-02W ramach trwającego dochodzenia w sprawie potencjalnych działań antymonopolowych wśród amerykańskich gigantów technologicznych, prezesi Google, Facebooka, Amazona i Apple'a pojawili się niedawno przed komisją sądową US House, gdzie zadano im szereg pytań dotyczących różnych obaw dotyczących tego, jak ich firmy działają.
Jedno z tych pytań było szczególnie istotne, gdy zbliżaliśmy się do wyborów w USA w 2020 r. - w wyznaczonym czasie rep. David Cicilline skierował następujące oświadczenie do prezesa Facebooka Marka Zuckerberga:
„ Facebook czerpie zyski i wzmacnia dezinformację, która szkodzi innym, ponieważ jest opłacalna. To nie jest kwestia przemówień, chodzi o model biznesowy Facebooka, który priorytetowo traktuje zaangażowanie, aby zatrzymać ludzi na platformach Facebooka, aby wyświetlać im więcej reklam”.
Czy to prawda? Czy Facebook zyskuje na podziale i zaangażowaniu, które generuje?
W swojej odpowiedzi Zuckerberg, jak można było przewidzieć, powiedział, że to nieprawda i że Facebook pokazuje ludziom, „co będzie dla nich najbardziej znaczące”, a nie tylko to, co wzbudzi największe zaangażowanie. Następnie Cicilline podała przykład niedawnego filmu o spisku COVID-19, który zebrał 20 milionów wyświetleń w ciągu 5 godzin na Facebooku.
„Wiele osób to podzieliło” - odpowiedział Zuckerberg.
Czy to oznacza, że było to dla nich „znaczące”? Czy Zuckerberg jest nieszczery, pomijając szczegóły zapytania?
To jeden z kluczowych elementów debaty w sprawie pogłębiania się podziałów politycznych - jaką rolę odgrywają media społecznościowe, a konkretnie Facebook, w zaostrzaniu istniejącego podziału społecznego? Zawsze toczyła się debata z obu stron politycznego spektrum, ale wydaje się, że ostatnio stała się ona bardziej wyraźna i wpływowa, a największą zmianą w tym okresie jest liczba osób, które otrzymują teraz treść wiadomości od platformy społecznościowe.
Logika stojąca za tym problemem ma sens - algorytm Facebooka nadaje priorytet zaangażowaniu. Jeśli opublikujesz coś, co generuje dużo udostępnień i dyskusji, to sprawi, że Twoje kolejne posty będą miały większy zasięg, ponieważ system Facebooka stara się przyciągnąć więcej osób do takich wymian, aby utrzymać je na platformie na dłużej.
To zmieniło zachęty dla wydawców wiadomości w odniesieniu do sposobu ich publikacji. Opinia zatytułowana „COVID-19 to mistyfikacja, oto prawdziwa prawda” wygeneruje więcej odpowiedzi niż artykuł z nagłówkiem „Naukowcy badają COVID-19 od lat”. Oba artykuły mogą mieć tę samą treść, ale jeden nagłówek jest bardziej lubieżny i odpowiada wrodzonemu pragnieniu ludzi, że są oni źle traktowani przez rząd.
Ponownie, takie podejście zawsze było skuteczne - wystarczy spojrzeć na magazyny plotkarskie o celebrytach i sposób, w jaki przyciągają czytelników nieuzasadnionymi plotkami i opowieściami. Ale Facebook zmienił o wiele więcej wydawców w maszyny plotkarskie, jednocześnie dając tego typu materiałom nieskończenie większy zasięg, a tym samym wpływ.
Facebook to wie. Tak bardzo, jak Zuckerberg może próbować to spłacić i udawać, że nie jest tego świadomy, lub że ludzie decydują, czego chcą, i że Facebook nie ma żadnej realnej roli do odegrania, poza tym, że jest platformą do prowadzenia takiej dyskusji. Facebook wie, że jego algorytmy pogarszają podział - tak wiele przyznali.
Na początku tego roku dyrektor wykonawczy Facebooka Andrew Bosworth, były szef działu reklam mobilnych firmy, opublikował wewnętrzną notatkę, w której podzielił się swoimi przemyśleniami na temat różnych kontrowersji dotyczących sposobu działania Facebooka, jego roli we wpływie na wybory, udostępniania danych itp.
Wśród swoich notatek Bosworth odrzucił pomysł bąbelków filtrujących, które są obsługiwane przez algorytm Facebooka i teoretycznie widzi, że użytkownicy Facebooka pokazali więcej treści, z którymi się zgodzą, a mniej tego, z czym nie chcą.
Bosworth powiedział, że system Facebooka faktycznie zapewnia, że użytkownicy są narażeni na znacznie więcej źródeł treści, niż widzieliby w czasach przed internetem.
„ Zadaj sobie pytanie, ile gazet i programów informacyjnych ludzie czytali / oglądali przed internetem. Jeśli średnio odgadłeś„ jeden i jeden ”, masz rację, a jeśli zgadłeś, że są one zgodne z ideologią, to znowu masz rację. Internet je ujawnia na znacznie więcej treści z innych źródeł (według naszych badań o 26% więcej na Facebooku) ”.
Dyrektor operacyjny Facebooka, Sheryl Sandberg, zacytowała to samo badanie w październiku ubiegłego roku, zwracając w szczególności uwagę, że 26% wiadomości, które widzą w nich użytkownicy Facebooka, reprezentuje „inny punkt widzenia”.
Więc tak jest lepiej, prawda? Facebook faktycznie zapewnia, że ludzie widzą więcej perspektyw, więc nie może być pociągnięty do odpowiedzialności za wzmacnianie podziałów politycznych. Dobrze?

Niezupełnie - znowu od Bosworth:
„ Skupienie się na bąbelkach filtrujących powoduje, że ludzie przeoczają prawdziwą katastrofę, jaką jest polaryzacja. Co się dzieje, gdy widzisz 26% więcej treści od osób, z którymi się nie zgadzasz? Czy pomaga ci to wczuć się w nie, tak jak wszyscy sugerowali? Nie. To sprawia, że nie lubisz ich jeszcze bardziej. Łatwo to również udowodnić za pomocą eksperymentu myślowego: niezależnie od swoich skłonności politycznych, pomyśl o publikacji z drugiej strony, którą gardzisz. Kiedy czytasz artykuł z tego sklepu, być może udostępniony przez wujka czy bratanku, czy to zmusza cię do przemyślenia swoich wartości? A może sprawia, że wycofujesz się głębiej w przekonanie o własnej poprawności? Jeśli odpowiedziałeś na to pierwsze, gratuluję, że jesteś lepszą osobą niż ja. Za każdym razem, gdy czytam coś od Breitbarta, uzyskać 10% bardziej liberalne ”.
Tak więc Bosworth faktycznie przyznaje, że tak, algorytm kanału aktualności Facebooka wzmacnia podział. Nie w sposób, w jaki wielu myśli, zawężając swoją perspektywę, pokazując im tylko treści, z którymi się zgadzają, ale w rzeczywistości odwrotnie - pokazując użytkownikom więcej treści z większej liczby źródeł, Facebook spycha ich dalej na obie strony politycznego podziału.
Ponownie, to jest dyrektor Facebooka, który to przyznaje, Facebook jest tego świadomy. Zuckerberg może temu zaprzeczyć, ale wie równie dobrze jak Bosworth, ponieważ jest to dyskusja, która toczyła się wśród liderów Facebooka.
Wygląda na to, że sytuacja będzie się pogarszać, gdy coraz więcej osób będzie coraz bardziej polegać na Facebooku w zakresie treści informacyjnych. Tysiące lokalnych wydawców jest zmuszonych do zamknięcia działalności, a pandemia COVID-19 jest ostatnim gwoździem do trumny dla ich firm. A kiedy miejscowi nie mogą już otrzymywać lokalnych wiadomości z zaufanego punktu sprzedaży, jak myślisz, gdzie się zwrócą?
Następnie Facebook jeszcze bardziej wzmacnia taki podział, goszcząc ekstremistów w grupach prywatnych, gdzie ich dyskusje są poza zasięgiem opinii publicznej, a zatem poza rozszerzoną kontrolą. Zostało to ponownie podkreślone w tym tygodniu wraz z wyciekiem wewnętrznych dokumentów, które pokazują, że Facebook obecnie obsługuje tysiące grup i stron, z milionami członków i obserwujących, które wspierają teorię spiskową QAnon.
QAnon zyskał gorliwych fanów online za rzekome dzielenie się tajnymi spostrzeżeniami na temat toczącej się walki administracji Trumpa z `` głębokim państwem '', zbiorem elitarnych biznesmenów i celebrytów, którzy potajemnie kontrolują świat.
Twitter ogłosił w zeszłym miesiącu rozprawę z kontami niepowiązanymi z QA, a Facebook podobno rozważa teraz swoje opcje. Jednak zasięg grupy na Facebooku jest oszałamiający i podkreśla rolę, jaką Facebook może odegrać w umacnianiu skrajnych poglądów i skrajnych teorii.
Nietrudno dostrzec, jak połączenie wzmocnienia treści powodujących podziały i goszczenia grup sympatycznych po obu stronach, na skalę Facebooka, może stanowić poważny problem. I znowu, Facebook zaprzeczy temu, odegra swoją rolę, będzie twierdził, że niewiele wiedział o wykorzystywaniu swoich grup do takiej działalności. Nie są to jednak nowe informacje - różne raporty od lat zwracają uwagę na te same obawy.
Wśród tego są twierdzenia, że Facebook usuwa weryfikacje faktów w celu uniknięcia konfliktów z przywódcami politycznymi, zezwala na mowę nienawiści na swojej platformie, ponieważ jest to `` w interesie publicznym '', i pozwala politykom na swobodne rządzenie ich reklamy, aby ludzie mogli zdecydować.
Podsumowując, oceniając różne czynniki, trudno nie dojść do wniosku, że Facebook wolałby zostawić takie treści w spokoju, ponieważ rzeczywiście wywołuje większe zaangażowanie. Czy Facebook na tym korzysta? Tak. Gdyby Facebook był zmuszony do zajęcia twardszego stanowiska w sprawie kontrowersyjnych postów i opinii, czy kosztowałoby to Facebooka pieniądze i prawdopodobnie straciłby zaangażowanie? Tak, będzie.
W istocie Facebook chce wszystkich korzyści wynikających z bycia najczęściej używaną platformą społecznościową na świecie, ale nie ma żadnej odpowiedzialności. Jednak przy 2,7 miliardach użytkowników jego wpływ jest po prostu zbyt duży, aby mógł przyjąć podejście bezobsługowe - ta odpowiedzialność jest ogromna, a niepowodzenia w tym zakresie powinny mieć konsekwencje.
Mark Zuckerberg wolałby skupić się na pozytywnym, idealistycznym spojrzeniu na media społecznościowe jako narzędzie łączące, które na dobre jednoczy świat. Ale tak się nie dzieje, a firma musi ponownie dostosować się do tego, w jaki sposób jest używana, aby złagodzić niebezpieczne trendy przenikające z jej ciemnych zakamarków.
Jeśli tak się nie stanie, spodziewaj się, że podział polityczny z czasem się pogorszy.
