Wewnętrzne badania Facebooka pokazują, że ponowne udostępnienie może znacznie wzmocnić dezinformację
Opublikowany: 2022-04-08Co by było, gdyby Facebook całkowicie usunął udostępniane posty, aby ograniczyć rozpowszechnianie dezinformacji w swoich aplikacjach? Jaki wpływ miałoby to na zaangażowanie i interakcję na Facebooku?
Pytanie pojawia się po opublikowaniu nowych spostrzeżeń z wewnętrznych badań Facebooka, opublikowanych w ramach szerszego wycieku „Facebook Files”, który pokazuje, że własne raporty Facebooka wykazały, że udostępnianie postów odgrywa kluczową rolę we wzmacnianiu dezinformacji i szerzeniu szkód wśród Facebooka społeczność.
Jak donosi Alex Kantrowitz w swoim biuletynie Big Technology:
„ W raporcie zauważono, że ludzie są cztery razy bardziej narażeni na dezinformację, gdy napotykają post za pośrednictwem udostępnienia – coś w rodzaju retweetu retweetu – w porównaniu z typowym zdjęciem lub linkiem na Facebooku. Dodaj kilka akcji więcej do łańcucha, a ludzie będą od pięciu do dziesięciu razy bardziej narażeni na dezinformację. W niektórych krajach jest gorzej. W Indiach ludzie, którzy spotykają się z „głębokimi udostępnieniami”, jak nazywają je naukowcy, są dwadzieścia razy bardziej narażeni na dezinformację”.
Więc nie są to akcje bezpośrednie jako takie, ale akcje zwielokrotnione, które są bardziej kontrowersyjne, dzielące, szokujące lub zaskakujące raporty, które zyskują popularność w aplikacji. Treści, które wywołują reakcję emocjonalną, są częściej udostępniane pod tym względem, więc sensowne jest, aby im bardziej radykalne było twierdzenie, tym więcej prawdopodobnie zostanie udostępnionych, zwłaszcza gdy użytkownicy chcą obalić lub powtórzyć swoje osobiste stanowisko w kwestiach za pośrednictwem raporty osób trzecich.
A jest więcej:
„Badanie wykazało, że 38% wszystkich [wyświetleń] postów z linkami zawierających dezinformacje ma miejsce po dwóch udostępnieniach. W przypadku zdjęć liczby rosną - 65% wyświetleń dezinformacji fotograficznych ma miejsce po dwóch udostępnieniach. Tymczasem strony na Facebooku nie polegają na głębokich udostępnieniach w celu dystrybucji. Około 20% zawartości strony jest wyświetlanych przy głębokości ponownego udostępniania co najmniej dwa. ”
Tak więc ponownie dane pokazują, że te bardziej pikantne, kontrowersyjne twierdzenia i posty widzą znaczną popularność wirusową dzięki ciągłemu udostępnianiu, ponieważ użytkownicy wzmacniają i ponownie wzmacniają te posty w sieci Facebooka, często bez dodawania własnych przemyśleń lub opinii na ich temat.
A co by było, gdyby Facebook całkowicie wyeliminował udostępnianie i zmusił ludzi do tworzenia własnych postów w celu udostępniania treści lub komentowania oryginalnego posta, co spowolniłoby szybkie ich wzmacnianie po prostu przez dotknięcie przycisku?
Co ciekawe, Facebook dokonał na tym froncie zmian, potencjalnie powiązanych z tymi badaniami. W zeszłym roku firma WhatsApp należąca do Facebooka (obecnie należąca do Meta) wprowadziła nowe ograniczenia dotyczące przekazywania wiadomości, aby powstrzymać rozprzestrzenianie się dezinformacji za pośrednictwem łańcuchów wiadomości, z ograniczeniem udostępniania do 5 razy na wiadomość.
Co, jak mówi WhatsApp , było skuteczne:
„Od czasu wprowadzenia nowego limitu na całym świecie nastąpiła 70% redukcja liczby często przekazywanych wiadomości wysyłanych przez WhatsApp. Dzięki tej zmianie WhatsApp jest miejscem osobistych i prywatnych rozmów”.
Co jest pozytywnym wynikiem i pokazuje, że takie limity mają prawdopodobną wartość. Jednak nowo ujawnione badania dotyczyły konkretnie Facebooka i jak dotąd Facebook nie zrobił nic, aby zmienić proces udostępniania w swojej głównej aplikacji, która jest głównym przedmiotem zainteresowania w tym raporcie.

Brak działań firmy na tym froncie jest teraz częścią legalnego nacisku Facebooka, Frances Haugen, skierowanego przeciwko firmie, a prawnik Haugena wzywa do usunięcia Facebooka z App Store, jeśli nie wdroży ograniczeń dotyczących ponownego udostępniania.
Facebook jak dotąd nie odpowiedział na te nowe twierdzenia, ale warto odnotować to badanie w kontekście innych eksperymentów Facebooka, które pozornie zarówno wspierają, jak i zaprzeczają głównemu celowi tych twierdzeń.
W sierpniu 2018 r. Facebook faktycznie eksperymentował z usuwaniem przycisku Udostępnij z postów, zastępując go komunikatem „Wiadomość”.

Wydawało się, że jest to zainspirowane wzmożoną dyskusją na temat treści w strumieniach wiadomości, w przeciwieństwie do aplikacji Facebook – ale biorąc pod uwagę czas eksperymentu, w odniesieniu do badania, wydaje się, że teraz Facebook chciał zobaczyć, jaki wpływ ma usunięcie udostępniania może mieć wpływ na zaangażowanie w aplikacji.
Jednak na innym froncie Facebook faktycznie przetestował rozszerzone udostępnianie, z nową opcją zauważoną w testach, która umożliwia użytkownikom udostępnianie postów w wielu grupach na Facebooku jednocześnie.

To najwyraźniej koncentruje się na bezpośrednim udostępnianiu postów, w przeciwieństwie do ponownego udostępniania, na którym koncentrowało się badanie z 2019 roku. Ale mimo to zapewnianie większej liczby sposobów na wzmocnienie treści, potencjalnie niebezpiecznych lub szkodliwych postów, w łatwiejszy sposób, wydaje się być sprzeczne z ustaleniami przedstawionymi w raporcie.
Ponownie, nie mamy pełnego nadzoru, ponieważ Facebook nie skomentował raportów, ale wydaje się, że całkowite usunięcie udostępniania postów może przynieść korzyści, jako sposób na ograniczenie szybkiego ponownego obiegu szkodliwych treści. roszczenia.
Ale z drugiej strony może to po prostu zbytnio szkodzi zaangażowaniu Facebooka – być może dzięki tym różnym eksperymentom Facebook odkrył, że ludzie mniej się angażują i spędzają mniej czasu w aplikacji, dlatego porzucił ten pomysł.
To jest kluczowe pytanie, które Haugen stawia w swojej krytyce platformy, że Facebook, przynajmniej percepcyjnie, niechętnie podejmuje działania w odniesieniu do elementów, które mogą wyrządzić szkodę, jeśli oznacza to również, że może zaszkodzić jego interesom biznesowym.
Co, w skali i wpływie Facebooka, jest ważną kwestią i potrzebujemy większej przejrzystości.
Facebook twierdzi, że prowadzi takie badania z wyraźnym zamiarem ulepszenia swoich systemów, jak wyjaśnia CEO Mark Zuckerberg:
„ Gdybyśmy chcieli zignorować badania, po co mielibyśmy tworzyć wiodący w branży program badawczy, aby przede wszystkim zrozumieć te ważne kwestie? Gdybyśmy nie dbali o walkę ze szkodliwymi treściami, to dlaczego mielibyśmy zatrudniać tylu oddanych tym osobom niż jakakolwiek inna firma w naszej przestrzeni – nawet większa od nas? Gdybyśmy chcieli ukryć nasze wyniki, dlaczego mielibyśmy ustanowić wiodący w branży standard przejrzystości i raportowania o tym, co robimy?”
Ma to sens, ale to nie wyjaśnia, czy względy biznesowe mają wpływ na późniejsze decyzje w rezultacie, gdy poziom potencjalnej szkody zostanie wykryty przez jego badania.
To jest sedno problemu. Wpływ Facebooka jest oczywisty, jego znaczenie jako kanału łączącego i dystrybucji informacji jest oczywiste. Ale co wpływa na jego decyzje dotyczące tego, co należy podjąć, a co pozostawić, ponieważ ocenia takie obawy?
Istnieją dowody sugerujące, że Facebook unikał zbytniego naciskania na takie sprawy, nawet jeśli jego własne dane wskazują na problemy, jak najwyraźniej pokazano w tym przypadku. I chociaż Facebook powinien mieć prawo do odpowiedzi, a jego dzień w sądzie, aby odpowiedzieć na oskarżenia Haugena, to jest to, na co naprawdę potrzebujemy odpowiedzi, zwłaszcza że firma chce tworzyć jeszcze bardziej wciągające, wszechstronniejsze narzędzia do połączeń na przyszłość .
