YouTube przedstawia swoje podejście do dezinformacji policyjnej oraz wyzwania związane ze skutecznym działaniem
Opublikowany: 2022-04-08Debata na temat dezinformacji na platformach społecznościowych i tego, jak należy ją nadzorować, jest niezwykle złożona i nie ma ogólnych rozwiązań. Usunięcie wyraźnie fałszywych raportów wydaje się najbardziej logicznym i skutecznym krokiem – ale nie zawsze jest to tak jasne, a zbytnie przechylanie się w drugą stronę i usuwanie zbyt wielu może ograniczyć swobodę wypowiedzi i wartościową debatę.
Każde z tych podejść niesie ze sobą niebezpieczeństwa, a dziś Neal Mohan, dyrektor ds. produktów w YouTube, przedstawił swoją perspektywę na ten problem oraz sposób, w jaki YouTube stara się zrównoważyć swoje podejście do dezinformacji z potrzebą ułatwienia otwartej platformy dla wszystkich użytkowników.
Po pierwsze, zajmując się w szczególności dezinformacją medyczną, która jest kluczowym tematem w tej chwili, Mohan zauważa, że od lutego 2020 r. YouTube usunął ponad milion filmów związanych z informacjami o koronawirusie, w tym te promujące fałszywe lekarstwa lub twierdzące, że pandemia jest mistyfikacją.
„W środku globalnej pandemii każdy powinien być uzbrojony w absolutnie najlepsze dostępne informacje, aby zapewnić bezpieczeństwo sobie i swoim rodzinom”.
To powiedziawszy, YouTube ułatwił rozpowszechnianie znacznej ilości dezinformacji na temat COVID. Na przykład w maju zeszłego roku kontrowersyjny antyszczepionkowy film o nazwie „Plandemic” został wyświetlony ponad 7 milionów razy na YouTube, zanim został usunięty.
Wyzwaniem dla YouTube'a w tym zakresie, podobnie jak dla Facebooka, jest skala – przy tak dużej liczbie osób cały czas aktywnych na platformie, YouTube'owi trudno jest działać na tyle szybko, aby wszystko w porę wyłapać, a nawet niewielkie opóźnienie w egzekwowaniu przepisów może prowadzić do milionów więcej wyświetleń i znacznie większego wpływu.
W związku z tym Mohan zauważa, że z 10 milionów filmów, które platforma usuwa co kwartał z powodu naruszenia wytycznych, większość nie osiąga nawet 10 wyświetleń. Ale znowu, to średnia i będą przypadki takie jak „Plandemic”, które prześlizgną się przez szczeliny, co również przyznaje Mohan.
„Szybkie usuwanie zawsze będzie ważne, ale wiemy, że nie wystarczy.
Na tym froncie Mohan mówi, że innym elementem podejścia YouTube jest zapewnienie, że informacje z zaufanych źródeł będą miały pierwszeństwo w elementach wyszukiwania i odkrywania aplikacji, a następnie dąży do zmniejszenia zasięgu mniej renomowanych dostawców.
„Kiedy ludzie szukają teraz wiadomości lub informacji, uzyskują wyniki zoptymalizowane pod kątem jakości, a nie tego, jak sensacyjna może być treść”.
Która jest właściwa droga – optymalizacja pod kątem zaangażowania wydaje się pod tym względem ścieżką do niebezpieczeństwa. Ale z drugiej strony współczesny krajobraz medialny również może to przyćmić, a publikacje zasadniczo są zachęcane do publikowania bardziej podzielnych, naładowanych emocjami treści w celu uzyskania większej liczby kliknięć.
Widzieliśmy to na początku tygodnia, kiedy dane Facebooka ujawniły, że ten post z The Chicago Tribune zebrał 54 miliony wyświetleń z samego Facebooka w pierwszym kwartale tego roku.

Nagłówek jest mylący – ostatecznie stwierdzono, że lekarz zmarł z przyczyn niezwiązanych ze szczepionką. Ale możesz sobie wyobrazić, jak to podsyciło antyszczepionkowe grupy w The Social Network – a niektórzy w odpowiedzi stwierdzili, że w tym przypadku winą nie były systemy Facebooka, które ułatwiły wzmocnienie postu, ale sama Chicago Tribune za opublikowanie wyraźnie wprowadzającego w błąd nagłówka.

Co prawda, ale jednocześnie wszystkie publikacje wiedzą, co napędza zaangażowanie na Facebooku – i ten przypadek to potwierdza. Jeśli chcesz zmaksymalizować zasięg Facebooka i ruch polecający, najlepiej sprawdzają się emocjonalne, dzielące nagłówki, które zachęcają do zaangażowania, w postaci polubień, udostępnień i komentarzy. Trybuna uzyskała 54 miliony wyświetleń z jednego artykułu, co podkreśla poważną wadę systemu motywacyjnego dla mediów.
Podkreśla również fakt, że nawet „renomowane” serwisy mogą publikować dezinformacje i treści, które napędzają niebezpieczne ruchy – więc nawet jeśli YouTube koncentruje się na udostępnianiu treści z zaufanych źródeł, nie zawsze będzie to rozwiązanie takich problemów jako takich.
Co Mohan dalej zauważa:
„W wielu przypadkach dezinformacje nie są jednoznaczne. Z natury ewoluują i często brakuje im podstawowego źródła, które by nam dokładnie mówiło, kto ma rację. Podobnie jak w następstwie ataku, sprzeczne informacje mogą pochodzić ze wszystkich różnych kierunków. nawet zidentyfikowali niewłaściwego winowajcę lub ofiary, z druzgocącym skutkiem. W przypadku braku pewności, czy firmy technologiczne powinny decydować, kiedy i gdzie wyznaczyć granice na niejasnym terytorium dezinformacji? Moje silne przekonanie brzmi: nie”.
Widać zatem, dlaczego Mohan niechętnie naciska na więcej usunięć, co jest rozwiązaniem często forsowanym przez zewnętrznych analityków, podczas gdy Mohan wskazuje również na rosnącą ingerencję opresyjnych reżimów dążących do stłumienia przeciwstawnych poglądów poprzez cenzurę dyskusji w Internecie.
„Widzimy niepokojący nowy rozmach wokół rządów nakazujących usuwanie treści w celach politycznych. Osobiście uważam, że jako społeczeństwo jest nam lepiej, gdy możemy prowadzić otwartą debatę. w tym perspektywy, które są prowokacyjne, potencjalnie obraźliwe, a nawet w niektórych przypadkach zawierają informacje, które mogą nie przejść kontroli sprawdzającej fakty”.
Ponownie, odpowiedzi nie są jasne, a dla platform o zasięgu YouTube lub Facebook jest to istotny element, który wymaga zbadania i podjęcia działań tam, gdzie to możliwe.
Ale to nie rozwiąże wszystkiego. Czasami YouTube pozostawia rzeczy, które należy usunąć, co prowadzi do większej liczby potencjalnych problemów z ekspozycją i wzmocnieniem, podczas gdy innym razem usunie treści, które zdaniem wielu powinny zostać pozostawione. Mohan nie zaprzecza temu, ani nie uchyla się od odpowiedzialności za to, i warto zwrócić uwagę na niuanse uwzględnione w tej debacie, gdy próbujemy określić najlepszą drogę naprzód.
Zdarzają się przypadki, w których wszystko jest jednoznaczne - za radą oficjalnych organów medycznych, na przykład dezinformacja o COVID-19 powinna zostać usunięta. Ale nie zawsze tak to działa. W rzeczywistości częściej niż zauważ, wezwania do osądu są dokonywane na podstawie platformy po platformie, podczas gdy prawdopodobnie nie powinny. Optymalnym rozwiązaniem mogłaby więc być szersza, niezależna grupa nadzorcza, która dzwoni do nich w czasie rzeczywistym i kieruje każdą platformą na ich podejście.
Ale nawet to może być przedmiotem nadużyć.
Jak już wspomniano, nie ma łatwych odpowiedzi, ale warto zobaczyć perspektywę YouTube na rozwijającą się debatę.
