Za ekranami: algorytmy i boty obsługujące media społecznościowe

Opublikowany: 2023-10-27

Czy zastanawiałeś się kiedyś, dlaczego niektóre posty pojawiają się w Twoim kanale, a inne nigdy? Albo kim jest ten przypadkowy bot obserwujący spamujący Twoją sekcję komentarzy? Dzisiejsze media społecznościowe wydają się coraz bardziej zautomatyzowane, algorytmiczne i cóż… botki.

Strony internetowe, które przeglądamy godzinami każdego dnia, są dalekie od platform neutralnych. Za ekranami kryje się złożona infrastruktura technologiczna zaprojektowana w celu selekcji treści i angażowania użytkowników.

Wielu z nas zna koncepcję algorytmów – zaprogramowanych formuł, które obliczają to, co widzimy w Internecie. Ale jak dokładnie działają te algorytmy? I w jaki sposób boty – zautomatyzowane aplikacje zaprojektowane do wykonywania powtarzalnych zadań – przeniknęły do ​​ekosystemów mediów społecznościowych? Cele i skutki tych technologii są dalekosiężne, choć rzadko przejrzyste.

W tym artykule przyjrzymy się bliżej wewnętrznemu działaniu ekranów naszych mediów społecznościowych. Dowiesz się, jak algorytmy i boty wpływają na otrzymywane informacje, a nawet manipulują Twoimi opiniami i zachowaniami.

Zagłębimy się także w studia przypadków, w których boty zawiodły, i przeanalizujemy pomysły na zwiększenie odpowiedzialności. Czas sprawdzić, co tak naprawdę dzieje się za kulisami sieci społecznościowych, które znamy i z których korzystamy na co dzień. Historia jest bardziej złożona niż myślisz.

TLDR; Algorytmy i boty obsługujące media społecznościowe

  • Algorytmy zarządzają kanałami mediów społecznościowych, aby zmaksymalizować zaangażowanie, a nie jakość dyskursu
  • Boty, takie jak roboty spamujące i boty polityczne, rozpowszechniają na platformach fałszywe informacje i propagandę
  • Algorytmy mogą tworzyć komory echa; boty promują fałszywe wiadomości i cyberprzestępczość
  • Platformom społecznościowym brakuje nadzoru i przejrzystości w zakresie algorytmów
  • Użytkownicy powinni żądać przejrzystości i odpowiedzialności od platform społecznościowych

Narodziny algorytmów w mediach społecznościowych

Algorytmy to zestawy instrukcji lub obliczeń zaprogramowanych w celu osiągnięcia określonych zadań i celów. Na platformach mediów społecznościowych algorytmy analizują ogromne ilości danych użytkowników, aby następnie wybierać i polecać treści w kanałach użytkowników. Celem jest pokazanie użytkownikom postów, z którymi w danym momencie najprawdopodobniej się zaangażują.

Facebook był pionierem pomysłu spersonalizowanego kanału informacyjnego opartego na algorytmach w 2006 roku. Wcześniej posty były po prostu wyświetlane w porządku chronologicznym. Facebook chciał zoptymalizować działania pod kątem „znaczących treści”, czyli postów, które uzyskają najwięcej polubień, komentarzy i udostępnień. Inne platformy, takie jak Twitter, Instagram i TikTok, ostatecznie również przyjęły kanały algorytmiczne.

Algorytmy te uwzględniają setki sygnałów na temat każdego użytkownika, w tym jego połączenia, zainteresowania, przeszłą aktywność i typ urządzenia. Ciągle się uczą i aktualizują w oparciu o nowe dane. Algorytmy rekomendujące sugerują również konta do obserwowania lub treści do obejrzenia na podstawie podobieństw do tego, z czym użytkownik już się angażuje. Ostatecznym celem jest maksymalizacja przychodów z reklam, dlatego algorytmy optymalizują również posty i reklamy, które sprawią, że użytkownicy będą przewijać w nieskończoność.

Krajobraz botów na platformach społecznościowych

Boty mediów społecznościowych to programy, które automatycznie tworzą treści i wchodzą w interakcję z prawdziwymi użytkownikami, często udając konta ludzkie. Roboty spamujące samodzielnie rozprzestrzeniają spam, reklamy lub złośliwe oprogramowanie. Chatboty prowadzą rozmowy AI. Boty polityczne szerzą propagandę i dezinformację, co widać podczas wyborów w USA w 2016 r.

Wraz z rozwojem platform społecznościowych boty rozprzestrzeniają się szybko. W jednym z badań oszacowano, że 9–15% kont na Twitterze może stanowić boty. Szacuje się, że pod koniec 2021 r. na Facebooku zduplikowane i fałszywe konta będą stanowić około 11% aktywnych użytkowników miesięcznie na całym świecie.

Jednak wykrywanie botów jest trudne. Boty są coraz bardziej zaawansowane i wykorzystują sztuczną inteligencję do naśladowania ludzkich wzorców zachowań w Internecie. Ich celem jest manipulowanie opinią publiczną lub wywieranie negatywnego wpływu na dyskurs, unikając jednocześnie wykrycia.

Wpływ algorytmów i botów

Algorytmy i boty przyniosły pewne korzyści użytkownikom mediów społecznościowych. Algorytmiczna selekcja personalizuje kanały tak, aby odpowiadały zainteresowaniom poszczególnych osób, oszczędzając czas na nieistotnych treściach. Chatboty mogą zapewnić pomocną, zautomatyzowaną obsługę klienta.

Jednak intensywna selekcja algorytmiczna doprowadziła również do powstania komór echa i polaryzacji, ponieważ ludzie widzą tylko perspektywy o podobnych poglądach. Boty są wykorzystywane do szybkiego rozpowszechniania dezinformacji, zagłuszania faktów i manipulowania dyskursem publicznym, co widać podczas wyborów na całym świecie.

Być może najbardziej niepokojący jest brak nadzoru i przejrzystości w odniesieniu do tych technologii. Platformy społecznościowe zapewniają niewielki wgląd w to, jak działają ich algorytmy i jaki mają wpływ na treści oglądane przez użytkowników. Mają także trudności z wykryciem wyrafinowanych botów, niewiele robiąc, aby ograniczyć szkodliwe manipulacje wynikające z ich bierności.

Studia przypadków botów, które poszły w złą stronę

W 2016 roku Microsoft uruchomił na Twitterze chatbota AI Tay, którego zadaniem jest angażowanie użytkowników poprzez swobodną rozmowę. Ale trolle internetowe odkryły, że mogą wyszkolić Taya w używaniu rasistowskiego języka i propagowaniu obraźliwych poglądów. W ciągu 24 godzin Tay musiał zostać wyłączony.

Podczas wyborów prezydenckich w USA w 2016 r. powiązane z Rosją boty generowały propagandę, która dotarła do ponad 100 milionów Amerykanów na Facebooku, Twitterze i innych platformach. Miało to na celu sianie niezgody społecznej i politycznej.

Roboty spamujące regularnie rozprzestrzeniają złośliwe oprogramowanie i złośliwe linki na platformach społecznościowych za pośrednictwem fałszywych kont. W jednym badaniu przeprowadzonym w 2020 r. wykazano, że ponad 100 000 botów na Twitterze bierze udział w skoordynowanych kampaniach dezinformacyjnych i cyberprzestępczych na temat Covid-19. Stanowią one poważne zagrożenie dla użytkowników.

Ciągła walka ze złymi botami

Platformy społecznościowe wykorzystują uczenie maszynowe do wykrywania kont botów na podstawie wzorców takich jak wysoka częstotliwość tweetów, duplikaty treści i skoordynowane zachowania. Jeśli konta zostaną oznaczone jako prawdopodobne boty, mogą zostać wezwane do sprawdzenia, czy są ludźmi, za pomocą CAPTCHA lub weryfikacji telefonicznej. Jeśli nie przejdziesz pomyślnie testu bota, konta zostaną usunięte.

Jednak identyfikacja bardziej wyrafinowanych botów wykorzystujących sztuczną inteligencję pozostaje wyzwaniem. Boty te naśladują ludzkie harmonogramy publikowania, różnorodność treści i interakcje online. Niektórzy unikają wykrycia, zmieniając zachowania po oznaczeniu. Platformy toczą niekończącą się grę w kotka i myszkę przeciwko rozwijającym się możliwościom botów.

Eksperci sugerują, że lepsze wykrywanie mogłoby zapewnić analiza metadanych kont, relacji i wzorców językowych na przestrzeni czasu. Spowolnienie szybkiego wirusowego rozprzestrzeniania się treści mogłoby również lepiej ograniczyć wpływ skoordynowanych sieci botów, zanim wyrządzą one zbyt duże szkody.

Nacisk na przejrzystość i nadzór

Dzięki algorytmom i botom wbudowanym w swoje podstawowe modele biznesowe platformy społecznościowe mają niewielką motywację do zachowywania przejrzystości lub umożliwiania znaczącego nadzoru. Jednak grupy zwolenników wezwały do ​​audytu algorytmicznego, który dałby badaczom dostęp do oceny skutków.

Rządy rozważają również regulacje wymuszające przejrzystość, wymogi dotyczące monitorowania przez człowieka i prawo do odwołania się od nieuczciwych decyzji algorytmicznych.

Użytkownicy mogą pomóc w wywarciu presji, wyrażając swoje obawy za pomocą petycji i hashtagów, wspierając polityków opowiadających się za przejrzystością, a nawet oszukując algorytmy, wypaczając własne wzorce działania. Chociaż zamknięta, nastawiona na zysk kultura platform społecznościowych będzie trudna do zmiany, utrzymująca się świadomość społeczna i presja społeczna mogą sprawić, że przejrzystość algorytmów i botów stanie się koniecznością.

Podsumowując: algorytmy i boty obsługujące media społecznościowe

Fasada mediów społecznościowych została odsunięta i dostrzegliśmy złożoną mieszankę algorytmów i botów obsługujących te platformy. Nasze kanały są tworzone w oparciu o nieprzejrzyste formuły zoptymalizowane pod kątem zaangażowania i przychodów, a nie dyskursu na temat jakości. Zautomatyzowane konta wpadają w szał, ukryte pod fałszywymi ludzkimi tożsamościami.

Ta dostrzeżona prawda powinna sprawić, że poczujemy się głęboko niekomfortowo w związku z obecnym stanem mediów społecznościowych. Nie możemy już trzymać się osobliwych koncepcji neutralnych internetowych placów miejskich. Motywacja zysku i niekontrolowana automatyzacja podkopały potencjał sieci społecznościowej. Oburzenie musi przerodzić się w wezwania do przejrzystości i odpowiedzialności.

My, użytkownicy, mamy władzę w liczbach. Nie akceptuj niewiedzy na temat wpływu algorytmów na Twoje myślenie. Zapotrzebuj na zmiany poprzez ustawodawstwo i bezpośrednie zaangażowanie platform. Bądź nieufny wobec wzmacniania botów. I nigdy nie zapominaj o człowieku za ekranem, niezależnie od tego, czy jest to prawdziwa osoba, czy przebiegła sztuczna inteligencja. Nasza przyszła rzeczywistość może zależeć od pamiętania o naszym człowieczeństwie.