Neue Berichte unterstreichen die Rolle von Facebook bei der Verschärfung politischer Spaltungen - aber wird Facebook Maßnahmen ergreifen?
Veröffentlicht: 2021-03-02Im Rahmen der laufenden Untersuchung potenzieller Kartellaktivitäten unter US-amerikanischen Technologiegiganten erschienen die CEOs von Google, Facebook, Amazon und Apple kürzlich vor dem Justizausschuss des US-Repräsentantenhauses, wo ihnen eine Reihe von Fragen zu unterschiedlichen Bedenken hinsichtlich ihrer Art gestellt wurden Unternehmen operieren.
Und eine dieser Fragen war besonders relevant, als wir uns auf den Weg in die US-Wahlperiode 2020 machen - in seiner zugewiesenen Zeit stellte Rep. David Cicilline diese Aussage gegenüber Facebook-CEO Mark Zuckerberg vor:
" Facebook profitiert und verstärkt Desinformationen, die anderen schaden, weil sie rentabel sind. Dies ist kein Sprachproblem. Es geht um das Geschäftsmodell von Facebook, das das Engagement priorisiert, um die Nutzer auf den Plattformen von Facebook zu halten und ihnen mehr Werbung zu liefern."
Ist das wahr? Profitiert Facebook von der Spaltung und dem damit verbundenen Engagement?
In seiner Antwort sagte Zuckerberg vorhersehbar, dass dies falsch ist und dass Facebook den Menschen zeigt, "was für sie am bedeutsamsten sein wird", und nicht nur, was das meiste Engagement erzeugen wird. Cicilline folgte dann mit einem Beispiel eines kürzlich erschienenen COVID-19-Verschwörungsvideos, das in 5 Stunden 20 Millionen Aufrufe auf Facebook verzeichnete.
"Viele Leute haben das geteilt", antwortete Zuckerberg.
Bedeutet das also, dass es für sie "bedeutungsvoll" war? Ist Zuckerberg unaufrichtig, wenn er die Einzelheiten der Abfrage umgeht?
Dies ist eines der Schlüsselelemente der Debatte in der zunehmenden politischen Kluft - welche Rolle spielen soziale Medien und insbesondere Facebook bei der Verschärfung der bestehenden gesellschaftlichen Spaltung? Es gab immer eine Debatte auf beiden Seiten des politischen Spektrums, aber sie scheint in letzter Zeit ausgeprägter und einflussreicher geworden zu sein, und die größte Veränderung in diesem Zeitraum ist die Anzahl der Personen, von denen sie jetzt ihre Nachrichteninhalte erhalten soziale Plattformen.
Und die Logik hinter dem Anliegen macht Sinn - der Facebook-Algorithmus priorisiert das Engagement. Wenn Sie etwas posten, das viele Freigaben und Diskussionen generiert, wird sichergestellt, dass Ihre nachfolgenden Posts mehr Reichweite erhalten, da das Facebook-System versucht, mehr Menschen in einen solchen Austausch einzubeziehen, um sie länger auf der Plattform zu halten.
Dies hat die Anreize für Nachrichtenverlage in Bezug auf ihre Veröffentlichung verändert. Ein Meinungsbeitrag mit dem Titel "COVID-19 ist ein Scherz, hier ist die wahre Wahrheit" wird mehr Reaktionen hervorrufen als einer mit der Überschrift "Wissenschaftler haben COVID-19 seit Jahren untersucht". Beide Artikel könnten den gleichen Inhalt haben, aber eine Überschrift ist auffälliger und spielt mit dem inhärenten Wunsch der Menschen, zu glauben, dass sie von der Regierung misshandelt werden.
Auch dieser Ansatz war schon immer effektiv - werfen Sie einen Blick auf die Promi-Klatschmagazine und die Art und Weise, wie sie die Leser mit unbegründeten Gerüchten und Geschichten anlocken. Aber Facebook hat viel mehr Verlage zu Klatschmaschinen gemacht und dieser Art von Material unendlich mehr Reichweite und damit Einfluss verliehen.
Facebook weiß das. So sehr Zuckerberg auch versuchen mag, es auszuzahlen und so zu tun, als ob er es nicht weiß oder dass es an den Menschen liegt, zu entscheiden, was sie wollen, und dass Facebook keine wirkliche Rolle spielt, außer die Plattform zu sein, auf der solche Diskussionen stattfinden. Facebook weiß, dass seine Algorithmen die Teilung verschärfen - sie haben so viel zugegeben.
Anfang dieses Jahres veröffentlichte Facebook-Manager Andrew Bosworth, ehemaliger Leiter der Abteilung für mobile Anzeigen des Unternehmens, ein internes Memo, in dem er seine Gedanken zu verschiedenen Kontroversen über die Funktionsweise von Facebook, seine Rolle bei der Beeinflussung von Wahlen, den Datenaustausch usw. teilte.
Unter seinen Notizen lehnte Bosworth die Idee von Filterblasen ab, die durch den Facebook-Algorithmus erleichtert werden, und sah theoretisch, dass Facebook-Nutzer mehr Inhalte zeigten, denen sie zustimmen werden, und weniger von dem, was sie nicht wollen.
Bosworth sagte, dass das Facebook-System tatsächlich sicherstellt, dass Benutzer deutlich mehr Inhaltsquellen ausgesetzt sind, als sie in Zeiten vor dem Internet gesehen hätten.
" Fragen Sie sich, wie viele Zeitungen und Nachrichtensendungen die Leute vor dem Internet gelesen / gesehen haben. Wenn Sie im Durchschnitt" eins und eins "erraten haben, haben Sie Recht, und wenn Sie vermutet haben, dass diese ideologisch auf sie ausgerichtet sind, haben Sie wieder Recht. Das Internet macht sie sichtbar zu weit mehr Inhalten aus anderen Quellen (26% mehr auf Facebook, laut unserer Forschung). "
Die COO von Facebook, Sheryl Sandberg, zitierte dieselbe Studie im Oktober letzten Jahres und stellte insbesondere fest, dass 26% der Nachrichten, die Facebook-Nutzer in ihren Nachrichten sehen, „eine andere Sichtweise“ darstellen.

Also, das ist besser richtig? Facebook stellt tatsächlich sicher, dass die Menschen mehr Perspektiven sehen, sodass es nicht für die Verstärkung der politischen Spaltung verantwortlich gemacht werden kann. Richtig?
Nicht genau - wieder von Bosworth:
" Der Fokus auf Filterblasen führt dazu, dass die Leute die wahre Katastrophe verpassen, die Polarisierung ist. Was passiert, wenn Sie 26% mehr Inhalte von Leuten sehen, mit denen Sie nicht einverstanden sind? Hilft es Ihnen, sich in sie hineinzuversetzen, wie alle vorgeschlagen haben? Nein. Es lässt Sie sie noch mehr ablehnen. Dies lässt sich auch leicht mit einem Gedankenexperiment beweisen: Denken Sie unabhängig von Ihrer politischen Neigung an eine Veröffentlichung von der anderen Seite, die Sie verachten. Wenn Sie einen Artikel aus dieser Verkaufsstelle lesen, der möglicherweise von einem Onkel geteilt wird oder Neffe, bringt es Sie dazu, Ihre Werte zu überdenken? Oder bringt es Sie dazu, sich weiter in die Überzeugung Ihrer eigenen Korrektheit zurückzuziehen? Wenn Sie die erstere beantwortet haben, gratulieren Sie, dass Sie ein besserer Mensch sind als ich. Jedes Mal, wenn ich etwas von Breitbart I lese 10% liberaler werden. "
Bosworth erkennt also effektiv an, dass der Newsfeed-Algorithmus von Facebook die Teilung verstärkt. Nicht so, wie viele denken, indem sie ihre Perspektive einschränken, indem sie ihnen nur Inhalte zeigen, mit denen sie einverstanden sind, sondern im Gegenteil - indem sie den Nutzern mehr Inhalte aus mehr Quellen zeigen, drängt Facebook sie weiter zu beiden Seiten der politischen Kluft.
Auch dies ist eine Facebook-Führungskraft, die dies anerkennt. Facebook ist sich dessen bewusst. Zuckerberg mag es leugnen, aber er weiß es genauso gut wie Bosworth, da dies eine Diskussion ist, die unter den Führern von Facebook geführt wurde.
Und das wird sich nur noch verschlechtern, wenn mehr Menschen für Nachrichteninhalte mehr auf Facebook angewiesen sind. Tausende lokale Verlage müssen schließen, wobei die COVID-19-Pandemie der letzte Nagel im Sarg für ihre Unternehmen ist. Und wenn die Einheimischen keine lokalen Nachrichten mehr von einer vertrauenswürdigen Verkaufsstelle erhalten können, wohin werden sie sich dann wenden?
Facebook verstärkt diese Spaltung dann weiter, indem es Extremisten in privaten Gruppen beherbergt, deren Diskussion außerhalb der Öffentlichkeit und daher außerhalb der erweiterten Kontrolle liegt. Dies wurde diese Woche erneut durch das Durchsickern interner Dokumente unterstrichen, aus denen hervorgeht, dass Facebook derzeit Tausende von Gruppen und Seiten mit Millionen von Mitgliedern und Anhängern hostet, die die QAnon-Verschwörungstheorie unterstützen.
QAnon hat eine begeisterte Online-Fangemeinde gewonnen, weil er angeblich geheime Erkenntnisse über den anhaltenden Kampf der Trump-Administration gegen den "tiefen Staat", eine Sammlung von Elite-Geschäftsleuten und Prominenten, die heimlich die Welt kontrollieren, ausgetauscht hat.
Twitter kündigte letzten Monat ein Vorgehen gegen mit QAnon verknüpfte Konten an, und Facebook wägt nun Berichten zufolge auch seine Optionen ab. Der Umfang der Reichweite der Gruppe auf Facebook ist jedoch atemberaubend und unterstreicht die Rolle, die Facebook bei der Verstärkung extremer Ansichten und Randtheorien spielen kann.
Es ist nicht schwer zu erkennen, wie die Kombination aus spaltbarer Inhaltsverstärkung und der Aufnahme von Gruppen, die auf Facebook-Ebene mit beiden Seiten sympathisch sind, ein großes Problem darstellen könnte. Und wieder wird Facebook dies leugnen, es wird seine Rolle herunterspielen, es wird behaupten, es wisse wenig über seine Gruppen, die für solche Aktivitäten verwendet werden. Dies sind jedoch keine neuen Informationen - verschiedene Berichte haben seit Jahren die gleichen Bedenken hervorgehoben.
Und unter diesen Behauptungen haben Sie die Behauptung, Facebook habe Faktenprüfungen entfernt, um Konflikte mit politischen Führern zu vermeiden, Hassreden auf seiner Plattform zu belassen, weil sie "im öffentlichen Interesse" sind, und Politikern die Möglichkeit zu geben, direkt zu lügen ihre Anzeigen, damit die Menschen entscheiden können.
Alles in allem ist es bei der Bewertung der verschiedenen Faktoren schwer zu schlussfolgern, dass Facebook solche Inhalte lieber in Ruhe lassen würde, da dies tatsächlich zu mehr Engagement führt. Profitiert Facebook davon? Ja tut es. Wenn Facebook gezwungen wäre, eine kontroverse Haltung zu kontroversen Posts und Meinungen einzunehmen, würde es Facebook Geld kosten und wahrscheinlich das Engagement verlieren? Ja es würde.
Im Wesentlichen möchte Facebook alle Vorteile der meistgenutzten sozialen Plattform der Welt nutzen, aber keine Verantwortung. Bei 2,7 Milliarden Nutzern ist der Einfluss jedoch einfach zu groß, um einen Hands-Off-Ansatz zu verfolgen. Diese Verantwortung ist enorm, und es sollte Konsequenzen für ein Versagen in dieser Hinsicht geben.
Mark Zuckerberg würde es vorziehen, sich auf das Positive zu konzentrieren, auf die idealistische Sichtweise, dass Social Media ein Bindeglied ist, das die Welt für immer verbindet. Aber das ist nicht der Fall, und das Unternehmen muss sich neu an der tatsächlichen Nutzung ausrichten, um die gefährlichen Trends zu mildern, die aus seinen dunklen Ecken kommen.
Wenn nicht, erwarten Sie, dass sich die politische Spaltung im Laufe der Zeit verschlechtert.
