Facebook renforce sa position contre QAnon, interdisant toutes les pages, groupes et comptes liés au mouvement

Publié: 2022-04-08

Dans une décision que beaucoup considèrent comme attendue depuis longtemps, Facebook a annoncé mardi une interdiction totale de QAnon, classant le groupe de théorie du complot comme un « mouvement social militarisé », capable de causer de graves dommages dans le monde réel s'il n'est pas traité.

Selon Facebook :

"À partir d'aujourd'hui, nous supprimerons les pages Facebook, les groupes et les comptes Instagram pour représenter QAnon. [...] Nous commençons à appliquer cette politique mise à jour aujourd'hui et supprimons le contenu en conséquence, mais ce travail prendra du temps et se poursuivra dans le les jours et les semaines à venir."

Cette décision est une extension plus large de la répression de Facebook contre les groupes QAnon, annoncée en août, et qui a entraîné la suppression de milliers de groupes.

À cette époque, cependant, Facebook n'a pas institué une interdiction totale des discussions liées à QAnon, expliquant que :

"Bien que nous autorisons les gens à publier du contenu qui soutient ces mouvements et groupes, tant qu'ils ne violent pas autrement nos politiques de contenu, nous limiterons leur capacité à s'organiser sur notre plateforme."

Maintenant, Facebook supprime cette condition et prend des mesures sur tout le contenu lié à QAnon.

Et les impacts de cette nouvelle poussée sont déjà évidents.

Comme indiqué, beaucoup appellent Facebook à prendre des mesures contre QAnon depuis des années, la plateforme étant identifiée comme un facilitateur clé dans la propagation du dangereux mouvement de complot.

QAnon est essentiellement une extension de la théorie du "Pizzagate", qui suggérait à l'origine qu'une pizzeria à Washington était au centre d'un réseau international de trafic d'enfants lié à Hillary Clinton, Barack Obama, le satanisme, etc. La théorie a été largement démystifiée, mais même en 2016, elle avait déjà été liée à des incidents réels, avec un homme entrant dans la pizzeria, armé d'un fusil semi-automatique, afin d'enquêter par lui-même sur ce qui s'était passé. se passe à l'intérieur.

À l'époque, Facebook avait été averti, beaucoup suggérant même que c'était une publication Facebook qui avait lancé le mouvement. Pourtant, aucune action directe n'a été entreprise et la théorie a évolué vers un mouvement plus organisé, qui s'est ensuite transformé en QAnon. Une enquête interne menée par Facebook cette année et divulguée par NBC News a révélé que la plate-forme avait fourni un foyer à des milliers de groupes et de pages QAnon, avec des millions de membres et de followers, et avec de nouvelles menaces de violence et d'activités dangereuses liées à la groupe, Facebook a finalement choisi d'agir.

Ce qui fait longtemps, Facebook avait au moins une idée des dangers potentiels de QAnon il y a quatre ans, et a attendu jusqu'à maintenant pour agir.

Alors pourquoi si longtemps ?

Selon Facebook, le contenu de QAnon, jusqu'à présent, n'a pas enfreint ses politiques.

" Nous supprimons les contenus appelant ou prônant la violence, et nous interdisons les organisations et les individus qui proclament une mission violente. Cependant, nous avons vu se développer des mouvements qui, sans organiser directement la violence, ont célébré des actes violents, montré qu'ils avaient des armes et laissé entendre qu'ils les utiliseront, ou auront des adeptes individuels avec des modèles de comportement violent."

Donc, Facebook a initialement choisi de ne pas agir parce que la plupart des discussions n'étaient que cela, des bavardages sur le Web qui ne franchissaient pas tout à fait la ligne. Mais comme indiqué, d'autres incidents violents, y compris le meurtre d'un chef de la mafia en 2019, et plusieurs affrontements armés ont été liés au fanatisme de QAnon, et avec ces groupes, comme le note Facebook, célébrant une telle activité, la ligne dans le sable devenait de plus en plus ténu.

À chaque incident, Facebook a été appelé à prendre davantage de mesures pour arrêter la propagation du contenu QAnon, tandis que le mouvement a également été lié aux anti-vaxxers, aux complots COVID-19, etc. En fait, QAnon est considéré par certains analystes comme un amplificateur clé de nombreuses conspirations - ce qui soulève à nouveau la question, pourquoi a-t-il fallu jusqu'à présent pour que Facebook agisse ?

Certains ont suggéré que le récent boycott des publicités sur Facebook, mené à la suite du meurtre de George Floyd, a incité Facebook à examiner de plus près des mouvements comme QAnon, tandis que plusieurs groupes de défense des droits civiques et d'activistes politiques ont appelé Facebook à faire plus pour répondre les soucis. Il semble que la pression continue ait poussé Facebook à agir, et bien que l'approche préférée de la plateforme soit de laisser ses utilisateurs décider de ce qui est acceptable, il est clair que QAnon a trop repoussé ses limites.

Désormais, Facebook cherchera à l'éliminer complètement, son équipe "Opérations d'organisations dangereuses" appliquant ses règles sur tout le contenu connexe.

"[L'équipe DOO] continuera d'appliquer cette politique et de détecter de manière proactive le contenu à supprimer au lieu de s'appuyer sur les rapports des utilisateurs. Ce sont des spécialistes qui étudient et répondent aux nouvelles évolutions de la violation du contenu de ce mouvement et leur détection interne a fourni de meilleures pistes dans identifier de nouvelles évolutions dans les contenus en infraction plutôt que de passer au crible les rapports des utilisateurs. »

Facebook dit qu'il s'attend à ce que les membres de QAnon modifient leur approche conformément aux nouvelles règles, et il surveillera également les nouveaux comportements. Et si Facebook met vraiment la pression sur les groupes QAnon, cela pourrait porter un coup dur au mouvement. Facebook offre la portée la plus large, un public en attente de personnes réceptives à de tels messages. Sans cela, QAnon changera probablement de plate-forme, mais beaucoup moins de personnes le feront.

Quel impact cela aura-t-il sur QAnon et comment cela pourrait-il changer les prochaines élections ? Déjà, QAnon avait été lié à plusieurs théories circulant autour de la campagne, la plus récente étant que le président Trump n'est pas réellement malade du COVID-19, mais a plutôt effectué des "missions secrètes" en ligne avec le mouvement.

Si Facebook réussit, cela pourrait limiter considérablement la diffusion de diverses théories en ligne, mais en même temps, cela pourrait également soulever davantage de questions sur la capacité de la plateforme à agir contre des mouvements dangereux similaires. Si Facebook peut arrêter QAnon, alors pourquoi ne pas supprimer également toutes les discussions anti-vax (Facebook limite les discussions anti-vax mais ne les interdit pas), ou le déni du changement climatique - la liste est longue.

En tant que tel, il s'agit d'une décision particulièrement intéressante à prendre pour Facebook, et pourrait laisser entrevoir un changement plus large dans son approche des discours de haine dangereux à l'avenir.