Facebook anuncia nuevas reglas para que los grupos aborden inquietudes relacionadas con la desinformación y el discurso de odio

Publicado: 2021-03-02

En los últimos dos años, Facebook ha hecho un esfuerzo concertado en su función de Grupos como un medio para impulsar la participación en la plataforma y mantener a la gente iniciando sesión.

En las comunicaciones oficiales de la compañía sobre esto, Facebook ha reiterado la popularidad de los grupos: más de 1.400 millones de usuarios de Facebook participan en grupos cada mes, y más de 400 millones de personas son miembros de lo que Facebook llama 'grupos muy significativos', o grupos que se convierten en un parte central de su experiencia interactiva. Es probable que esos números hayan aumentado aún más durante los bloqueos de COVID-19, pero al mismo tiempo, una visión más escéptica de los grupos de Facebook es que permiten que la plataforma oculte algunas de las discusiones más controvertidas dentro de la aplicación de la vista del público.

Claro, es posible que se moleste si ve una publicación anti-vax en su feed principal, pero si Facebook mueve esa discusión a un grupo privado, ni siquiera lo sabrá, y ese usuario puede continuar su discusión, dando a Facebook ese compromiso extra. En lugar de eliminar algunas de estas publicaciones y debates más preocupantes, parece que la presión de sus grupos también ha consistido en trasladarlos a áreas más privadas. Lo que, por supuesto, significa que Facebook todavía les permite proliferar, y la plataforma, en muchos casos, ha sido identificada como un facilitador clave en los crecientes movimientos marginales y, a veces, peligrosos en el mundo real.

Ahí es donde entra en juego la última revisión de Facebook de las reglas de su grupo.

Esta semana, Facebook ha anunciado una serie de nuevas regulaciones para grupos, que verán la implementación de nuevas sanciones y restricciones para aquellos que violen sus Estándares Comunitarios, incluso en grupos privados.

Entre las diversas medidas, Facebook:

  • Elimine todos los grupos relacionados con la milicia y las organizaciones anarquistas de las recomendaciones, al mismo tiempo que los restringe en la búsqueda y reduce su contenido en News Feeds. "También eliminamos a estos grupos cuando hablan de violencia potencial, incluso si usan lenguaje y símbolos velados".
  • Deje de recomendar grupos relacionados con la salud a los usuarios en sus superficies de descubrimiento. Los usuarios aún podrán invitar a amigos a grupos de salud, mientras que búsquedas específicas seguirán apareciendo en dichos grupos, pero Facebook ya no los incluirá en las recomendaciones generales para los usuarios.
  • Reduzca la exposición de los grupos que comparten repetidamente contenido calificado como falso por los verificadores de hechos y elimine los grupos que continúan violando las reglas o compartiendo contenido que viola sus Normas de la comunidad. Los administradores de grupo ahora también son notificados cada vez que un contenido calificado como falso por los verificadores de hechos se publica en su grupo.
  • Evite que los administradores y moderadores de grupos eliminados por infracciones de políticas creen nuevos grupos durante un período de tiempo, mientras que los miembros que tengan alguna infracción de las Normas de la comunidad en un grupo ahora deberán obtener la aprobación para sus publicaciones dentro de ese grupo durante los 30 días siguientes.

Estas son medidas importantes, dada la forma en que los grupos de Facebook se pueden utilizar para ampliar los elementos relacionados.

En abril, un informe mostró que Facebook albergaba miles de grupos y páginas, con millones de miembros y seguidores, que apoyaban la teoría de la conspiración de QAnon. Desde entonces, Facebook ha tomado medidas sobre QAnon y varios otros grupos relacionados, pero el hecho de que estas redes hayan existido alguna vez en la plataforma es una preocupación importante, y este es solo un ejemplo de cómo Facebook facilita la propagación de movimientos preocupantes y divisivos a través de su oferta de grupos.

En otras preocupaciones señaladas:

  • Facebook alberga varios grupos de negación del cambio climático y ha aplicado diferentes interpretaciones a su proceso de verificación de hechos para ello, incluso eximiendo algunos contenidos de negación del cambio climático al etiquetarlo como 'opinión'.
  • A principios de este año, se descubrió que varios grupos de Facebook, con millones de miembros, estaban difundiendo teorías de conspiración COVID-19, y el grupo ' Stop 5G UK' es solo un ejemplo de los que están ganando una tracción significativa.
  • Una investigación realizada por ProPublica el año pasado descubrió grupos secretos de Facebook exclusivos para miembros de agentes actuales y anteriores de la Patrulla Fronteriza, en los que bromeaban sobre la muerte de migrantes.

Muchos de estos casos no reciben una cobertura de prensa significativa, porque las discusiones ocurren dentro de grupos privados, por lo que es posible que ni siquiera sean reportados o vistos por usuarios habituales, lo que limita su potencial de aplicación.

Pero Facebook dice que aplica sus estándares comunitarios a todos los grupos, incluso a los privados:

" Nuestros Estándares Comunitarios se aplican a grupos públicos y privados, y nuestras herramientas de detección proactiva funcionan en ambos. Eso significa que incluso si alguien no nos informa un problema, nuestra IA puede detectar contenido potencialmente infractor y podemos eliminarlo".

Claramente, esa IA no siempre es efectiva, pero con suerte, con este impulso renovado, Facebook está intensificando su acción contra eso y trabajará para eliminar el contenido infractor a fin de limitar su propagación.

Además de esto, Facebook también comenzará a archivar grupos que no tienen un administrador activo, al tiempo que pedirá a los miembros activos que se conviertan en administradores de aquellos grupos donde el administrador original se fue.

Grupos de Facebook sugeridos administrador

"En el futuro, cuando un administrador restante decida renunciar, puede invitar a miembros para que se conviertan en administradores. Si ningún miembro invitado acepta, sugeriremos funciones de administrador a los miembros que puedan estar interesados. Si nadie acepta, archivaremos el grupo."

Esencialmente, Facebook se está moviendo para asegurarse de que haya alguien en su lugar para hacer cumplir las reglas del grupo, lo que podría ser otra medida para reducir los casos en los que los grupos que van en contra de las pautas de la plataforma y potencialmente difunden información errónea y odio.

Es bueno ver que Facebook busca intensificar su acción a este respecto, pero como se destaca en estos ejemplos, los grupos de Facebook siguen siendo problemáticos y probablemente lo seguirán siendo durante algún tiempo. Y eso, por supuesto, también se reduce a cómo Facebook elige actuar; sí, va a presionar más contra aquellos que violan sus reglas, pero esas reglas a menudo también permiten un gran margen de maniobra en lo que es aceptable y lo que Facebook considera. como desinformación en su propio enfoque.

Entonces, cuáles serán los impactos, solo el tiempo lo dirá.