Nuevos informes subrayan el papel de Facebook en la exacerbación de las divisiones políticas, pero ¿Facebook actuará?
Publicado: 2021-03-02Como parte de la investigación en curso sobre la posible actividad antimonopolio entre los gigantes tecnológicos de EE. UU., Los directores ejecutivos de Google, Facebook, Amazon y Apple comparecieron recientemente ante el Comité Judicial de la Cámara de los EE. UU., Donde se les hizo una serie de preguntas relacionadas con diversas preocupaciones sobre cómo su operan las empresas.
Y una de esas consultas fue particularmente pertinente a medida que nos adentramos en el período de elecciones estadounidenses de 2020: en su tiempo asignado, el representante David Cicilline le hizo esta declaración al director ejecutivo de Facebook, Mark Zuckerberg:
" Facebook se está beneficiando y amplificando la desinformación que daña a otros, porque es rentable. No se trata de un problema de discurso, se trata del modelo de negocio de Facebook que prioriza el compromiso para mantener a las personas en las plataformas de Facebook para ofrecerles más anuncios".
¿Es eso cierto? ¿Facebook se beneficia de la división y del compromiso que genera?
En su respuesta, Zuckerberg, como era de esperar, dijo que esto es incorrecto y que Facebook le muestra a la gente "lo que será más significativo para ellos", no solo lo que generará la mayor participación. Cicilline luego siguió con un ejemplo de un video reciente de la conspiración de COVID-19 que acumuló 20 millones de visitas en 5 horas en Facebook.
"Mucha gente compartió eso", respondió Zuckerberg.
Entonces, ¿eso significa que fue 'significativo' para ellos? ¿Zuckerberg no es sincero al dejar de lado los detalles de la consulta?
Este es uno de los elementos clave del debate en la creciente división política: ¿qué papel tienen las redes sociales, y Facebook específicamente, para exacerbar la división social existente? Siempre ha habido un nivel de debate de ambos lados del espectro político, pero parece haberse vuelto más pronunciado y más influyente en los últimos tiempos, y el mayor cambio dentro de ese período es la cantidad de personas que ahora obtienen su contenido de noticias de plataformas sociales.
Y la lógica detrás de la preocupación tiene sentido: el algoritmo de Facebook prioriza el compromiso. Si publica algo que genera muchas acciones y discusiones, eso asegurará que sus publicaciones posteriores obtengan un mayor alcance, ya que el sistema de Facebook busca involucrar a más personas en dichos intercambios para mantenerlos en la plataforma por más tiempo.
Eso alteró los incentivos para los editores de noticias con respecto a cómo publican. Un artículo de opinión titulado 'COVID-19 es un engaño, aquí está la verdad real' generará más respuestas que uno con el titular 'Los científicos han estado estudiando COVID-19 durante años'. Ambos artículos podrían tener el mismo contenido, pero un titular es más lascivo y juega con el deseo inherente de la gente de creer que están siendo maltratados por el gobierno.
Una vez más, ese enfoque siempre ha sido efectivo: solo eche un vistazo a las revistas de chismes de celebridades y la forma en que atraen a los lectores con rumores e historias infundadas. Pero Facebook ha convertido a muchos más editores en máquinas de chismes, al mismo tiempo que le ha dado a este tipo de material un alcance infinitamente mayor y, por lo tanto, influencia.
Facebook lo sabe. Por mucho que Zuckerberg intente pagarlo y fingir que no lo sabe, o que depende de la gente decidir lo que quieren, y que Facebook no tiene un papel real que desempeñar, aparte de ser la plataforma para albergar tal discusión. Facebook sí sabe que sus algoritmos exacerban la división, han admitido mucho.
A principios de este año, el ejecutivo de Facebook, Andrew Bosworth, exjefe del departamento de anuncios móviles de la compañía, publicó un memorando interno en el que compartió sus pensamientos sobre diversas controversias sobre cómo funciona Facebook, su papel para influir en las elecciones, el intercambio de datos, etc.
Entre sus notas, Bosworth descartó la idea de filtrar burbujas que son facilitadas por el algoritmo de Facebook, y teóricamente ve a los usuarios de Facebook mostrar más contenido con el que estarán de acuerdo y menos de lo que no.
Bosworth dijo que el sistema de Facebook realmente garantiza que los usuarios estén expuestos a muchas más fuentes de contenido de las que habrían visto antes de Internet.
" Pregúntese cuántos periódicos y programas de noticias leía / veía la gente antes de Internet. Si adivinó" uno y uno "en promedio, tiene razón, y si adivinó que estaban ideológicamente alineados con ellos, tiene razón nuevamente. Internet los expone a mucho más contenido de otras fuentes (26% más en Facebook, según nuestra investigación) ".
La directora de operaciones de Facebook, Sheryl Sandberg, citó esta misma investigación en octubre del año pasado, y señaló más específicamente que el 26% de las noticias que los usuarios de Facebook ven en sus representa "otro punto de vista".

Entonces, eso es mejor, ¿verdad? Facebook realmente asegura que la gente vea más perspectivas, por lo que no se le puede responsabilizar de reforzar la división política. ¿Correcto?
No exactamente, de nuevo, de Bosworth:
" El enfoque en las burbujas de filtro hace que las personas se pierdan el verdadero desastre que es la polarización. ¿Qué sucede cuando ves un 26% más de contenido de personas con las que no estás de acuerdo? ¿Te ayuda a sentir empatía con ellos como todos han estado sugiriendo? Nop. Hace que te desagraden aún más. Esto también es fácil de demostrar con un experimento mental: cualquiera que sea tu inclinación política, piensa en una publicación del otro lado que desprecias. Cuando leas un artículo de ese medio, quizás compartido por un tío o sobrino, ¿te hace repensar tus valores? ¿O te hace retroceder más en la convicción de tu propia corrección? Si respondiste a la primera, enhorabuena, eres una mejor persona que yo. Cada vez que leo algo de Breitbart, obtener un 10% más liberal ".
Entonces, Bosworth reconoce efectivamente que, sí, el algoritmo News Feed de Facebook amplifica la división. No en la forma en que muchos piensan, al reducir su perspectiva mostrándoles solo contenido con el que están de acuerdo, sino en realidad lo contrario: al mostrarles a los usuarios más contenido de más fuentes, Facebook los empuja más a ambos lados de la división política.
Una vez más, este es un ejecutivo de Facebook reconociendo esto, Facebook es consciente de ello. Zuckerberg puede negarlo, pero lo sabe tan bien como Bosworth, ya que esta es una discusión que se ha mantenido entre los líderes de Facebook.
Y eso solo parece empeorar a medida que más personas se vuelvan más dependientes de Facebook para el contenido de noticias. Miles de editoriales locales se ven obligadas a cerrar, y la pandemia de COVID-19 es el último clavo en el ataúd de sus negocios. Y cuando los lugareños ya no puedan obtener noticias locales de un medio confiable, ¿a dónde crees que acudirán?
Facebook luego refuerza aún más dicha división al albergar a extremistas dentro de grupos privados, donde su discusión está fuera del ojo público y, por lo tanto, más allá de un escrutinio ampliado. Eso se ha vuelto a subrayar esta semana con la filtración de documentos internos que muestran que Facebook alberga actualmente miles de grupos y páginas, con millones de miembros y seguidores, que apoyan la teoría de la conspiración de QAnon.
QAnon ha ganado un ferviente seguimiento en línea por supuestamente compartir ideas secretas sobre la batalla en curso de la administración Trump contra el 'estado profundo', una colección de empresarios y celebridades de élite que controlan secretamente el mundo.
Twitter anunció una ofensiva contra las cuentas QAnon vinculadas el mes pasado y, según se informa, Facebook también está sopesando sus opciones. Pero el alcance total del alcance del grupo en Facebook es asombroso y subraya el papel que Facebook puede desempeñar en la amplificación de puntos de vista extremos y teorías marginales.
No es difícil ver cómo la combinación de amplificación de contenido divisivo y el alojamiento de grupos que simpatizan con cualquiera de los lados, a la escala de Facebook, podría ser un problema importante. Y nuevamente, Facebook lo negará, restará importancia a su papel, afirmará que sabía poco sobre el uso de sus grupos para tal actividad. Pero esta no es información nueva: varios informes han resaltado las mismas preocupaciones durante años.
Y en medio de esto, tiene afirmaciones de que Facebook elimina las verificaciones de hechos para evitar conflictos con los líderes políticos, permite que el discurso de odio permanezca en su plataforma porque es 'de interés público' y permite que los políticos rijan libremente. sus anuncios para que la gente pueda decidir.
En resumen, al evaluar los diversos factores, es difícil no concluir que Facebook preferiría dejar ese contenido solo, ya que de hecho genera más participación. ¿Facebook se beneficia de eso? Si lo hace. Si Facebook se viera obligado a adoptar una postura más dura sobre publicaciones y opiniones controvertidas, ¿le costaría dinero a Facebook y probablemente lo vería perder participación? Sí lo haría.
En esencia, Facebook quiere todos los beneficios de ser la plataforma social más utilizada del mundo, pero ninguna responsabilidad. Pero con 2.700 millones de usuarios, su influencia es simplemente demasiado grande para que adopte un enfoque de no intervención: esa responsabilidad es enorme y debería haber consecuencias por fallar en este sentido.
Mark Zuckerberg preferiría centrarse en lo positivo, en la visión idealista de que las redes sociales son una herramienta de conexión que une al mundo para siempre. Pero eso no es lo que está sucediendo, y la empresa debe volver a alinearse con la forma en que se está utilizando realmente, para mitigar las peligrosas tendencias que impregnan sus rincones oscuros.
Si no es así, espere que la división política empeore con el tiempo.
