YouTube describe su enfoque para vigilar la desinformación y los desafíos en la acción efectiva

Publicado: 2022-04-08

El debate sobre la desinformación en las plataformas sociales y cómo se debe vigilar es increíblemente complejo y no tiene soluciones generales. Eliminar informes claramente falsos parece ser el paso más lógico y efectivo, pero eso no siempre es tan claro, e inclinarse demasiado hacia el otro lado y eliminar demasiado puede limitar la libertad de expresión y el debate valioso.

Cualquiera de los enfoques tiene sus peligros, y hoy, el director de productos de YouTube, Neal Mohan, ha brindado su perspectiva sobre el tema y cómo YouTube busca equilibrar su enfoque sobre la desinformación con la necesidad de facilitar una plataforma abierta para todos los usuarios.

En primer lugar, al abordar específicamente la desinformación médica, el tema clave del momento, Mohan señala que YouTube ha eliminado más de un millón de videos relacionados con información sobre el coronavirus desde febrero de 2020, incluidos aquellos que promocionan curas falsas o afirman que la pandemia es un engaño.

"En medio de una pandemia global, todos deberían estar armados con absolutamente la mejor información disponible para mantenerse seguros a ellos y a sus familias".

Dicho esto, YouTube ha facilitado la difusión de una cantidad significativa de información errónea sobre el COVID. En mayo pasado, por ejemplo, un controvertido video antivacunas llamado 'Plandemic' fue visto más de 7 millones de veces en YouTube antes de que fuera eliminado.

El desafío para YouTube a este respecto, como lo es con Facebook, es la escala: con tantas personas activas en la plataforma, todo el tiempo, es difícil para YouTube actuar lo suficientemente rápido para detectar todo de manera oportuna, e incluso una un pequeño retraso en la aplicación puede generar millones de visitas más y un impacto mucho mayor.

Sobre esto, Mohan señala que de los 10 millones de videos que la plataforma elimina por infracciones de las Directrices cada trimestre, la mayoría ni siquiera alcanza las 10 vistas. Pero, de nuevo, eso son promedios, y habrá casos como 'Plandemic' que se escapen, algo que Mohan también reconoce.

"Las eliminaciones rápidas siempre serán importantes, pero sabemos que no son suficientes. En cambio, es la forma en que también tratamos todo el contenido que dejamos en YouTube lo que nos brinda el mejor camino a seguir".

En este frente, Mohan dice que otro elemento del enfoque de YouTube es garantizar que la información de fuentes confiables tenga prioridad en los elementos de búsqueda y descubrimiento de la aplicación, mientras que posteriormente busca reducir el alcance de los proveedores de menor reputación.

"Cuando las personas ahora buscan noticias o información, obtienen resultados optimizados para la calidad, no por lo sensacional que pueda ser el contenido".

Cuál es el camino correcto a seguir: la optimización para el compromiso parece ser un camino hacia el peligro a este respecto. Pero, de nuevo, el panorama de los medios modernos también puede empañar esto, con publicaciones esencialmente incentivadas a publicar contenido más divisivo y cargado de emociones para generar más clics.

Vimos esto a principios de semana, cuando los datos de Facebook revelaron que esta publicación, de The Chicago Tribune, había obtenido 54 millones de visitas solo del compromiso de Facebook en el primer trimestre de este año.

Historia del Chicago Tribune

El titular es engañoso: finalmente se descubrió que el médico había muerto por causas no relacionadas con la vacuna. Pero se puede imaginar cómo esto habría alimentado a los grupos antivacunas en The Social Network, y algunos, en respuesta, han dicho que la falla en este caso no fue de los sistemas de Facebook, que facilitaron la amplificación de la publicación, sino del propio Chicago Tribune. por publicar un titular claramente engañoso.

Lo cual es cierto, pero al mismo tiempo, todas las publicaciones saben qué impulsa el compromiso de Facebook, y este caso lo demuestra. Si desea maximizar el alcance de Facebook y el tráfico de referencia, los titulares emotivos y divisivos que generan participación, en forma de me gusta, acciones compartidas y comentarios, funcionan mejor. The Tribune obtuvo 54 millones de visitas de un solo artículo, lo que subraya una falla importante en el sistema de incentivos para los medios de comunicación.

También destaca el hecho de que incluso los medios de "reputación" pueden publicar información errónea y contenido que alimenta movimientos peligrosos, por lo que incluso con el enfoque de YouTube en compartir contenido de fuentes confiables, eso no siempre será una solución a tales problemas, como tales.

Que Mohan señala además:

"En muchos casos, la información errónea no es clara. Por naturaleza, evoluciona constantemente y, a menudo, carece de una fuente primaria que nos diga exactamente quién tiene razón. Al igual que después de un ataque, la información contradictoria puede provenir de diferentes direcciones. Consejos de colaboración colectiva incluso han identificado al culpable o a las víctimas equivocadas, con un efecto devastador. A falta de certeza, ¿deberían las empresas tecnológicas decidir cuándo y dónde establecer límites en el turbio territorio de la desinformación? Mi firme convicción es que no".

Entonces, puede ver por qué Mohan duda en presionar por más eliminaciones, una solución a menudo presionada por analistas externos, mientras que Mohan también señala la creciente interferencia de los regímenes opresivos que buscan aplastar puntos de vista opuestos mediante la censura de la discusión en línea.

“Estamos viendo un nuevo impulso inquietante en torno a los gobiernos que ordenan la eliminación de contenido con fines políticos. Y personalmente creo que estamos mejor como sociedad cuando podemos tener un debate abierto. La información errónea de una persona es a menudo la creencia profundamente arraigada de otra persona, incluyendo perspectivas que son provocativas, potencialmente ofensivas o incluso, en algunos casos, incluyen información que puede no pasar el escrutinio de un verificador de hechos".

Una vez más, las respuestas no son claras y, para las plataformas con el alcance de YouTube o Facebook, este es un elemento importante que requiere investigación y acción cuando sea posible.

Pero no resolverá todo. A veces, YouTube dejará cosas que deberían eliminarse, lo que generará más problemas potenciales en la exposición y la amplificación, mientras que otras veces eliminará contenido que muchos creen que debería haberse dejado. Mohan no niega esto, ni elude la responsabilidad por ello, y es interesante notar los matices que se tienen en cuenta en este debate cuando se trata de determinar el mejor camino a seguir.

Hay casos en los que las cosas están claras: bajo el consejo de los organismos médicos oficiales, por ejemplo, se debe eliminar la información errónea sobre el COVID-19. Pero no siempre es así como funciona. De hecho, la mayoría de las veces, las llamadas de juicio se hacen plataforma por plataforma, cuando probablemente no deberían serlo. La solución óptima, entonces, podría ser un grupo de supervisión independiente más amplio que haga llamadas en tiempo real y guíe a cada plataforma en su enfoque.

Pero incluso eso podría ser objeto de abuso.

Como se señaló, no hay respuestas fáciles, pero es interesante ver la perspectiva de YouTube sobre el debate en evolución.