Facebook actualiza sus medidas contra la difusión de contenido problemático en grupos

Facebook activa en España y Europa las herramientas de transparencia que evitarán el abuso con los anuncios políticos
PIXABAY/CC/GERALT - Archivo
Publicado 11/04/2019 13:57:32CET

   MADRID, 11 Abr. (Portaltic/EP) -

   La red social Facebook ha actualizado sus protocolos con los que combate la difusión de contenido problemático en sus plataformas, con novedades entre las que destaca una nueva política para grupos que hace más responsables a los administradores por las violaciones de contenido, así como otras que expanden sus mecanismos de revisión y que añaden contexto adicional también a las imágenes del Feed de noticias.

   Facebook ha anunciado en un comunicado la extensión de su política contra el contenido adecuado publicado tanto en su red social homónima como en plataformas como Instagram y Messenger que, desde 2016, se basa en tres pilares: eliminar contenidos, reducir la difusión e informar.

   Dentro de su estrategia de eliminación de contenidos, Facebook ha introducido una nueva sección en el sitio web de los estándares de la comunidad donde informa cada mes de los cambios que se producen en sus políticas de contenido.

   La compañía estadounidense ha actualizado su política para grupos, haciendo más responsables a los administradores por las violaciones de los estándares, y en las próximas semanas pasará a valorar su participación, en caso de haber aprobado publicaciones inadecuadas.

   Para hacer visibles sus criterios, Facebook introducirá, también en las próximas semanas, una nueva pestaña de calidad que muestra el contenido eliminado o marcado como inapropiado, así como posibles noticias falsas encontradas en el grupo.

   Asimismo, la plataforma ya ha expandido su colaboración con expertos externos para advertir más rápido este tipo de contenidos y, dentro de su estrategia de reducción de contenidos inadecuados, reducirá la difusión de los grupos que distribuyan repetidamente contenido de desinformación.

   La clasificación de contenidos en el Feed de noticias de Facebook ha añadido también un nuevo indicador basado en los clics, con el que busca dominios web con un "número desproporcionado" de clics en Facebook en comparación con los que tienen en sus webs, lo que puede ser una señal de contenido de baja calidad.

   Por último, el tercer pilar que busca proporcionar un mayor contexto a los usuarios ha servido para introducir el botón de contexto, introducido recientemente en las publicaciones, también a las imágenes que se publican en el Feed de noticias, aunque por el momento esta es una función que se prueba solo en Estados Unidos.

MESSENGER E INSTAGRAM

   Asimismo, la red social ha añadido otras funciones como la posibilidad de eliminar los contenidos que ha publicado un usuario en un grupo después de haber salido de él, e introducirá la etiqueta de verificación también en su aplicación de mensajería Messenger.

   A esta 'app' de mensajería también llega el botón de contexto y un indicador para los mensajes reenviados, que tiene como objetivo prevenir la difusión de noticias falsas, así como una función actualizada para bloquear cuentas y controlar quién puede escribir al usuario.

   Estas novedades también afectan a Instagram, donde se mostrará el contenido sexualmente sugerente solamente a los usuarios que siguen una cuenta, pero se limitará su distribución en el Feed de la comunidad general.

Contador

Para leer más