Publicado 15/04/2021 10:16CET

Twitter analizará el comportamiento de su algoritmo para detectar posibles daños no intencionales

Archivo - Twitter
Archivo - Twitter - TWITTER/TWITTER - Archivo

   MADRID, 15 Abr. (Portaltic/EP) -

Twitter ha anunciado su nuevo plan para entender la forma en que se comporta el algoritmo de su red social, con el objetivo de descubrir los potenciales daños que puedan producirse con su uso, como el sesgo racial y de género en el recorte de imágenes.

   La compañía tecnológica es consciente de que el uso de su algoritmo de aprendizaje automático puede tener un impacto en "cientos de millones de tuits al día", y que el propio diseño del sistema "puede ayudar a iniciar un comportamiento diferente" del que se pretendía que tuviera.

   Por ello, en ha informado en su blog de su plan para " evaluar los daños no intencionales posteriores o actuales en los algoritmos" que se usan en la red social para poder priorizar los problemas que en la compañía abordarán en primer lugar.

   Un equipo de trabajo interdisciplinar, el equipo 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.

   Según ha destacado la compañía, "las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas". Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter".

Contador

Para leer más