Plataformas tecnológicas aspiran a crear "un espacio seguro" y el Gobierno aboga por "prevenir" ante "repuntes" de odio

El director de OBERAXE, Tomás Fernández, junto a responsables de plataformas tecnológicas en el I Foro contra el Odio.
El director de OBERAXE, Tomás Fernández, junto a responsables de plataformas tecnológicas en el I Foro contra el Odio. - MINISTERIO DE INCLUSIÓN
Europa Press Sociedad
Publicado: miércoles, 11 marzo 2026 15:02

MADRID 11 Mar. (EUROPA PRESS) -

Plataformas tecnológicas han abogado por crear "un espacio seguro" y de "disfrute" para los usuarios, estableciendo normas y retirando los contenidos de odio, y el Gobierno ha apostado por trabajar conjuntamente para "prevenir" estos mensajes y evitar que se repitan acontecimientos como el ocurrido el verano pasado en Torre Pacheco, en Murcia.

Así lo han indicado este miércoles durante la mesa redonda 'Tecnología, plataformas y buenas prácticas', en el marco del I Foro contra el Odio, organizado por el Ministerio de Inclusión y celebrado en la Galería de Colecciones Reales, en Madrid.

El director del Observatorio Español del Racismo y Xenofobia (OBERAXE), Tomás Fernández, ha abogado por "trabajar todos de forma conjunta, instituciones, plataformas y el tercer sector" para luchar contra el discurso de odio y ha asegurado que el grupo de trabajo con las grandes plataformas tecnológicas que acordaron crear en julio de 2025 está dando "buenos resultados".

"Desde julio del año pasado, cuando la señora ministra tuvo una reunión con las distintas plataformas, se empezó a trabajar ya con un grupo de trabajo que la verdad es que está dando muy buenos resultados, ya llevamos dos reuniones de forma trimestral, y lo mejor de todo es que tenemos nuestras propias reuniones bilaterales, contactos directos, para intentar, sobre todo que no vuelva a ocurrir lo que ocurrió en Torre Pacheco", ha subrayado Fernández.

En este sentido, ha insistido en la importancia de estar en contacto para la prevención frente a posibles difusiones de determinados mensajes de odio y ante "repuntes" en "mensajes contra personas del norte de África, de antigitanismo o de antisemitismo".

En la mesa, moderada por el periodista de El País Jaime García Cantero, también ha intervenido el director de Políticas Públicas de META para España y Portugal, José Luis Zimmermann, quien ha asegurado que su aspiración es que los usuarios encuentren un espacio "seguro" y "donde disfruten".

Para ello, ha explicado que cuentan con las "normas de comunidad", una de ellas la prohibición de los discursos de odio, el cual eliminan "con herramientas de Inteligencia Artificial" y "moderadores". En todo caso, ha señalado que el contenido de odio que encuentran es "mínimo" pues representa "uno ó dos de cada 10.000".

En la misma línea, la sénior manager de Relaciones Institucionales de TikTok para España y Portugal, Ana Abade, ha subrayado que "la seguridad es la base" para que la gente pueda "compartir" su "creatividad" y "autenticidad" en la plataforma.

A su vez, ha destacado algunas herramientas como la posibilidad de bloquear cuentas o los "banners de utilidad pública" para que, por ejemplo, cuando una persona busca "violencia machista, violencia vicaria o maltrato, le aparezca un banner del 016".

Por su parte, el director de Relaciones Institucionales y Políticas Públicas de Google, Miguel Escassi, ha apuntado que son "muy conscientes" de su "responsabilidad"; ha pedido una reflexión sobre el "balance entre protección de los usuarios y la libertad de expresión" y ha propuesto considerar la IA como una "aliada" para combatir el discurso de odio.

En concreto, sobre la forma de actuación en YouTube, ha explicado que utilizan un esquema de "4Rs: retirada de mensajes, recomendación de buenas prácticas, recompensa a creadores éticos y reducción de visibilidad de perfiles comprometidos".

Últimas noticias sobre estos temas

Contenido patrocinado