Archivo - Vista de la fachada de la Ciutat de la Justicia. - David Zorrakino - Europa Press - Archivo
BARCELONA, 6 Oct. (EUROPA PRESS) -
Tres de los responsables de Majorel SP Solutions, S.A.U., empresa con sede en Barcelona dedicada a moderar y filtrar contenidos de la plataforma TikTok, han declarado este lunes ante el Juzgado de Instrucción número 9 de Barcelona y han negado que el contenido "altamente perturbador" se revisara desde la capital catalana.
Han prestado declaración a raíz de que una empleada presentara una querella contra 4 de los responsables de esta empresa por delitos contra los trabajadores, contra la integridad moral y por lesiones graves por imprudencia, alegando que la compañía imponía a sus empleados unas "condiciones laborales absolutamente inhumanas" e inaguantables para cualquier ser humano.
Por esta querella --que ya aglutina a 4 trabajadores-- han sido citados el Director General, el Manager de Operaciones, y uno de los responsables de Recursos Humanos de Majorel SP Solutions; el cuarto, que se ha ausentado por cuestiones médicas, lo hará el 3 de noviembre.
Los querellados han negado que los moderadores de Barcelona visualizaran contenido "altamente perturbador" de TikTok, tarea que han dicho que se realiza fuera de España, aunque sin concretar dónde, ha explicado el abogado Francesc Feliu, que representa a la querellante, a Europa Press.
Según el letrado, han afirmado que el contenido extremadamente violento era "residual" en la sede de Barcelona y que suponía aproximadamente un 1% del total que tenían que revisar los empleados de la empresa subcontratada.
Preguntados sobre cómo se discriminaba el contenido perturbador del que no lo era, han dicho que es un tema "técnico" de la empresa que desconocen, por lo que previsiblemente se ampliará la querella contra otros responsables para que expliquen cuáles eran estos criterios.
Sobre por qué la empresa no tenía un plan de riesgos laborales, un hecho constatado por Inspección del Trabajo, han dicho que entre 2019 y 2021 TikTok era una plataforma de música y que el formato cambió a raíz de la pandemia, cuando los usuarios comenzaron a compartir "más cosas".
El hecho de negar que los empleados estuvieran expuestos a contenido de extrema violencia, una estrategia seguida en otros casos similares, trata de desacreditar que las secuelas psicológicas de los empleados deriven del trabajo al que estuvieron expuestos, indican fuentes judiciales consultadas.
En la querella figuran como responsables civiles subsidiarios las empresas Majorel, Tiktok Technology Limited y su filial Tiktok Information Technologies Spain, por lo que la plataforma TikTok ha enviado a su representante legal este lunes.
NIEGA QUE SE LE IMFORMARA
La empleada, que comenzó a trabajar en la empresa en 2019, asegura que fue contratada como "teleoperadora" y que no recibió formación a nivel preventivo frente a los riesgos psicosociales inherentes al puesto que iba a desempeñar moderando los contenidos para Tik Tok.
De hecho, sostiene que "jamás" se le indicó que debía visualizar contenidos sumamente violentos y, menos aun, de forma constante a lo largo de su jornada laboral.
Según la querella, comenzó revisando vídeos del mercado alemán y después del español, donde filtraba contenidos reportados por los usuarios que estaban catalogados "con el nivel de violencia más extremo", que tenían que ser visualizados íntegramente y que tenían una duración de entre 1 y 4 minutos.
Precisa que la compañía "minimizaba" este detalle tanto en las entrevistas de trabajo como en las posteriores sesiones de entrenamiento que realizaban los empleados una vez contratados y que se les ocultaba que el puesto era para moderar contenidos de TikTok.
55 MINUTOS
Asegura que trabajaba 14 horas con tan solo 5 minutos de descanso por hora, de forma que durante los 55 minutos restantes tenía que visualizar material "altamente sensible y perturbador" como vídeos de asesinatos, decapitaciones, descuartizamientos, violaciones, zoofilia, pornografía infantil, abusos a menores, desmembramientos, suicidios en directo, torturas y terrorismo.
Los 5 minutos de descanso no eran suficientes, según la trabajadora, como para descansar y tampoco cabía la posibilidad de un parón extra si resultaba "profundamente" impactada por algún vídeo en concreto.
Añade que la carga de trabajo era "extremadamente alta", de forma que los trabajadores podían llegar a visualizar entre 800 y 1.200 vídeos violentos en un solo día.
Afirma que los querellados "conocen perfectamente que los moderadores de contenido están sometidos a graves riesgos para su salud mental", tanto por el tipo de contenido audiovisual que deben moderar como por las condiciones laborales, las exigencias de calidad y productividad.
Por todo ello añade que, incluso antes de contratar a los moderadores, ya saben que muchas de estas personas enfermarán con graves patologías psíquicas, textualmente.
DE BAJA DESDE 2023
En 2023 la trabajadora obtuvo una baja por incapacidad temporal, después de acudir a urgencias con ataques de pánico, mareos y vómitos al no aguantar más "la exposición a este contenido altamente sensible por haber desarrollado un trastorno mental".
Ese mismo año, presentó varias denuncias ante la Inspección de Trabajo y de la Seguridad Social de Barcelona para dar a conocer las condiciones de trabajo, la ausencia de descanso, el tipo de contenido visualizado y la ausencia de medidas preventivas, así como el hecho de que su puesto estaba erróneamente clasificado como de "teleoperadora".
Esto dio pie a un acta de Inspección de Trabajo en 2024 que concluía que hay una causa-efecto entre la omisión de medidas de prevención y las secuelas psíquicas sufridas por la trabajadora, que motivaron su baja laboral por incapacidad temporal.
Sostiene que la empresa no adoptó medidas técnicas u organizativas para reducir el impacto de la exposición, como filtros visuales o distribución equilibrada del contenido sensible, y que "no tomó las medidas necesarias para proteger la seguridad y salud de la trabajadora frente a los riesgos psicosociales inherentes a su labor".
Además, en 2025 la Seguridad Social determinó que esta incapacidad laboral era derivada de un "accidente laboral" y no de una enfermedad común, por lo que si el caso llegase a juicio la empresa podría tener que indemnizar a la trabajadora.
La querella también subraya que el caso de esta moderadora "no es un tema aislado, sino que los gigantes de la tecnología" operan en el mundo entero a través de la subcontratación de otras empresas.