Niñas grabando vídeo. - FREEPIK
MADRID, 11 Dic. (Portaltic/EP) -
TikTok permite la publicación de vídeos sexualizados de niñas y adolescentes, tanto generados por Inteligencia Artificial (IA) como robados de cuentas reales, para atraer a los usuarios a este contenido y fomentar su venta o intercambio mediante otras plataformas como Telegram, impulsando este tipo de prácticas e incumpliendo la Ley de Servicios Digitales (DSA).
A pesar de que la plataforma de ByteDance es una de las más utilizadas por los usuarios a nivel global, en el caso de España, la favorita de los menores de 18 años, se presenta como un espacio donde es muy sencillo acceder a contenido de menores sexualizadas desde múltiples perfiles sin apenas impedimentos de la red social, que incluso recomienda estas cuentas y facilita comercializar con este contenido, a través de los comentarios.
Así se desprende de una investigación elaborada por Maldita.es, donde han analizado prácticas como la creación de imágenes de niñas adolescentes sexualizadas mediante IA, así como el robo de contenido creado por menores reales, posteriormente publicado en TikTok, y cómo todo ello sirve de acceso a la pornografía infantil.
Concretamente, el estudio refleja el comportamiento de 40 cuentas de TikTok que disponen de más de 1,5 millones de seguidores y que, en total, suman más de 5.200 publicaciones de vídeos de menores sexualizados generados con IA, así como 3.600 vídeos más de menores reales.
En los vídeos analizados creados por IA generativa de menores sexualizadas, habitualmente se muestran niñas o adolescentes con bikinis, uniformes escolares o ropa ajustada, llevando a cabo diversas actividades. Sin embargo, los vídeos se enfocan en mostrar pechos y piernas, así como movimientos saltando.
Respecto a las cuentas que publican vídeos de menores reales, recopilan vídeos de chicas que publican contenido en sus propias cuentas de TikTok, comúnmente en uniforme o espacios escolares. Además, en algunas ocasiones aparece la marca de agua de TikTok con el nombre de las niñas o adolescentes en cuestión, por lo que da acceso a sus perfiles reales.
Los comentarios de este tipo de vídeos, tanto reales como con IA, no se quedan atrás. En la mayoría, los usuarios comentan cuestiones como la apariencia de la menor detallando que quieren contactar con ella, emojis, así como publican imágenes de escenas de sexo oral u otro tipo de prácticas relacionadas.
VENDER PORNOGRAFÍA CON IA Y REAL
Como resultado de todo ello, se ha comprobado que, detrás de estos vídeos de TikTok, el verdadero objetivo es dirigir a los usuarios a otros sitios web donde se vende pornografía infantil creada por IA o real.
Por tanto, muchas de las cuentas llevan a cabo estas prácticas para monetizar su contenido, ya sea a través del sistema de suscripción de la propia plataforma, donde las cuentas cobran una media de cuatro euros por contenido exclusivo y TikTok se puede quedar hasta el 50 por ciento de las ganancias, como a través de enlaces a otros sistemas de mensajería como Telegram o páginas webs donde se vende e intercambia pornografía infantil.
Como se pone de relieve en el informe, varias de las cuentas redirigen a los usuarios a sitios web concretos donde ofertan este contenido. Además, en los comentarios de los vídeos, otros usuarios también promocionan cuentas de Telegram que venden pornografía infantil real.
Para ello, se ha identificado que publican comentarios en los vídeos con la palabra "cambio", que hace referencia al intercambio de pornografía infantil en servicios como Telegram. Por ejemplo, en un vídeo de una niña pequeña en traje de baño jugando en un parque, que cuenta con más de 655.000 visualizaciones, los comentarios tenían términos como "compro", "cambio", "cambio y vendo" o "tlg" (Telegram).
Como han podido comprobar contactando con 14 de las cuentas que se promocionan en Telegram, a través de dicha plataforma de mensajería, 11 de ellas enviaron automáticamente un menú donde enumeraban los contenidos que tenían a la venta. Igualmente, siete cuentas enviaron pornografía infantil sin siquiera solicitarlo, tras lo que fueron denunciadas a la Policía Nacional.
Por tanto, la plataforma de ByteDance facilita que los usuarios puedan acceder a pornografía infantil en un par de clics, fomentando su uso a posibles pedófilos.
EL PAPEL DE TIKTOK PARA PROMOCIONAR ESTE CONTENIDO
TikTok también tiene un papel relevante en la promoción de estos contenidos. Así, para la investigación, desde Maldita.es utilizaron una cuenta de prueba, a la que el algoritmo de TikTok recomendó en reiteradas ocasiones más contenido que sexualizaba menores.
Estas recomendaciones se encontraron tanto en la sección de 'Para ti', como en los resultados del buscador de la red social, lo que provocó que la cuenta se metiese en un bucle de publicaciones de niñas y adolescentes sexualizadas. Incluso, TikTok llegó a ofrecer sugerencias de búsqueda como "Colegialas 13 inocentes", "colegialas bailando", "mujercitas" o "chicas bonitas y guapas", tras visualizar unos cuantos vídeos relacionados.
Siguiendo esta línea, la red social también recomendó la posibilidad de suscribirse al tablón de noticias de algunas cuentas de este tipo de contenido, esto es, un canal para que los creadores se comuniquen con sus seguidores.
Esto se debe a que el algoritmo de recomendación de TikTok se basa en los gustos y hábitos de los usuarios para sugerir contenido. Por tanto, si un usuario busca este tipo de vídeos en la red social, la plataforma continuará recomendándoselos y mostrando cada vez más vídeos de niñas reales o creadas con IA de forma sexualizada.
Todo ello se contrapone a la DSA, que dicta que los servicios 'online' tienen que evaluar si sus funciones o contenidos suponen algún tipo de riesgo para los usuarios menores. En este caso, sus algoritmos o sus sistemas de moderación de contenidos. Además, esta norma también impone a las plataformas a retirar contenidos que no sean legales, siempre que tengan conocimiento de ello, ya sea por sus sistemas de detección como por denuncias por parte de los usuarios o investigaciones externas.
TIKTOK NO ELIMINA LAS CUENTAS DENUNCIADAS
Estas cuentas de TikTok actúan en contra de sus Términos del servicio y Normas de la Comunidad, que prohíben sexualizar a menores con contenido de IA, así como "sexualizar o fetichizar a un menor" en contenido real.
Por tanto, desde Maldita.es han detallado que han denunciado 15 de las cuentas analizadas mediante los canales que ofrece la propia plataforma. Un proceso sencillo que se inicia pulsando el botón de compartir y, tras ello, la opción de 'Denunciar' y especificando el motivo.
Sin embargo, se ha evidenciado que todas estas cuentas seguían disponibles tres días después de la denuncia. En concreto, TikTok consideró que no había violación de sus normas en ninguna de las cuentas, excepto en una, donde aplicó restricciones que no impedían seguir accediendo a los vídeos.
Lo mismo se aplicó para los vídeos y los comentarios de las publicaciones, sin éxito. De 60 vídeos denunciados, TikTok solo eliminó siete vídeos y deshabilitó la recomendación de 'Para ti' en 11 de ellos.
En caso de que la plataforma continúe tolerando y promocionando este vídeo, desde Maldita.es apuntan a que TikTok se puede enfrentar a multas de la DSA, independientemente de si el contenido proviene del extranjero, al incumplir gravemente sus pautas y asumir la responsabilidad como proveedor de alojamiento y difusión de contenido ilegal, según ha apuntado el abogado especializado en protección de datos, IA y derecho digital, Marcos Judel, al citado medio.
Con todo ello, conviene tener en cuenta que, si una menor es víctima de estos comportamientos, se puede denunciar la vulneración al derecho a la imagen por la vía civil, así como el tratamiento de sus datos personales a la Agencia Española de Protección de Datos (AEPD), como ha resaltado el medio citado.