UNICEF pide a gobiernos incluir en la definición de material de abuso sexual infantil el contenido generado con IA

Archivo - Varias personas usan el teléfono móvil.
Archivo - Varias personas usan el teléfono móvil. - David Zorrakino - Europa Press - Archivo
Europa Press Sociedad
Publicado: miércoles, 4 febrero 2026 19:06

   MADRID, 4 Feb. (EUROPA PRESS) -

   UNICEF ha manifiestado su "creciente preocupación" por las informaciones sobre "el rápido aumento" del volumen de imágenes sexualizadas generadas por inteligencia artificial (IA), incluidos casos en los que se han manipulado y sexualizado fotografías de niños y niñas, y ha pedido a los gobiernos que incluyan en las definiciones de material de abuso sexual infantil, el contenido generado con IA.

   "Debemos ser claros: las imágenes sexualizadas de personas menores de edad creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas. Los abusos cometidos mediante deepfake siguen siendo abusos y, aunque las imágenes sean falsas, el daño que causan es absolutamente real", ha advertido la ONG de infancia.

   Por ello, urge a todos los gobiernos a "ampliar las definiciones de material de abuso sexual infantil para incluir el contenido generado por IA, y penalizar su creación, adquisición, posesión y distribución".

   Asimismo, solicita que los desarrolladores de IA implementen "enfoques de seguridad desde el diseño y medidas de protección sólidas para evitar el uso indebido de los modelos de IA" y que las empresas digitales eviten "la circulación de material de abuso sexual infantil generado por IA, en vez de limitarse a eliminarlo después de que se haya producido el abuso".

   Además, pide que refuercen "la moderación de contenidos invirtiendo en tecnologías de detección, de modo que dicho material pueda eliminarse de inmediato, y no días después de que la víctima o su representante lo hayan denunciado". "El daño causado por el abuso de los deepfakes es real y urgente. Los niños y niñas no pueden esperar a que la legislación se actualice", ha advertido.

   Según UNICEF, los deepfakes --imágenes, vídeos o audios generados o manipulados con IA para que parezcan reales-- se utilizan "cada vez más para producir contenidos sexualizados en los que aparecen niños y niñas, incluso mediante la 'nudificación', que consiste en utilizar herramientas de IA para quitar o alterar la ropa de las fotos y crear imágenes falsas de desnudos o sexualizadas".

   Según señala la ONG, citando un estudio realizado en 11 países por UNICEF, ECPAT (siglas inglesas de Acabar con la Prostitución Infantil, la Pornografía Infantil y el Tráfico de Niños con Fines Sexuales) e INTERPOL, al menos 1,2 millones de niños y niñas revelaron que sus imágenes habían sido manipuladas para crear deepfakes sexualmente explícitos en el último año. En algunos países, esto representa 1 de cada 25 niños, lo que equivale a uno de cada aula escolar estándar.

   Además, en algunos de los países del estudio, hasta dos tercios afirmaron que les preocupa que la IA pueda utilizarse para crear imágenes o vídeos sexuales falsos, lo que, según UNICEF "subraya la urgente necesidad de reforzar las medidas de sensibilización, prevención y protección".

Contador

Últimas noticias sobre estos temas

Contenido patrocinado