La AEPD avisa de que el "umbral de prudencia" al generar imágenes o vídeos con IA debe ser "máximo" con menores de edad

Archivo - Un móvil con las siglas AI de Artificial Intelligence (Inteligencia Artificial), a 24 de octubre de 2025, en Barcelona, Cataluña (España). Según un estudio de la Universidad Internacional de La Rioja (UNIR), España se sitúa a la cabeza del desar
Archivo - Un móvil con las siglas AI de Artificial Intelligence (Inteligencia Artificial), a 24 de octubre de 2025, en Barcelona, Cataluña (España). Según un estudio de la Universidad Internacional de La Rioja (UNIR), España se sitúa a la cabeza del desar - David Zorrakino - Europa Press - Archivo
Europa Press Sociedad
Publicado: martes, 13 enero 2026 12:23

MADRID 13 Ene. (EUROPA PRESS) -

La Agencia Española de Protección de Datos (AEPD) avisa de que el "umbral de prudencia" al generar imágenes o vídeos con Inteligencia Artificial (IA) debe ser "máximo" cuando se trate de menores de edad, personas mayores, con discapacidad u otras situaciones de especial vulnerabilidad.

Así lo advierte la Agencia que preside Lorenzo Cotino en la nota informativa 'El uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles', recogida por Europa Press.

En el documento, la AEPD hace hincapié en que "incluso cuando una plataforma aplica salvaguardas específicas, un uso aparentemente inocente puede desencadenar acoso, estigmatización o riesgos graves en el entorno social del afectado".

La Agencia señala que aunque muchas plataformas limitan "activamente" la generación de contenido sexualizado --desnudez añadida, erotización, insinuación sexual o escenas íntimas--, "estos riesgos pueden persistir en escenarios residuales o a través de usos indirectos, con una gravedad práctica elevada por el daño potencial y por la facilidad de chantaje, acoso o difusión no controlada".

Por otro lado, la Agencia explica que como norma general el Reglamento General de Protección de Datos (RGPD) no se aplica a personas fallecidas. Sin embargo, considera que "no debe perderse de vista" que la manipulación y difusión mediante IA de la imagen de una persona fallecida "puede causar daños intensos a familiares y allegados, activando derechos afines a la protección de datos como el honor, la intimidad, la propia imagen o la memoria familiar".

Desde el punto de vista de la persona afectada, la AEPD indica que el hecho de que una fotografía estuviera en un grupo de mensajería, en una red social o se hubiera enviado una vez "no equivale a una autorización general para cargarla en herramientas de IA, transformarla, generar variantes o difundir el resultado".

En este sentido, aclara que "cuanto más se aleje el uso del contexto original y cuanto menor sea el control" de la persona sobre esa utilización, "más exigente debe ser la base de legitimación y mayor el nivel de riesgo".

RETIRADA DEL CONTENIDO Y SUS COPIAS

Además, el organismo estatal subraya que el riesgo crece si no es posible retirar "de forma efectiva" el contenido y sus copias, o si el material se vuelve fácilmente localizable. "Las medidas de retirada ofrecidas por las plataformas no siempre garantizan la eliminación total de copias o reenvíos, por lo que la reversibilidad práctica del daño sigue siendo un elemento central", apostilla.

En el documento, la AEPD indica que, con carácter general, muchos usos triviales o humorísticos de imágenes o vídeos generados con IA "no presentan relevancia jurídica y en muchos casos están amparados legalmente". No obstante, advierte de que el riesgo surge cuando el contenido atribuye a una persona hechos, conductas o escenas que no ocurrieron y que resultan verosímiles o socialmente creíbles.

"Incluso cuando la generación inicial está limitada por la plataforma, la imagen o el vídeo pueden ser reutilizados, reinterpretados o difundidos de forma que terceros los perciban como reales, afectando de manera significativa a la reputación, las relaciones personales o la posición social o profesional de la persona", explica, para después añadir que, en estos casos, el perjuicio puede ser "grave" y "exige una valoración rigurosa".

De esta forma, la AEPD insiste en que una imagen o un vídeo generados con IA "pueden causar daño si se presentan fuera de su contexto original o acompañados de textos, títulos o comentarios que alteran su significado, un riesgo que no queda neutralizado por los filtros de generación del proveedor".

Al subir una imagen o un vídeo a un sistema de IA, recuerda la Agencia, el contenido deja de estar bajo el control exclusivo del usuario que ha subido la imagen y de la persona afectada, y pasa a ser tratado por un proveedor externo.

Asimismo, asegura que muchos sistemas de IA conservan temporalmente las imágenes o vídeos subidos para poder procesarlos, gestionar errores, garantizar el funcionamiento del servicio o mantener copias de seguridad. "Esta retención suele ser invisible y no verificable para la persona afectada, lo que dificulta saber si la imagen ha sido realmente eliminada y durante cuánto tiempo ha permanecido almacenada", apunta.

Entre otros riesgos no visibles, la Agencia identifica la intervención de múltiples actores, la generación de metadatos o el riesgo de identificación persistente en sistemas capaces de reutilizar rasgos de una persona en múltiples contenidos.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado