MADRID, 10 Abr. (Portaltic/EP) -
YouTube ha mostrado su apoyo a la Ley NO FAKES estadounidense, que establece contenciones y aborda los daños asociados al contenido generado por inteligencia artificial (IA) que representa personas reales.
La plataforma de vídeo en 'streaming' ve en la IA una "herramienta poderosa" que puede ayudar a impulsar la creatividad, y por ello no prohibe su uso. Pero sabe que también se usa para dañar a las personas, sobre todo con los contenidos generados que replican la imagen y la voz de manera realista, lo que se conoce como 'deepfake'.
En este escenario, considera que "las plataformas tienen la responsabilidad de abordar estos desafíos de forma proactiva" y por ello, además, de crear herramientas de control y lanzar un sistema de privacidad que aborde la gestión del contenido sintético, también creen que es importante apoyar los proyectos "que abordan lagunas legales" en torno a este tipo de contenidos.
En Estados Unidos, Google ya apoya TAKE IT DOWN Act, que busca dotar de herramientas a las víctimas de "imágenes explícitas no consensuadas", como los 'deepfakes' pornográficos, para que puedan combatir el daño generado; incluye penas para quienes difunden conscientemente este material y obliga a las plataformas digitales a eliminarlo.
Ahora, YouTube ha anunciado su apoyo a Ley NO FAKES Act, al considerar que "se centra en la mejor manera de equilibrar la protección con la innovación: otorgando a las personas la facultad de notificar a las plataformas sobre las imágenes generadas por IA que consideren que deben eliminarse", como explica en su blog oficial.
La compañía defiende que la notificación es "fundamental" porque ayuda a las plataformas "distinguir entre contenido autorizado y falsificaciones dañinas" con el fin de tomar decisiones informadas.
La ley, presentada por por los senadores Chris Coons (demócrata por Delaware) y Marsha Blackburn (republicana por Tennessee), pretende abordar los daños asociados con las réplicas digitales no autorizadas, que pueden, además, utilizarse para engañar o tergiversar hechos de la realidad.