OpenAI comparte las medidas con las que busca evitar los usos malintencionados de su IA en las elecciones

Archivo - Logo de OpenAI.
Archivo - Logo de OpenAI. - OPENAI - Archivo
Actualizado: miércoles, 17 enero 2024 10:45

   MADRID, 17 Ene. (Portaltic/EP) -

   La firma tecnológica OpenAI ha compartido los trabajos que está realizando para evitar el uso malintencionado de sus sistemas de inteligencia artificial (IA) en los procesos electorales que en 2024 se celebrarán en distintas partes del mundo.

   OpenAI no quiere que sus sistemas de IA se usen de forma malintencionada durante las citas electorales que se celebrarán a lo largo de 2024, como las del Parlamento Europeo en junio o las presidenciales de Estados Unidos en noviembre.

   La compañía reconoce que la IA es una tecnología nueva que no tiene “precedentes”, pero también asegura que sus equipos han empezado a prepararse para las elecciones de este año, con un enfoque que busca “elevar la información electoral precisa, aplicar políticas mesuradas y mejorar la transparencia”, como recoge en su blog oficial.

   “Tenemos un esfuerzo multifuncional dedicado al trabajo electoral, que reúne la experiencia de nuestros sistemas de seguridad, inteligencia de amenazas, equipos legales, de ingeniería y de políticas para investigar y abordar rápidamente posibles abusos”, añaden.

   Estos trabajos anticiparse y prevenir el abusos “relevantes” de sus sistemas de IA, como pueden ser el 'deep fake' engañoso, una manipulación de vídeos, fotografías y audio con resultados muy realistas, pero también las operaciones de influencia a escala o los 'chatbots' que se hacen pasar por candidatos.

   Por ejemplo, aseguran que han introducido en DALL·E barreras que impiden que pueda aceptar la generación de imágenes de personas reales, incluidos los candidatos.

   También están trabajando en la forma de mostrar el origen de una imagen, para que las personas puedan detectar y evaluar aquellas generadas por una herramienta de IA. En este sentido, pretenden implementar las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido para las imágenes generadas por DALL·E 3.

   También están probando una nueva herramienta que detecta las imágenes que han sido creadas usando DALL·E, incluso si estas han sido modificadas. Y en lo que respecta a su 'chatbot' ChatGPT, los usuarios próximamente tendrán acceso a informes de noticias en tiempo real, en los que se incluirán atribuciones y enlaces.

Leer más acerca de: