Archivo - Una persona prueba el asistente virtual DeepSeek en una imagen de archivo. - Eduardo Parra - Europa Press - Archivo
CÁDIZ 28 Abr. (EUROPA PRESS) -
Investigadores de la Universidad de Cádiz (UCA) han liderado un estudio científico que plantea una nueva herramienta para reducir el impacto energético de los modelos de lenguaje de gran tamaño, como los usados por chatGPT o Gemini, tecnologías cada vez más presentes en asistentes virtuales, educación o investigación científica.
El trabajo, publicado en la revista Future Generation Computer Systems, propone optimizar el software que ejecuta estos sistemas para mejorar su rendimiento sin necesidad de modificar los propios modelos de inteligencia artificial (IA), ha indicado la UCA en una nota.
El crecimiento de estos modelos ha supuesto un avance significativo en la interacción con la tecnología, pero también ha generado "una elevada demanda energética y computacional", especialmente durante el proceso de generación de respuestas. En concreto, se ha expuesto que el consumo diario producido por las consultas a modelos como chatGPT "equivale al de miles de hogares", y provoca una cantidad de emisiones "similar a las de un automóvil al recorrer 80.000 kiómetros, casi dos vueltas al mundo".
El trabajo realizado desde la UCA aborda el reto de reducir el impacto medioambiental de estos modelos de IA desde una perspectiva innovadora centrada en los motores de inferencia, es decir, los programas que utilizan los modelos IA ya entrenados, como chatGPT, para producir respuestas en tiempo real.
La propuesta se basa en una herramienta automática capaz de optimizar el código de estos motores mediante un algoritmo genético inspirado en los procesos de evolución natural. Este sistema explora de forma inteligente un gran número combinaciones de mejoras en el software y selecciona aquellas que permiten un uso más eficiente del hardware, generando versiones optimizadas que reducen el consumo energético y aceleran la ejecución.
Las pruebas realizadas en el estudio con modelos de lenguaje de diferentes tamaños muestran "resultados relevantes". En concreto, se logró reducir el consumo energético en más de un 13% y el tiempo de ejecución en cerca de un 20%, ahorros que suponen "mejoras significativas" frente a las optimizaciones genéricas que se aplican hoy en día.
A diferencia de las estrategias existentes, centradas en reducir el tamaño o la complejidad de los modelos, y por tanto su capacidad de respuesta, este trabajo propone mejorar su eficiencia actuando directamente sobre el software que los ejecuta, lo que permite avanzar hacia una inteligencia artificial "más sostenible y ágil" sin afectar a su funcionamiento.
Según la UCA estos resultados abren nuevas líneas de investigación orientadas a reducir el impacto ambiental de la inteligencia artificial y contribuyen al desarrollo de tecnologías más eficientes y respetuosas con el entorno en un contexto de creciente expansión de estos sistemas a gran escala.
El trabajo ha sido realizado por los investigadores Javier Jareño, José Miguel Aragón-Jurado, Juan Carlos De La Torre, Patricia Ruiz y Bernabé Dorronsoro, todos ellos pertenecientes a la Escuela Superior de Ingeniería de Cádiz y al grupo de investigación Graphical Methods, Optimization and Learning (GOAL).
La financiación de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía ha hecho posible la realización de este trabajo en el marco del proyecto gCODE.