La UPO de Sevilla participa en el proyecto AI-Fuse para facilitar que los robots comprendan y operen en el mundo real

Robot del programa AI-Fuse en el que participa la Universidad Pablo de Olavide de Sevilla.
Robot del programa AI-Fuse en el que participa la Universidad Pablo de Olavide de Sevilla. - UNIVERSIDAD PABLO DE OLAVIDE
Europa Press Andalucía
Publicado: miércoles, 11 febrero 2026 12:19

SEVILLA 11 Feb. (EUROPA PRESS) -

La Universidad Pablo de Olavide de Sevilla (UPO) ha destacado su participación en el proyecto de investigación en el ámbito de la inteligencia artificial AI-Fuse, centrado en la comprensión de escenas (Scene Understanding), con la finalidad de que la IA "sea capaz de explicar qué ocurre en imágenes y vídeos de forma similar a como lo haría un ser humano".

Este proyecto está coordinado por la Universidad de Zaragoza, y con la colaboración del Cima Universidad de Navarra, y nace con el objetivo de desarrollar algoritmos generales de comprensión de escenas, según ha señalado la entidad universitaria en una nota.

Se trata de uno de los veinte consorcios seleccionados, entre más de doscientos presentados, a la convocatoria de la Agencia Estatal de Investigación del Ministerio de Ciencia, Innovación y Universidades para proyectos de inteligencia artificial. Con un enfoque interdisciplinar, el objetivo final del consorcio es "desarrollar herramientas basadas en IA capaces de analizar imágenes y vídeos y explicar el contenido de cualquier escena, sin limitarse a un solo campo".

En este sentido, AI-Fuse probará su eficacia en tres áreas: robótica, biología celular y monitorización ambiental, utilizando datos reales proporcionados por colaboradores estratégicos. Para ello, el Service Robotics Laboratory de la Universidad Pablo de Olavide desarrolla el subproyecto AI-FUSE-ROBOT, que busca conseguir que los robots operen de forma autónoma y robusta en entornos con personas.

La UPO ha señalado que los robots actuales "suelen tener dificultades ante escenas concurridas y dinámicas, y los modelos de IA se enfrentan a las limitaciones de potencia de cálculo a bordo de los robots y a la falta de datos de entrenamiento".

"Uno de los objetivos de nuestro subproyecto es construir robots que se muevan con facilidad entre personas, y que interaccionen de modo natural con ellas, lo que requiere de una capacidad de comprensión del entorno mucho más cercana a la humana" ha señalado el catedrático de Ingeniería de Sistemas y Automática e investigador principal del Service Robotics Laboratory, Luis Merino.

Con este objetivo, AI-Fuse-Robot introduce tres "innovaciones clave": fusión sensorial avanzada, de modo que los robots combinarán visión artificial con LIDAR (Light Detection and Ranging) y otros sensores, para detectar a las personas, y seguir y predecir sus movimientos; integración de datos reales, simulaciones y aprendizaje auto supervisado para reducir la necesidad de datos; y modelos de IA eficientes, optimizándolos de forma que estos puedan ejecutarse directamente en el robot, permitiendo respuestas en tiempo real sin depender de la nube.

Asimismo, AI-Fuse ha anunciado el desarrollo nuevas herramientas y conjuntos de datos de prueba (benchmarking) que apoyen el avance en el desarrollo de estas técnicas. El consorcio cuenta con una financiación de 1,2 millones de euros y trabajará en el proyecto durante los tres próximos años. Esta financiación procede del Ministerio de Ciencia, Innovación y Universidades y la Agencia Estatal de Investigación.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado