Multiverse Computing capta 189 millones de euros para su tecnología de compresión de modelos de IA

En La Imagen (De Izda. A Drcha.):  Román Orús, Cofundador Y Director Científico De Multiverse Computing, Enrique Lizaso Olmo, Fundador Y CEO De Multiverse Computing Y Samuel Mugel, CTO De Multiverse Computing.
En La Imagen (De Izda. A Drcha.): Román Orús, Cofundador Y Director Científico De Multiverse Computing, Enrique Lizaso Olmo, Fundador Y CEO De Multiverse Computing Y Samuel Mugel, CTO De Multiverse Computing. - MULTIVERSE COMPUTING
Europa Press País Vasco
Publicado: jueves, 12 junio 2025 13:41

SAN SEBASTIÁN 12 Jun. (EUROPA PRESS) -

La compañía Multiverse Computing, con sede en San Sebastián, ha captado 189 millones de euros para acelerar la expansión de su tecnología capaz de comprimir modelos de Inteligencia Artificial (IA).

En un comunicado, Multiverse Computing, que ha desarrollado el pasado año CompactifAI, una tecnología de compresión capaz de reducir el tamaño de los modelos de lenguaje de gran tamaño (LLMs) hasta en un 95%, ha anunciado esta ronda de financiación de 189 millones de euros (215 millones de dólares).

La ronda de Serie B está liderada por Bullhound Capital y cuenta con el respaldo de inversores como HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba y Capital Riesgo de Euskadi-Grupo SPRI.

La compañía ha subrayado que esta inversión "permitirá acelerar la adopción generalizada de la tecnología, haciendo frente a los elevados costes que hoy limitan la implementación de modelos de los LLMs, y revolucionar así el mercado de inferencia de IA, valorado en 106.030 millones de dólares".

Además, ha explicado que los LLMs suelen ejecutarse en infraestructuras especializadas basadas en la nube, "lo que eleva considerablemente los costes de los centros de datos". Las técnicas de compresión tradicionales "intentan mitigar estos desafíos, pero los modelos resultantes tienden a ofrecer un rendimiento muy inferior al de los LLMs originales", añaden desde Multiverse Computing.

Sin embargo, las mismas fuentes subrayan que el modelo CompactifAI "genera versiones altamente comprimidas de los modelos LLM de código abierto más avanzados del mercado, que conservan la precisión original, funcionan entre cuatro y 12 veces más rápidos y permiten reducir los costes de inferencia entre un 50% y un 80%".

El fundador y director ejecutivo de Multiverse Computing, Enrique Lizaso, ha afirmado que "hasta ahora se asumía que reducir el tamaño de los LLMs implicaba sacrificar rendimiento" pero Multiverse "está cambiando esa idea". "Con un grupo único de inversores expertos y estratégicos a nivel global, y con Bullhound Capital como inversor principal, ahora podemos seguir avanzando en nuestra apuesta por ofrecer modelos de IA comprimidos con un rendimiento excepcional y una infraestructura mínima", ha añadido.

Últimas noticias sobre estos temas

Contenido patrocinado