El nuevo modelo de código abierto de Xiaomi ofrece un rendimiento próximo a DeepSeek V3.2 thinking y Gemini 3 Pro

Recurso de los modelos de IA MiMo de Xiaomi
Recurso de los modelos de IA MiMo de Xiaomi - XIAOMI

   MADRID, 18 Dic. (Portaltic/EP) -

Xiaomi ha presentado MiMo-V2-Flash, un modelo de inteligencia artificial (IA) de código abierto que ofrece un rendimiento próximo al de DeepSeek V3.2 y Google Gemini 3 Pro en razonamiento, programación y escenarios de agente con eficiencia y un coste bajo.

    MiMo-V2-Flash es un modelo que utiliza la arquitectura Mixture of Experts (MoE) con 309.000 millones de parámetros y, de ellos, 15.000 millones activos, para ofrecer un procesamiento más eficiente al convertir el modelo en pequeños modelos expertos que se activan de forma selectiva dependiendo del tipo de información introducida, para realizar una tarea conjunta de forma más eficaz.

   Este modelo también adopta una arquitectura de atención híbrida en una proporción 1:5, que usa tanto la atención global como la atención de ventana deslizante (de 128 tokens). Esta última restringe el alcance de atención de cada token a una ventana local en lugar de a toda la secuencia, lo que reduce la complejidad computacional y de memoria.

   A ello se suma que MiMo-V2-Flash está preentrenado con 27 billones de tokens procedentes de fuentes de alta calidad mediante predicción multi-token, con lo que permite que el modelo use varios tokens para verificar en paralelo durante una inferencia -proceso en el que la IA hace una predicción o da una respuesta a una petición- sin aumentar el uso de memoria.

   En conjunto, ello hace que el modelo de Xiaomi sea "potente, eficiente y ultrarrápido", como indica la compañía en la página dedicada. Al compararse en evaluaciones de puntos de referencia, se destaca su sólida capacidad de razonamiento, su rendimiento en programación y escenarios agénticos, ofreciendo un rendimiento muy próximo al de DeepSeek V3.2 thinking y Google Gemini 3 Pro.

   Entre las opciones que ofrece, MiMo-V2-Flash permite alternar entre un modo de razonamiento, que dedica tiempo a ofrecer una respuesta razonada, y otro que ofrece la respuesta más rápido, y puede generar páginas web HTML funcionales con un solo clic.

   Admite, además, una ventana de contexto de hasta 256.000 tokens, con lo que puede completar las tareas solicitas en "cientos de rondas de interacciones con agentes y llamadas a herramientas", según Xiaomi.

   La compañía también ha destacado el bajo coste de uso de este modelo, ya que asegua que ofrece una inferencia a 150 tokens por segundo con un coste ultrabajo de 0,1 dólares por millón de tokens de entrada y 0,3 dólares por millón de tokens de salida.

   MiMo-V2-Flash es de código abierto y los pesos de este modelo pueden encontrarse en Hugging Face y en Xiaomi MiMo API Open Platform.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado