Investigadores de Apple desarrollan modelos de lenguaje multimodal de hasta 30.000 millones de parámetros

Archivo - Inteligencia Artificial.
Archivo - Inteligencia Artificial. - PIXABAY - Archivo
Publicado: lunes, 18 marzo 2024 12:59

   MADRID, 18 Mar. (Portaltic/EP) -

Apple ha trabajado en una familia de modelos de lenguaje de gran tamaño multimodal (MLLM, por sus siglas en ingles) denominada MM1, que demuestra tener capacidad de razonar en una cadena de pensamiento de pocas indicaciones para el aprendizaje de texto y el razonamiento de múltiples imágenes.

MM1 es una familia de modelos multimodales que ha entrenado un equipo de Apple. Admite hasta 30.000 millones de parámetros, con variantes tanto de modelos densos como de modelo de mezcla de expertos, en el que se ha seguido un preentrenamiento a gran escala con un un ajuste supervisado posterior basado en exprimentos entrenados.

   Este tipo de preentrenamiento permite que MM1 realice predicciones en contexto y demuestre razonamiento en imágenes múltiples y en cadena de pensamiento de pocas indicaciones. Esto es, desde realizar funciones matemáticas básicas y seguir instrucciones y razonamiento a través de las imágenes a demostrar sentido común y conocimiento de palabras sobre objetos cotidianos, como explican en el texto de la investigación publicado en Arxiv.

    En la base de esta familia de modelos se encuentra el estudio de la importancia de los componentes de arquitectura y la elección de datos, así como de los codificadores de imágenes y el conector de lenguaje de visión.

    La finalidad de esta investigación es la construcción de un modelo de lenguaje grande multimodal de alto rendimiento, con el que esperan "ayudar a la comunidad a construir modelos sólidos más allá de la cualquier modelo específico, arquitectura o estrategia de datos".

Leer más acerca de: