Google, en conversaciones con Marvell Technology para desarollar dos nuevos chips de IA centrados en la inferencia

Recurso de la TPU de 7ª generación Ironwood
Recurso de la TPU de 7ª generación Ironwood - GOOGLE
Europa Press PortalTIC
Publicado: lunes, 20 abril 2026 10:49

   MADRID, 20 Abr. (Portaltic/EP) -

Google ha mantenido conversaciones con el fabricante de semiconductores Marvell Technology para la fabricación de dos nuevos chips de inteligencia artificial (IA) con los que el gigante tecnología buscaría cubrir sus necesidades en inferencia.

    La compañía tecnológica pretende potenciar la parte de inferencia de su inteligencia artificial, es decir, la parte en la que el modelo de IA pasa a la práctica tras el entrenamiento, con la producción de predicciones o conclusiones a partir de datos nuevos y en respuesta a una indicación.

    Para reforzar las necesidades en este área, Google ha mantenido conversaciones con Marvell Technology en busca de una colaboración para la fabricación de nuevos chips, según indican fuentes conocedoras de este asunto a The Information.

    Se trataría de dos chips, uno de memoria que trabajará junto con la unidad de procesamiento tensorial (TPU) de Google, y otro, una nueva TPU diseñada para realizar tareas de inferencia.

    Según las fuentes, esta potencial colaboración, que por el momento no se ha materializado en un acuerdo cerrado, buscaría complementar los ya existentes con los fabricantes de semiconductores Broadcom, MediaTek y TSMC.

    Las TPU de Google alcanzaron el año pasado la séptima generación con Ironwood, que está disponible de manera general desde el pasado mes de noviembre como parte de las novedades de Google Cloud.

   Estos aceleradores de IA están optimizados para el entrenamiento y la inferencia de grandes modelos, con un rendimiento máximo diez veces superior al de las TPU v5p y un rendimiento por chip más de cuatro veces superior tanto para cargas de trabajo de entrenamiento como de inferencia en comparación con TPU v6e (Trillium).

   Con Ironwood es posible integrar hasta 9.216 chips en un 'superpod', conectándolos entre sí mediante la red ICI (Inter-Chip Interconnect), que trabaja a 9,6Tb/s, permitiendo que alcancen unos 1,77 Petabytes de memoria de alto ancho de banda compartida.            

No es la única empresa tecnológica que cada vez presta más atencion a la inferencia, y no solo al entrenamiento de los modelos de IA. En enero, Microsoft presentó Maia 200 que, según dijo, Sofrece tres veces el rendimiento FP4 del Amazon Trainium de tercera generación y un rendimiento FP8 superior al del TPU de séptima generación de Google.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado