Nvidia presenta el superchip GH200 con 200 exaflops de rendimiento de IA para la investigación científica

Superchip GH200
Superchip GH200 - NVIDIA
Publicado: lunes, 13 noviembre 2023 15:43

   MADRID, 13 Nov. (Portaltic/EP) -

Nvidia ha presentado sus novedades para la supercomputación, que incluyen la GPU HGX H200 con arquitectura Hopper que, cuando se combina con una CPU Nvidia Grace, da como resultado el superchip Grace Hopper GH200, con 200 exaflops de rendimiento de IA.

   El procesador gráfico HGX H200 se basa en la arquitectura Hopper, que mejora el rendimiento, e incluye núcleos NVIDIA H200 Tensor y la tecnología de memoria HBM3e, una configuración pensada para acelerar los trabajos con IA generativa y los grandes modelos de lenguaje.

   En concreto, H200 ofrece 141GB de memoria a 4,8 TB por segundo, y duplica (2,4x) el ancho de banda de su predecesor, Nvidia A100, como ha detallado la compañía tecnológica en el marco de la conferencia de computación SC23, y recoge en una nota de prensa.

   La mejora en el rendimiento que introduce la arquitectura Hopper permite duplicar la velocidad de inferencia en Llama 2, el modelo de lenguaje de gran tamaño de Meta que consta de 70.000 millones de parámetros.

   También permite avanzar en las cargas de trabajo de la computación alto rendimiento con la tecnología de interconexiones de alta velocidad NVIDIA NVLink y NVSwitch. Puede encontrarse en configuraciones de cuatro y ocho vías, siendo esta última la que proporciona más de 32 petaflops de computación de aprendizaje profundo FP8 y 1,1TB de memoria agregada de alto ancho de banda.

   H200 se dirige a centros de datos, tanto a los que funcionan bajo de manda, en la nube híbrida y en el extremo, y es compatible con las infraestrcuturas de las principales compañías del sector: Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud.

SUPERCHIP GH200

   Desde Nvidia han destacado que la GPU H200 puede combinarse con una CPU Nvidia Grace, lo que resulta en “el superchip Grace Hopper GH200 con HBM3e”, esto es, “un módulo integrado diseñado para servir aplicaciones HPC e IA a escala gigante”.

   Los centros impulsados por GH200 representan unos 200 exaflops de rendimiento de IA para impulsar la innovación científica. Actualmente, y como se ha desvelado en SC23, está en uso en el Centro de Supercomputación Jülich (Alemania), el Centro Conjunto de Computación Avanzada de Alto Rendimiento (Japón), el Centro de Computación Avanzada de Texas (Estados Unidos), el Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois Urbana-Champaign (Estados Unidos) y la Universidad de Bristol (Reino Unido).

   Según Nvidia, Grace Hopper ha sido adoptada en acceso temprano para iniciativas de supercomputación por más de cien empresas, organizaciones y agencias gubernamentales de todo el mundo.