Nvidia se ha presentado en el SIGGRAPH que esta semana se celebra en Los Ángeles con un carro de novedades donde destaca la nueva versión del superchip GH200, el primero del mundo con memoria HBM3e. Esta plataforma está diseñada para procesar cargas de trabajo de inteligencia artificial (IA) generativa y computación acelerada, dos elementos que durante los últimos meses han transformado a Nvidia en una compañía valorada en un billón de dólares.
La GH200 presentada hoy es una variante de la GH200 que Nvidia anunció en el Computex de Taiwán el pasado marzo. Su principal novedad es el uso de la memoria HBM3e. Esta plataforma equipa un procesador con 72 núcleos Arm Neoverse y un chip gráfico con hasta 141 GB de memoria HBM3e. Nvidia asegura que en una configuración dual con 282 GB, la GH200 ofrece hasta 3,5 veces más de capacidad de memoria y 3 veces más de ancho de banda que la generación actual. El GH200 más reciente cuenta con 96 GB de memoria HBM3 que proporciona un ancho de banda que ronda los 4 TB/s.
Según Nvidia, la plataforma GH200 Grace Hopper con memoria HMB3 está actualmente en producción y estará disponible a partir del próximo mes. Por su parte, la plataforma GH200 Grace Hopper con memoria HMB3e que hoy nos ocupa, se podrá adquirir a partir del segundo trimestre de 2024. La nueva GH200 utiliza el mismo silicio que la GH100 original, así que en este sentido no habrá cambios en el número de revisión o
stepping. Por otro lado, Nvidia afirma que la GH200 original con HMB3 y la GH200 mejorada con HMB3e coexistirán. Esto significa que la segunda tendrá un precio superior.
Actualmente Nvidia es prácticamente la única compañía capaz de ofrecer GPUs dedicadas a la IA generativa. Estas plataformas que alimentan modelos complejos de IA requieren de GPUs muy potentes y Nvidia es la compañía mejor posicionada para ofrecer este tipo de hardware. Todos los grandes proveedores de servicios en la nube como Amazon Web Services, Microsoft Azure y Google Cloud utilizan las GPU H100 Tensor Core. La GH200 tiene como objetivo ocupar el puesto de la H100 para impulsar (aún más) la IA.
Todas las grandes tecnológicas trabajan con Nvidia, pero las hay que además buscan alternativas. Por ejemplo,
Microsoft estaría colaborando con AMD en el diseño de chips para inteligencia artificial. Tener una segunda opción también es una forma de ahorrar costes, pues esta clase de GPUs no son para nada económicas. Una H100 supera los 30.000 dólares y están tan cotizadas que incluso se usan como garantía. CoreWeave, un proveedor de servicios en la nube, consiguió recientemente una línea de crédito de 2.300 millones de dólares que
avaló con chips H100.
Fuente: Nvidia