Microsoft ha aprovechado el evento Ignite para hacer buenos
los rumores y anunciar que está fabricando chips personalizados y relacionados con la IA en base a diseños propios. Se trata de un paso muy importante de la tecnológica hacia una mayor independencia, pero Nvidia seguirá siendo uno de los grandes socios, como mínimo a corto y medio plazo. La buena relación entre ambas compañías ha quedado demostrada cuando Jen-Hsun Huang y Satya Nadella, consejeros delegados de Nvidia y Microsoft, respectivamente, han compartido escenario.
El primero de los dos chips que ha presentado Microsoft es el Azure Maia 100, un acelerador de IA diseñado para el entrenamiento y la inferencia en la nube, que en román paladino son las cargas de trabajo de IA de los modelos de lenguaje de gran tamaño o LLM (por sus siglas en inglés) como OpenAI, Bing, GitHub Copilot y ChatGPT. OpenAI, una compañía en la que Microsoft ha invertido 10.000 millones de dólares, ha colaborado en las fases de diseño y prueba del chip y será una de las empresas que se beneficiará de sus prestaciones.
Azure Maia se fabrica siguiendo el proceso de 5 nanómetros de TSMC y en su interior se esconden 105.000 millones de transistores, alrededor de un 30 % menos que los 153.000 millones de transistores que atesora MI300X AI de AMD. En este sector el producto estrella es el H100 de Nvidia con 80.000 millones de transistores. Su heredero
H200 ya está en camino.
En segundo lugar tenemos Azure Cobalt 100, un chip nativo cloud basado en la arquitectura ARM Neoverse CSS y optimizado para proporcionar rendimiento, eficiencia energética y rentabilidad para cargas de trabajo de uso general. Nos encontramos ante un chip de 128 núcleos que ha sido diseñado para potenciar los servicios en la nube de Azure, el servicio estrella de Microsoft y uno de los mayores responsables del crecimiento de la compañía. Azure Cobalt busca ofrecer un alto rendimiento sin descuidar la gestión de energía y tiene la capacidad de controlar el rendimiento y el consumo por núcleo y en cada máquina virtual.
La intención de Microsoft es que Maia y Cobalt inicien su despliegue en 2024. Cuando ambos chips empiecen a impulsar los servidores de Microsoft, la compañía será menos dependiente de Nvidia y AMD, pero la tecnológica insiste en que la asociación con ambas compañías sigue siendo clave para el futuro de la IA de Azure. Las cargas de trabajo de la IA son muy grandes y diversificar nunca está de más, así que Microsoft complementará sus chips personalizados con opciones de infraestructura de Nvidia (H100 y H200) y AMD (MI300X).
Fuente: The Verge