Microsoft ha aprovechado el evento Ignite para hacer buenos los rumores y anunciar que está fabricando chips personalizados y relacionados con la IA en base a diseños propios. Se trata de un paso muy importante de la tecnológica hacia una mayor independencia, pero Nvidia seguirá siendo uno de los grandes socios, como mínimo a corto y medio plazo. La buena relación entre ambas compañías ha quedado demostrada cuando Jen-Hsun Huang y Satya Nadella, consejeros delegados de Nvidia y Microsoft, respectivamente, han compartido escenario.
El primero de los dos chips que ha presentado Microsoft es el Azure Maia 100, un acelerador de IA diseñado para el entrenamiento y la inferencia en la nube, que en román paladino son las cargas de trabajo de IA de los modelos de lenguaje de gran tamaño o LLM (por sus siglas en inglés) como OpenAI, Bing, GitHub Copilot y ChatGPT. OpenAI, una compañía en la que Microsoft ha invertido 10.000 millones de dólares, ha colaborado en las fases de diseño y prueba del chip y será una de las empresas que se beneficiará de sus prestaciones.
Azure Maia se fabrica siguiendo el proceso de 5 nanómetros de TSMC y en su interior se esconden 105.000 millones de transistores, alrededor de un 30 % menos que los 153.000 millones de transistores que atesora MI300X AI de AMD. En este sector el producto estrella es el H100 de Nvidia con 80.000 millones de transistores. Su heredero H200 ya está en camino.
En segundo lugar tenemos Azure Cobalt 100, un chip nativo cloud basado en la arquitectura ARM Neoverse CSS y optimizado para proporcionar rendimiento, eficiencia energética y rentabilidad para cargas de trabajo de uso general. Nos encontramos ante un chip de 128 núcleos que ha sido diseñado para potenciar los servicios en la nube de Azure, el servicio estrella de Microsoft y uno de los mayores responsables del crecimiento de la compañía. Azure Cobalt busca ofrecer un alto rendimiento sin descuidar la gestión de energía y tiene la capacidad de controlar el rendimiento y el consumo por núcleo y en cada máquina virtual.
La intención de Microsoft es que Maia y Cobalt inicien su despliegue en 2024. Cuando ambos chips empiecen a impulsar los servidores de Microsoft, la compañía será menos dependiente de Nvidia y AMD, pero la tecnológica insiste en que la asociación con ambas compañías sigue siendo clave para el futuro de la IA de Azure. Las cargas de trabajo de la IA son muy grandes y diversificar nunca está de más, así que Microsoft complementará sus chips personalizados con opciones de infraestructura de Nvidia (H100 y H200) y AMD (MI300X).
El primero de los dos chips que ha presentado Microsoft es el Azure Maia 100, un acelerador de IA diseñado para el entrenamiento y la inferencia en la nube, que en román paladino son las cargas de trabajo de IA de los modelos de lenguaje de gran tamaño o LLM (por sus siglas en inglés) como OpenAI, Bing, GitHub Copilot y ChatGPT. OpenAI, una compañía en la que Microsoft ha invertido 10.000 millones de dólares, ha colaborado en las fases de diseño y prueba del chip y será una de las empresas que se beneficiará de sus prestaciones.
Azure Maia se fabrica siguiendo el proceso de 5 nanómetros de TSMC y en su interior se esconden 105.000 millones de transistores, alrededor de un 30 % menos que los 153.000 millones de transistores que atesora MI300X AI de AMD. En este sector el producto estrella es el H100 de Nvidia con 80.000 millones de transistores. Su heredero H200 ya está en camino.
En segundo lugar tenemos Azure Cobalt 100, un chip nativo cloud basado en la arquitectura ARM Neoverse CSS y optimizado para proporcionar rendimiento, eficiencia energética y rentabilidad para cargas de trabajo de uso general. Nos encontramos ante un chip de 128 núcleos que ha sido diseñado para potenciar los servicios en la nube de Azure, el servicio estrella de Microsoft y uno de los mayores responsables del crecimiento de la compañía. Azure Cobalt busca ofrecer un alto rendimiento sin descuidar la gestión de energía y tiene la capacidad de controlar el rendimiento y el consumo por núcleo y en cada máquina virtual.
La intención de Microsoft es que Maia y Cobalt inicien su despliegue en 2024. Cuando ambos chips empiecen a impulsar los servidores de Microsoft, la compañía será menos dependiente de Nvidia y AMD, pero la tecnológica insiste en que la asociación con ambas compañías sigue siendo clave para el futuro de la IA de Azure. Las cargas de trabajo de la IA son muy grandes y diversificar nunca está de más, así que Microsoft complementará sus chips personalizados con opciones de infraestructura de Nvidia (H100 y H200) y AMD (MI300X).
Salvo que haya cambiado mucho la cosa ultimamente ese puesto le tenia Amazon y con diferencia.
Microsoft con Azure es la principal y primera con diferencia de hace mucho tiempo.
Desde el Q2 de este año Azure lidera en market share
(imagen)
Eso tiene pinta de ser alguna estimación más vieja que el cagar.
Del segundo trimestre de este año: https://www.statista.com/chart/18819/wo ... providers/
AWS lidera por más del 50% respecto a Azure.
Ahora 37% es mucho más que 42%. [+risas]
@Orestes No, azufre está primera por delante de Amazon, por poco pero lo está
mmmmmmmmmmmmmmmmm...........................mmmmmmmmmmmmmmmmmmmmmmmmm...........................mmmmmmmmmmmmmmmmmmmmm............................
https://www.crn.com/news/cloud/cloud-ma ... e-battle/6
https://www.statista.com/chart/18819/wo ... providers/
https://www.revolgy.com/insights/blog/t ... iders-2023
https://technologymagazine.com/top10/to ... ld-in-2023
Pues alguien falla porque haciendo una busqueda rapida en Google todas las paginas siguen dando a Amazon como lider destacado ein? ein?
La realidad falla, obviamente.
Que la realidad no te estropee ese universo paralelo que te montas donde tu empresa favorita es la más guay, en todo, siempre.