Cada vez son más las compañías que buscan la autosuficiencia o reducir al máximo posible la dependencia de un tercero, y si hablamos de centros de datos eso significa desarrollar tu propio procesador. Intel y Nvidia hace años que venden CPUs, Amazon tiene los Graviton, Microsoft presentó
Cobalt a finales del año pasado y ahora es el turno de Google, que ha
anunciado Axion, su primer procesador basado en ARM. Amazon, Microsoft y Google son tres de los mayores proveedores de servicios de
cloud computing, así que el hecho de que tengan su propia CPU no es un tema menor si tenemos en cuenta la importancia de la nube.
Axion es un procesador basado en los diseños Neoverse 2 de ARM cuyos núcleos están pensados para servidores y centros de datos de alto rendimiento. Google sostiene que su CPU ofrece un 30 % más de rendimiento que otras soluciones ARM de competidores como Amazon y Microsoft, y hasta un 50 % más de rendimiento y una eficiencia energética un 60 % superior a las estructuras basadas en X86. La compañía no ha ofrecido ningún tipo de documentación para respaldar estos números, y cuando medios como
Techcrunch han preguntado por el precio o datos técnicos adicionales no han obtenido ninguna respuesta.
“La documentación técnica, que incluye pruebas comparativas y detalles de la arquitectura, estará disponible a finales de año”, dice un portavoz de Google.
Actualmente Google ya tiene procesadores Axion en sus centros de datos que impulsan algunos servicios propios como los anuncios de YouTube y Google Earth Engine. Google dice que los clientes podrán usar su CPU Axion en servicios como Google Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow, Cloud Batch y más. La idea es que a finales de año los clientes comerciales de la compañía puedan trasladar sus cargas de trabajo ARM existentes a Google Cloud sin ninguna modificación. Graviton de Amazon, Cobal de Microsoft y Grace de Nvidia se basan en diseños ARM, así que la guerra está servida.
Google también cuenta con una nueva versión de su unidad de procesamiento tensorial (TPU, por sus siglas en inglés), unos chips que se utilizan como alternativa a las GPU de Nvidia para acelerar las cargas de trabajo de la IA. Google dice que TPU v5p, así se llama la criatura, está diseñada y optimizada para entrenar a gran escala los mayores modelos de IA generativa existentes. Un módulo TPU v5p esconde 8.960 chips, más del doble de los que se pueden contar en la generación anterior (TPU v4p). También se ejecuta con una frecuencia de reloj más alta (1.75 GHz en comparación con 1.05 GHz).