La compra de Xilinx por parte de AMD es solo una muestra más del interés de Lisa Su por competir a todos los niveles con Intel y Nvidia. Si la adquisición del mayor fabricante de unidades FPGA le abría nuevos horizontes en industrias en las que hasta ahora ni siquiera estaba presente, hoy la compañía ha anunciado el lanzamiento de la primera GPU para centros de datos con más de 10 TF FP64 (formato en coma flotante de doble precisión).
La AMD Instinct MI100 supone un enorme salto con respecto a tarjetas anteriores. Si bien AMD ya comercializaba productos orientados al procesamiento de IA y grandes cantidades de datos bajo la gama Instinct, sus datos palidecían frente a las propuestas de Nvidia, lo que redundó en unas tasas de adopción bastante limitadas.
Este nuevo modelo, no obstante, superaría según los datos oficiales incluso a la aceleradora Tesla A100, basada en Ampere. En total hablamos de 11,5 TFLOPS con un TBP de 300 W, cuando Nvidia saca 9,7 TFLOPS a 400 W. Es una diferencia enorme a nivel profesional, pero sobre todo considerando la trayectora que había tenido AMD hasta ahora en este mercado.
La ficha técnica de esta GPU es bastante interesante, y deja claro que no se trata de una Radeon RX 6000 vitaminada y sin salida de vídeo. De hecho, su arquitectura de 7 nm CDNA (Compute DNA) es la última etapa evolutiva de GCN, por lo que se emparenta con Vega, pero beneficiándose de las últimas optimizaciones en los procesos de producción de AMD (como un nodo a 7 nm), así como de diversos elementos y funciones que simplemente no tendrían mucho sentido en una GPU de consumo.
A nivel de especificaciones, cada tarjeta Instinct MI100 posee 120 unidades de computación (CU), pero no hay aceleradores de rayos, puesto que como decíamos CDNA deriva de GCN y además su misión principal no es renderizar en 3D. Asimismo, la memoria no es GDDR6, sino HBM2; muy veloz (el ancho de banda total es de hasta 1,23 TB/s), pero también notablemente cara.
Las tarjetas Instinct MI100 se utilizarán en sistemas de computación de alto rendimiento relacionados con tareas de inteligencia artificial, diseño de fármacos, visión computerizada para conducción autónoma y otras labores bastante alejadas de los videojuegos, al menos a nivel de usuario. Queda por ver su impacto en un mercado donde Nvidia juega muy fuerte (la calidad del soporte de software de AMD podría ser determinante), pero este golpe de mano deja claro que AMD ha puesto sus miras más allá de los ordenadores personales.
La AMD Instinct MI100 supone un enorme salto con respecto a tarjetas anteriores. Si bien AMD ya comercializaba productos orientados al procesamiento de IA y grandes cantidades de datos bajo la gama Instinct, sus datos palidecían frente a las propuestas de Nvidia, lo que redundó en unas tasas de adopción bastante limitadas.
Este nuevo modelo, no obstante, superaría según los datos oficiales incluso a la aceleradora Tesla A100, basada en Ampere. En total hablamos de 11,5 TFLOPS con un TBP de 300 W, cuando Nvidia saca 9,7 TFLOPS a 400 W. Es una diferencia enorme a nivel profesional, pero sobre todo considerando la trayectora que había tenido AMD hasta ahora en este mercado.
La ficha técnica de esta GPU es bastante interesante, y deja claro que no se trata de una Radeon RX 6000 vitaminada y sin salida de vídeo. De hecho, su arquitectura de 7 nm CDNA (Compute DNA) es la última etapa evolutiva de GCN, por lo que se emparenta con Vega, pero beneficiándose de las últimas optimizaciones en los procesos de producción de AMD (como un nodo a 7 nm), así como de diversos elementos y funciones que simplemente no tendrían mucho sentido en una GPU de consumo.
A nivel de especificaciones, cada tarjeta Instinct MI100 posee 120 unidades de computación (CU), pero no hay aceleradores de rayos, puesto que como decíamos CDNA deriva de GCN y además su misión principal no es renderizar en 3D. Asimismo, la memoria no es GDDR6, sino HBM2; muy veloz (el ancho de banda total es de hasta 1,23 TB/s), pero también notablemente cara.
Las tarjetas Instinct MI100 se utilizarán en sistemas de computación de alto rendimiento relacionados con tareas de inteligencia artificial, diseño de fármacos, visión computerizada para conducción autónoma y otras labores bastante alejadas de los videojuegos, al menos a nivel de usuario. Queda por ver su impacto en un mercado donde Nvidia juega muy fuerte (la calidad del soporte de software de AMD podría ser determinante), pero este golpe de mano deja claro que AMD ha puesto sus miras más allá de los ordenadores personales.
+1
Nvidia e Intel se lo tenian muy creido, pero ahora que AMD ha vuelto les va a petar el culo a ambos.
Saludos eolianos.
Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)
No tiene que hacer directamente ninguna explicacion o comparativa tecnica.
AMD no tiene CUDA.
Sin CUDA, todo el software desarrollado para usar CUDA no funciona. Asi que como AMD no tiene CUDA, ningun software pensado para CUDA va a funcionar con AMD por muchos TF que tenga su grafica.
Yo uso CUDA, programo para CUDA con esa maravilla de NVCC y no veo ningun motivo para hacer mis aplicaciones para CUDA y reprogramarlas para otra tecnologia.
Se van a comer un mojonazo (Esto es opinion personal ya).
OpenCL, aunque creo que tienen el soporte bastante abandonado.
Te autocontestas en tu mensaje. El sector profesional para procesamiento de datos tiene necesidades muy distintas al de Gaming, con hardware muy especializado para satisfacerlas.
Nvidia vende equipos "DGX A100" con 8 NVIDIA A100, CPU AMD de 64 núcleos, 1 TB de RAM y 15 TB de SSD por 200,000$. No se venderían GPUs o equipos profesionales con esos precios si pudieses poner GPUs domésticas más baratas en un SLI y conseguir resultados similares.
Ahora una duda, que no se si es conceptual o filosófica.... Una gráfica sin salida de vídeo ¿sigue siendo una gráfica?. Es decir, entiendo que las GPU de hoy en día tienen muchísimas funciones más allá de generar gráficos (criptomonedas, Inteligencia Artificial, programas de edición, etc) por que su arquitectura hace que sean tanto o más productivas a tal fin de lo que puede ser cualquier CPU al uso..... pero no deja de hacérseme de lo más extraño ver una gráfica sin salida de vídeo. Supongo que sí que sigue siéndolo, ya que a fin de cuentas sigue siendo una "unidad de procesamiento gráfico", por mucho que el uso que se le de (y para el que específicamente se han diseñado en el caso de estos modelos) sea completamente distinto.
Salu2!