› Foros › Noticias › Tecnología
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
Quark escribió:vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación
vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?
Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.
CrowX escribió:La competencia siempre es buena.... soy totalmente profano en el tema, pero si hasta ahora todo el pastel de este mercado profesional lo tenía Nvidia, mal no vendrá que AMD les plante cara también ahí.
Ahora una duda, que no se si es conceptual o filosófica.... Una gráfica sin salida de vídeo ¿sigue siendo una gráfica?. Es decir, entiendo que las GPU de hoy en día tienen muchísimas funciones más allá de generar gráficos (criptomonedas, Inteligencia Artificial, programas de edición, etc) por que su arquitectura hace que sean tanto o más productivas a tal fin de lo que puede ser cualquier CPU al uso..... pero no deja de hacérseme de lo más extraño ver una gráfica sin salida de vídeo. Supongo que sí que sigue siéndolo, ya que a fin de cuentas sigue siendo una "unidad de procesamiento gráfico", por mucho que el uso que se le de (y para el que específicamente se han diseñado en el caso de estos modelos) sea completamente distinto.
Salu2!
Odioregistrarme escribió:vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
OpenCL, aunque creo que tienen el soporte bastante abandonado.eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?
Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.
Te autocontestas en tu mensaje. El sector profesional para procesamiento de datos tiene necesidades muy distintas al de Gaming, con hardware muy especializado para satisfacerlas.
Nvidia vende equipos "DGX A100" con 8 NVIDIA A100, CPU AMD de 64 núcleos, 1 TB de RAM y 15 TB de SSD por 200,000$. No se venderían GPUs o equipos profesionales con esos precios si pudieses poner GPUs domésticas más baratas en un SLI y conseguir resultados similares.
eQ9 escribió:¿La potencia de una Series X a precio de Series X, o más cara?
Por favor que nadie me conteste que esta tarjeta no está orientada al mercado gaming.
Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)
Quark escribió:vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)
Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)
Latiosu escribió:Para los profanos, una explicación de andar por casa.
Los procesadores de las tarjetas gráficas (GPU) lo que hacen para mostrar gráficos son realizar muchísimas multiplicaciones de matrices (que representan los píxeles que luego veis en pantalla) para calcular cómo debería verse el pelazo de Keanu Reeves en el Cyberpunk. Esto lo hacen muchísimo mas rápido que lo que un procesador (CPU) pueda hacer jamás, porque las GPU están especializadas en una cosa (gráficos) y las CPU tiene que ser capaces de hacer cosas de todo tipo.
Sin embargo, los científicos se dieron cuenta de que muchos problemas matemáticos se pueden traducir "un montón de multiplicaciones de matrices" y ejecutarlas en GPUs en lugar de CPUs, aprovechando una parte del ordenador que va muchísimo mas rápido para este tipo de cálculos específicos.
Nvidia se dió cuenta de que los científicos estaban haciendo eso y creó un lenguaje de programación propio (CUDA) que les facilitase la tarea a esta buena gente y además decidió crear tarjetas gráficas diseñadas exclusivamente para hacer cálculos chungos con matrices quitando cosas que no les sirven a los matemáticos, como por ejemplo las salidas de vídeo y dándole mas potencia, a un precio mucho mayor (ya que estas cosas las pagan universidades y empresas para realizar cálculos muy complejos).
AMD lleva varios años intentando entrar en este mercado, pero la delantera de Nvidia en este campo es brutal, aunque según la noticia, parece que se están metiendo caña a ver si pillan a los de Nvidia, lo cual mola, porque puede que abarate los costes y veamos mas desarrollos de cosas chulas.
Para el que piense "me compro una de estas y lo peto con el proximo Call of Duty a 500FPS", decirle que los videojuegos en una de estas tarjetas directamente no funcionan. Los equipos que he visto montando este tipo de gráficas lo mas bonito que son capaces de mostrar en pantalla son las letras blancas sobre fondo negro de una ventana de comandos.
Eso si, para realizar tareas de entrenamiento de inteligencia artificial (que al final no son mas que sumas y multiplicaciones de varios BILLONES de matrices) son la re-hostia.
TL;DR: Esto no sirve para jugar, pero está guay que haya competencia en las gráficas también el mercado de los centros de cómputo porque los científicos hacen cosas muy chulas con ellas.
Latiosu escribió:Para los profanos, una explicación de andar por casa.
Los procesadores de las tarjetas gráficas (GPU) lo que hacen para mostrar gráficos son realizar muchísimas multiplicaciones de matrices (que representan los píxeles que luego veis en pantalla) para calcular cómo debería verse el pelazo de Keanu Reeves en el Cyberpunk. Esto lo hacen muchísimo mas rápido que lo que un procesador (CPU) pueda hacer jamás, porque las GPU están especializadas en una cosa (gráficos) y las CPU tiene que ser capaces de hacer cosas de todo tipo.
Sin embargo, los científicos se dieron cuenta de que muchos problemas matemáticos se pueden traducir "un montón de multiplicaciones de matrices" y ejecutarlas en GPUs en lugar de CPUs, aprovechando una parte del ordenador que va muchísimo mas rápido para este tipo de cálculos específicos.
Nvidia se dió cuenta de que los científicos estaban haciendo eso y creó un lenguaje de programación propio (CUDA) que les facilitase la tarea a esta buena gente y además decidió crear tarjetas gráficas diseñadas exclusivamente para hacer cálculos chungos con matrices quitando cosas que no les sirven a los matemáticos, como por ejemplo las salidas de vídeo y dándole mas potencia, a un precio mucho mayor (ya que estas cosas las pagan universidades y empresas para realizar cálculos muy complejos).
AMD lleva varios años intentando entrar en este mercado, pero la delantera de Nvidia en este campo es brutal, aunque según la noticia, parece que se están metiendo caña a ver si pillan a los de Nvidia, lo cual mola, porque puede que abarate los costes y veamos mas desarrollos de cosas chulas.
Para el que piense "me compro una de estas y lo peto con el proximo Call of Duty a 500FPS", decirle que los videojuegos en una de estas tarjetas directamente no funcionan. Los equipos que he visto montando este tipo de gráficas lo mas bonito que son capaces de mostrar en pantalla son las letras blancas sobre fondo negro de una ventana de comandos.
Eso si, para realizar tareas de entrenamiento de inteligencia artificial (que al final no son mas que sumas y multiplicaciones de varios BILLONES de matrices) son la re-hostia.
TL;DR: Esto no sirve para jugar, pero está guay que haya competencia en las gráficas también el mercado de los centros de cómputo porque los científicos hacen cosas muy chulas con ellas.
Orestes escribió:A las empresas pequeñas les conviene más CUDA por la documentación y ser una API asentada. A los que montan superordenadores de varios millones de $/€ se la pela CUDA y OpenCL porque desarrollan sus propias soluciones.
Por eso por mucho que cueste creerlo hay superordenadores que montan aceleradoras AMD. En la nota de prensa mencionan bastantes proyectos entre ellos Azure de Microsoft que no es precisamente pequeño:
https://ir.amd.com/news-events/press-re ... inct-mi100
nekuro escribió:Latiosu escribió:...
Pero de hecho creo que esas "gráficas" servirían para minar criptos.
vik_sgc escribió:@leapfrog Nada más que añadir.Quark escribió:vik_sgc escribió:A AMD le queda mucho en este campo para alcanzar a Nvidia. Quizá me equivoque, pero AMD no tiene nada remotamente parecido a CUDA.
Ummmm haz una explicación y comparativa técnica para que aceptemos tu afirmación (alucino con los mega-fans)Quark escribió:Eso hace mejor a cuda vs los stream processors? va hombre... si programas solo para nvidia sí que te vas a comer un mojón... (nada personal, hablo en general)
Mientras que yo he sido respetuoso en todo momento y no he pretendido sentar cátedra, tú me faltas el respeto y encima parece que no tienes ni idea de lo que hablas. Aquí no se está contando píxeles ni teraflops. Yo tuve GPUs de AMD durante toda la vida hasta que no fueron capaces de darme lo que necesitaba, que poco tiene que ver con los videojuegos. Si tengo que calcular el campo magnético creado por un mapa de corrientes en 800 millones de puntos y AMD no puede darme una alternativa rápida y bien documentada como si lo hace NVIDIA con CUDA, pues lo siento mucho pero tendré que pasar a NVIDIA. Mi primer código en CUDA lo programé en un par de días. Para hacer lo mismo con OpenCL tardé una semana y el rendimiento era penoso. Porque te hagas una idea, el mismo cálculo con CUDA me tarda un día, con OpenCL tres días y con CPU 17 días. Y precisamente esto le quita un montón de ventas a AMD. Yo hace cuatro años que no les compro una gráfica, en mi trabajo todos los ordenadores vienen con NVIDIA para poder usar mis códigos y otros programas usados en ciencia programados en CUDA, y muchos compañeros de otros grupos de investigación (por ejemplo en la simulación de plasmas, o en la reconstrucción de tomografías 3D en microscopía electrónica) solo usan tarjetas NVIDIA precisamente por el mismo motivo.
Cuando hablo de CUDA no me refiero a los CUDA cores, me refiero al lenguaje CUDA. Vamos, que manda narices que sin tener idea del tema te metas a llamar mega fans a otros. Si no sabes de lo que hablas mejor quedarse calladito, o por lo menos ser humilde.
FoRTu escribió:No controlo mucho este mundillo pero esta es mi humilde opinión.
Reflexionemos un poco. NVIDIA es el rey en este mercado porque fue de las primeras en dar una solución rentable ($€). Al no haber un liderazgo en ese sector, NVIDIA desarrollo un API a medida para el hardware que ya tenía. Mejorando las soluciones que ya existían, que no era difícil, y convirtiéndose de facto en un estándar del sector.
Con esto consiguió que todo el software desarrollado fuese bajo su API cerrada, atando a los consumidores a su Hardware. Esto dejo a la competencia en una situación difícil ya que, por ejemplo, en caso de querer deshacerse de NVIDA y querer pasar a AMD, no solo sería costoso el reemplazar el hardware, sino que tendrían que volver a programar todo el software desde cero ya que CUDA solo funciona en Hardware NVIDIA (esto es lo malo de programar con APIs no libres). Y todos sabemos que las empresas se crean para ganar dinero. .
Por eso en estos momentos NVIDIA no tiene rival y el resto de competidores están a años luz de pelear de tú a tú.
Uno pensaría ¿Por qué AMD no hace lo mismo? Ya es tarde, el germen de NVIDIA lo ha infectado todo e inventarte una API ahora desde cero y cerrarla como lo hizo NVIDIA en su momento sería muy costoso ($€) y poco rentable. Por eso hacen uso del estándar OpenCL, un API libre a disposición de todo el mundo, un estándar que no solo utiliza AMD, sino que muchas otras empresas lo usan en sus productos.
Son dos APIs totalmente distintas. Es cierto han sido diseñadas para el mismo fin, pero en su planteamiento inicial y su desarrollo son totalmente opuestas. CUDA se enfoca solamente en el Hadrware de NVIDIA y evolucionan conjuntamente. OpenCL en cambio, al ser un API libre, está enfocada a ser compatible con mucho hardware y no está controlado por una única empresa, es un consorcio de ellas la que mantiene el estándar.
De ahí que AMD+OpenCL no sea rival para NVIDIA+CUDA en estos momentos. NVIDIA controla su API ya ampliamente aceptada y su Hardware, haciendo y deshaciendo a su antojo, y pasando olímpicamente de otros estándares. En Cambio, AMD solamente controla su Hardware y tiene que adaptarlo a un API que no controla.
En esta situación comparar CUDA y OpenCL no sé si tiene mucho sentido.
(Perdon por la parrafada).
Latiosu escribió:nekuro escribió:Latiosu escribió:...
Pero de hecho creo que esas "gráficas" servirían para minar criptos.
Depende de las criptos, algunas de ellas todavía se pueden minar con GPU, pero conforme ha ido avanzando la cosa ha llegado a tal punto que ni siquera con GPUs sale rentable minar algunas de ellas porque no serían capaces de recuperar el dinero del hardware en el que ejecutan.
Para ello existen los circuitos integrados de aplicación específica (ASIC) que son chips diseñados únicamente para una tarea, como por ejemplo minar bitcoins. Si las GPUs solo trabajan con operaciones de cálculo matricial, los ASIC que se usan para cripto solo pueden realizar una operación: "Mina bitcoins". Con lo cual son mas rápidos todavía para la única tarea que son capaces de hacer, pero completamente inútiles para todo lo demas.
leapfrog escribió:Orestes escribió:A las empresas pequeñas les conviene más CUDA por la documentación y ser una API asentada. A los que montan superordenadores de varios millones de $/€ se la pela CUDA y OpenCL porque desarrollan sus propias soluciones.
Por eso por mucho que cueste creerlo hay superordenadores que montan aceleradoras AMD. En la nota de prensa mencionan bastantes proyectos entre ellos Azure de Microsoft que no es precisamente pequeño:
https://ir.amd.com/news-events/press-re ... inct-mi100
El problema viene derivado de que usamos software desarrollado por terceros tambien, y este sistema viene mejorandose desde hace 10 años, por lo que arrastramos tambien mucho desarrollo de la epoca en la que OpenCL daba entre asco y pena y la unica opcion era CUDA.
Pero vamos, que en la lista TOP 500 dime alguno de esos monstruos que monten AMD (GPUs, no CPUs que de esos hay alguno)
https://www.top500.org/lists/top500/2020/06/
(Y luego haz el ejercicio de contar cuantas veces sale la palabra nvidia en esa lista)