[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Nomada_Firefox escribió:
Max_Payne escribió:@Nomada_Firefox No, los ventiladores no los he tocado porque son bastante silenciosos, es una Asus Dual. No juego con auriculares y ni me entero, solo oigo el coil whine a veces. La 3060 Ti que tenía sí que era más calentorra.

Bueno, si oyes, el coil whine, no sera porque los ventiladores estan a pocas rpm. Los modelos de 2 ventiladores son menos frescos que los de 3, y por supuesto luego estan las calidades de cada tipo.


Sí, a 1200 RPM (menos del 40%), ya te digo que este modelo es muy fresco, la que tenía antes se subía a más de 70º con los ventiladores a más RPM.

Sin embargo, la CPU (13500 sin UV) se va a los 60/70º fácil ahora con el calor.
Nomada_Firefox escribió:
neox3 escribió:yo también tengo una 4090, y sin dlss, es imposible jugar a 1440p / 60fps con todo a tope + path tracing, en cyber punk, alan wake2 , senua 2...

Pero Hellblade 2 si que va a más de 60 con DLSS en calidad. Alan Wake 2 lo pongo como juego super mal optimizado, capado deliberadamente. XD Y en Cyberpunk con Path Tracing lo mismo.

Ciertamente sorprende lo mucho que gustan los juegos mal optimizados.

Sí, pero ponlo en nativo...
Es que ni una 4090 va sobrada en 1440p en nativo.
Por eso te digo, que al final ,se usa el DLSS como poco.
Va perdiendo cierta importancia el rasterizado.

Obviamente ,tampoco puede ser una castaña en raster , porque entonces reescalas peor ,pero no sería raro que Nvidia tire por ahí ,sacando una 5080 menos potenta que la 4090 en rastee pero notoriamente mas potente en cuanto activas DLSS o RT.
hh1 escribió:Sí, pero ponlo en nativo...

En nativo no pasas de 60fps, subiendo y bajando de 40 a eso. Lo que no vi, es que el Lumen tenga una repercusión tremenda por lo que indica más que esta capado o mal optimizado.

Pero entre jugar a 60 a jugar a 80, no notas nada. Y en ese juego usar el DLSS no repercute mucho en la calidad visual. Vamos, que ni te enteras.
Nomada_Firefox escribió:
hh1 escribió:Sí, pero ponlo en nativo...

En nativo no pasas de 60fps, subiendo y bajando de 40 a eso. Lo que no vi, es que el Lumen tenga una repercusión tremenda por lo que indica más que esta capado o mal optimizado.

Pero entre jugar a 60 a jugar a 80, no notas nada. Y en ese juego usar el DLSS no repercute mucho en la calidad visual. Vamos, que ni te enteras.

Pero es que ,Tampoco ,en general ,notas diferencia entre nativo y DLSS calidad.
Es el tema.

Pro eso ,todo va a tirar por ahí.
neox3 escribió:yo también tengo una 4090, y sin dlss, es imposible jugar a 1440p / 60fps con todo a tope + path tracing, en cyber punk, alan wake2 , senua 2...

̶P̶u̶e̶s̶ ̶c̶o̶m̶p̶a̶ñ̶e̶r̶o̶ ̶a̶l̶g̶o̶ ̶n̶o̶ ̶t̶i̶e̶n̶e̶s̶ ̶b̶i̶e̶n̶ ̶c̶o̶n̶f̶i̶g̶u̶r̶a̶d̶o̶.̶ ̶D̶e̶ ̶S̶e̶n̶u̶a̶ ̶o̶ ̶A̶l̶a̶n̶ ̶W̶a̶k̶e̶ ̶n̶o̶ ̶t̶e̶ ̶s̶e̶ ̶d̶e̶c̶i̶r̶ ̶p̶e̶r̶o̶ ̶e̶n̶ ̶C̶y̶b̶e̶r̶p̶u̶n̶k̶ ̶y̶o̶ ̶s̶a̶c̶o̶ ̶m̶a̶s̶ ̶d̶e̶ ̶9̶0̶ ̶F̶P̶S̶ ̶e̶n̶ ̶2̶k̶ ̶c̶o̶n̶ ̶t̶o̶d̶o̶ ̶a̶ ̶t̶o̶p̶e̶ ̶y̶ ̶p̶a̶t̶h̶ ̶t̶r̶a̶c̶i̶n̶g̶.̶ ̶E̶s̶o̶ ̶s̶i̶n̶ ̶D̶L̶S̶S̶ ̶n̶i̶ ̶g̶e̶n̶e̶r̶a̶c̶i̶o̶n̶ ̶d̶e̶ ̶f̶r̶a̶m̶e̶s̶,̶ ̶q̶u̶e̶ ̶s̶i̶ ̶l̶o̶s̶ ̶p̶o̶n̶g̶o̶ ̶s̶e̶ ̶d̶i̶s̶p̶a̶r̶a̶ ̶a̶ ̶1̶4̶8̶ ̶F̶P̶S̶ ̶o̶ ̶p̶o̶r̶ ̶a̶h̶i̶.̶

Vale compañero, tienes razón. Me había equivocado yo.

Aquí como dices tu, sin DLSS ni generation frame y con todo a tope:
Imagen

Y aquí con el FG y el DLSS:
Imagen

Tenias razon tu [oki]
hh1 escribió:Pero es que ,Tampoco ,en general ,notas diferencia entre nativo y DLSS calidad.
Es el tema.

En ese juego y en juegos como ese donde los niveles son como ir por un tunel sin demasiadas variantes, no notas nada.

Pero en los juegos de tipo mundo abierto donde hay montones de caminos y diferencias, si se nota en objetos lejanos que originalmente tampoco tenian mucho detalle. Por poner dos ejemplos, en Red Dead Redemtion 2, se nota en arboles y cables, en Starfield, en los tejados de los edificios en el mundo capital que ahora mismo no recuerdo el nombre. En Avatar Frontiers of Pandora, en un monton de cosas. Todos estos de mundo abierto acaban por sufrir los mismos problemas.

Y sí, seguro que sacan alguna capacidad nueva de software.
Por curiosidad, hasta ahora se podía activar DLSS SR+FSR FG?

Y ahora que se puede con algunos juegos y FSR 3.1, alguien ha compradado en calidad y rendimiento DLSS SR+FSR FG vs DLSS SR+DLSS FG?

Por saber si hace algo la IA en el frame generation, con el SR se sigue notando mejor el de nvidia.
@eric_14
eric_14 escribió:Por curiosidad, hasta ahora se podía activar DLSS SR+FSR FG?

Y ahora que se puede con algunos juegos y FSR 3.1, alguien ha compradado en calidad y rendimiento DLSS SR+FSR FG vs DLSS SR+DLSS FG?

Por saber si hace algo la IA en el frame generation, con el SR se sigue notando mejor el de nvidia.

Hasta ahora parece que solo se podía activar con mods, por lo que dicen en este video de Daniel Owen:


Lo veré mas tarde, pero viendo el inicio en diagonal (los primeros 14 minutos, su análisis) parece que DLSS en global (escalado y FG) sigue teniendo mayor calidad aunque el escalado del FSR haya mejorado en esta 3.1.

Aún así me parece un trabajo muy bueno el de AMD que sin necesidad de hardware extra consigue un resultado bastante bueno y a nivel de FPS se nota la mejora.


En cuanto a tu pregunta de diferencia de calidad, no sé si te acabo de entender, ¿no es mas sencillo preguntar la diferencia entre el frame generation de Nvidia vs el de AMD? Y eso ya se podía hacer antes, simplemente un FG comparado con otro FG (sin escalado ni nada si quieres).

Lo digo porque además del FG que se use el escalado de Nvidia o de AMD es un añadido, que encima su calidad depende del juego. Con lo cual complica aún mas el resultado de la comparativa. Por ejemplo quizás en un juego el FG lo hace mejor con DLSS pero el escalado mejor con AMD y el resultado de ambas técnicas a la vez puede ser tan dispar que dependiendo la diferencia de calidad en el escalado o FG puede acabar dando mejor resultado una combinación u otra.
eric_14 escribió:Por curiosidad, hasta ahora se podía activar DLSS SR+FSR FG?

Y ahora que se puede con algunos juegos y FSR 3.1, alguien ha compradado en calidad y rendimiento DLSS SR+FSR FG vs DLSS SR+DLSS FG?

Por saber si hace algo la IA en el frame generation, con el SR se sigue notando mejor el de nvidia.

Yo no he visto que se pueda combinar el DLSS con el Generador de Frames de AMD o FSR3 con el generador de Frames de Nvidia.

Cada juego es una historia, pero por lo general se puede decir que el generador de frames de AMD, da más fps pero no da sensación de velocidad y fluctua mucho. El generador de Nvidia si da sensación de ir más rapido y fluctua menos pero tambien entrega menos. Aunque depende del juego como ya digo, los hay más pro AMD que Nvidia y viceversa.

Respecto a la calidad, a la mi la del FSR3 me parece peor que la del DLSS. Hace poco probe el Avatar y grabe varios videos mostrando diferentes combinaciones, si bien en ese juego no hay generador de Nvidia. Pero personalmente es mucho mejor no usar funciones de escalado.
Es que el FSR 3.1 se anunció en marzo y hace muy poco que se ha puesto en los juegos, no sé si incluso es desde ayer y permite activar el FSR frame generation con cualquier tecnología de rescalado.

Yo lo que he visto es que el FSR en SR han mejorado el ghosting y el ruido de la imágen pero sigue habiendo, mientras que en DLSS no.

La duda que tenía es saber la importancia de utilizar el frame generation del FSR vs DLSS, si para SR usas DLSS que no te mete ese ghosting.

@Rvilla87 también coincido que el trabajo es muy bueno para no utilizar IA ni otro hard, pero aún así está por debajo.
eric_14 escribió:Es que el FSR 3.1 se anunció en marzo y hace muy poco que se ha puesto en los juegos, no sé si incluso es desde ayer y permite activar el FSR frame generation con cualquier tecnología de rescalado.

Yo lo que he visto es que el FSR en SR han mejorado el ghosting y el ruido de la imágen pero sigue habiendo, mientras que en DLSS no.

La duda que tenía es saber la importancia de utilizar el frame generation del FSR vs DLSS, si para SR usas DLSS que no te mete ese ghosting.

@Rvilla87 también coincido que el trabajo es muy bueno para no utilizar IA ni otro hard, pero aún así está por debajo.

No sé si responde exactamente a tu pregunta ,pero la conclusión es que está bastante bien, ha mejorado bastante ,pero sigue por detrás de DLSS.
hh1 escribió:No sé si responde exactamente a tu pregunta ,pero la conclusión es que está bastante bien, ha mejorado bastante ,pero sigue por detrás de DLSS.

Depende del juego, en calidad si es mejor el DLSS por supuesto pero hay juegos tan pro AMD que en DLSS no sacas más que con FSR. Aunque tambien esta la cosa que hay juegos que permiten FSR + FMF pero no permiten DLSS + FG.
Nomada_Firefox escribió:
hh1 escribió:No sé si responde exactamente a tu pregunta ,pero la conclusión es que está bastante bien, ha mejorado bastante ,pero sigue por detrás de DLSS.

Depende del juego, en calidad si es mejor el DLSS por supuesto pero hay juegos tan pro AMD que en DLSS no sacas más que con FSR. Aunque tambien esta la cosa que hay juegos que permiten FSR + FMF pero no permiten DLSS + FG.

Eso ya es otro tema.

Yo la verdad que en mis juegos ,no nitk diferencia entre DLSS calidad y nativo.
Jamás la he notado.

Pero es poner FSR y sí noto instantáneamente más borrosidad..
Me ocurre siempre.
hh1 escribió:Pero es poner FSR y sí noto instantáneamente más borrosidad..
Me ocurre siempre.

No digas eso que se te van a echar encima los pro-AMD... ;)

Saludos.
javier español escribió:
hh1 escribió:Pero es poner FSR y sí noto instantáneamente más borrosidad..
Me ocurre siempre.

No digas eso que se te van a echar encima los pro-AMD... ;)

Saludos.

Es la realidad.Si se echa encima, tiene un problema.A mí me la pela porque no soy pro nada.
Dicho esto, también es cierto que no se ve igual en gráfica AMD que en gráficas Nvidia.
En la mayoría de casos ,el FSR se ve mejor en graficas AMD.Eso también es cierto.
hh1 escribió:En la mayoría de casos ,el FSR se ve mejor en graficas AMD.Eso también es cierto.

Pues no, no dan más calidad, se ve igual de mal en esa situación que no quiero decir que se vea mal porque sí, solo que el DLSS es superior. Tambien Nvidia lo explota bien en sus precios.
@hh1 no era eso, pero ayer lo pude probar.

En el horizon forbidden west, activar el DLSS calidad y en el frame generator seleccionar FSR 3.1. Probé un poco y luego solo cambié el frame generator a DLSS.

La verdad que no noté diferencia y los FPS seguian igual. Aunque mi monitor solo da 120hz.

El caso es que en linux a nvidia no le ha salido de los huevos activar el DLSS frame generator pero sí el de la resolución y el reflex. Así que con esto ya podriamos tener también el ansiado frame generator si no hay diferencia.
Nomada_Firefox escribió:
hh1 escribió:En la mayoría de casos ,el FSR se ve mejor en graficas AMD.Eso también es cierto.

Pues no, no dan más calidad, se ve igual de mal en esa situación que no quiero decir que se vea mal porque sí, solo que el DLSS es superior. Tambien Nvidia lo explota bien en sus precios.

No ,yo no digo que se vean mejor FSR con AMD que el DLSS.
Digo que ya se hicieron en algunos sitios comparativas de FRR en tarjetas Nvidia y AMD ,y generalmente ,el FSR ,va mejor y n AMD que en Nvidia.

Evidentemente ,por bien que vaya ,no se ve mejor que el DLSS.
hh1 escribió:
Nomada_Firefox escribió:
hh1 escribió:En la mayoría de casos ,el FSR se ve mejor en graficas AMD.Eso también es cierto.

Pues no, no dan más calidad, se ve igual de mal en esa situación que no quiero decir que se vea mal porque sí, solo que el DLSS es superior. Tambien Nvidia lo explota bien en sus precios.

No ,yo no digo que se vean mejor FSR con AMD que el DLSS.
Digo que ya se hicieron en algunos sitios comparativas de FRR en tarjetas Nvidia y AMD ,y generalmente ,el FSR ,va mejor y n AMD que en Nvidia.

Evidentemente ,por bien que vaya ,no se ve mejor que el DLSS.

Bueno yo tuve una grafica RX hasta hace no tanto y tambien tenia una Nvidia. La ganancia de rendimiento era muy similar usandolo en una que en otra y la calidad lo mismo.

Pero su talon de aquiles es cuando bajas del nivel de detalle de calidad. Aún asi, nunca entendere que AMD lo permitiera usar en graficas de Nvidia. Aunque lo aplaudo, es incomprensible que lo hicieran, no ganan nada con ello y le hacen la cama.
hh1 escribió:
javier español escribió:
hh1 escribió:Pero es poner FSR y sí noto instantáneamente más borrosidad..
Me ocurre siempre.

No digas eso que se te van a echar encima los pro-AMD... ;)

Saludos.

Es la realidad.Si se echa encima, tiene un problema.A mí me la pela porque no soy pro nada.
Dicho esto, también es cierto que no se ve igual en gráfica AMD que en gráficas Nvidia.
En la mayoría de casos ,el FSR se ve mejor en graficas AMD.Eso también es cierto.

Es lo normal, es para lo que fue diseñado en un principio y, como no, es de agradecer que lo implementaran también en gráficas NVIDIA de series anteriores, no solo en las más modernas, al César lo que es del César. ;)

Saludos.
Nomada_Firefox escribió:
hh1 escribió:
Nomada_Firefox escribió:Pues no, no dan más calidad, se ve igual de mal en esa situación que no quiero decir que se vea mal porque sí, solo que el DLSS es superior. Tambien Nvidia lo explota bien en sus precios.

No ,yo no digo que se vean mejor FSR con AMD que el DLSS.
Digo que ya se hicieron en algunos sitios comparativas de FRR en tarjetas Nvidia y AMD ,y generalmente ,el FSR ,va mejor y n AMD que en Nvidia.

Evidentemente ,por bien que vaya ,no se ve mejor que el DLSS.

Bueno yo tuve una grafica RX hasta hace no tanto y tambien tenia una Nvidia. La ganancia de rendimiento era muy similar usandolo en una que en otra y la calidad lo mismo.

Pero su talon de aquiles es cuando bajas del nivel de detalle de calidad. Aún asi, nunca entendere que AMD lo permitiera usar en graficas de Nvidia. Aunque lo aplaudo, es incomprensible que lo hicieran, no ganan nada con ello y le hacen la cama.

No hablaba en rendimiento, sino en calidad.
Cambia defknición y colores al usar FSR en una o en otra..
Y en general,sale mejor parada AMD.

Que todos los puedan usar está genial,la verdad.

Si llego a saber eso antes de vender mi 308Ti, lo mismo hubiese seguido con ella.
Da vida a muchas gráficas .
(mensaje borrado)
@gojesusga Personalmente me iría a una 4070 TI Super, no sé cuánto de más tendrás que poner, pero supondrá una mejora considerable. Para mi a día de hoy es un requisito los 16 Gb de Vram.
boarone escribió:@Zenos Menudo bicho de equipo tienes!!

Si, es mi vicio. [oki]

@gojesusga Estoy de acuerdo con el compañero @boarone Es lo que te sale mas rentable a todos los niveles.
boarone escribió:@gojesusga Personalmente me iría a una 4070 TI Super, no sé cuánto de más tendrás que poner, pero supondrá una mejora considerable. Para mi a día de hoy es un requisito los 16 Gb de Vram.



La ti super se me va unos 200€ aprox no creo que me valga la pena. Aun juego a 1080p [+risas] Eso sí le meto filtros y todo a tope.
gojesusga escribió:
boarone escribió:@gojesusga Personalmente me iría a una 4070 TI Super, no sé cuánto de más tendrás que poner, pero supondrá una mejora considerable. Para mi a día de hoy es un requisito los 16 Gb de Vram.



La ti super se me va unos 200€ aprox no creo que me valga la pena. Aun juego a 1080p [+risas] Eso sí le meto filtros y todo a tope.


Merece mucho la pena esos 200€ de mas. Sobretodo por la vram y la potencia extra hara que aguantes bastante mejor con el paso de los años.

Yo también tengo una 3080 comprada nueva antes de la burbuja de precios y ni me lo pensaba.

Incluso la revendes y le sacas mas beneficio.
Euro por frame es mejor la 470 super


La 7900gre incluso mas si no usas RT


Pero si vas a 4K la ti super que si sigues en 1080 para 5 años mas no lo veo la ti super
@gojesusga corre a por esa RTX 4070 TI por 50€.
ivan95 escribió:@gojesusga corre a por esa RTX 4070 TI por 50€.


Sabeis si falta mucho para que salga la serie 5000 ? porque también me puedo esperar unos meses... ahora mismo tampoco juego mucho
yo ahora mismo si iria a la 4070 ti super, por los 16gb si juegas en 4K, si sigues en 1080p una 4070ti es genial por 50€
gojesusga escribió:
ivan95 escribió:@gojesusga corre a por esa RTX 4070 TI por 50€.


Sabeis si falta mucho para que salga la serie 5000 ? porque también me puedo esperar unos meses... ahora mismo tampoco juego mucho


Si, las de mas de 1000€ saldran para finales de este año, ¿Vas a esperarlas?
ivan95 escribió:
gojesusga escribió:
ivan95 escribió:@gojesusga corre a por esa RTX 4070 TI por 50€.


Sabeis si falta mucho para que salga la serie 5000 ? porque también me puedo esperar unos meses... ahora mismo tampoco juego mucho


Si, las de mas de 1000€ saldran para finales de este año, ¿Vas a esperarlas?


No, porque aun falta bastante. En diciembre o enero es demasiado, si que es cierto que bajarían de precio porque entiendo que bajarían las 4090 pero claro las demás también.
Me dio por mirar los resultados superposition benchmark results. Y veo que:

1° está en 30k Score

en el puesto 100 saco 19k de puntuación.....

Con la "misma tarjeta gráfica" y procesador pero te vas a detalles del 1° puesto temperatura máxima de cpu y GPU -47c :o ya veo. Aún Así que mousto de 4090...

[toctoc] a ver cómo se queda la FE 5080 en construcción, temperaturas, consumo y rendimiento

¿Se sabe mes de salida
@gojesusga pues más fresquita es, pero el rendimiento es prácticamente el mismo, al menos si no usas RT, etc... donde las series 4000 han mejorado respecto a las series 3000.

Saludos.
gojesusga escribió:
PSX22 escribió:yo ahora mismo si iria a la 4070 ti super, por los 16gb si juegas en 4K, si sigues en 1080p una 4070ti es genial por 50€


Sí, esa era la idea, porque con la 3080 aun poniendo filtros iba muy bien.

Al final me he cogido una 4070ti veremos a ver la diferencia respecto a la 3080 espero que al menos sea más fresquita y rinda algo más...



la 4070 ti es mas rapida que la 3080 y consume menos.

facilmente le sacara 10-12 fps en los mismos juegos, tampoco vas a notar un super salto, pero si estabas contento lo seguiras estando y es mejor tarjeta y mas vram creo que la antigua tenia solo 10GB y esta 12GB, no sobra pero alcanza salvo FG 4K ultra
Buen bixo esa 4070ti, aunque tuve que elegir entre una 3080 (500 €) y una 4070ti (900€) y me quedé con la primera.
https://www.tomshardware.com/tech-industry/artificial-intelligence/sohu-ai-chip-claimed-to-run-models-20x-faster-and-cheaper-than-nvidia-h100-gpus

Se le acaba el chollo a NVIDIA ? Si hay unos chinos preparando un ASIC para inferencias de transformers, seguro que tambien hay compañias yankies intentando hacer esto
654321 escribió:https://www.tomshardware.com/tech-industry/artificial-intelligence/sohu-ai-chip-claimed-to-run-models-20x-faster-and-cheaper-than-nvidia-h100-gpus

Se le acaba el chollo a NVIDIA ? Si hay unos chinos preparando un ASIC para inferencias de transformers, seguro que tambien hay compañias yankies intentando hacer esto

Descuida que sacando algo comparable, el tio sam prohibira su venta fuera de china.
Nomada_Firefox escribió:Descuida que sacando algo comparable, el tio sam prohibira su venta fuera de china.

Sí, pero bueno, la cosa es que solo con el mercado chino a esa empresa le puede ir bien. Y si les va bien, a ver lo que tarda alguien en Europa o USA en sacar algo parecido.

La cosa es que NVIDIA aunque tenga algo así, igual pasa de sacarlo pq no quiere matar la gallina de los güevos de oro, como hizo nokia con Maemo para no matar a Symbian.

Vamos, que si llega a hacerse realidad, le quitan una buena tajada del mercado a NVIDIA, y ya los gamers no seremos tan insignificantes.
654321 escribió:https://www.tomshardware.com/tech-industry/artificial-intelligence/sohu-ai-chip-claimed-to-run-models-20x-faster-and-cheaper-than-nvidia-h100-gpus

Se le acaba el chollo a NVIDIA ? Si hay unos chinos preparando un ASIC para inferencias de transformers, seguro que tambien hay compañias yankies intentando hacer esto


Era de esperar que en un mundo globalizado Nvidia fuese la única que sacase ese tipo de hard.

Si esto es así pues Nvidia tendrá que estrujar más la vaca y sacar algo parecido.
Nomada_Firefox escribió:
654321 escribió:https://www.tomshardware.com/tech-industry/artificial-intelligence/sohu-ai-chip-claimed-to-run-models-20x-faster-and-cheaper-than-nvidia-h100-gpus

Se le acaba el chollo a NVIDIA ? Si hay unos chinos preparando un ASIC para inferencias de transformers, seguro que tambien hay compañias yankies intentando hacer esto

Descuida que sacando algo comparable, el tio sam prohibira su venta fuera de china.



como sean como las gpus chinas Moore Threads...
654321 escribió:
Nomada_Firefox escribió:Descuida que sacando algo comparable, el tio sam prohibira su venta fuera de china.

Sí, pero bueno, la cosa es que solo con el mercado chino a esa empresa le puede ir bien. Y si les va bien, a ver lo que tarda alguien en Europa o USA en sacar algo parecido.

Eso no es asi, porque a china ya no pueden vender. Han vendido mucho a India, y tambien en EEUU.
Nomada_Firefox escribió:
654321 escribió:
Nomada_Firefox escribió:Descuida que sacando algo comparable, el tio sam prohibira su venta fuera de china.

Sí, pero bueno, la cosa es que solo con el mercado chino a esa empresa le puede ir bien. Y si les va bien, a ver lo que tarda alguien en Europa o USA en sacar algo parecido.

Eso no es asi, porque a china ya no pueden vender. Han vendido mucho a India, y tambien en EEUU.

Nvidia si que puede vender a china, lo que no puede vender son las gráficas que ofrecen más potencia para la IA.
Por eso la 5080 no va a ser más potente que la 4090, porque tiene la potencia justa para poder venderse en china.
No es verdad que Nvidia no pueda vender nada a china, solo le han puesto un tope de potencia.
Ya y precisamente estabamos hablando de graficas para IA. Es bueno leer todo lo que se escribe.
Nomada_Firefox escribió:Ya y precisamente estabamos hablando de graficas para IA. Es bueno leer todo lo que se escribe.

Y para que te crees que van a usar las 5080?
Pues para IA.
Que se queden justo por debajo del límite de potencia que ha puesto EEUU no hace que dejen de ser la mejor opción que hay.
Por lo que si, nvidia sigue y seguirá vendiendo graficas para IA en china.
También es bueno PENSAR antes lo que uno escribe.
También es bueno PENSAR antes lo que uno escribe.

Esta claro que algunos nunca cambian.

Punto 1, eso es practicamente un bulo que se dice y desde luego tu no sabes si es cierto. Y salta a la vista que no te dedicas a nada relacionado con la IA.

Punto 2, tienes mucha costumbre de faltar a todo el mundo. Tio no hay quien te aguante.

Punto 3 ¿Quien te crees que eres? nunca aportas un solo tema nuevo y criticas a todos. Pues un avatar en un foro. Simplemente eso. Volviendo al punto 1, aunque me digas que trabajas en google no te voy a creer, esta claro que tengo más relación con google yo que tu y sigo sin dedicarme a nada relacionado con la IA más alla de mejorar videos e imagenes. :)
Nomada_Firefox escribió:
También es bueno PENSAR antes lo que uno escribe.

Esta claro que algunos nunca cambian.

Punto 1, eso es practicamente un bulo que se dice y desde luego tu no sabes si es cierto. Y salta a la vista que no te dedicas a nada relacionado con la IA.

Punto 2, tienes mucha costumbre de faltar a todo el mundo. Tio no hay quien te aguante.

Punto 3 ¿Quien te crees que eres? nunca aportas un solo tema nuevo y criticas a todos. Pues un avatar en un foro. Simplemente eso. Volviendo al punto 1, aunque me digas que trabajas en google no te voy a creer, esta claro que tengo más relación con google yo que tu y sigo sin dedicarme a nada relacionado con la IA más alla de mejorar videos e imagenes. :)

XDDDDDDDDDDDDDDDD
Me hablas de bulos tu que acabas de sacarte de la chistera mágica que nvidia ya no vende en la china graficas que se usen para la ia?
A quien ya nos conocemos todos es a ti que cada vez que hablas es para soltar algo completamente equivocado.
Pero en fin la culpa es mía por contestarte en vez de dedicarme a leer y reirme en mi casa como siempre.
BYE!
14369 respuestas