[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Micropagos está baneado por "Saltarse el baneo con un clon"
Como decia arriba las RTX 4000 van duplicar rendimiento, pero a costa de un consumo bastante alto:

https://mobile.twitter.com/greymon55/status/1496509701273833475
Micropagos escribió:Como decia arriba las RTX 4000 van duplicar rendimiento, pero a costa de un consumo bastante alto:

https://mobile.twitter.com/greymon55/status/1496509701273833475


No me creo nada respecto al consumo, lo veo totalmente ilogico, y mas cuando se tiende a ir hacia lo verde y el bajo consumo. Los rumores eso son, luego nadie los recuerda, pero nadie acerto ni con los precios ni con el rendimiento de las rtx 3000 y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.
Micropagos está baneado por "Saltarse el baneo con un clon"
@colado

Con los precios nadie puede acertar ya que es algo volátil hasta última hora, con todo lo demas si hay bastante personas con su fuentes que han acertado y demostrado ser fiables.
Toda esta rumologia salen de esas personas que tienen cierta credebilidad, no son rumores cogidos de cualquier Twitter radom.
@Micropagos Ya lo veremos en unos meses, sigo sin concebir que vayan a consumir tanto y rendir el doble o mas. Pero si se confirman los rumores, sere el primer en admitir mi error y en comprar una 4080
Si eso se confirma me parece una animalada el consumo.

Van a ser complicadas de refrigerar, a ver que montan para enfriarlas porque va ser un desafio.

No veo descabellado unos 450W para una 4090, pero una 4080 pasar de 400W me parece excesivo, veremos los precios porque claro, estos consumos conllevan mejores materiales para refrigerar y más caros, amen de componentes electronicos posiblemente más caros tambien.
colado escribió:
Micropagos escribió:Como decia arriba las RTX 4000 van duplicar rendimiento, pero a costa de un consumo bastante alto:

https://mobile.twitter.com/greymon55/status/1496509701273833475


No me creo nada respecto al consumo, lo veo totalmente ilogico, y mas cuando se tiende a ir hacia lo verde y el bajo consumo. Los rumores eso son, luego nadie los recuerda, pero nadie acerto ni con los precios ni con el rendimiento de las rtx 3000 y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.


Pero como que tiende a ir todo al bajo consumo...

-2080Ti 250w TDP

-3080Ti 350w TDP
Yo no me creo esos consumos tan desorbitados.
Si duplican rendimiento a costa de esos consumos,que se las queden ellos .Ni con un palo.
La factura de la uz puede ser épica.

Si ya me duele tener a veces a la 3080Ti en 275-300-325W...
esperemos que no se le vaya de las manos los precios jeje
He visto calefactores con menos consumo que eso [+risas]
No os sorprendais gente, una Asus Strix 3080 se puede zampar fácil 400W.
Bueno esa y cualquier otro modelo que su Bios y concetores de alimentación se lo permita XD
Jo , es que con estas cifras de lo que consumira todo el PC, igual te saltan los plomos. Yo en el pueblo si conecto una radial grande, es que me saltan los plomos, si llegamos a 1200W en total, entre grafica, cpu, etc, habra gente flipe, maxime si el consumo no es estable.

@elborti Espera que se gastan 9000 millones de dolares en conseguir suministro de obleas y van a vender barato. [sonrisa]

@hh1 El tema de los consumos esta un poco mal explicado porque es lo que va gastarte el PC con una 4090 y una CPU top. Y viendo lo que gastan las RTX 30, no es tan descabellado. Solamente las 3060/3060Ti/3070 tienen un consumo moderado. Las 3070Ti ya se meten en 290W y todo lo demas lo supera. Ya ahora mismo le sumas un Intel 12900K y seguro que puedes hablar de unos picos de consumo muy altos.

El tema de la reducción de los nm de la arquitectura tiene su ironia. Quien dice que mejora el consumo, simplemente no explica por que y asi acabamos discutiendo. [sonrisa]

El caso es que el tamaño se reduce y se mejora la eficiencia porque para meter los transistores que entraban en un tamaño mayor en uno menor, tienes que hacerlo.

Lo que mucha gente no dice y me pregunto si lo saben, es que de propina meten más transistores para hacer algo más potente en ese espacio más pequeño y acaba por no ser tan eficiente porque otra vez estan rozando los limites.

Y ahora la cuestión de las RTX 40. Si fuera un refrito a secas, con la misma cantidad de transistores, serian eficientes. Pero como van a forzar la maquinaria, es posible que al final sea una vez más un chisme rozando el limite de la arquitectura y nada eficiente.
FranciscoVG escribió:
colado escribió:
Micropagos escribió:Como decia arriba las RTX 4000 van duplicar rendimiento, pero a costa de un consumo bastante alto:

https://mobile.twitter.com/greymon55/status/1496509701273833475


No me creo nada respecto al consumo, lo veo totalmente ilogico, y mas cuando se tiende a ir hacia lo verde y el bajo consumo. Los rumores eso son, luego nadie los recuerda, pero nadie acerto ni con los precios ni con el rendimiento de las rtx 3000 y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.


Pero como que tiende a ir todo al bajo consumo...

-2080Ti 250w TDP

-3080Ti 350w TDP


Hombre lo justo seria compararla con una 3060ti/3070, que son las que rondan en rendimiento a esa 2080ti

Y si, le recortan entre 30/50w teniendo un rendimiento similar

Vamos que no es por defender a NVIDIA, que a mi ya 250w me parece una estufa mas que un gráfica XD XD
dinamita4922 escribió:
FranciscoVG escribió:
colado escribió:
No me creo nada respecto al consumo, lo veo totalmente ilogico, y mas cuando se tiende a ir hacia lo verde y el bajo consumo. Los rumores eso son, luego nadie los recuerda, pero nadie acerto ni con los precios ni con el rendimiento de las rtx 3000 y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.


Pero como que tiende a ir todo al bajo consumo...

-2080Ti 250w TDP

-3080Ti 350w TDP


Hombre lo justo seria compararla con una 3060ti/3070, que son las que rondan en rendimiento a esa 2080ti

Y si, le recortan entre 30/50w teniendo un rendimiento similar

Vamos que no es por defender a NVIDIA, que a mi ya 250w me parece una estufa mas que un gráfica XD XD


Lo justo no, yo no estoy comparando rendimientos simplemente estoy poniendo la grafica que mas consume de una generacion respecto a la siguiente, que ademas son de la misma gama, y como pongo los consumos han aumento 100w lo que no es ninguna broma

Una 3080 a 450w por mi parte se la pueden meter muy adentro con la caja incluida pero visto lo visto no es nada descabellado, y ya no es solo por el consumo si no el calor, el que haya tenido una 3080 o superior en verano con 35 grados a la sombra me entenderá :p
Resulta casi divertido que aumentando los consumos todo el mundo empieza a preocuparse, no por lo que consuma, sino porque tendran que cambiar la fuente de alimentación. [sonrisa]

Nada, 400W es lo que viene a gastar una lampara de cuarzo de esas que dan luz naranja y calienta bastante. Asi que se puede tener tarjeta grafica y radiador todo en un uno. [sonrisa]
Yo es que sin tener ni idea pienso que lo de ir aumentando el consumo cada año para añadir potencia bruta no es el camino a seguir, deberian de ir mas pensando en la optimizacion y los algoritmos de escalado de imagen.
maikel_eol escribió:Yo es que sin tener ni idea pienso que lo de ir aumentando el consumo cada año para añadir potencia bruta no es el camino a seguir, deberian de ir mas pensando en la optimizacion y los algoritmos de escalado de imagen.

La cuestión es que seguramente creen en paralelo nuevas tecnologias. Nvidia saco el RT, DLSS, ahora el DLDRS. Pero todas esas cosas no pueden hacerlas de un par de años en un par de años. Asi que el exprimir lo existente es lo logico porque todo lo demas tiene desarrollos más largos y costosos.
FranciscoVG escribió:
dinamita4922 escribió:
FranciscoVG escribió:
Pero como que tiende a ir todo al bajo consumo...

-2080Ti 250w TDP

-3080Ti 350w TDP


Hombre lo justo seria compararla con una 3060ti/3070, que son las que rondan en rendimiento a esa 2080ti

Y si, le recortan entre 30/50w teniendo un rendimiento similar

Vamos que no es por defender a NVIDIA, que a mi ya 250w me parece una estufa mas que un gráfica XD XD


Lo justo no, yo no estoy comparando rendimientos simplemente estoy poniendo la grafica que mas consume de una generacion respecto a la siguiente, que ademas son de la misma gama, y como pongo los consumos han aumento 100w lo que no es ninguna broma

Una 3080 a 450w por mi parte se la pueden meter muy adentro con la caja incluida pero visto lo visto no es nada descabellado, y ya no es solo por el consumo si no el calor, el que haya tenido una 3080 o superior en verano con 35 grados a la sombra me entenderá :p


Pero para calcular que generación es mas o menos tragona tienes que meter en la ecuación el rendimiento, y sacar la relación rendimiento por watio

Es evidente que la generación rtx 3000 es mas eficiente que las rtx 2000

Otra cosa es que luego en términos absoluto de consumo las rtx 3000 tenga gráficas que consumen mas que la rtx2080ti

La 3060ti, son 2 gamas inferior a la 2080ti y se queda a un 8% menos en rendimiento y 50w menos
La 3070ti es 1 gama inferior a la 2080ti, le saca un 8% en rendimiento y consume 30w menos

Se le puede dar todas las vueltas que uno quiera, pero esto es así

Y como te digo para mi ya 250w son excesivos para cualquier GPU
Nomada_Firefox escribió:Resulta casi divertido que aumentando los consumos todo el mundo empieza a preocuparse, no por lo que consuma, sino porque tendran que cambiar la fuente de alimentación. [sonrisa]

Nada, 400W es lo que viene a gastar una lampara de cuarzo de esas que dan luz naranja y calienta bastante. Asi que se puede tener tarjeta grafica y radiador todo en un uno. [sonrisa]

Hombre...y el gasto eléctrico.Está la cosa en España para gilipolleces con esto.
A mí me parece una barbaridad ,y para mí ,ya motivo suficiente para no comprar.
Ya cambie la 3080 por una 6900xt y lo he notado, con undervolt la tengo a 140w de gasto con frecuencias a 2100mhz y sinceramente me dan muy pocas ganas de cambiarme ya viendo el panorama por muy potentes que sean las nuevas.
hh1 escribió:Hombre...y el gasto eléctrico.Está la cosa en España para gilipolleces con esto.
A mí me parece una barbaridad ,y para mí ,ya motivo suficiente para no comprar.

Hay una cosa del gasto electrico que tampoco dicen nunca en las noticias, la corriente electrica esta cara pero eso afecta solo al mercado mayorista y sus subastas. De momento no se pagan las cifras que se dicen en las noticias.

Y respecto a las graficas, son consumos maximos ¿quien va a tenerlas a tope muchas horas? ¿un minero? pues si las usan para minar, a galeras a remar. [sonrisa]

A mi me preocupan los consumos pero más por la temperatura que alcancen. Y asi recordando si bien no era una RTX 40, hay la noticia de que la 3090Ti no la sacaron porque los ensambladores tenian problemas con las temperaturas. Y lo mismo puede suceden con Lovelace, que con los materiales habituales, las graficas no salgan buenas. Pareceria raro pero cuando miras como son los modelos actuales comparado con lo que habia antes, no es tan sorprendente. Sobretodo los modelos buenos. ¡Yo tengo una 3060 que sera como la 3080 de la misma clase dentro del PC y es como un ladrillo de grande! :O

No se si lo dice alguna vez pero una de las cosas que me hizo pensar no quiero esperar a las RTX 40 eran los consumos electricos. Me parecen graficas no aptas para el mundo en el que vivimos y muy poco eficientes por mucho que alguien me vendan que han metido más transistores en la mitad de espacio.
Y yo que pongo el FidelityFX en "balanced" o "performance" para que mi GTX 1070 gaste solo 50W en 1080p 60fps XD
dinamita4922 escribió:
FranciscoVG escribió:
dinamita4922 escribió:
Hombre lo justo seria compararla con una 3060ti/3070, que son las que rondan en rendimiento a esa 2080ti

Y si, le recortan entre 30/50w teniendo un rendimiento similar

Vamos que no es por defender a NVIDIA, que a mi ya 250w me parece una estufa mas que un gráfica XD XD


Lo justo no, yo no estoy comparando rendimientos simplemente estoy poniendo la grafica que mas consume de una generacion respecto a la siguiente, que ademas son de la misma gama, y como pongo los consumos han aumento 100w lo que no es ninguna broma

Una 3080 a 450w por mi parte se la pueden meter muy adentro con la caja incluida pero visto lo visto no es nada descabellado, y ya no es solo por el consumo si no el calor, el que haya tenido una 3080 o superior en verano con 35 grados a la sombra me entenderá :p


Pero para calcular que generación es mas o menos tragona tienes que meter en la ecuación el rendimiento, y sacar la relación rendimiento por watio

Es evidente que la generación rtx 3000 es mas eficiente que las rtx 2000

Otra cosa es que luego en términos absoluto de consumo las rtx 3000 tenga gráficas que consumen mas que la rtx2080ti

La 3060ti, son 2 gamas inferior a la 2080ti y se queda a un 8% menos en rendimiento y 50w menos
La 3070ti es 1 gama inferior a la 2080ti, le saca un 8% en rendimiento y consume 30w menos

Se le puede dar todas las vueltas que uno quiera, pero esto es así

Y como te digo para mi ya 250w son excesivos para cualquier GPU


Y yo te vuelvo a repetir que yo no estoy hablando de eso, no hablo de eficiencia simplemente los consumos que tienen cada una de las gamas que es lo que se estaba discutiendo aqui, el consumo maximo que van a alcanzar las tope de gama de nvidia, lo que tu planteas es algo totalmente distinto

Pero bueno ya que lo dices tampoco es tan bonito como lo pintas el tema de la eficiencia

Imagen

Una 1660Ti que es arquitectura Turing esta a la par en eficiencia a una 3080 ti , y supera a las 3080, 3050, 3060, 3070Ti y 3090, a la mayoría básicamente, las unicas que realmente han dado un salto en eficiencia son las de AMD

Por cierto lo que dices de la 3070Ti es falso, la 3070Ti consume mas que la 2080Ti, fijate en la tabla que he puesto
Nomada_Firefox escribió:
hh1 escribió:Hombre...y el gasto eléctrico.Está la cosa en España para gilipolleces con esto.
A mí me parece una barbaridad ,y para mí ,ya motivo suficiente para no comprar.

Hay una cosa del gasto electrico que tampoco dicen nunca en las noticias, la corriente electrica esta cara pero eso afecta solo al mercado mayorista y sus subastas. De momento no se pagan las cifras que se dicen en las noticias.

Y respecto a las graficas, son consumos maximos ¿quien va a tenerlas a tope muchas horas? ¿un minero? pues si las usan para minar, a galeras a remar. [sonrisa]

A mi me preocupan los consumos pero más por la temperatura que alcancen. Y asi recordando si bien no era una RTX 40, hay la noticia de que la 3090Ti no la sacaron porque los ensambladores tenian problemas con las temperaturas. Y lo mismo puede suceden con Lovelace, que con los materiales habituales, las graficas no salgan buenas. Pareceria raro pero cuando miras como son los modelos actuales comparado con lo que habia antes, no es tan sorprendente. Sobretodo los modelos buenos. ¡Yo tengo una 3060 que sera como la 3080 de la misma clase dentro del PC y es como un ladrillo de grande! :O

No se si lo dice alguna vez pero una de las cosas que me hizo pensar no quiero esperar a las RTX 40 eran los consumos electricos. Me parecen graficas no aptas para el mundo en el que vivimos y muy poco eficientes por mucho que alguien me vendan que han metido más transistores en la mitad de espacio.

Evidentemente ,para jugar no van siempre a tope de W ,pero el tener ha unos límites más altos ,ha me está dejando claro que va a consumir más.
450w me parecen una barbaridad ,peor es que 375w ,también.Y 350w ,también.
Y no creo que una que tiene el límite en 450w vaya muchas veces por debajo de 325w.Ese es el problema.

En otros países con la luz más barata y mayor s sueldos,se la peleará.Pero aquí en España está la cosa para meter cacharros gastones.
FranciscoVG escribió:
dinamita4922 escribió:
FranciscoVG escribió:
Lo justo no, yo no estoy comparando rendimientos simplemente estoy poniendo la grafica que mas consume de una generacion respecto a la siguiente, que ademas son de la misma gama, y como pongo los consumos han aumento 100w lo que no es ninguna broma

Una 3080 a 450w por mi parte se la pueden meter muy adentro con la caja incluida pero visto lo visto no es nada descabellado, y ya no es solo por el consumo si no el calor, el que haya tenido una 3080 o superior en verano con 35 grados a la sombra me entenderá :p


Pero para calcular que generación es mas o menos tragona tienes que meter en la ecuación el rendimiento, y sacar la relación rendimiento por watio

Es evidente que la generación rtx 3000 es mas eficiente que las rtx 2000

Otra cosa es que luego en términos absoluto de consumo las rtx 3000 tenga gráficas que consumen mas que la rtx2080ti

La 3060ti, son 2 gamas inferior a la 2080ti y se queda a un 8% menos en rendimiento y 50w menos
La 3070ti es 1 gama inferior a la 2080ti, le saca un 8% en rendimiento y consume 30w menos

Se le puede dar todas las vueltas que uno quiera, pero esto es así

Y como te digo para mi ya 250w son excesivos para cualquier GPU


Y yo te vuelvo a repetir que yo no estoy hablando de eso, no hablo de eficiencia simplemente los consumos que tienen cada una de las gamas que es lo que se estaba discutiendo aqui, el consumo maximo que van a alcanzar las tope de gama de nvidia, lo que tu planteas es algo totalmente distinto

Pero bueno ya que lo dices tampoco es tan bonito como lo pintas el tema de la eficiencia

Imagen

Una 1660Ti que es arquitectura Turing esta a la par en eficiencia a una 3080 ti , y supera a las 3080, 3050, 3060, 3070Ti y 3090, a la mayoría básicamente, las unicas que realmente han dado un salto en eficiencia son las de AMD

Por cierto lo que dices de la 3070Ti es falso, la 3070Ti consume mas que la 2080Ti, fijate en la tabla que he puesto


Te das cuenta de que el consumo no coincide pero sin embargo no ves que el rendimiento extra tampoco XD XD

Obviamente me refería a la 3070 a secas, y no a la 3070 ti como puse de forma incorrecta

Cuando comparo el consumo con la 2080 ti , me refiero siempre a la 3060ti y a la 3070

NVIDIA declara 200w para la 3060ti. 220w para la 3070 y 250w para la 2080ti, ojo...nvidia...modelos de referencia, y contando que no nos engañe

AMD era fácil bajar consumo porque llevan declarando consumos altos desde generaciones anteriores a nvidia,
La rx 6700xt declara amd 230w... Con un 2% mas de rendimiento que la 3060 ti....si que es eficiente si jejejejejeje
Para mi lo peor de los consumos tan altos no es tanto la factura sino por ejemplo jugar en Verano sin aire acondicionado con un bicharraco de estos.

Cuando tenia los SLI de 780 o de 980Ti habia veces que por no asarme preferia no jugar para no asarme tanto [qmparto]
Ahora la pregunta sera si necesitamos las RTX 40. Yo creo que no. Lo que necesita el mercado es más stock de lo actual y mejores precios. Aunque no se si tal y como estan poniendose las cosas en el mundo hecharemos de menos los precios actuales........ [facepalm]
Nomada_Firefox escribió:Ahora la pregunta sera si necesitamos las RTX 40. Yo creo que no. Lo que necesita el mercado es más stock de lo actual y mejores precios. Aunque no se si tal y como estan poniendose las cosas en el mundo hecharemos de menos los precios actuales........ [facepalm]

Estoy de acuerdo.Yo creo que los juegos se han estancado en equositos y técnicamente.
Ahora lo que ocurre es que se juega con más fps que antes .
Creo que ya con ciertas gráficas se mueve todo sobradísimo.
Pero esto no va a parar,y me parece bien.Cuanto mejor se pueda jugar,mejor para todos.
Ahora ,se les vam de las manos los precios y el stock.
Y otra cosa, me parece que hay muchos juegos malisimos y que juegos buenos hay pocos. Ni creo que hayan salido ni el 25% de los juegos de estas nuevas consolas.

Sin juego no se para que queremos graficas. [sonrisa]
Nomada_Firefox escribió:Y otra cosa, me parece que hay muchos juegos malisimos y que juegos buenos hay pocos. Ni creo que hayan salido ni el 25% de los juegos de estas nuevas consolas.

Sin juego no se para que queremos graficas. [sonrisa]

Han retardado muchísimos por el tema del Covid.
Por eso digo que tenemos gráficas muy por encima de lo que demandan los juegos,quitando 4 juegos contados.
Por eso vendría mejor una bajada de precio y un ajuste de consumo más que subir potencia.

Que sí,que en las 4000 ,lo mismo una 4070 va como una 3080Ti,pero claro,si de salida se va a 700€ que es lo más probable y se mete en 350-400w...
El problema de todo esto esta claro que son las gamas altas y la necesidad de mantenerse arriba para llamar la atención. Pero si miramos hacia abajo, a cosas como las 3050, vemos que hay mucho margen para seguir sacando refritos baratos de lo anterior, lo cual yo lo veria bien.

Lo unico de esto, es que los problemas de producción impiden fabricar muchas obleas que seria lo que facilitaria la salida de refritos baratos de lo anterior. Lo que no sabemos ciertamente, es el contrato de Nvidia con Samsung. Si es por millones y aún faltase por producir una buena cantidad, seguro que veriamos refritos. Sino es por cantidad sino más bien por te compro lo que produzcas, este año sera el fin de Ampere y tendran que sacar una gama entera basada en Lovelace (estupido nombre).
colado escribió:
Micropagos escribió:Como decia arriba las RTX 4000 van duplicar rendimiento, pero a costa de un consumo bastante alto:

https://mobile.twitter.com/greymon55/status/1496509701273833475


No me creo nada respecto al consumo, lo veo totalmente ilogico, y mas cuando se tiende a ir hacia lo verde y el bajo consumo. Los rumores eso son, luego nadie los recuerda, pero nadie acerto ni con los precios ni con el rendimiento de las rtx 3000 y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.


Yo creo q solo se debe ver que las nuevas fuentes de alimentación pensadas para la nueva generación gráfica (con el conector especial pci express 5.0) , no bajan de 1000 watios la más "básica"... seguro que ellos saben cosas que nosotros aun no sabemos...
Micropagos está baneado por "Saltarse el baneo con un clon"
Con lo del hackeo de nvidia se van recopilando información:

- 144 SM ( el doble que la 3090) para el tope de gama, 2,5ghz.
- Una especie de cache grande L2 de 96mb, a lo RDNA2.

Parece que lo del 80-100% de rendimiento sobre la 3090 se puede cumplir.
Micropagos escribió:Con lo del hackeo de nvidia se van recopilando información:

- 144 SM ( el doble que la 3090) para el tope de gama, 2,5ghz.
- Una especie de cache grande L2 de 96mb, a lo RDNA2.

Parece que lo del 80-100% de rendimiento sobre la 3090 se puede cumplir.

Me resulta muy curioso que los aumentos de cuda cores en la 4090 sea de unos 8000 cuando indican que en otros modelos es de unos 2000 solo en el caso de la 3080.
Micropagos está baneado por "Saltarse el baneo con un clon"
Nomada_Firefox escribió:
Micropagos escribió:Con lo del hackeo de nvidia se van recopilando información:

- 144 SM ( el doble que la 3090) para el tope de gama, 2,5ghz.
- Una especie de cache grande L2 de 96mb, a lo RDNA2.

Parece que lo del 80-100% de rendimiento sobre la 3090 se puede cumplir.

Me resulta muy curioso que los aumentos de cuda cores en la 4090 sea de unos 8000 cuando indican que en otros modelos es de unos 2000 solo en el caso de la 3080.


No entiendo muy bien tu comentario, la RTX 4090 con 144SM tendria 18,432 cudas core y la rtx 3080 tiene 8704 cudas core.
Micropagos escribió:
Nomada_Firefox escribió:
Micropagos escribió:Con lo del hackeo de nvidia se van recopilando información:

- 144 SM ( el doble que la 3090) para el tope de gama, 2,5ghz.
- Una especie de cache grande L2 de 96mb, a lo RDNA2.

Parece que lo del 80-100% de rendimiento sobre la 3090 se puede cumplir.

Me resulta muy curioso que los aumentos de cuda cores en la 4090 sea de unos 8000 cuando indican que en otros modelos es de unos 2000 solo en el caso de la 3080.


No entiendo muy bien tu comentario, la RTX 4090 con 144SM tendria 18,432 cudas core y la rtx 3080 tiene 8704 cudas core.

Segun comentaban la 4080 tendra sobre 10000. ¿No es un poco raro el incremento de la 4090?
Micropagos está baneado por "Saltarse el baneo con un clon"
Sigo si entenderte lo siento, no se aque te refieres sobre 10,000.
Micropagos escribió:Sigo si entenderte lo siento, no se aque te refieres sobre 10,000.

Supongo que no leiste la notica, no pasa na. https://videocardz.com/newz/nvidia-gefo ... processors

Se dice que la 4090 tendra 18432 Cuda Cores siempre que Nvidia mantenga el mismo conteo de Cuda Core por Streaming Multiprocessor.

Siendo asi se indica que otras GPU serian las siguientes y se supone que el AD103 seria la 4080 que tiene un incremento de solo 2000 más o menos frente a la 3080.
The company is also planning AD103 GPU with 84 SMs (10752 CUDA cores) and AD104 with 60 SMs (7680 cores). The mid and low-end AD106 and AD107 GPUs should offer 36 SMs (4608 cores) and 24 SMs (3072 cores) respectively.


¿No es un poco curioso que la 4090 tuviera un incremento de 8000 mientras que todas las demas graficas no? No le veo sentido e igual el conteo no es el mismo o algo parecido.
Nomada_Firefox escribió:
Micropagos escribió:Sigo si entenderte lo siento, no se aque te refieres sobre 10,000.

Supongo que no leiste la notica, no pasa na. https://videocardz.com/newz/nvidia-gefo ... processors

Se dice que la 4090 tendra 18432 Cuda Cores siempre que Nvidia mantenga el mismo conteo de Cuda Core por Streaming Multiprocessor.

Siendo asi se indica que otras GPU serian las siguientes y se supone que el AD103 seria la 4080 que tiene un incremento de solo 2000 más o menos frente a la 3080.
The company is also planning AD103 GPU with 84 SMs (10752 CUDA cores) and AD104 with 60 SMs (7680 cores). The mid and low-end AD106 and AD107 GPUs should offer 36 SMs (4608 cores) and 24 SMs (3072 cores) respectively.


¿No es un poco curioso que la 4090 tuviera un incremento de 8000 mientras que todas las demas graficas no? No le veo sentido e igual el conteo no es el mismo o algo parecido.

Puede que básicamente con la tarjeta top quieran decir "aquí estoy yo con la más potente" y con el resto, básicamente ser realistas para un uso realista y suficiente.
Micropagos está baneado por "Saltarse el baneo con un clon"
Nomada_Firefox escribió:
Micropagos escribió:Sigo si entenderte lo siento, no se aque te refieres sobre 10,000.

Supongo que no leiste la notica, no pasa na. https://videocardz.com/newz/nvidia-gefo ... processors

Se dice que la 4090 tendra 18432 Cuda Cores siempre que Nvidia mantenga el mismo conteo de Cuda Core por Streaming Multiprocessor.

Siendo asi se indica que otras GPU serian las siguientes y se supone que el AD103 seria la 4080 que tiene un incremento de solo 2000 más o menos frente a la 3080.
The company is also planning AD103 GPU with 84 SMs (10752 CUDA cores) and AD104 with 60 SMs (7680 cores). The mid and low-end AD106 and AD107 GPUs should offer 36 SMs (4608 cores) and 24 SMs (3072 cores) respectively.


¿No es un poco curioso que la 4090 tuviera un incremento de 8000 mientras que todas las demas graficas no? No le veo sentido e igual el conteo no es el mismo o algo parecido.

Puede que el AD103 no sea para RTX 4080.

Actualmente la rtx 3080 usa GA102, por la cual la futura RTX 4080 se debería basar en el AD102, de momento creo que no sabe si esos 144 SM sea para 4090 o 4080, y de ser para la 4090, para la 4080 puede que usen AD102 recortados en SM, 128 SM tal vez.

Pero su pungo qe es muy pronto para sacar algo en claro ya que hay muchas posibilidades, de momento se dice el doble de rendimiento de forma general( en todas las gamas), por cual necesitarian el doble de SM.en rodas las gamas respecto a Ampere, pero quien sabe, puede que al final sea 50% de rendimiento y solo la 4090 sea mas para intentar sacar pecho como dicen arriba.
Lo de el doble de rendimiento no me lo creo, a menos que los obligará la competencia. Creo que Nvidia ofrecerá lo mínimo necesario para superar lo que presenten AMD e Intel y si es capaz de más se lo va a guardar para revisiones Ti, Súper o la siguiente generación.
No veo a Nvidia tan generosa.

colado escribió: y asi se vio el drama de todo el mundo intentando vender sus rtx 2000 a precio de derribo.
Eso de "todo el mundo" vendiendo me parece exagerado, lo leía por todas partes y anduve cazando una pero a la hora de la verdad solo habrán vendido cuatro gatos desesperados y no encontré ninguna :o
@Micropagos Puede ser, por eso digo que se dice que ese 103 es la 4080 pero yo la verdad no lo afirmaria. No obstante no deja de ser llamativa la diferencia en cuda de ese modelo con 18000 y pico frente a 10000 del más alto de los otros.

@Gnoblis Yo tampoco lo creo, de hecho no esperaria una ganancia mayor de la que hubo en las RTX 30. Y creo que esto lo tienen pactado Nvidia con AMD y ahora con Intel, no se van a poner a hacer una guerra de super rendimiento para desgastarse demasiado pronto. Igual que tambien creo que pactan los precios de las gamas. Sino hubiera nada pactado en esta vida, alguien podria reventar el mercado y no lo acabo de ver.
Nomada_Firefox escribió:Yo tampoco lo creo, de hecho no esperaria una ganancia mayor de la que hubo en las RTX 30. Y creo que esto lo tienen pactado Nvidia con AMD y ahora con Intel, no se van a poner a hacer una guerra de super rendimiento para desgastarse demasiado pronto. Igual que tambien creo que pactan los precios de las gamas. Sino hubiera nada pactado en esta vida, alguien podria reventar el mercado y no lo acabo de ver.
y aunque no hagan pactos formales seguramente están muy al tanto de lo que la competencia está haciendo para tomar medidas y van reaccionando y dosificando el lanzamiento de modelos y los precios para ajustarse a la competencia.
Creo que por eso tanto modelo Ti, Súper, XT, series intermedias, relanzamientos con más VRAM, todo muy escalonado en potencias y precios oficiales sugeridos, dónde cada una va respondiendo con un modelo un poquito mejor pero con el precio un poco más alto también, o un modelo con el precio más bajo pero ligeramente peor en algún aspecto también respecto a lo que lanza la otra.
Lo que no es propiamente pactar formalmente pero si es que los tres jugadores respetan unas reglas de juego no escritas para no apretar más de lo estrictamente necesario.
Yo estoy a la espera de que vayan anunciando cosas para saber si pillar una 40 o una 30.

El supuesto rendimiento que darán es una pasada pero mas aún lo es el consumo.

Como habéis dicho pillando una top de la 30 se tendría suficiente ya que los juegos no dan para mas.

De momento sigo esperando para montar el pc,ya que también tendría que pillar cpu y claro, se vienen cosas nuevas.

Lo mas seguro que haga es una vez consiga buenos precios, pillar algo decente e ir tirando con ello y en un futuro se verá.

Porque cambiar todo a la nueva arquitectura es muy caro e innecesario a día de hoy si es solo para jugar.
He visto como se ha "apagado" un PC por poner un juego a 4k con una gtx 1080, cuando normalmente jugaba a 1080p nunca había problemas.
Claro que el equipo tenía una tacens gaming mars con fiabilidad 0%

Yo también juego a 1080p, lo que puedo, la gráfica difícilmente usa su potencial,
seguramente jugando a menor resolución está gastando menos y estresas menos a la fuente.
Pero esto de irse a una fuente ya no solamente buena, sino con mucha potencia por seguridad, encarece el equipo.

La diferencia de consumo por la resolución puesta es solo uno de los factores, eso está claro.
Pero más w no me gusta nada
Al precio que está la electricidad ahora (y eso esperando que no suba) lo de jugar en ultra a 4k sale caro. Una simulación de un equipo a 1000w y jugando 4h al día.

Imagen

48€ al mes = 576€ año más impuestos [flipa]

Así que mejor juego en 1080p y con lo que me ahorro en la tarjeta y en la luz me voy de vacaciones... [sati]
@Mil @gadesx

Que? que tiene que ver jugar a 4k con el consumo energético? si juegas a 1080p y 240hz vas a tener el mismo consumo energetico con el mismo equipo que a 2160p y 60fps, incluso mas, porque el procesador tendra que rendir mas para obtener esa tasa de fps. El pc de mi firma, en 4k 60hz gasta alrededor de 400w
colado escribió:@Mil @gadesx

Que? que tiene que ver jugar a 4k con el consumo energético? si juegas a 1080p y 240hz vas a tener el mismo consumo energetico con el mismo equipo que a 2160p y 60fps, incluso mas, porque el procesador tendra que rendir mas para obtener esa tasa de fps. El pc de mi firma, en 4k 60hz gasta alrededor de 400w


Los procesadores son más comedidos con el consumo, al menos si nos vamos a las gamas altas de gráficas.

Yo al menos con una Seasonic m12 II 620W creo que me bajo del carro en esta carrera de rendimiento/consumo, parece una escalada lineal, ¿de qué me sirve tanta potencia si tengo que cambiar la fuente para darle de comer a la gráfica? Me parece que me queda GTX1080 para años, tengo de sobra con esta gráfica para 1080p@144Hz
Mil escribió:Al precio que está la electricidad ahora (y eso esperando que no suba) lo de jugar en ultra a 4k sale caro. Una simulación de un equipo a 1000w y jugando 4h al día.

Imagen

48€ al mes = 576€ año más impuestos [flipa]

Así que mejor juego en 1080p y con lo que me ahorro en la tarjeta y en la luz me voy de vacaciones... [sati]


Sale a 2,5€ la hora del vicio, no está mal.

Conozco vicios mas caros y que matan [qmparto]

Lo de las vacas si te lo compro.
fatron22 escribió:Yo estoy a la espera de que vayan anunciando cosas para saber si pillar una 40 o una 30.

Como siempre el precio minimo sera lo que marque esa decisión y me parece que existen muchas posibilidades de que sean más baratas las RTX 40 que las 30 porque les va a costar a estas ultimas mucho más el normalizarse.

Para mi el tema del consumo es más de temperaturas y tener que cambiar la fuente. Ningun equipo va a consumir lo maximo de continuo y si lo miras asi, el consumo seguro que no sera tanto. Yo no juego ni una hora al dia la mayoria de veces y uso el PC facilmente 8 horas al dia. Con ese plan, el consumo no sera tan alto ni ahora ni déspues.

@Mr.Gray Fox lo dices como sino hubiera aumentado el consumo incluso en la gama media....... :)
Mil escribió:Al precio que está la electricidad ahora (y eso esperando que no suba) lo de jugar en ultra a 4k sale caro. Una simulación de un equipo a 1000w y jugando 4h al día.

Imagen

48€ al mes = 576€ año más impuestos [flipa]

Así que mejor juego en 1080p y con lo que me ahorro en la tarjeta y en la luz me voy de vacaciones... [sati]



estás mal del coco si piensas que a la vez vas a consumir 1000w en un pc para jugar , por mucho que una gráfica consuma 400w a full.
14374 respuestas
1, 2, 3, 4, 5288