[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

JagerCrow escribió:...ahora suponiendo que ese aspecto se solucione y teniendo en cuenta que para tarjetas con menos TDP ya hay problema con los sistemas actuales para disipar tanto calor

yo solo pienso en cuantos podrán costearse ese upgrade

Es que es esto. No es tanto la factura de la luz.
Si el disipador ahora mismo ya es un monstruo, como va a ser uno para 600W? O eso o le suben las RPM a los ventiladores que se traduce en ruido.

Los fabricantes de líquidas se están frotando las patitas
Imagen
Buenos días, kopite acaba de dar el parte meteorológico de hoy 😝

Imagen
ram escribió:Buenos días, kopite acaba de dar el parte meteorológico de hoy 😝

Imagen

lo que yo imaginaba, tendremos 3080 custom con mas de 500W de consumo
"una 4070 viene con un TDP de 300W no es de extrañar que las custom de serie consuman 350w, y seguramente una 4080 se vaya a los 450W facilmente y las custom a 500W"
no se si reir o llorar, hasta la genracion 10 de Nvidia era raro ver a una grafica de la serie XX80 consumir mas de 250W, ahora nos vamos al doble o mas, de locos lo que se esta convirtiendo esto, vamos a tener que hacer como en las consolas, esperarnos al modelo Slim [+risas]
Edito; preparen con su nueva grafica un buen split de aire acondicionado por que te vas a asar en verano jugando con el PC, lo unico bueno es en invierno, ya tienes calefactor gratis
Yo estoy ansioso por ir conociendo los precios, van a ser prohibitivos [360º]
BennBeckman escribió:Yo estoy ansioso por ir conociendo los precios, van a ser prohibitivos [360º]

prohibitivo va a ser su consumo, no creo que salgan muy caras, ahora mismo no hay una necesidad real de cambiar de grafica, pocos juegos puden justificar saltar a la serie 4000, unidos a su consumo, pues la ostia puede ser curiosa
Namaskar está baneado por "clon de usuario baneado"
kikomanco escribió:o sea, de la 3080 a la 3090 hay una diferencia de un 10/12% +- y ahora me dices que la diferencia con una 2080ti de un 15% o menos [qmparto] [qmparto] [qmparto] si la 3060ti esta casi al nivel de la 2080ti y la 3070 la supera, vamos, lo tuyo es de club de la comedia


No se que es lo que no entiendes, he dicho que entre la 3090 vs la 2080ti que he tenido a su máximo oc o de stock, las diferencias en mi entorno de pruebas eran de ( en números redondos) : 3090 un 30% superior a la 2080ti y la 3080 un 15% superior a la 2080ti dicho de otro modo a ver si así me entiendes.

@garbaje_de_potanzos @FranciscoVG


Por otro lado sigamos con los porcentajes ya que tu amiguito y tu decís que no se calcular porcentajes y que los benchs sintéticos solo valen para pollagordear, pues vayamos con otra bateria de pruebas ya no mías porque como no os valen tiramos de una review de la 3080ti a ver ese 56% avg por encima de la 2080ti ande andará [+risas] Toma asiento, palomitas y relájate:

Horizon Zero Dawn 1080p ultra:

https://i.imgur.com/XynlsAA.jpg

3080ti 21% superior a la 2080ti

Horizon Zero Dawn 1440p ultra:

https://i.imgur.com/OzXhtki.jpg

3080ti 23.5% superior a la 2080ti

Horizon Zero Dawn 2160p ultra:

https://i.imgur.com/RlbVsBe.jpg

3080ti 40% superior a la 2080ti

Sigamos, SOTTR 1080p Alto DX12:

https://i.imgur.com/uZDHeeU.jpg

3080ti 13.5% superior a la 2080ti

SOTTR 1440p Alto DX12:

https://i.imgur.com/DAnoK6D.jpg

3080ti 23.5% superior a la 2080ti

SOTTR 2160p Alto DX12:

https://i.imgur.com/aBd2ju0.jpg

3080ti 39,5% superior a la 2080ti

Continuemos, Red Dead Redemtion 2 1080p Ultra Vulkan :

https://i.imgur.com/2e60Mrm.jpg

3080ti 30% superior a la 2080ti

Red Dead Redemtion 2 1440p Ultra Vulkan :

https://i.imgur.com/ccT8iRm.jpg

3080ti 29% superior a la 2080ti

Red Dead Redemtion 2 2160p Ultra Vulkan :

https://i.imgur.com/1q7b9iK.jpg

3980ti 42% superior a la 2080ti

Vamos a por más, Battlefield V 2160p Ultra:

https://i.imgur.com/Ha1HuOe.jpg

3080ti 42% superior a la 2080ti

Prosigo, Control 2160p RT on Dlss on 2160p:

https://i.imgur.com/4DYqEn5.jpg

3080ti 30% superior a la 2080ti

Pasamos al Cyberpunk 2077 1080p ultra:

https://i.imgur.com/cYjXBNF.jpg

3080ti 38,5% superior a la 2080ti

Cyberpunk 2077 1440p ultra:

https://i.imgur.com/tpKcK9x.jpg

3080ti 39% superior a la 2080ti

Cyberpunk 2077 2160p ultra:

https://i.imgur.com/AO8hCMr.jpg

3080ti 41% superior a la 2080ti

Si hacemos una media de todos los porcentajes resulta en un 32,32% AVG [fumando] Se acerca estrepitosamente a ese 31 o 32 % que yo mencione bajo mi setup con y sin oc (mi mayoría de testeos fueron a 1440p ultra 165hz que es como yo juego) ...y queda lejísimos de ese 56% de techpowerup [+risas]

Dejo por aquí la fuente de donde he sacado las capturas por si tu mismo o alguien quiere repasar los porcentajes totales y medios... como me decidas que no sabia calcular % pues ahí tienes entretenimiento para un rato ;)

https://www.youtube.com/watch?v=dLvdzKzTvSc&t=735s
@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente

@Namaskar Creo que te dejé claro que las pruebas sacadas elegidas con pizas y de vete a saber donde no las valoro, ponme pruebas de una batería de juegos corriendo a tiempo real, o páginas especializadas donde hacen pruebas con decenas de juegos bajo mismas condiciones y su media. Lo que vendes para mi es humo, no te esfuerces mas, siempre me creeré mas a las medias que sacan en fuentes contrastadas como Techpower up, gamers nexus o Hardware Unboxed que lo que me vendas tú, sorry.
Namaskar está baneado por "clon de usuario baneado"
garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente

@Namaskar Creo que te dejé claro que las pruebas sacadas elegidas con pizas y de vete a saber donde no las valoro, ponme pruebas de una batería de juegos corriendo a tiempo real, o páginas especializadas donde hacen pruebas con decenas de juegos bajo mismas condiciones y su media. Lo que vendes para mi es humo, no te esfuerces mas, siempre me creeré mas a las medias que sacan en Techpower up, gamers nexus o Hardware Unboxed que lo que me vendas tú, sorry.



Si venga dile tu a varo que se ha inventado todos los resultados, que no lo conoce ni su padre y que de paso es un vende humos. [+risas] Venga tío no me hagas reír.
@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.
kikomanco escribió:
BennBeckman escribió:Yo estoy ansioso por ir conociendo los precios, van a ser prohibitivos [360º]

prohibitivo va a ser su consumo, no creo que salgan muy caras, ahora mismo no hay una necesidad real de cambiar de grafica, pocos juegos puden justificar saltar a la serie 4000, unidos a su consumo, pues la ostia puede ser curiosa

El consumo me da igual, total, no creo que por tener el pc enchufado un par de horas al día repercuta mucho en la factura.
Para mí si hay necesidad, porque la última gpu que tuve fue hace 15 años. [qmparto]
Y estando la serie 4000 a la vuelta de la esquina, no voy a pillar una 3xxx.
Chaquetero está baneado por "troll"
BennBeckman escribió:El consumo me da igual


No sabes de lo que hablas. El día que tengas la mala suerte de tener una gráfica que consuma una burrada, ej gtx 580, rtx 3080, rx6800... Sabrás lo equivocado que estabas y lo desagradable que es tener un radiador al lado como no estés en invierno y aún así.

Si te fijas no hay ni un poseedor de 3070/6700 o superior que no busque desesperadamente undervoltear su grafica. Y no lo hacen por la durabilidad o por el rendimiento, lo hacen porque es un puñetero infierno sobretodo ahora en verano. Y esto no soluciona nada, porque pasar de 350w de consumo a 300w en el caso de las 3080 se nota muy poco.
Namaskar está baneado por "clon de usuario baneado"
garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.


No decías que uno de tus referentes era hardware unboxed?... pues toma nota:

https://www.youtube.com/watch?v=n4_4SKtq_Gs

Media a 1080p/1440p y 4k de 12 juegos mas [+risas]

3080ti 29% superior a la 2080ti a 1080p:

https://i.imgur.com/j1fcmON.jpg

3080ti 33.9% superior a la 2080ti a 1440p

https://i.imgur.com/nRAmkHY.jpg

3080ti 40% superior a la 2080ti a 4k

https://i.imgur.com/w5BqY0x.jpg

Media total : 34,3% 0J0 un 2% mas respecto a lo de varo [fumando]

También es un vende humos Hardware Unboxed no?... XD

Insisto, se nota que no habéis tenido toda la serie gama alta de las 3000 y 2000 ni caharreado como yo si he hecho. A mi no me hace falta recurrir a ningún sitio ya que lo pruebo en casa por mi mismo y ya dije que a 1440p era de un 31 o 32% bajo mi setup, con oc y de stock se mantenían también las mismas diferencias. Como ves ese 32 o 34% están mucho más a la par de mis resultados y eso que yo no metí en la ecuación el 4k en casi ninguna de mis pruebas de haberlo hecho hubiera tenido ese 34% aprox avg.

P.D: donde está ese 56% de tenchpower up?... yo no lo veo por ningún lado [qmparto]

Cierra la puerta al salir tu también gracias [bye]
Chaquetero escribió:
BennBeckman escribió:El consumo me da igual


No sabes de lo que hablas. El día que tengas la mala suerte de tener una gráfica que consuma una burrada, ej gtx 580, rtx 3080, rx6800... Sabrás lo equivocado que estabas y lo desagradable que es tener un radiador al lado como no estés en invierno y aún así.

Si te fijas no hay ni un poseedor de 3070/6700 o superior que no busque desesperadamente undervoltear su grafica. Y no lo hacen por la durabilidad o por el rendimiento, lo hacen porque es un puñetero infierno sobretodo ahora en verano. Y esto no soluciona nada, porque pasar de 350w de consumo a 300w en el caso de las 3080 se nota muy poco.

Pero no entiendo. ¿Hablas por el calor que desprende? ¿Ruido?¿Consumo eléctrico? Porque estas tres cosas me dan igual.
Namaskar escribió:
garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.


No decías que uno de tus referentes era hardware unboxed?... pues toma nota:

Media a 1080p/1440p y 4k de 12 juegos mas [+risas]

3080ti 29% superior a la 2080ti a 1080p:

https://i.imgur.com/j1fcmON.jpg

3080ti 33.9% superior a la 2080ti a 1440p

https://i.imgur.com/nRAmkHY.jpg

3080ti 40% superior a la 2080ti a 4k

https://i.imgur.com/w5BqY0x.jpg

Media total : 34,3% 0J0 un 2% mas respecto a lo de varo [fumando]

Insisto, se nota que no habéis tenido toda la serie gama alta de las 3000 y 2000 ni caharreado como yo si he hecho. A mi no me hace falta recurrir a ningún sitio ya que lo pruebo en casa por mi mismo y ya dije que a 1440p era de un 31 o 32% bajo mi setup, con oc y de stock se mantenían también las mismas diferencias. Como ves ese 32 o 34% están mucho más a la par de mis resultados y eso que yo no metí en la ecuación el 4k en casi ninguna de mis pruebas de haberlo hecho hubiera tenido ese 34% aprox avg.

Cierra la puerta al salir tu también gracias [bye]


Amos a ver... No puedes sacar una media de los resultados a diferentes resoluciones. En resoluciones bajas la cpu tiende a ser el limitante, a 4k lo suele ser la gpu. Dicho esto, segun eso, la diferencia entre 2080TI y 3080TI en esa bateria de juegos seria un 40%, punto. Ni pa ti ni pa el.
@Namaskar Ves que pasa cuando aumenta la batería de pruebas no? Los resultados se vuelven mas precisos. Ahora mírate la de Techpowerup con el doble de juegos analizados donde la 3080 Ti a 4K rinde 1,44 veces lo que la 2080 Ti. Otro punto que me rechina es sacar medias conjuntas de resoluciones con resultados a 1080p con estas gráficas, que por una parte es lícito, pero otra no se yo quien se las compra teniendo en cuenta esa resolución aparte que no están pensadas para darlo todo en esas circunstancias. Además no se porque me citas respecto a este tema cuando ayer me quedó claro que no era un 56% mas rápida según el vídeo, si no alrededor de un 40-45%..

Mi última cita hacia tí era relacionada a lo de que la 3080 era 15% o menos rápida que la 2080 Ti, aunque bueno si empezamos a meter medias conjuntas de 720p y 1080p igual apoyan tu opinión xD
Namaskar está baneado por "clon de usuario baneado"
Wookiee escribió:
Namaskar escribió:
garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.


No decías que uno de tus referentes era hardware unboxed?... pues toma nota:

Media a 1080p/1440p y 4k de 12 juegos mas [+risas]

3080ti 29% superior a la 2080ti a 1080p:

https://i.imgur.com/j1fcmON.jpg

3080ti 33.9% superior a la 2080ti a 1440p

https://i.imgur.com/nRAmkHY.jpg

3080ti 40% superior a la 2080ti a 4k

https://i.imgur.com/w5BqY0x.jpg

Media total : 34,3% 0J0 un 2% mas respecto a lo de varo [fumando]

Insisto, se nota que no habéis tenido toda la serie gama alta de las 3000 y 2000 ni caharreado como yo si he hecho. A mi no me hace falta recurrir a ningún sitio ya que lo pruebo en casa por mi mismo y ya dije que a 1440p era de un 31 o 32% bajo mi setup, con oc y de stock se mantenían también las mismas diferencias. Como ves ese 32 o 34% están mucho más a la par de mis resultados y eso que yo no metí en la ecuación el 4k en casi ninguna de mis pruebas de haberlo hecho hubiera tenido ese 34% aprox avg.

Cierra la puerta al salir tu también gracias [bye]


Amos a ver... No puedes sacar una media de los resultados a diferentes resoluciones. En resoluciones bajas la cpu tiende a ser el limitante, a 4k lo suele ser la gpu. Dicho esto, segun eso, la diferencia entre 2080TI y 3080TI en esa bateria de juegos seria un 40%, punto. Ni pa ti ni pa el.


Pues no estoy de acuerdo, porque 1440p es una resolución más que decente si pones todo en ultra para una 3080ti o una 2080ti, en según que juegos se exprimen a base de bien sin ser lastradas para nada por la cpu y si no activas dlss y juegas como yo a 165hz 1440p en ultra no dan esos 165fps de media.

1440p 165hz es bastante ideal para cualquier 3080ti o 3090 . No hace falta solo coger el 4k ni tampoco 1080p sino una media de las 3 resoluciones es lo más equitativo. En 1440p que es como yo hice los testeos era de un 31 o 32% pero me llamaron de todo y resulta que en hardware unboexd es del 33.9% a 1440p 12 games avg [+risas]

Ahora va a resultar que la 3080ti solo vale para 4k y que para 1440p con paneles de alta tasa de hz es un truño o para 21:9 3440x1440 también no? Solo te valen para el 4k sino caca XD

Si haces la media de 1440p y 4k te da un 36,9% no llega ni a 40%
ATENCION!!!! CICLITO A VUELTO!!!! [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
Namaskar está baneado por "clon de usuario baneado"
kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!! [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back [qmparto]

Bla bla bla, como tengo razón ahora solo decís tonterías sin sentido. Que si resoluciones ,que si los sintéticos no sirven para nada, que si 12 juegos tampoco que si dx11 tampoco, mejor con dx12, que si clones de no se quién... en fin vaya caterva.
Namaskar escribió:
Wookiee escribió:
Amos a ver... No puedes sacar una media de los resultados a diferentes resoluciones. En resoluciones bajas la cpu tiende a ser el limitante, a 4k lo suele ser la gpu. Dicho esto, segun eso, la diferencia entre 2080TI y 3080TI en esa bateria de juegos seria un 40%, punto. Ni pa ti ni pa el.


Pues no estoy de acuerdo, porque 1440p es una resolución más que decente si pones todo en ultra para una 3080ti o una 2080ti, en según que juegos se exprimen a base de bien sin ser lastradas para nada por la cpu y si no activas dlss y juegas como yo a 165hz 1440p en ultra no dan esos 165fps de media.

1440p 165hz es bastante ideal para cualquier 3080ti o 3090 . No hace falta solo coger el 4k ni tampoco 1080p sino una media de las 3 resoluciones es lo más equitativo. En 1440p que es como yo hice los testeos era de un 31 o 32% pero me llamaron de todo y resulta que en hardware unboexd es del 33.9% a 1440p 12 games avg [+risas]

Ahora va a resultar que la 3080ti solo vale para 4k y que para 1440p con paneles de alta tasa de hz es un truño o para 21:9 3440x1440 también no? Solo te valen para el 4k sino caca XD

Si haces la media de 1440p y 4k te da un 36,9% no llega ni a 40%



¿Quien esta diciendo que solo valen para 4K? Una motogp y un DTM pueden circular por un circuito de cars y por una pista de aterrizaje, pero si quieres saber el porcentaje de diferencia entre sus velocidades punta máximas, no puedes sacar una media de la velocidad en ambas circunstancias. Si vas a medir potencia bruta, midela donde el resto de variables sean casi nulas (4k) y deja de lado pareceres y juicios de valor.
Namaskar escribió:
kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!! [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back [qmparto]

tranquilo no te la voy a dar por que no la llevas, no me voy a parar (ni me he parado) a ver los resultados tuyos en las pruebas esas que dices que aportas, me guio mas por profesionales serios del sector como por ejemplo techpowerup
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
de verdad que eres un chiste
edito, como curiosidad por que sabes que me refieo a ti por ciclito? ni te he mencionado ni te he citado expresamente, lo conoces sin haber estado nunca registrado en esta pagina? hueles a clon baneado a km, a ver si los mods investigan quien eres y si eres un clon baneado que actuen en consecuencia, por que ya has llegadò con la tonteria demasiado lejos
Yo pensaba que por alguna razon se habia vuelto a repetir el comentario, pero no, vuelve con la misma por tercera o cuerta vez, he perdido la cuenta ya

Ahora ya hasta hablando de 1080p en una 3080ti, una grafica que claramente esta diseñada para el 4k por eso tiene la bestialidad de ancho de banda que tiene el doble del de la 2080ti, esta claro que si vas buscando lo que te interesa al final lo encuentras y mas en algo tan variable, internet es muy grande y si buscas encuentras razones hasta para pensar que la tierra es plana, lo que si tengo claro es que la diferencia que ya hay será mayor con el tiempo por el tema que comente antes, y con esto no digo que una 3080ti o superior no se pueda jugar a 2k o inferior, pero a 4k es donde mas partido se le saca, esta pensada para esa resolución

Sobre el porcentaje, yo tambien se jugar a este juego y ponerme a buscar pero es que paso, yo para bien o para mal me fio de unos pocos, otros van buscando lo que les interesa en cada momento
kikomanco escribió:
Namaskar escribió:
kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!! [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back [qmparto]

tranquilo no te la voy a dar por que no la llevas, no me voy a parar (ni me he parado) a ver los resultados tuyos en las pruebas esas que dices que aportas, me guio mas por profesionales serios del sector como por ejemplo techpowerup
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
de verdad que eres un chiste
edito, como curiosidad por que sabes que me refieo a ti por ciclito? ni te he mencionado ni te he citado expresamente, lo conoces sin haber estado nunca registrado en esta pagina? hueles a clon baneado a km, a ver si los mods investigan quien eres y si eres un clon baneado que actuen en consecuencia, por que ya has llegadò con la tonteria demasiado lejos


Clon de algún baneado 100%.
DarkMessiah escribió:
kikomanco escribió:
Namaskar escribió:
Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back [qmparto]

tranquilo no te la voy a dar por que no la llevas, no me voy a parar (ni me he parado) a ver los resultados tuyos en las pruebas esas que dices que aportas, me guio mas por profesionales serios del sector como por ejemplo techpowerup
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
de verdad que eres un chiste
edito, como curiosidad por que sabes que me refieo a ti por ciclito? ni te he mencionado ni te he citado expresamente, lo conoces sin haber estado nunca registrado en esta pagina? hueles a clon baneado a km, a ver si los mods investigan quien eres y si eres un clon baneado que actuen en consecuencia, por que ya has llegadò con la tonteria demasiado lejos


Clon de algún baneado 100%.

si, tiene toda la pinta, lo voy a reportar a los mods a ver que sorpresas nos encontramos
@FranciscoVG Si ha tenido el morro de linkearme un video de donde saca los resultados y se ha saltado el único que no le convenía. Ahora le conviene meter en la media las resoluciones, donde NINGÚN medio serio hace esa métrica, se miden siempre a misma resolución entre otras cosas porque es mas últil para el usuario y por lo que dices, diferentes gráficas no se aprovechan de igual forma a todas resoluciones. Y todavía espero la justificación con 10 capturas sacadas de internet + un tech youtuber español donde la 3080 es sólo un 15% o menos que la 2080 Ti, que soltó la perla pero no la ha vuelto a tocar....

Yo creo que mejor pasar de este tío, además no me había fijado pero que recién registrado, con 22 mensajes y ya vaya así por el foro y mencionando cosas que ni yo con los 3 años que llevo conozco, está claro que es un clon trollaco. Pasando ya.
garbaje_de_potanzos escribió:@FranciscoVG Si ha tenido el morro de linkearme un video de donde saca los resultados y se ha saltado el único que no le convenía. Ahora le conviene meter en la media las resoluciones, donde NINGÚN medio serio hace esa métrica, se miden siempre a misma resolución entre otras cosas porque es mas últil para el usuario y por lo que dices, diferentes gráficas no se aprovechan de igual forma a todas resoluciones. Y todavía espero la justificación con 10 capturas sacadas de internet + un tech youtuber español donde la 3080 es sólo un 15% o menos que la 2080 Ti, que soltó la perla pero no la ha vuelto a tocar....

Yo creo que mejor pasar de este tío, además no me había fijado pero que recién registrado, con 22 mensajes y ya vaya así por el foro y mencionando cosas que ni yo con los 3 años que llevo conozco, está claro que es un clon trollaco. Pasando ya.

yo es que la verdad que ya me lo tomo todo a broma con este sujeto, por que hace tiempo que se ve de que va, no engaña a nadie, lo podemos adoptar de mascota del foro incluso, por lo menos nos hace reir
garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente

En esto todos deberíamos pensar así, y ser menos fanboys de marcas, el gasto energético es muy importante.
BladeRunner escribió:
garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente

En esto todos deberíamos pensar así, y ser menos fanboys de marcas, el gasto energético es muy importante.

yo no me caso con nadie, si AMD me resulta mas atractiva pues me voy con AMD
eR_pOty está baneado por "GAME OVER"
...
Editado por metalgear. Razón: offtopic
La 2080Ti de TPU es bastante probable que sea un modelo de 250W de TDP, por eso se abulta mas la diferencia.

Los modelos de 330W estaran mas donde dice Namaskar.
Bueno después de tantas letras gastadas en demostrar quien tienen la razon o no, y de lo hechos incomprensibles de usar hardware tope de gama para jugar en bajas resoluciones y calidades medias para saber quien la tiene mas grande y me paso por la pagina de Tom's Hardware veo esto

Imagen

y previendo los consumos que se vienen... la verdad me doy por servido si cambio mi RTX 3060 Ti ya sea por una RTX 3090 Ti (1797 euros en Amazon usa) o una RX 6950 XT (1449 Euros en Amazon usa) cuando sus precios caigan según dices rumorologos a 400 euros... aun que se ven RX 6900 XT a 840 Euros y RTX 3090 a 1365

se que graficas tan potentes no son necesarias... pero si sale un precio pues se compra...lo que si no me parece es tener que cambiar toda la build para usar y sacarle el jugo a un componente que pues bien que rinda mucho... pero es que lo que hay ahora no rinde mal

Ahora mirando las cifras de tom's hardware y que a 1080p con gráficos a tope para que en promedio te de unos 120fps+ y te toca desde una rtx 3080 ti/rx 6800 XT.... pues te dice de la tontería en cuanto optimización y rendimiento para unas mejoras visuales que comparadas con la gama media no justifican el precio ahora ni en futuras generaciones

no me malinterpreten si a mí me salta una gráfica tope gama a buen precio no le dire que no, pero es una tontería tratar de justificar esa supuesta superioridad en cifras que a final de cuentas no afectan mucho la experiencia de juego

entiendo muy bien que la tecnología debe avanzar y que de momento tanta potencia bruta apunta no al jugador si no la que desarrolla/crea juegos para que tenga que hacer menos; el raytracing con todo lo que implica va más allá de brillos y reflejos es una tecnología que apenas lleva un par de años usando para cosas en tiempo real y compite con técnicas que llevan más de 20 años desarrollándose para que simulen brillos y reflejos y lo peor es que su mayor ventaja del lado del que desarrolla/crea juegos no es eso.. si no que tienen un sistema único para crear entornos interactivos y realistas en tiempo real, ya no van la iluminación, por un lado, el entorno por otro y las físicas en otro y luego hacer que todo trabaje en conjunto bien..un solo entorno que ya elabore esto... el problema era como se lo vendían a la gente.. y el hecho de que existan estas discusiones y que la gente no vea por qué va la cosa de lo que va es un triunfo para el marketing de estas empresas

no me quejo y realmente entiendo el porqué de las cosas, pero hay detalles que no dejan de ponerlo a uno a pensar, el peso de esas gráficas, como se va alimentar, como se va a refrigerar y tendremos software/juegos para poder ver los cambios o seguiremos aun en esta transición entre rasterización convencional y trazado de rayos solo para la iluminación o una parte de la iluminación
@JagerCrow cada uno se convence para comprar la gráfica top de turno.

Por ejemplo el ray tracing hoy por hoy es una pijada que apenas se nota y consume muchísimo.

Y luego tenemos el lastre de que los juegos se desarrollan para un hardware (consolas) que rinde lo que rinde, por lo que aunque tengas una super gráfica no vas a ver mucho mejor el juego, más aya de que te vaya a 240fps que es absurdo en la mayoría de títulos.

Vamos, que el que tenga una serie 3000 va poder jugar muy bien a cualquier juego hasta que salga la próxima generación de consolas.

Pero bueno ya se encargan Nvidia y AMD de generar esa sensación de necesidad para vender el hardware.

Yo conseguí una 6800xt en la web de AMD no hace mucho, y mi intención es quedarme con ella por lo menos 4 - 6 años.
PepeC12 escribió:@JagerCrow cada uno se convence para comprar la gráfica top de turno.

Por ejemplo el ray tracing hoy por hoy es una pijada que apenas se nota y consume muchísimo.

Y luego tenemos el lastre de que los juegos se desarrollan para un hardware (consolas) que rinde lo que rinde, por lo que aunque tengas una super gráfica no vas a ver mucho mejor el juego, más aya de que te vaya a 240fps que es absurdo en la mayoría de títulos.

Vamos, que el que tenga una serie 3000 va poder jugar muy bien a cualquier juego hasta que salga la próxima generación de consolas.

Pero bueno ya se encargan Nvidia y AMD de generar esa sensación de necesidad para vender el hardware.

Yo conseguí una 6800xt en la web de AMD no hace mucho, y mi intención es quedarme con ella por lo menos 4 - 6 años.


El RTX pues sí, es una pijada y consume mucha gráfica, pero claro que se nota. Si tienes una gráfica que lo pueda mover bien, sin problemas. Otra cosa es que el juego esté bien optimizado, que suelen ser un desastre de optimización.

Y más allá de que consigas 240Fps como dices, que según el juego interesará tener más o menos FPS, pues obviamente cuantos más FPS tengas en un juego mejor sensación tendrás jugando, sea competitivo o no (y un monitor acorde a tu gráfica).

Con una serie 3000 pues sí, da para mucho. La 3080 es un pepino que salió en su versión FE tirada de precio cuando la sacaron. Duraban nada y menos pero si estabas atento la cogías sin problema con la típica cuenta que avisaba en cuanto estaba disponible. Y es una gráfica pepino.

De AMD ya no puedo opinar, toda la vida he tenido Nvidia y dudo que cambie esa tendencia.
@PepeC12 Asi ha sido la informatica desde el año 2007, ese fue el ultimo año que salio un juego que nos hizo a todos tirar todo a la basura, me refiero al Supreme Commander, el primer juego que requeria por narices un Core 2 y que ademas pedia mucha más potencia grafica. Le siguio pronto Crysis 1. Pero antes de eso que un PC top no duraba ni dos años y era todo una mejora constante del software.
necesitaría comprar una nueva fuente de alimentación para el pc que acabo de montar (de momento mantengo mi 1080ti)...
y si me lo puedo permitir... supongo que iré a por una 4080 o 4080Ti...

han salido ya los requerimientos de potencia para estas futuras nvidia de la serie 4000 para saber qué fuente necesito?
Jarinawer escribió:necesitaría comprar una nueva fuente de alimentación para el pc que acabo de montar (de momento mantengo mi 1080ti)...
y si me lo puedo permitir... supongo que iré a por una 4080 o 4080Ti...

han salido ya los requerimientos de potencia para estas futuras nvidia de la serie 4000 para saber qué fuente necesito?


¿No preguntaste lo mismo hace unos días?, las nuevas gráficas sobre todo las gama alta se supone que vendrán con un nuevo protocolo para las conexiones, estas fuentes que yo sepa aún no están a la venta así que mejor espera a que salgan que seguramente sea juntamente con la nueva serie, que podrías comprar ahora si pero las de ahora le vas a tener que poner adaptadores y hacer un jaleo de cables, con el nuevo protocolo un solo cable da para la 4080Ti mientras con el actual tendrías que poner 3 cables o más con su respectivo adaptador

En tu situación es mejor esperar a cuando salgan, total la 4080ti tampoco la puedes comprar aún no tienes ninguna prisa
PepeC12 escribió:@JagerCrow cada uno se convence para comprar la gráfica top de turno.

Por ejemplo el ray tracing hoy por hoy es una pijada que apenas se nota y consume muchísimo.

Y luego tenemos el lastre de que los juegos se desarrollan para un hardware (consolas) que rinde lo que rinde, por lo que aunque tengas una super gráfica no vas a ver mucho mejor el juego, más aya de que te vaya a 240fps que es absurdo en la mayoría de títulos.

Vamos, que el que tenga una serie 3000 va poder jugar muy bien a cualquier juego hasta que salga la próxima generación de consolas.

Pero bueno ya se encargan Nvidia y AMD de generar esa sensación de necesidad para vender el hardware.

Yo conseguí una 6800xt en la web de AMD no hace mucho, y mi intención es quedarme con ella por lo menos 4 - 6 años.


Yo el tema de consolas tengo una duda.... esta generación de GPU en teoría las dejaran muy atrás...entonces en breves deberá de haber revisión en consola no?? Por mucha optimización que lleven la diferencia de rendimiento va a ser abismal y puede ser un limitante importante para avanzar si los juegos se desarrollan pensando en ese hardware
Yo empecé por la torre....el tamaño de la 4080 supera con creces lo asumible por mi NZXT....y después ya vendrá la fuente de alimentación....la placa base y el procesador será lo último....dependiendo de como se comporte mi vetusto 6700K....pero vamos que esta cae si o si ratataaaa ratataaaa ratataaaa
@FranciscoVG que si pregunté lo mismo??
Si lo pregunté ni me acuerdo o no leí respuestas... y si pregunto es porque no lo sé... sino no preguntaba.

Si las nuevas 4000 requiere un nuevo conector de la fuente, pues es una putada, sí.
La verdad es que necesitaría poner una fuente nueva y mejor al nuevo pc... es por eso que buscaba que fuera compatible con las futuras nvida 4000.
Jarinawer escribió:@FranciscoVG que si pregunté lo mismo??
Si lo pregunté ni me acuerdo o no leí respuestas... y si pregunto es porque no lo sé... sino no preguntaba.

Si las nuevas 4000 requiere un nuevo conector de la fuente, pues es una putada, sí.
La verdad es que necesitaría poner una fuente nueva y mejor al nuevo pc... es por eso que buscaba que fuera compatible con las futuras nvida 4000.



2 agosto


Jarinawer escribió:Chicos... estoy actualizando el PC (que ya tocaba) a un i7 12700K con una placa Gigabyte Aorus Master + DDR5...

La gráfica 1080Ti se queda demomento a la espera de las nuevas 4000 o que bajen de precio las 3080 y/o 3090...

Peeeero puede que necesite cambiar la fuente de alimentación... aunque no lo creo... pero por si acaso, pregunto:

Alguna recomendación de fuente que sea compatible con la potencia que requerirán esas nuevas 4000??


Y respondistes


Jarinawer escribió:
Ah... que cambian de conectores?? esto no lo sabía.

Sí, lo suyo es esperar,,, pero lo malo es que la fuente de ahora no me tire con el nuevo PC (aun por montar... me faltan un par de componentes que están de camino)...
y claro... lo si tengo que cambiar de fuente, pues que sea compatible con las nuevas gráficas 4000...
@ditifet Pues ni me acordaba! 😓... Vaya cabeza que tengo... Joder... Perdonad!
Tengo tanto lío con el nuevo pc que ya no sé ni dónde estoy 😅..

Pero me temo que tengo que cambiar la fuente ya y no podré esperar... Alguna recomendación (aunque en un futuro tenga que poner adaptadores)??
Jarinawer escribió:@ditifet Pues ni me acordaba! 😓... Vaya cabeza que tengo... Joder... Perdonad!
Tengo tanto lío con el nuevo pc que ya no sé ni dónde estoy 😅..

Pero me temo que tengo que cambiar la fuente ya y no podré esperar... Alguna recomendación?

si, esta fuente


Imagen
Pegcaero de barrio está baneado por "Troll"
Xx_TiO_PePe_xX escribió:Yo empecé por la torre....el tamaño de la 4080 supera con creces lo asumible por mi NZXT....y después ya vendrá la fuente de alimentación....la placa base y el procesador será lo último....dependiendo de como se comporte mi vetusto 6700K....pero vamos que esta cae si o si ratataaaa ratataaaa ratataaaa

Pues hombre compañero tu 6700K te va a hacer un cuello de botella que te cagas a cualquier GPU de serie 3xxx o 4xxx. Salvo que sea para jugar a FHD, 2K o 4K 60 FPS... en lo demás tienes un cuello de botella de campeonato. Yo es que no saltaría a una serie 3000 o 4000 si no va aparejado de un cambio completo de plataforma: CPU +GPU + PLACA 4.0 + DDR5... más que nada porque aunque ahora no existan muchas diferencias... si quieres que el PC te aguante años no puedes tirar con una GPU tope de gama y, por ejemplo, una CPU gama baja.

Veo mucha gente que se cree que cambiar la GPU es suficiente... y bueno es suficiente si tienes un PC medianamente actual...

Mi consejo: ahorra para un cambio completo de plataforma antes siquiera plantear un cambio de GPU porque esa plataforma te va a hacer notar ese cambio un 20% de lo que podría ser.
@Jarinawer pues me automenciono...
Acabo de pillar una fuente Corsair Plus Platinum de 1000w.
Si cuando llegue el día, ésta no sirve, pues la pondré en el otro pc y compraré otra.
No podía esperar.
Nomada_Firefox escribió:@PepeC12 Asi ha sido la informatica desde el año 2007, ese fue el ultimo año que salio un juego que nos hizo a todos tirar todo a la basura, me refiero al Supreme Commander, el primer juego que requeria por narices un Core 2 y que ademas pedia mucha más potencia grafica. Le siguio pronto Crysis 1. Pero antes de eso que un PC top no duraba ni dos años y era todo una mejora constante del software.



Yo llevo ya muchos años, y he vivido grandes saltos como la voodoo 2, geforce ddr, etc

Eso ya no va volver a pasar, puede que el raytracing sea otro salto de este tipo, pero no va a dar un salto grafico tan considerable. Es simplemente que vas a necesitar hardware especifico para accelerarlo y punto.

Estamos ya cada vez más cerca del limite del silicio, y ya no vamos a poder reducir más los chips para mejorar el consumo, poco a poco si quieren más rendimiento o se mejora mucho la arquitectura que puede que no se pueda rascar mucho o simplemente se aumenta el consumo.

Quiza esta serie 4000 sea competente durante muchos más años de los que se espera la gente que dure.

Por otro lado los graficos de los juegos son practicamente foto realistas ya, poco más se puede mejorar, aunque creo que se ha perdido ultimamente jugabilidad en base a tener graficos mejores y videojuegos que parecen más peliculas interactivas que videojuegos como tal.
EMC2 está baneado por "Troll"
@PepeC12

El Ray Tracing cuando se aplica a la iluminación Global no es ninguna pijada como en caso de Metro Exodus Enhaced y Dying Light 2. Y eso que todavia estamos ante un RT recortado por falta de potencia, pero la rasterizacion y la iluminación falsa actual no puede competir contra el Ray Tracing.

Pegcaero de barrio está baneado por "Troll"
El RT es la mayor vendida de humo de la historia de los videojuegos. El DLSS, por contra, es de lo mejor de las últimas décadas.
PepeC12 escribió:Por otro lado los graficos de los juegos son practicamente foto realistas ya, poco más se puede mejorar, aunque creo que se ha perdido ultimamente jugabilidad en base a tener graficos mejores y videojuegos que parecen más peliculas interactivas que videojuegos como tal.

Totalmente de acuerdo. La jugabilidad hoy en dia se ha visto muy afectada por gastar más en los graficos. Lo ultimo asi que jugue que me dejo un malisimo sabor de boca, fue shadow warrior 3 que tiene unos graficos muy cinematicos pero es que me parecio muy muy malo de jugar.

El problema del RT, es que hicieron unas graficas llamadas RTX. Sino hubiera sido asi, no lo hubieramos nombrado. Deberian haber sido las DLX en referencia al DLSS pero era menos comercial. :)

Y no es la unica cosa buena de las RTX, tambien esta el DLDSR con el cual puedes jugar a una resolución mejor. Tambien yo al menos encuentro super bueno el Nvidia Broadcast que solo funciona con graficas RTX.
EMC2 está baneado por "Troll"
La jugabilidad es algo subjetivo, por lo menos a mi el Shadow Warrios 3 me parecio solido en jugabilidad y en el apartado grafico normal.

Y a mi el DLSS si que me parece una buena vendida, algo que se puede hacer sin toda la parafernalia de los Tensor Core y entranamiento neuronales de IA, como lo es el FRS 2.0 que funciona en todas las GPU...

A los Tensor Core se le deberia poder sacar mejor provecho que un reescalado de resolución, como reescalar texturas por IA.
14371 respuestas