JagerCrow escribió:...ahora suponiendo que ese aspecto se solucione y teniendo en cuenta que para tarjetas con menos TDP ya hay problema con los sistemas actuales para disipar tanto calor
yo solo pienso en cuantos podrán costearse ese upgrade
BennBeckman escribió:Yo estoy ansioso por ir conociendo los precios, van a ser prohibitivos
kikomanco escribió:o sea, de la 3080 a la 3090 hay una diferencia de un 10/12% +- y ahora me dices que la diferencia con una 2080ti de un 15% o menos si la 3060ti esta casi al nivel de la 2080ti y la 3070 la supera, vamos, lo tuyo es de club de la comedia
garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente
@Namaskar Creo que te dejé claro que las pruebas sacadas elegidas con pizas y de vete a saber donde no las valoro, ponme pruebas de una batería de juegos corriendo a tiempo real, o páginas especializadas donde hacen pruebas con decenas de juegos bajo mismas condiciones y su media. Lo que vendes para mi es humo, no te esfuerces mas, siempre me creeré mas a las medias que sacan en Techpower up, gamers nexus o Hardware Unboxed que lo que me vendas tú, sorry.
kikomanco escribió:BennBeckman escribió:Yo estoy ansioso por ir conociendo los precios, van a ser prohibitivos
prohibitivo va a ser su consumo, no creo que salgan muy caras, ahora mismo no hay una necesidad real de cambiar de grafica, pocos juegos puden justificar saltar a la serie 4000, unidos a su consumo, pues la ostia puede ser curiosa
BennBeckman escribió:El consumo me da igual
garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.
Chaquetero escribió:BennBeckman escribió:El consumo me da igual
No sabes de lo que hablas. El día que tengas la mala suerte de tener una gráfica que consuma una burrada, ej gtx 580, rtx 3080, rx6800... Sabrás lo equivocado que estabas y lo desagradable que es tener un radiador al lado como no estés en invierno y aún así.
Si te fijas no hay ni un poseedor de 3070/6700 o superior que no busque desesperadamente undervoltear su grafica. Y no lo hacen por la durabilidad o por el rendimiento, lo hacen porque es un puñetero infierno sobretodo ahora en verano. Y esto no soluciona nada, porque pasar de 350w de consumo a 300w en el caso de las 3080 se nota muy poco.
Namaskar escribió:garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.
No decías que uno de tus referentes era hardware unboxed?... pues toma nota:
Media a 1080p/1440p y 4k de 12 juegos mas
3080ti 29% superior a la 2080ti a 1080p:
https://i.imgur.com/j1fcmON.jpg
3080ti 33.9% superior a la 2080ti a 1440p
https://i.imgur.com/nRAmkHY.jpg
3080ti 40% superior a la 2080ti a 4k
https://i.imgur.com/w5BqY0x.jpg
Media total : 34,3% 0J0 un 2% mas respecto a lo de varo
Insisto, se nota que no habéis tenido toda la serie gama alta de las 3000 y 2000 ni caharreado como yo si he hecho. A mi no me hace falta recurrir a ningún sitio ya que lo pruebo en casa por mi mismo y ya dije que a 1440p era de un 31 o 32% bajo mi setup, con oc y de stock se mantenían también las mismas diferencias. Como ves ese 32 o 34% están mucho más a la par de mis resultados y eso que yo no metí en la ecuación el 4k en casi ninguna de mis pruebas de haberlo hecho hubiera tenido ese 34% aprox avg.
Cierra la puerta al salir tu también gracias
Wookiee escribió:Namaskar escribió:garbaje_de_potanzos escribió:@Namaskar Claro con su grandiosa media de 7 juegos, en el que encima te saltas 1 como Watch dogs legion donde le saca mas del 50% para que justamente encaje con tu opinión. Déjame ya anda, ya sabes que opino al respecto.
No decías que uno de tus referentes era hardware unboxed?... pues toma nota:
Media a 1080p/1440p y 4k de 12 juegos mas
3080ti 29% superior a la 2080ti a 1080p:
https://i.imgur.com/j1fcmON.jpg
3080ti 33.9% superior a la 2080ti a 1440p
https://i.imgur.com/nRAmkHY.jpg
3080ti 40% superior a la 2080ti a 4k
https://i.imgur.com/w5BqY0x.jpg
Media total : 34,3% 0J0 un 2% mas respecto a lo de varo
Insisto, se nota que no habéis tenido toda la serie gama alta de las 3000 y 2000 ni caharreado como yo si he hecho. A mi no me hace falta recurrir a ningún sitio ya que lo pruebo en casa por mi mismo y ya dije que a 1440p era de un 31 o 32% bajo mi setup, con oc y de stock se mantenían también las mismas diferencias. Como ves ese 32 o 34% están mucho más a la par de mis resultados y eso que yo no metí en la ecuación el 4k en casi ninguna de mis pruebas de haberlo hecho hubiera tenido ese 34% aprox avg.
Cierra la puerta al salir tu también gracias
Amos a ver... No puedes sacar una media de los resultados a diferentes resoluciones. En resoluciones bajas la cpu tiende a ser el limitante, a 4k lo suele ser la gpu. Dicho esto, segun eso, la diferencia entre 2080TI y 3080TI en esa bateria de juegos seria un 40%, punto. Ni pa ti ni pa el.
kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!!
Namaskar escribió:Wookiee escribió:
Amos a ver... No puedes sacar una media de los resultados a diferentes resoluciones. En resoluciones bajas la cpu tiende a ser el limitante, a 4k lo suele ser la gpu. Dicho esto, segun eso, la diferencia entre 2080TI y 3080TI en esa bateria de juegos seria un 40%, punto. Ni pa ti ni pa el.
Pues no estoy de acuerdo, porque 1440p es una resolución más que decente si pones todo en ultra para una 3080ti o una 2080ti, en según que juegos se exprimen a base de bien sin ser lastradas para nada por la cpu y si no activas dlss y juegas como yo a 165hz 1440p en ultra no dan esos 165fps de media.
1440p 165hz es bastante ideal para cualquier 3080ti o 3090 . No hace falta solo coger el 4k ni tampoco 1080p sino una media de las 3 resoluciones es lo más equitativo. En 1440p que es como yo hice los testeos era de un 31 o 32% pero me llamaron de todo y resulta que en hardware unboexd es del 33.9% a 1440p 12 games avg
Ahora va a resultar que la 3080ti solo vale para 4k y que para 1440p con paneles de alta tasa de hz es un truño o para 21:9 3440x1440 también no? Solo te valen para el 4k sino caca
Si haces la media de 1440p y 4k te da un 36,9% no llega ni a 40%
Namaskar escribió:kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!!
Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back
kikomanco escribió:Namaskar escribió:kikomanco escribió:ATENCION!!!! CICLITO A VUELTO!!!!
Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back
tranquilo no te la voy a dar por que no la llevas, no me voy a parar (ni me he parado) a ver los resultados tuyos en las pruebas esas que dices que aportas, me guio mas por profesionales serios del sector como por ejemplo techpowerup
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
de verdad que eres un chiste
edito, como curiosidad por que sabes que me refieo a ti por ciclito? ni te he mencionado ni te he citado expresamente, lo conoces sin haber estado nunca registrado en esta pagina? hueles a clon baneado a km, a ver si los mods investigan quien eres y si eres un clon baneado que actuen en consecuencia, por que ya has llegadò con la tonteria demasiado lejos
DarkMessiah escribió:kikomanco escribió:Namaskar escribió:
Claro ahora como no tienes por donde salir con las pruebas aportadas dándome la razón , ciclito is back
tranquilo no te la voy a dar por que no la llevas, no me voy a parar (ni me he parado) a ver los resultados tuyos en las pruebas esas que dices que aportas, me guio mas por profesionales serios del sector como por ejemplo techpowerup
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
de verdad que eres un chiste
edito, como curiosidad por que sabes que me refieo a ti por ciclito? ni te he mencionado ni te he citado expresamente, lo conoces sin haber estado nunca registrado en esta pagina? hueles a clon baneado a km, a ver si los mods investigan quien eres y si eres un clon baneado que actuen en consecuencia, por que ya has llegadò con la tonteria demasiado lejos
Clon de algún baneado 100%.
garbaje_de_potanzos escribió:@FranciscoVG Si ha tenido el morro de linkearme un video de donde saca los resultados y se ha saltado el único que no le convenía. Ahora le conviene meter en la media las resoluciones, donde NINGÚN medio serio hace esa métrica, se miden siempre a misma resolución entre otras cosas porque es mas últil para el usuario y por lo que dices, diferentes gráficas no se aprovechan de igual forma a todas resoluciones. Y todavía espero la justificación con 10 capturas sacadas de internet + un tech youtuber español donde la 3080 es sólo un 15% o menos que la 2080 Ti, que soltó la perla pero no la ha vuelto a tocar....
Yo creo que mejor pasar de este tío, además no me había fijado pero que recién registrado, con 22 mensajes y ya vaya así por el foro y mencionando cosas que ni yo con los 3 años que llevo conozco, está claro que es un clon trollaco. Pasando ya.
garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente
BladeRunner escribió:garbaje_de_potanzos escribió:@kikomanco La verdad esque está llegando la cosa a niveles absurdos. Yo desde hace 10 años siempre he sido de Nvidia por rendimiento/consumos pero si en esta gen que tenía pensado ir a por una 4060 veo que se van de Watts también, me pienso muy fuertemente pasarme a AMD si son mas eficientes energéticamente
En esto todos deberíamos pensar así, y ser menos fanboys de marcas, el gasto energético es muy importante.
PepeC12 escribió:@JagerCrow cada uno se convence para comprar la gráfica top de turno.
Por ejemplo el ray tracing hoy por hoy es una pijada que apenas se nota y consume muchísimo.
Y luego tenemos el lastre de que los juegos se desarrollan para un hardware (consolas) que rinde lo que rinde, por lo que aunque tengas una super gráfica no vas a ver mucho mejor el juego, más aya de que te vaya a 240fps que es absurdo en la mayoría de títulos.
Vamos, que el que tenga una serie 3000 va poder jugar muy bien a cualquier juego hasta que salga la próxima generación de consolas.
Pero bueno ya se encargan Nvidia y AMD de generar esa sensación de necesidad para vender el hardware.
Yo conseguí una 6800xt en la web de AMD no hace mucho, y mi intención es quedarme con ella por lo menos 4 - 6 años.
Jarinawer escribió:necesitaría comprar una nueva fuente de alimentación para el pc que acabo de montar (de momento mantengo mi 1080ti)...
y si me lo puedo permitir... supongo que iré a por una 4080 o 4080Ti...
han salido ya los requerimientos de potencia para estas futuras nvidia de la serie 4000 para saber qué fuente necesito?
PepeC12 escribió:@JagerCrow cada uno se convence para comprar la gráfica top de turno.
Por ejemplo el ray tracing hoy por hoy es una pijada que apenas se nota y consume muchísimo.
Y luego tenemos el lastre de que los juegos se desarrollan para un hardware (consolas) que rinde lo que rinde, por lo que aunque tengas una super gráfica no vas a ver mucho mejor el juego, más aya de que te vaya a 240fps que es absurdo en la mayoría de títulos.
Vamos, que el que tenga una serie 3000 va poder jugar muy bien a cualquier juego hasta que salga la próxima generación de consolas.
Pero bueno ya se encargan Nvidia y AMD de generar esa sensación de necesidad para vender el hardware.
Yo conseguí una 6800xt en la web de AMD no hace mucho, y mi intención es quedarme con ella por lo menos 4 - 6 años.
Jarinawer escribió:@FranciscoVG que si pregunté lo mismo??
Si lo pregunté ni me acuerdo o no leí respuestas... y si pregunto es porque no lo sé... sino no preguntaba.
Si las nuevas 4000 requiere un nuevo conector de la fuente, pues es una putada, sí.
La verdad es que necesitaría poner una fuente nueva y mejor al nuevo pc... es por eso que buscaba que fuera compatible con las futuras nvida 4000.
Jarinawer escribió:Chicos... estoy actualizando el PC (que ya tocaba) a un i7 12700K con una placa Gigabyte Aorus Master + DDR5...
La gráfica 1080Ti se queda demomento a la espera de las nuevas 4000 o que bajen de precio las 3080 y/o 3090...
Peeeero puede que necesite cambiar la fuente de alimentación... aunque no lo creo... pero por si acaso, pregunto:
Alguna recomendación de fuente que sea compatible con la potencia que requerirán esas nuevas 4000??
Jarinawer escribió:
Ah... que cambian de conectores?? esto no lo sabía.
Sí, lo suyo es esperar,,, pero lo malo es que la fuente de ahora no me tire con el nuevo PC (aun por montar... me faltan un par de componentes que están de camino)...
y claro... lo si tengo que cambiar de fuente, pues que sea compatible con las nuevas gráficas 4000...
Jarinawer escribió:@ditifet Pues ni me acordaba! 😓... Vaya cabeza que tengo... Joder... Perdonad!
Tengo tanto lío con el nuevo pc que ya no sé ni dónde estoy 😅..
Pero me temo que tengo que cambiar la fuente ya y no podré esperar... Alguna recomendación?
Xx_TiO_PePe_xX escribió:Yo empecé por la torre....el tamaño de la 4080 supera con creces lo asumible por mi NZXT....y después ya vendrá la fuente de alimentación....la placa base y el procesador será lo último....dependiendo de como se comporte mi vetusto 6700K....pero vamos que esta cae si o si
Nomada_Firefox escribió:@PepeC12 Asi ha sido la informatica desde el año 2007, ese fue el ultimo año que salio un juego que nos hizo a todos tirar todo a la basura, me refiero al Supreme Commander, el primer juego que requeria por narices un Core 2 y que ademas pedia mucha más potencia grafica. Le siguio pronto Crysis 1. Pero antes de eso que un PC top no duraba ni dos años y era todo una mejora constante del software.
PepeC12 escribió:Por otro lado los graficos de los juegos son practicamente foto realistas ya, poco más se puede mejorar, aunque creo que se ha perdido ultimamente jugabilidad en base a tener graficos mejores y videojuegos que parecen más peliculas interactivas que videojuegos como tal.