[HO] NVIDIA GeForce RTX 5000

18, 9, 10, 11, 12, 13
Lorena99 escribió:Es imposible que la 5080 rinda igual o más que la 4090. Primero porque por números es imposible, esto no es magia es ingenieria, y segundo porque si rindiera igual la 5090 siendo mas del double de grande que la 5080 deberia rendir entre un 80%-100% más que la 4090, y ya se ha dicho que el salto va a ser como mucho de 35-40%.

Otra cosa es que en escenarios concretos, o con un nuevo fg la 5080 rinda casi como una 4090. Claro que te la pueden vender así, como en su momento con cherry picking vendieron que la 4070 rendía como la 3080, cuando en realidad la primera es un 10-15% más lenta.

Sería literalmente la primera vez desde que usan esta nomenclatura que la xx80 no superaría con margen a la xx90/xx80Ti de la generación anterior. Solo en raster, sin contar magia pitufa. Para muestra un botón: https://www.techpowerup.com/review/nvid ... on/32.html

Y los números y “la ingeniería”, signifique lo que signifique esto último, estaban de lado del modelo top antiguo en todos y cada uno de los casos.

…de hecho, por números, la 4060 (una gráfica que no me gusta nada, todo sea dicho) es realmente una 4050, y rinde suficiente para dejar atrás a su antecesora también.

Eso no quita que las gamas altas envejezcan mejor, cosa que personalmente opino. Pero si la 5070 no iguala a la 4090, apaga y vámonos.

Saludos
Las filtraciones que hay de momento al igual que las de AMD no valen de nada por que falta saber la frecuencia, sin eso no se puede calcular la potencia

Por que si, la 5080 tiene muchos menos cuda cores que la 4090, pero también los tiene la 4070 con respecto a la 3080 y luego rinden prácticamente lo mismo

La 5080 si podría estar cerca de la 4090
Pollonidas escribió:
Lorena99 escribió:Es imposible que la 5080 rinda igual o más que la 4090. Primero porque por números es imposible, esto no es magia es ingenieria, y segundo porque si rindiera igual la 5090 siendo mas del double de grande que la 5080 deberia rendir entre un 80%-100% más que la 4090, y ya se ha dicho que el salto va a ser como mucho de 35-40%.

Otra cosa es que en escenarios concretos, o con un nuevo fg la 5080 rinda casi como una 4090. Claro que te la pueden vender así, como en su momento con cherry picking vendieron que la 4070 rendía como la 3080, cuando en realidad la primera es un 10-15% más lenta.

Sería literalmente la primera vez desde que usan esta nomenclatura que la xx80 no superaría con margen a la xx90/xx80Ti de la generación anterior. Solo en raster, sin contar magia pitufa. Para muestra un botón: https://www.techpowerup.com/review/nvid ... on/32.html

Y los números y “la ingeniería”, signifique lo que signifique esto último, estaban de lado del modelo top antiguo en todos y cada uno de los casos.

…de hecho, por números, la 4060 (una gráfica que no me gusta nada, todo sea dicho) es realmente una 4050, y rinde suficiente para dejar atrás a su antecesora también.

Eso no quita que las gamas altas envejezcan mejor, cosa que personalmente opino. Pero si la 5070 no iguala a la 4090, apaga y vámonos.

Saludos



Rtx 3080 shader units=8704

Rtx 3090 shader units=10496

Rtx 4080 su=9728

Rtx 4090 su=16384

Rtx 5080 su=10752

Rtx 5090 su=21760

Contando con que siguen con el mismo nodo de fabricación 4nm (supuestamente Algo mejorado, ergo eficiencia y frecuencia similar) es imposible por números, ya que esto es matematicas y va de encorsetar la mayor cantidad de transistores en el menor espacio possible, ingenieria, que la 5080 se acerque siquiera a la 4090.

Y si las ranas vuelan, y se produce la magia, eso significaria que la 5090 tendría un rendimiento incalculable que al encenderla generaría un agujero negro lo menos, porque es MAS DEL DOBLE que la 5080.

La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

@franciscovg

https://tpucdn.com/review/star-wars-out ... 0-2160.png

La 4070 ni se acerca a la 3080. No os tragueis el marketing barato.
Lorena99 escribió:
Pollonidas escribió:
Lorena99 escribió:Es imposible que la 5080 rinda igual o más que la 4090. Primero porque por números es imposible, esto no es magia es ingenieria, y segundo porque si rindiera igual la 5090 siendo mas del double de grande que la 5080 deberia rendir entre un 80%-100% más que la 4090, y ya se ha dicho que el salto va a ser como mucho de 35-40%.

Otra cosa es que en escenarios concretos, o con un nuevo fg la 5080 rinda casi como una 4090. Claro que te la pueden vender así, como en su momento con cherry picking vendieron que la 4070 rendía como la 3080, cuando en realidad la primera es un 10-15% más lenta.

Sería literalmente la primera vez desde que usan esta nomenclatura que la xx80 no superaría con margen a la xx90/xx80Ti de la generación anterior. Solo en raster, sin contar magia pitufa. Para muestra un botón: https://www.techpowerup.com/review/nvid ... on/32.html

Y los números y “la ingeniería”, signifique lo que signifique esto último, estaban de lado del modelo top antiguo en todos y cada uno de los casos.

…de hecho, por números, la 4060 (una gráfica que no me gusta nada, todo sea dicho) es realmente una 4050, y rinde suficiente para dejar atrás a su antecesora también.

Eso no quita que las gamas altas envejezcan mejor, cosa que personalmente opino. Pero si la 5070 no iguala a la 4090, apaga y vámonos.

Saludos



Rtx 3080 shader units=8704

Rtx 3090 shader units=10496

Rtx 4080 su=9728

Rtx 4090 su=16384

Rtx 5080 su=10752

Rtx 5090 su=21760

Contando con que siguen con el mismo nodo de fabricación 4nm (supuestamente Algo mejorado, ergo eficiencia y frecuencia similar) es imposible por números, ya que esto es matematicas y va de encorsetar la mayor cantidad de transistores en el menor espacio possible, ingenieria, que la 5080 se acerque siquiera a la 4090.

Y si las ranas vuelan, y se produce la magia, eso significaria que la 5090 tendría un rendimiento incalculable que al encenderla generaría un agujero negro lo menos, porque es MAS DEL DOBLE que la 5080.

La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

@franciscovg

https://tpucdn.com/review/star-wars-out ... 0-2160.png

La 4070 ni se acerca a la 3080. No os tragueis el marketing barato.


Vamos que a parte de hablar de cosas que no sabes vas buscando pruebas surrealistas para probar lo que dices xd

La 3080 tiene casi un 50% más de cuda cores que la 4070 y luego en la vida real solo rinde un 5% más

Y te puedo poner casos aún más claros que demuestran que no sabes de que hablas

5700xt - 7nm - 2560 shaders
6700xt - 7nm - 2560 shaders

Pues la 6700xt es un 30% superior, ¿magia?, no, es por que la frecuencia de la 6700xt es mayor que la de la 5700xt, esto si son matemáticas, pero una parte de la ecuación directamente te la estás inventando, sin la frecuencia no se sabe lo que rinden por mucho que sepas el resto de especificaciones....
@FranciscoVG Las rtx 3000 iban a 5nm, las 4000 a 4nm, y las 5000 a 4 nm también, de ahí se deduce que no va a haber practicamente salto en eficiencia, como apuntan los rumores.

No voy a seguir de todas formas con esas faltas de respeto, sigue creyendo en las mariposas o haz lo que te apetezca pero no vuelvas a citarme, yo no te citaré a ti.

La 6700xt tiene 17000 transistores mientras que la 5700xt tiene 11000. Si quieres soltar argucias hazlo bien por lo menos.
@PepeC12

facil pues que las gamas de IA no tengan driver para jugar en DX12 y vulkan, o te tengan que dar una KEY para activar la GPU gaming para IA, hay muchas formas de separar los mercados y la de poner poca VRAM es ridicula, eso lo hacen para ahorrarse 20€ y ya esta.

O mejor aun, que les pongan mas memoria a las de IA en plan 64GB como es tan barata no les repercute mucho y las siguen vendiendo a miles de euros. Y a las gaming que lo igualen con amd. Al final va a aparecer modding de memorias como en los iphone que les ponen 1TB por muy poco jajaj.

Ademas no es que falte el doble de memoria es poner 16 en lugar de 12 20 en lugar de 16 y 32 en lugar de 24, y las de ia ya 48 64 128 lo que quieran.
Lorena99 escribió:@FranciscoVG Las rtx 3000 iban a 5nm, las 4000 a 4nm, y las 5000 a 4 nm también, de ahí se deduce que no va a haber practicamente salto en eficiencia, como apuntan los rumores.

No voy a seguir de todas formas con esas faltas de respeto, sigue creyendo en las mariposas o haz lo que te apetezca pero no vuelvas a citarme, yo no te citaré a ti.

La 6700xt tiene 17000 transistores mientras que la 5700xt tiene 11000. Si quieres soltar argucias hazlo bien por lo menos.


Pero si tu has sido el primero en citarme y en llamarme ignorante xd

Ah y ahora los transistores es lo que importa cuando no tienes ni idea de cuantos tiene la 5080, en resumen, que yo te digo que con los shaders unicamente no se puede saber lo que rinde una gpu como tu estas haciendo, y ahora tu mismo te estas contradiciendo hablando de los transistores también xd
eric_14 escribió:He probado el FSR3.1 FG+DLSS2 y vamos si se nota, se ve más fluído y no se nota lag. Por lo menos en configs donde llegas a 50-60fps y te da la mejora a 100 o así. Probado en el forbidden west con mando.

Una pena que no lo integren en más juegos, a esa gente que tiene una 3000 y va un poco apurada le ayudaría a aguantar unos meses más para poder esperar a las 5000. Que no esté nvidia detrás, en cyberpunk no tiene sentido que no hayan metido FSR3.1 porque actualizaron hace poco (aunque puedes usar el mod que hay).

Que el FG de nvidia va mejor, pero no tiene sentido la subida de precio que hicieron.

También lo del FSR varía según si usas Nvidia o AMD

No se ve igual en una que en otra ,y depende del juego.
Vi comparativas y en la mayoría de casos ,en una AMD se veía algo mejor.Nl en todos ,pero sí en casi todos.

Lo digo porque muchas veces con AMD se dice que se ve FSR en X juego muy bien, y luego lo mismo va uno con una Nvidia a,y no es igual.

Mi experiencia clara con FSR ,tanto con o sin AFMF o sin, él, es que con mi gráfica ,emborrona notoriamente el 90% de los juegos.
Que se ve bien y es suficiente?Sí.
Pero claro, es que luego cambias a DLSS y lo aprecias rápido

Cierto es ,que en algún juego, no lo he logrado apreciar tanto

Por ejemplo, Silent Hill 2 Remake.
Iba cambiando en entre FSR3 y DLSS ambos en calidad ,y no notaba un '?"algo distibto' pero vamos...no gran diferencia.
Sí lo notaba en algunas iluminaciones o reflejos ,donde FSR era peor.
Pero tuve que hacer capturas con ambas tecnologías y ampliar ,para ver la diferencia Y sí, es más borroso ,menos nítido.
Pero en movimiento y en una imagen normal ,sin ampliar, yo al menos a penas nioto diferencia.
He dejado DLSS por el tema de esos reflejos y luces que están peor con FSR y sí se nota Si no, me hubiese quedado con FSR 3 porque saco bastantes más frames.

@Brutico
Bueno ,yo recuerdo montarme la tope de gama por 350€.

No sabemos los precios pero esas filtraciones son falsas.
Yo no creo que sean tan caras.sobre todo de la 5080 para abajo.
Con la 5080 lo mismo si se columpianas ,pero tanto como para hablar de 3000€,ni de coña.
Verla en tienda por 1900-2200€ es mi apuesta.
PSX22 escribió:@PepeC12

facil pues que las gamas de IA no tengan driver para jugar en DX12 y vulkan, o te tengan que dar una KEY para activar la GPU gaming para IA, hay muchas formas de separar los mercados y la de poner poca VRAM es ridicula, eso lo hacen para ahorrarse 20€ y ya esta.

O mejor aun, que les pongan mas memoria a las de IA en plan 64GB como es tan barata no les repercute mucho y las siguen vendiendo a miles de euros. Y a las gaming que lo igualen con amd. Al final va a aparecer modding de memorias como en los iphone que les ponen 1TB por muy poco jajaj.

Ademas no es que falte el doble de memoria es poner 16 en lugar de 12 20 en lugar de 16 y 32 en lugar de 24, y las de ia ya 48 64 128 lo que quieran.



Creo que no lo has entendido, las gamas profesionales son muchisimo mas caras.

Que pasa que si Nvidia aumenta el VRAM de las graficas, parte del mercado profesional puede usar estas graficas por mucho menos dinero.

Nvidia no quiere eso y por eso las gamas gaming tiene la vram tan justa.
para que no se devalue demasiado la 4090, espero ver esas 5080 a 1700-1800 pavos y la 5090 tocando los 2500

Por ahi lei un comentario de que esperaba un "gesto" de Nvidia para meterse al bolsillo al consumidor. El problema es que el consumidor no tienen ningun otro bolsillo al que meterse [+risas]. Pasa por caja o pasa por caja con Nvidia

quien espere graficas baratitas en las gamas 80/90 que espere sentado.
@PepeC12

he dicho ( que igual no me has leido) se bloquee la gama gaming por software para no poder trabajar en IA, que se puede hacer perfectamente.
puede valer 18.000€ una GPU para IA, que si la 5090 solo trabaja en juegos, no afectaria al mercado profesional, estoy seguro que si controlas un driver de codigo cerrado, puedes establecer en que se ejecuta la potencia.

De hecho eso se cae rapido con la saida de 4060 16GB, si no quisieran dar VRAM de sobra no existiria la 4060 16GB, que no ofrece mucha potencia pero si algo mas de memoria para IA. Al final los modelos de IA no usan ni 12 ni 16.... usan 24GB o mas. Porque a nivel local he visto modelos GPT IA en 12GB y se acaba antes de empezar de lento que va. El montar 16 GB en la serie 70 no perjudica en nada a la serie de IA, porque con 16 no vas a ningun lado. Se usan granjas de miles de tarjetas, GPT no es que se ejecute en servidores IA con 32 ni 64GB, sino muchisima mas capacidad

que lo que pasa es que son los lideres y pueden permitirse eso, pero no daña en nada a la IA poner una 5080 en 24GB , de hecho esque luego te la sacan... 5080TI etc , no es que te digan , si quieres mas VRAM vete a profesional, no...si ponertela te la ponen 32GB en 5090, es de sobra, esa no daña a las profesionales entonces?

Es lo que es , tacañeria
parh escribió:para que no se devalue demasiado la 4090, espero ver esas 5080 a 1700-1800 pavos y la 5090 tocando los 2500

Por ahi lei un comentario de que esperaba un "gesto" de Nvidia para meterse al bolsillo al consumidor. El problema es que el consumidor no tienen ningun otro bolsillo al que meterse [+risas]. Pasa por caja o pasa por caja con Nvidia

quien espere graficas baratitas en las gamas 80/90 que espere sentado.

Yo creo que no se puede meter en el mismo saco a la 80 y la 90 porque sean las gamas más altas.

Por qué?Porque creo que una juega con argumentos para ser más cara y la otra ,no.

La 5090 va a ser diferencial en memoria ,raster ,RT y reescalado.
Solo ver sus especificaciones ,lo dejan claro.
Por lo que que ,con esta , puede pasar que no se suben mucho a la parra o que sea muy cara .
Se lo pueden permitir y además ,tienen más o menos sus argumentos.
Hablan de que mínimo le va a meter a la 4090 un 30% en raster .De ahí para arriba , y no digamos en reescalado o RT.

Sin embargo, con la 5080 no ocurre eso.
No tiene más VRAM .
Seguramente ,no llegue en raster a una 4090 viendo sus especificaciones.
En RT pues sí puede estar ahí o algo mejor.
Y donde seguramente la supere ,es en reescalado.
Pero no es tan superior y está bastante lejos de una 5090, viendo las especificaciones.

Es más ,da la impresión de que la llaman 5080 y es la que debería haber sido la 5070.
Dejan ese hueco en medio para una 5080Ti, aje es la que debería haber sido la 5080 normal.

Vamos ,yo lo veo claro.
Por lo que iara Nvidia ,es un win win.
Te sacan una 5070,camuflada de 5080,rondando los 999$>
La gente aplaude con las orejas , porque es más barata que las 4080 de salida,y te colocan una serie 70 camuflada.

Vamos ,básicamente lo que intentaron hacer en la anterior gen y que tuvieron que rectificar, pero menos descarado.

Si te das cuenta ,nadie habla de esto, y la están vmcolando otra vez.

Por eso llevo tiempo diciendo que no creo que las 5080 ni las que están ñlr debajo, vayan a ser tan caras.
No mejotan tantísimo ,no tienen mucho más gasto porque usan el mismo nodo...

Que me puedo colar ,pero es que lo veo claro.

La 5090 es u.n mundo a parte.Ahí, sigo pensando que tendrán los 1800-1900$ , pero perfectamente veo que se pueden subir a la parra.

El escenario que tú quieres ,es el mismo que quiero yo ,y muchos que tienen una 4090, pero lo veo improbable

Que larga se hace la espera [+risas] .
Bueno, aunque cuesten mucho, la 80 es gama alta y la 90 entusiasta. Son dos cosas bien diferentes.
la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ ma

Bueno, es el pan nuestro de cada dia con el avance informatico. Y creo que si vas a llorar porque han sacado 6 meses déspues algo mejor por 250€ más, que no deja de ser un dinero, pues entonces es que quizas te siente mal tener un PC gaming porque asi ha sido siempre.

Y lo peor seguramente sea la devaluación real de los productos de segunda mano frente a los de primera que cada vez son más caros provocando que quien venda, tenga que poner más encima para comprar y al final lo que va a hacer, es se compre menos porque hay que estirar más lo que se tiene.

Tal y como yo lo veo, los fabricantes de hardware, especialmente los de GPUs, se estan metiendo en un jardin de rosas. Acabaran perdiendo cada vez más ventas. Cuando el chino juan dijo aquello de una GPU tiene que costar como una consola, estaba muy equivocado, la consola hace es un producto entero, casi como un telefono, solo necesita una pantalla, la GPU es solo un componente de muchas otras piezas que no son nada baratas. Para encima se queda obsoleta antes que ningun otro componente en el PC.
Lorena99 escribió:Rtx 3080 shader units=8704

Rtx 3090 shader units=10496

Rtx 4080 su=9728

Rtx 4090 su=16384

Rtx 5080 su=10752

Rtx 5090 su=21760

Contando con que siguen con el mismo nodo de fabricación 4nm (supuestamente Algo mejorado, ergo eficiencia y frecuencia similar) es imposible por números, ya que esto es matematicas y va de encorsetar la mayor cantidad de transistores en el menor espacio possible, ingenieria, que la 5080 se acerque siquiera a la 4090.

Y si las ranas vuelan, y se produce la magia, eso significaria que la 5090 tendría un rendimiento incalculable que al encenderla generaría un agujero negro lo menos, porque es MAS DEL DOBLE que la 5080.

La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

@franciscovg

https://tpucdn.com/review/star-wars-out ... 0-2160.png

La 4070 ni se acerca a la 3080. No os tragueis el marketing barato.

Pero si todos los números que aportas me están dando la razón. Incluso en el caso que describes que es un tanto peculiar (porque la 3080 es el chip "grande" de su generación, es decir, con número interno de modelo terminado en -2 o en -0, cosa que no pasaba desde la GTX580, en Fermi, hace 13 años, con la excepción de la GTX780 en la que cambiaron el primer número sin cambiar arquitectura, pero es el chip grande de la serie 600). De hecho la 4080 no es el chip grande de su generación, incluso si por número de transistores podría parecerlo (ahora se han sacado de la manga la terminación en -3, pero vamos, cualquier otra generación ese chip sería un GXX-104). Entiéndase grande en shaders/cuda cores/SU y ancho de bus de memoria.

1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)
3070 5888SU > 2080Ti 4352 SU

Entre la 4070 y la 3080, desde luego que dudaría, y te doy la razón en que sin mirar el consumo la 3080 es superior si no cuentas conusumo, rendimiento en RT y extras en forma de DLSS más reciente, pero se juntan dos cosas, lo que comento de que la 3080 sería la -Ti de cualquier otra generación, y que la 4070 sería la -60 de cualquier otra generación (ver los 192bits de bus de memoria de la 4070, igual que en la 3060, la 2060 y la 1060). Pero vaya, ponemos en la balanza la 4070Ti si quieres, no hace falta irse a la super siquiera.

Lorena99 escribió:La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

Me gustaría que elaboraras lo que remarco, porque yo al menos la parte de lógicamente no la comparto. Las gráficas de relative performance no son más que la media geométrica de los FPS promedio en varios títulos de varios géneros y motores gráficos. La elección de qué juegos en particular se prueban se puede argumentar que sea más o menos sesgada, pero a mí me parece de lo más objetivo y representativo que se puede encontrar, en caso de mirar solo un número.

De hecho justo después incluyes en un enlace una métrica de rendimiento de un título en particular también de techpowerup, en la que evidentemente se respalda tu postura (y reitero, en parte estoy de acuerdo en que una 3080 es mejor que una 4070 en algunos casos). Eso sí que me parece sesgado, si en un juego por lo que sea hace falta ancho de banda a memoria, las gamas altas siempre van a salir mejor paradas, pero si eso ocurre en un 10% de los juegos modernos no creo que sea representativo de que esa gráfica es superior, sobre todo si en el 90% restante no es así.

Saludos
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...


Es lo que lleva pasando toda 1 década no se que le ves de raro

ADemás mientras el de la 5080 habrá estado 6 meses jugando el que espera la 5080ti se habrá estado tocando y esperando que salgan las TI o SUPER o lo que salga después .. .ah espera y si se espera otros 6 meses podrá acceder a una 6000 ... seguimos?
hh1 escribió:El escenario que tú quieres ,es el mismo que quiero yo ,y muchos que tienen una 4090, pero lo veo improbable

Que larga se hace la espera [+risas]

no solo habra que esperar al anuncio de precios oficial sino al precio real al que se encontrara en tiendas.
parh escribió:
hh1 escribió:El escenario que tú quieres ,es el mismo que quiero yo ,y muchos que tienen una 4090, pero lo veo improbable

Que larga se hace la espera [+risas]

no solo habra que esperar al anuncio de precios oficial sino al precio real al que se encontrara en tiendas.

Claro, pero tampoco es difícil hacer estimaciones.
Si ponen una a 999$, ponle sobre 1200€ en tienda.Ya está.
Luego ,también lo que las inflan las tiendas, claro.
@Pollonidas


Comete un error detras del otro

Nos esta diciendo que la 3080 es mejor que 4070, ni a medias ni nada. no

Cuando los fps en crudo se miran en media de 30 juegos

Luego esta usando 4K, error la 4070 es 1440p focused solo 12 vram y la 80 16gb

Luego error no mira RTX

Luego otro error no activar DLSS

Luego otro error la 3080 no riene DLSS3 ni 3.5


Ya tuvo su momento de gloria


Solo un descerebrado no elegiria la 4070, salvo que viva en siberia y no tenga estufa jaja



Menos Vram, 320w , no FG, se ha lucido.



Y lo de tech relative acierta casi siempre, le subo un 30% a los fps de mi 4070 y me da en youtube los fps de una 4070ti super, que casualidad


Claro a 1440p no a 8K xd.
Amigos una duda.
Cuanta diferencia hay entre una PS4 PRO y una 3050 de 6 GB de VRAM ?
Obviamente la 3050 es más potente... Pero quiero saber la diferencia

PD: lo pongo aquí porque no sabía dónde ponerlo


Gracias y un saludo
PSX22 escribió:@Pollonidas


Comete un error detras del otro

Nos esta diciendo que la 3080 es mejor que 4070, ni a medias ni nada. no

Cuando los fps en crudo se miran en media de 30 juegos

Luego esta usando 4K, error la 4070 es 1440p focused solo 12 vram y la 80 16gb

Luego error no mira RTX

Luego otro error no activar DLSS

Luego otro error la 3080 no riene DLSS3 ni 3.5


Ya tuvo su momento de gloria


Solo un descerebrado no elegiria la 4070, salvo que viva en siberia y no tenga estufa jaja



Menos Vram, 320w , no FG, se ha lucido.



Y lo de tech relative acierta casi siempre, le subo un 30% a los fps de mi 4070 y me da en youtube los fps de una 4070ti super, que casualidad


Claro a 1440p no a 8K xd.


Hombre son generaciones diferentes, pero lo que está más que claro es que, el que compró una 3080 de salida ha jugado durante 3 años por casi el mismo precio que el que compró una 4070 de salida y ambas gráficas se arrastrarán a la vez.
@TotalEvilDead


Absolutamente no, el dlss y FG ha jubilado la 3080 pronto , salvo mods que no rinden igual


Ah y la vram 10gb ridiculo, y no, no 3 años porque esa gpu asumes que se compra de salida y no es asi

Y con la 5000 vamos mismo camino pero por tema vram el FG es el mayor salto desde que existe el DLSS 1


Esperando El DLSS4 VRG ( vram generator) xd
Debo estar muy desconectado entonces, tenía entendido que cuando la tasa de frames está entre 30 y 40 el FG no vale para nada. Dlss es el mismo en ambas quitando FG, no?

Claro que la compras de salida, creo que el comentario estaba claro, igual también me equivoco y solo pasaron dos años desde el lanzamiento.

Pero en lo que no me equivoco es que, cuando te falta potencia y tienes que jugar entre 30 y 40 frames, que es cuando una gráfica empieza a arrastrarse, 2 gb de memoria no te van a salvar.
@TotalEvilDead


Si estas desconectado ayer mismo en FS2024 sin FG tenia 42 fps y con FG 80, la diferencia de enfoque de movimiento y suavidad es grande, ideal seria 60 a 120 pero 40 es funcional y la fuente soy yo mismo hace escasas horas termino la alpha. Partir de 60 es mejor pero no determinante

Otro juego que no habria podido jugar es cp77 , donde aparecen graves roturas con FG es en los 25-35fps ahi los 50 con FG son inutiles, pero no por input lag sino por que aparece tearing grave y congelacion


En cuanto a la ram con 10 no me daria pues el FG consume 1GB con lo que 10 seria 9 en la 3080 , y la verdad ya llegas a los casi 12 en 4K DLSS Rendimiento FG y RT ultra( no path). 12 es ya al limite, 10’inviable en 4K dlss, la 3070ti es otra gpu muerta y es potente por lo mismo 8gb y sin FG

Por eso ya la 5070 12 me estiro de los pelos…
Pollonidas escribió:
Lorena99 escribió:Rtx 3080 shader units=8704

Rtx 3090 shader units=10496

Rtx 4080 su=9728

Rtx 4090 su=16384

Rtx 5080 su=10752

Rtx 5090 su=21760

Contando con que siguen con el mismo nodo de fabricación 4nm (supuestamente Algo mejorado, ergo eficiencia y frecuencia similar) es imposible por números, ya que esto es matematicas y va de encorsetar la mayor cantidad de transistores en el menor espacio possible, ingenieria, que la 5080 se acerque siquiera a la 4090.

Y si las ranas vuelan, y se produce la magia, eso significaria que la 5090 tendría un rendimiento incalculable que al encenderla generaría un agujero negro lo menos, porque es MAS DEL DOBLE que la 5080.

La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

@franciscovg

https://tpucdn.com/review/star-wars-out ... 0-2160.png

La 4070 ni se acerca a la 3080. No os tragueis el marketing barato.

Pero si todos los números que aportas me están dando la razón. Incluso en el caso que describes que es un tanto peculiar (porque la 3080 es el chip "grande" de su generación, es decir, con número interno de modelo terminado en -2 o en -0, cosa que no pasaba desde la GTX580, en Fermi, hace 13 años, con la excepción de la GTX780 en la que cambiaron el primer número sin cambiar arquitectura, pero es el chip grande de la serie 600). De hecho la 4080 no es el chip grande de su generación, incluso si por número de transistores podría parecerlo (ahora se han sacado de la manga la terminación en -3, pero vamos, cualquier otra generación ese chip sería un GXX-104). Entiéndase grande en shaders/cuda cores/SU y ancho de bus de memoria.

1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)
3070 5888SU > 2080Ti 4352 SU

Entre la 4070 y la 3080, desde luego que dudaría, y te doy la razón en que sin mirar el consumo la 3080 es superior si no cuentas conusumo, rendimiento en RT y extras en forma de DLSS más reciente, pero se juntan dos cosas, lo que comento de que la 3080 sería la -Ti de cualquier otra generación, y que la 4070 sería la -60 de cualquier otra generación (ver los 192bits de bus de memoria de la 4070, igual que en la 3060, la 2060 y la 1060). Pero vaya, ponemos en la balanza la 4070Ti si quieres, no hace falta irse a la super siquiera.

Lorena99 escribió:La 5080 va a ser todavía más ridícula de lo que fue la 4080 comparada con la 4090. Y por cierto las graficas de relative performance de techpowerup no valen para nada, lógicamente.

Me gustaría que elaboraras lo que remarco, porque yo al menos la parte de lógicamente no la comparto. Las gráficas de relative performance no son más que la media geométrica de los FPS promedio en varios títulos de varios géneros y motores gráficos. La elección de qué juegos en particular se prueban se puede argumentar que sea más o menos sesgada, pero a mí me parece de lo más objetivo y representativo que se puede encontrar, en caso de mirar solo un número.

De hecho justo después incluyes en un enlace una métrica de rendimiento de un título en particular también de techpowerup, en la que evidentemente se respalda tu postura (y reitero, en parte estoy de acuerdo en que una 3080 es mejor que una 4070 en algunos casos). Eso sí que me parece sesgado, si en un juego por lo que sea hace falta ancho de banda a memoria, las gamas altas siempre van a salir mejor paradas, pero si eso ocurre en un 10% de los juegos modernos no creo que sea representativo de que esa gráfica es superior, sobre todo si en el 90% restante no es así.

Saludos


No, me refiero a que la diferencia en tamaño entre la 4090 y 4080 no tiene precedente, y la diferencia entre la 5080 y la 5090 va a ser todavía mayor. Decías que nunca habia pasado que una gama xx80 nueva, rindiera menos que una xx90 anterior, pero es que Nvidia nunca ha sacado una barbaridad como la 4090 y unos despojos en comparación como han sido el resto de la gama.

Jamàs había pasado tampoco que la gpu más eficiente fuese la tope de gama, y ahí la tienes en la 4090.

Con respecto a la 4070 no voy a decir más que parece que alguien de aquí se ha casado con una, pero sí en relación a las graficas de relative performance que no son fiables ya que cogen juegos que van sobradisimos a 300 fps aun a 4k y eso desvirtua por completo la comparativa, porque la CPU limita.

No me consta que determinados juegos especificamente escalen mejor con mayor ancho de banda, lo que me consta es que cuando la gpu va al 100% se ve donde queda realmente cada una, de modo que lo primero no tiene relevancia alguna, y lo segundo sí:

https://tpucdn.com/review/nvidia-geforc ... 0-2160.png

https://tpucdn.com/review/nvidia-geforc ... 0-2160.png

Y no, no existen GPUs "para 1080p" y otras "para 1440p", eso es marketing churrero, existen graficas menos potentes y más potentes, que a mayor o menor carga se le van a ver mas o menos las costuras. Un saludo.
claro que existen tarjetas de 1080p 1440p 2160p

Porque lo que lo determina es a que resolucion se mueve bien en juegos actuales entre 60-100fps.

Puedes poner una 3060 en 8K? si. puede mover el pong a 8K 120 ? si. Es una tarjeta 8K no.

La propia relative tech te las marca con verde para 1440p, 2160p etc. Y esto depende con el tiempo la 4090 es 4K hoy, en 10 años no.

basicamente es su resolucion objetivo para juegos actuales donde entregue 60-100fps. SI la 4090 entrega 230 fps en 1440p ya no es 1440p, sino 4K. Y si, la 4090 puede renderizar a 720p 500fps el half life 2, pero sigue siendo una tarjeta 4K ( hoy) en 5 años no .

Como se que esto es asi? porque una 4090 no se la compra nadie para jugar en 720P. y una 3060 no se la compra nadie para 4K sin rescalados.


Las barras relativas tienen todo el sentido en un rango de 30-90fps , si vas a poner juegos a 300fps, no se cumple porque la CPU no paraleliza instrucciones como una GPU y esta ultima tendra que esperar a la logica del juego e incluso el RTX que depende de la cpu tambien


Miles de videos avalan esto, pues "best 1440p card" todo el mundo lo entiende, que se compra para un monitor de ese tipo, ya sabemos que tambien funciona en 1080p pero no se la compra la gente para eso normalmente
Lorena99 escribió:No, me refiero a que la diferencia en tamaño entre la 4090 y 4080 no tiene precedente, y la diferencia entre la 5080 y la 5090 va a ser todavía mayor. Decías que nunca habia pasado que una gama xx80 nueva, rindiera menos que una xx90 anterior, pero es que Nvidia nunca ha sacado una barbaridad como la 4090 y unos despojos en comparación como han sido el resto de la gama.

Jamàs había pasado tampoco que la gpu más eficiente fuese la tope de gama, y ahí la tienes en la 4090.

Eso es porque la 4080 es un chip de gama media-alta, como he dicho alguna vez en el foro en otras discusiones y me han saltado al cuello (basándome en la numeración interna del chip), pero vamos, que a la 4070Ti de milagro no la llamaron 4080 12GB. Y eso sí que es márketing puro.

Yo solo digo que, incluso sabiendo las diferencias que se han filtrado, no tendría ningún sentido comercial que la -80 de una generación rinda menos que la -90 (o -80Ti) de la anterior, y sería la primera vez que sucede. La arquitectura tiene mucho más impacto que el número de SU y el tamaño físico del die (incluso escalando la superficie al proceso de fabricación), siempre lo ha tenido (y si no mira el caso 980Ti vs 1070 que cité, la segunda es como un 15% superior con un 50% menos de SU's).

La verdad que es sorprendente la eficiencia de la 4090, especialmente bajando el power target a valores un poco más "racionales" pero siendo totalmente objetivos, con todo de stock, tanto la 4080 (base y super) como la 4070 super son superiores en eficiencia a la 4090. Y el consumo en reposo y en cargas bajas de la 4090 es irremediablemente alto. Así que incluso si es una anomalía en ciertos aspectos, yo ahora mismo no diría que la 4090 es la más eficiente de la gama. Al menos no sin un asterisco al lado.
Lorena99 escribió:No me consta que determinados juegos especificamente escalen mejor con mayor ancho de banda, lo que me consta es que cuando la gpu va al 100% se ve donde queda realmente cada una, de modo que lo primero no tiene relevancia alguna, y lo segundo sí

https://tpucdn.com/review/nvidia-geforc ... 0-2160.png

https://tpucdn.com/review/nvidia-geforc ... 0-2160.png

Y no, no existen GPUs "para 1080p" y otras "para 1440p", eso es marketing churrero, existen graficas menos potentes y más potentes, que a mayor o menor carga se le van a ver mas o menos las costuras. Un saludo.

¿Y por qué en el perfomance summary asumes que las gráficas no van al 100% de uso? El porcentaje que dan en esa sección es la media geométrica ponderada para que la gráfica que están analizando en cuestión se muestre como 100% de rendimiento, y el resto proporcionalmente más/menos según rinden más/menos. Mirando ese parámetro a resolución 4K, y teniendo en cuenta que el banco de pruebas suele utilizar los procesadores que mejor rinden del momento para juegos, no veo por qué alguna de las gráficas iba a estar por debajo de ese porcentaje de uso. A resoluciones bajas me puedes decir que una 4090 es penalizada ligeramente si en algún juego el procesador no es suficiente para que se aproveche, pero a resoluciones altas, todas las gráficas van a ir al 100% de uso, y de hecho algunas limitadas por VRAM por lo que la beneficiada sería justamente la 4090. No veo por qué agregar esos datos y promediarlos debería ser fuente de error.

Igual que muestras un ejemplo de juego exigente en el que la 3090 es superior a la 4070 super (digo uno porque the witcher 3 con criteros actuales NO es un juego exigente, y usa el mismo motor gráfico que CP2077 -REDengine- por lo que probablemente comparta "vicios"), tienes otros tantos en los que se da el caso contrario, por ejemplo, de la última review que han hecho:
https://tpucdn.com/review/silent-hill-2 ... 0-2160.png

Yo desde luego que, a igual precio, querría antes una 4070 (incluso el modelo básico) frente a una 3080. Y eso que la 3080 en su día me pareció un regalo, dado el historial de lanzamientos anteriores en los que ese mismo chip se llamaba XX80Ti y en el caso de la generación anterior costaba 1300 cocos y no 730. Regalo que pocos pudieron conseguir por la fiebre de las crypto y el covid, yo de hecho soy uno de los que se quedó sin ella y se saltó esta generación. Pero es que hoy en día, empezando por eficiencia energética y siguiendo por DLSS, es que es mucho a sacrificar para potencialmente un poco más de rendimiento en raster (discutiblemente, ya que las dos rondan los 30TFLOPS teóricos).

Contestando a @PSX22, lo de los 10GB de VRAM de la 3080 tiene una razón muy sencilla: La GDDR6X de mayor densidad que había en la época era de 8Gb(1GB) por chip. Eso significa que para poner 24GB en la 3090 tenían que poner 24 chips, ocupando las dos caras del PCB, con muchos problemas asociados. Es justo lo que hicieron, porque en una GPU premium tiene sentido. En la 3080, con sus 320 bits de bus (32x10) la única opción razonable era poner 10 chips, en una sola cara del PCB, lo que da 10GB (la otra opción era poner 20 chips al estilo de la 3090 y subir bastante el precio, cosa que para juegos no tenía mucho sentido). Pero eso no pienso que sea un limitante, y menos frente a la 4070 que tampoco tiene mucha más VRAM y a cambio el bus de memoria es prácticamente la mitad (frente a la 3080Ti o a la 3080 12GB es de hecho justo la mitad). Podrían haber hecho un downgrade a GDDR6 y poner chips de 2GB... pero si ya se vendían como churros no hay motivo para canibalizar las ventas de su gama alta, sobre todo para IA y Crypto que en ese momento estaban de boom. La 3090 de hecho era la única gráfica sin LHR.

La 3090 "buena" es la 3090Ti, pero llegó tan tarde en la generación (y tan cara) que está condenada al olvido. La verdad que es una pena.

Saludos
@Pollonidas


le veo todo el sentido a lo de los chips, pero a dia de hoy esos 10 si limitan bastante y mas para quien la use en 4K ,pues esa GPU se lanzo para 4K y su ancho de banda le permite gestionar mejor altas resoluciones que la 4070, de hecho rinde mejor en 4K creo que por eso. Pero ya no puedes maxear CP77 aunque tenga potencia justo por eso, llega a los 10GB incluso en 1440p DLAA con RTX . Por otro lado comprensible es una GPU antigua.

La 3090ti creo que fue una pasada de precio y para cuando llego al poco tiempo la 4090 la dejo tan en ridiculo que es triste como dices




Se me olvidaba:

La 3080 a igual precio que 4070 no la quiere nadie coincido yo , tu y cualquiera que se pare a analizarlo ( la super es mejor compra a dia de hoy) , por tema Watts,( disipar 300 vs 180) sin DLSS3 oficial ni FG,y menor potencia TOPS RT. gesionable con fuentes de 40€ etc.



Y por ultimo si la gente se mira tablas de eficiencia de GPU y en relacion coste/fps y fps/W , vereis que la peor es la 4090... da mucho pero en proporcion es mucho mas cara . Es decir es el doble que una 4070 en relative performance , pero luego no tienes el doble de FPS ( seguramente por temas de CPUs) y en cuanto a precio alcanzar 60 fps a X calidad no cuesta la mitad que alcanzar 120 fps a la misma X calidad con la 4090 . Se ve facil porque te da el doble de FPS pero no cuesta 2X los € de la 4070 sino mucho mas. Basicamente el coste del frame te sale el mas caro con la 4090, pero bueno tampoco es muy criticable porque la ley de retornos minimos hace que tengas que gastar mas para obtener mejoras menores en proporcion al gasto, ya sea de energia o economico. Calidad/Precio como la 4070Super no hay nada. ( para objetivos 4K DLSS o inferiores)
Menuda masterclass de gráficas os habéis hecho en el hilo [flipa] . Finalmente me he pillado la RTX 4070 Ti Super.

Como decía un compañero más arriba, yo fui uno de los "afortunados" en conseguir una RTX 3080 10GB más o menos en precio, 870€ creo que fueron. en Noviembre de 2020 y ha sido este año cuando he notado que le falta un empujón para llegar a 60FPS a 4K en algunos juegos, hasta tal punto, que "aparco" los juegos. Dragon's Dogma 2 o Silent Hill 2 los he aparcado hasta que me llegue la RTX 4070 Ti Super y Alan Wake 2 lo "mal jugué" porque no pude más. También es cierto que cada uno tiene un nivel de exigencia diferente, a mi Alan Wake 2 con caídas hasta los 45FPS no me era suficiente y ya lo considero "mal jugar".

Finalmente me he decidido por la RTX 4070 Ti Super porque la Gainward RTX 4080 Super se agotó y la diferencia de precio con la siguiente eran más de 200 y pico euros que viendo comparativas no me rentaban mucho y más teniendo a la vuelta de la esquina la RTX 5080. Imagino que entre la venta de la RTX 3080 por unos 370€ más o menos y la oferta, el cambio me ha salido por unos 380€ que a lo mejor hasta me permiten jugar todo el año que viene (hasta la salida de una hipotética RTX 5080Ti) mucho mejor que ahora, no ya porque la RTX 3080 no de la talla quizás en fuerza bruta sino por todas las tecnologías que, según mi opinión, NVIDIA se ha inventado para que no estiremos mucho las gráficas (DLSS, FG's y demás) y que marcan muchísimo la diferencia por lo que he podido ver en las comparativas.

Saludos
@RMC1


Que modelo y precio? Valoro la misma gpu y mas si la 5070 va a estar en 700 com 12gb y la 5070ti falta mucho


Que ensamble ?
asi estamos algunos... queriendo dar el salto de grafica me esperaria a una supuesta 5070 ti, pero para eso por lo menos mes de marzo / abril.

y teniendo como base que tengo AM4 pues tambien me planteo una 4070 ti super o incluso 4080 super.

veremos como evolucionada la calentada [poraki]
PSX22 escribió:@RMC1


Que modelo y precio? Valoro la misma gpu y mas si la 5070 va a estar en 700 com 12gb y la 5070ti falta mucho


Que ensamble ?



La Gainward RTX 4070 Ti Super Phoenix de LDLC que aplicando el cupón TENEDOR se quedó en un 10% más barata (754€) . No he probado nunca este ensamblador pero no creo que haya problema.

Los que buscáis 4080 Super no sé si repondrán pero las más baratas estaban agotadas, quedaba alguna KFA2 pero considero que ya se van de precio.

Saludos!
@RMC1


Es que es un regalo 750 con mas memoria y mas rapida que 5070, no se, me asustan aqui con los rescalados dlss4


Pero gainguard da miedo , no es asus ni msi da mal rollo por el desconocimiento


Avisa cuanto te tarda yo de los franceses no me fio
@Pollonidas las gtx 900 iban a 28 nm, las gtx 1000 a 16 nm, fué una barbaridad de reducción de nodo. Obvio que la eficiencia en la miniaturización del proceso se fabricación es más importante a la hora de encapsular el mayor número possible de transistores, muy por encima de la arquitectura como tal.

En cambio: nodo de Las rtx 4000= 4nm, y el modo de las rtx 5000 es... 4nm también... Luego no va a haber salto practicamente, o no debería tirando de lógica, en eficiencia comparando con las rtx4000. Un Tic de libro. De ahí que también vayan a aumentar consumos para no hacer el ridículo.

Sentido comercial? El unico sentido comercial de Nvidia es dominar y controlar el mercado, y le importa un pimiento el numero y volumen de GPUs vendidas, de hecho son los primeros en generar escasez y especulación como buen monopolio de manipuladores que son. Lo único que busca Nvidia realmente es no perder cuota de mercado y reirse de la gente.

No sé que más decir con respecto a como hacerse una idea real de la potencia de una gráfica que no haya dicho ya. Yo no voy a darle ninguna importancia a un benchmark jugando al Lego Indiana Jones a 500 fps con la CPU limitando obviamente, no voy a entrar a explicar por qué que no quiero aburrir, y si se lo voy a dar a uno de un referente gráfico como el cyberpunk donde la gráfica no pasa de 80 fps, la CPU no influye prácticamente, y la gráfica sí o sí va al 110%.

La 3090ti si no recuerdo mal fue un aborto para meter con vaselina la idea de una gráfica con tdp monstruoso de 450w que apenas rendía un poco más para el extra de consumo que tenía, mismo caso que la 3070 ti.

Un saludo.
hay que perseguir mejoras notables, es decir un 100% de coste debe repercutir en un 100% de rendimiento, sino , estamos comprando mal ( o mas bien suboptimamente). SIempre que ese rendimiento optimo cubra tus minimos.
Lorena99 escribió:@Pollonidas las gtx 900 iban a 28 nm, las gtx 1000 a 16 nm, fué una barbaridad de reducción de nodo. Obvio que la eficiencia en la miniaturización del proceso se fabricación es más importante a la hora de encapsular el mayor número possible de transistores, muy por encima de la arquitectura como tal.

El cambio de nodo implica que el mismo número de CUs ocuparán físicamente menos superficie de silicio, que las frecuencias alcanzables serán más altas, y que potencialmente el consumo será menor pero la mejora a la que te estás refiriendo de la serie 900 a la 1000 es de arquitectura, no de proceso de fabricación. Si toda la mejora fuera debida al proceso de fabricación lo que sucedería es que la 1070 tendría más CU's en la misma área, pero no es así, el chip es mucho, pero que mucho más pequeño (es decir, la ventaja del proceso de fabricación menor es más para el fabricante, que abarata costes, que para el usuario). La única mejora debida al proceso de fabricación, que es notable, es la frecuencia.

Lorena99 escribió:En cambio: nodo de Las rtx 4000= 4nm, y el modo de las rtx 5000 es... 4nm también... Luego no va a haber salto practicamente, o no debería tirando de lógica, en eficiencia comparando con las rtx4000. Un Tic de libro. De ahí que también vayan a aumentar consumos para no hacer el ridículo.

Incluso intel que fue la que empezó esta tendencia dejó de hablar de tick y tock pero es que... creo que estás en un error dado que los saltos notorios tanto de eficiencia como de rendimiento de los últimos 20 años han sido tocs.
Yorkfield a Nehalem (45nm ambos): Toc
Gulftown a sandy bridge (32nm ambos): Toc
Ivy bridge a haswell (22nm ambos): Toc
etc.

Sigues sin haberme dado una razón para que la media ponderada de los juegos que testean en TPU sea una mala métrica y dos juegos individuales del mismo estudio con el mismo motor gráfico en los que casualmente la 3080 sale beneficiada frente a otros casos sean una medida objetiva. Ni el Lego Indiana Jones es parte del set de juegos que prueba TPU ni ninguno de los mismos va a 500fps a 4K, no entiendo adónde quieres llegar.

Saludos
PSX22 escribió:Pero gainguard da miedo , no es asus ni msi da mal rollo por el desconocimiento

Al margen de comprar en LDLC. Que es como hacerlo con otras reglas donde la gente piensa que compras en España con reglas de aqui pero no......pues yo no veo nada malo a Gainward más alla de que gama compres. Y no veo la perfección en Asus o MSI. ¿Acaso os molan más las Ventus? y ASUS en GPUs no tiene Prime, es que las divide en ROG, TUF, Dual y Turbo. Cuando llegas a Dual ya ves el percal. ¿Y MSI? de mejor a peor son MECH, SUPRIM, GAMING, SEA HAWK, ARMOR, VENTUS. ¿A que nunca habiais vistos Mech y Suprim? lo más abundante es Armor y Ventus, creo que la sea hawk, nunca las vi en tiendas castellanas.

Gainward tiene estas. Phoenix no es gama baja, esta bien.
https://www.gainward.com/main/index.php?lang=en

Lo dicho, lo unico malo es la tienda en si misma con telefonos de soporte falsos/desactivados, portes ya no digamos gratis, es que no te mandan ellos ni el transportista, te buscas la vida para mandar a francia. Y por si alguien no lo sabe, siendo ellos el distribuidor de Nvidia, estas reglas se aplican en las FE. Eso sí, los 15 dias los respetan, lo unico es las facilidades que no existen.
Imagen

Se viene un Enero, Febrero y Marzo movidito... [sonrisa]
@Nomada_Firefox


No les he comprado a los franceses, no me da confianza esa web ni sus condiciones, ya no tienen el tenedor y mejor, casi compro la 70tiS a 770, mal fario luego la garantia


Y en marzo una 5070ti con suerte mas de 12gb puedenser GLOria, pero eso si no a 770, 900€ minimo
(mensaje borrado)
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...

Es que eso, va a pasar.
Y aunque la 5080 sea algo más barata, ponte que 1200€,la otra estará por +-1500€ siendo bastante mejor.
No es nada nuevo.
Yo sigo con el objetivo es la 5070ti, veremos la evolución de los acontecimientos.

Confieso que ayer tarde hubo una calentada 😅 y estuve mirando la 4070ti super y la 4080 super.

Pd además creo que Debo cambiar la fuente "a priori" de 750w a 850w
joshicko escribió:Yo sigo con el objetivo es la 5070ti, veremos la evolución de los acontecimientos.

Confieso que ayer tarde hubo una calentada 😅 y estuve mirando la 4070ti super y la 4080 super.

Pd además creo que. Debo cambiar la fuente a priori de 750w


En el BF seguro que caes [carcajad]
hh1 escribió:
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...

Es que eso, va a pasar.
Y aunque la 5080 sea algo más barata, ponte que 1200€,la otra estará por +-1500€ siendo bastante mejor.
No es nada nuevo.

Yo no tengo tan claro que saquen una 5080 Ti de 24gb, se ha filtrado que existe un modelo con 24gb, eso no quiere decir que vaya a salir.

También se filtro el diseño de la 4090 Ti y nunca a salido.

En la época de las rtx 3000 también se decía que iba a salir una 3080 con 20gb y nunca llego, y algunos esperando y esperando sin comprar la de 10 gb.

Nvidia no va a tener competencia en la gama alta de las 5000, puede hacer lo que quieran, si las ventas acompañan no tienen necesidad de sacar nada mas.

La 5080 Super la sacaron porque la 7900XTX es mejor en raster que la 5080 y porque no vendía una mierda, tenían competencia.

Igualmente la 5080 Super te da 5 fps mas que la 5080, ridículo, tuvieron que bajar el precio para venderla porque tenían competencia.

A la gente que le cuadre la 5080 de 16gb que se la compre, no hay mas, no va a ser una mala grafica.

Si llega a salir una 5080 Ti de 24gb, no la van a regalar, sumar 200 o 300 pavos y conociendo a Nvidia y sin tener competencia, mas bien 300.
the_aeon escribió:
hh1 escribió:
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...

Es que eso, va a pasar.
Y aunque la 5080 sea algo más barata, ponte que 1200€,la otra estará por +-1500€ siendo bastante mejor.
No es nada nuevo.

Yo no tengo tan claro que saquen una 5080 Ti de 24gb, se ha filtrado que existe un modelo con 24gb, eso no quiere decir que vaya a salir.

También se filtro el diseño de la 4090 Ti y nunca a salido.

En la época de las rtx 3000 también se decía que iba a salir una 3080 con 20gb y nunca llego, y algunos esperando y esperando sin comprar la de 10 gb.

Nvidia no va a tener competencia en la gama alta de las 5000, puede hacer lo que quieran, si las ventas acompañan no tienen necesidad de sacar nada mas.

La 5080 Super la sacaron porque la 7900XTX es mejor en raster que la 5080 y porque no vendía una mierda, tenían competencia.

Igualmente la 5080 Super te da 5 fps mas que la 5080, ridículo, tuvieron que bajar el precio para venderla porque tenían competencia.

A la gente que le cuadre la 5080 de 16gb que se la compre, no hay mas, no va a ser una mala grafica.

Si llega a salir una 5080 Ti de 24gb, no la van a regalar, sumar 200 o 300 pavos y conociendo a Nvidia y sin tener competencia, mas bien 300.


quizas al final de la vida de la serie rtx 50 veamos ediciones super como en la actual rtx 40.

ademas como dices, al ser gdrr7 los precios se van a disparar un poco, pienso yo.
Tengo una 4070ti de las primeras, la Aero de Gigabyte y viendo como saldrán estas nuevas, me esperan unos buenos años con ella. Quien la tenga y piense actualizar, inviertan en un buen monitor 1440p que el combo es excelente.

Y como dice el compañero mas arriba, jugar a mas de 120 fps sin dlss es una jodida maravilla.
the_aeon escribió:
hh1 escribió:
ranadetierra escribió:la cara de gilipollas integral que se le va a quedar a mas de uno cuando 6 meses después de gastarse 1350€ (vamos a ser optimistas) en una 5080 saquen la 80ti con 24gb y un 20% mas de potencia por 250€ mas, lo veo

no hay como tener la sartén por el mango, cabrones...

Es que eso, va a pasar.
Y aunque la 5080 sea algo más barata, ponte que 1200€,la otra estará por +-1500€ siendo bastante mejor.
No es nada nuevo.

Yo no tengo tan claro que saquen una 5080 Ti de 24gb, se ha filtrado que existe un modelo con 24gb, eso no quiere decir que vaya a salir.

También se filtro el diseño de la 4090 Ti y nunca a salido.

En la época de las rtx 3000 también se decía que iba a salir una 3080 con 20gb y nunca llego, y algunos esperando y esperando sin comprar la de 10 gb.

Nvidia no va a tener competencia en la gama alta de las 5000, puede hacer lo que quieran, si las ventas acompañan no tienen necesidad de sacar nada mas.

La 5080 Super la sacaron porque la 7900XTX es mejor en raster que la 5080 y porque no vendía una mierda, tenían competencia.

Igualmente la 5080 Super te da 5 fps mas que la 5080, ridículo, tuvieron que bajar el precio para venderla porque tenían competencia.

A la gente que le cuadre la 5080 de 16gb que se la compre, no hay mas, no va a ser una mala grafica.

Si llega a salir una 5080 Ti de 24gb, no la van a regalar, sumar 200 o 300 pavos y conociendo a Nvidia y sin tener competencia, mas bien 300.

Pero no es igual.
La 4090Ti era rizar el rizo sin hacer falta..
Para que se iban a complicar si con la 4090 les sobrada ya?

En este caso es que hay un hueco escalonado perfecto entre la 5080 y la 5090.
Y seguramente ese hueco sea el intermedio también en precio.
Cuadra mucho.

Hombre ,no hablamos de regalarla ,sino de sacar una opción cercana a la 5090 pero más económica.
neox3 escribió:Imagen

Se viene un Enero, Febrero y Marzo movidito... [sonrisa]


Seria muy raro que salgan todas en un par de meses, entre el lanzamiento de la 4090 y el de la 4060 pasaron 9 meses, si eso es real la 4060 y la 4070 durarían menos de 2 años

Aunque si amd tiene previsto sacar las suyas a principios de año tambien como no sacan gama alta y empiezan directamente por la media puede que fuerce a nvidia a sacarlo todo mas rápido
la 4070 salió en abril dudo que la 5070 salga en febrero la verdad, ver veremos..
621 respuestas
18, 9, 10, 11, 12, 13