[HO] NVIDIA GeForce RTX 5000

Cómo se ponen algunos porque se critica el producto que van a comprarse… XD
Sacoponcho1980 escribió:No esperéis milagros, es el mismo nodo, las mejoras son 50% humo, incluso en IA salvo por el FP4. Excepto en la 5090 que para eso tiraron de fuerza bruta metiéndole más consumo y cores. No es una arquitectura nueva , solo es la serie 40x más pulida y con mejoras por soft.

NVIDIA se ha marcado un Intel serie 14, y otra cosa a tener muy muy en cuenta, se van a calentar más si o si, por consumir más siendo el mismo nodo, con los respectivos problemas, de más ruido y posible Coil Whine.

Los que tenga una 30x será una gran actualización, los que tenga una 4090 o 4080, será tirar el dinero para dentro de un año tirarse de los pelos cuando saquen las TI con más memoria al menos en la 5080. El próximo año estarán más probadas y más pulidas. Este año pillarlas es una tómbola con lo caras que son.

Además el próximo año tendrán que mejorarlas mucho ya que AMD va a contratacar. Eso les obligará a sacar algo mejor.



Y que problema hay con los intel 14??? hostia macho es que me estais dando por todos lados XD ya no si si queria comprarme la 5090 y ahora acabare tirando mi pc por tener un i7 14700k collons...
pakolo1977 escribió:Tengo que decir que estas gráficas ya se consideren un refrito de las anteriores o no, las van a sustituir de todas formas. Al igual que la 2080 sustituyó a la 1080ti al tener capacidad de rasterizado similar aunque menos Vram. Aquella la disfruté mucho en los 4 años que la tuve, pero eso no empequeñece lo legendaria que es la 1080ti.

Y por supuesto, el que quiera comprar una mañana de estas que lo haga sin más problema, aunque a mi no me gusten para mi no significa eso que realmente por eso sean malas.

En mi caso es que tengo "envidia" del multiframe (guiño guiño). Ya me gustaría echar a andar la mía y poder ver 200 y pico cuadros al cyberpunk 2077 con las settings al máximo aunque haya artefactos como montañas de grandes, todo por obra y gracia del chino juan y sus esbirros.

Sobre todo, os deseo que disfrutéis vuestras gráficas todo o más lo que yo estoy disfrutando la mía. Una vez más, mucha suerte mañana, buenos precios, envíos rápidos y cuidadosos. Apretad bien los cables cuando las pinchéis en vuestros pcs y si tenéis dudas sobre si la fuente de alimentación no da para meterle tanta caña, no dudéis en preguntar por aquí.


Los 200 y pico frames solo molan porque lo pone en la pantalla. Puro placebo para vender humo. No son 200 y pico frames reales, son 200 y pico frames donde 3 imágenes son inventadas y que no son 100% iguales a la original aunque apenas se note. Son 200 y pico frames siempre con Ghosting, y aunque lo han mejorado una barbaridad con DLSS4 sigue el Ghosting ahí y un efecto raro.

Nos quieren vender estas tecnologías como comprables al 4k o mejores y siempre se ven peor que un 4k nativo en “movimiento”. NVIDIA solo está dando pan y circo a los que quieren monitores de chorrocientos hz para jugar al Fornite.

Y ya no te digo la nueva tecnología horrible de crear caras por IA con las 50x, que parecen generadas con un Dall-E de hace un par de años y quedan extrañas. También lo de la geometría que es otro humo de cuidado que se implementará en 2 juegos.

Lo triste es que tanta tecnología brilli brilli para que luego un exclusivo de Play deje en ridículo los gráficos del PC.

Está generación me recuerda a las NVIDIA FX, la peor que tuvieron en su historia, y eso que la serie 4 (4800) había tenido mucho éxito.

@T-elos
Tengo un 14700 non K, y aunque estoy muy contento, es un 2% mejor que un 13700 y además se calienta mucho más. Sin líquida aún con un Noctua si no lo limitas te llega a más de 90 grados en Cinebech. Igualmente me salió muy bien de precio y es una bestia, pero es un refrito. Ahora sigo siendo más de Intel que de AMD aunque ahora está vaya algo mejor.

Por cierto, y yo también ando jodido por esto. Tengo hasta el día 19 para devolver la tarjeta 4800s en PCComponentes, y quería una de las nuevas pero viendo el percal, se me ha quitado todas las ganas. Paso de matarme con los bots, la peña y quedarme tirado sin gráfica en el peor de los casos por un 8% y MFG.

Solo lo haría si me sale por menos de 100 (Me costó 1079 la Gigabyte OC Gaming) euros más y la pillo antes del 19 por tener FP4 para IA y el MFG porque no está de más, no porque me encante. Pero sin matarme y sino hasta la 5080Ti o 6080 (cambio de nodo), no salto.
Sacoponcho1980 escribió:
pakolo1977 escribió:Tengo que decir que estas gráficas ya se consideren un refrito de las anteriores o no, las van a sustituir de todas formas. Al igual que la 2080 sustituyó a la 1080ti al tener capacidad de rasterizado similar aunque menos Vram. Aquella la disfruté mucho en los 4 años que la tuve, pero eso no empequeñece lo legendaria que es la 1080ti.

Y por supuesto, el que quiera comprar una mañana de estas que lo haga sin más problema, aunque a mi no me gusten para mi no significa eso que realmente por eso sean malas.

En mi caso es que tengo "envidia" del multiframe (guiño guiño). Ya me gustaría echar a andar la mía y poder ver 200 y pico cuadros al cyberpunk 2077 con las settings al máximo aunque haya artefactos como montañas de grandes, todo por obra y gracia del chino juan y sus esbirros.

Sobre todo, os deseo que disfrutéis vuestras gráficas todo o más lo que yo estoy disfrutando la mía. Una vez más, mucha suerte mañana, buenos precios, envíos rápidos y cuidadosos. Apretad bien los cables cuando las pinchéis en vuestros pcs y si tenéis dudas sobre si la fuente de alimentación no da para meterle tanta caña, no dudéis en preguntar por aquí.


Los 200 y pico frames solo molan porque lo pone en la pantalla. Puro placebo para vender humo. No son 200 y pico frames reales, son 200 y pico frames donde 3 imágenes son inventadas y que no son 100% iguales a la original aunque apenas se note. Son 200 y pico frames siempre con Ghosting, y aunque lo han mejorado una barbaridad con DLSS4 sigue el Ghosting ahí y un efecto raro.

Nos quieren vender estas tecnologías como comprables al 4k o mejores y siempre se ven peor que un 4k nativo en “movimiento”. NVIDIA solo está dando pan y circo a los que quieren monitores de chorrocientos hz para jugar al Fornite.

Y ya no te digo la nueva tecnología horrible de crear caras por IA con las 50x, que parecen generadas con un Dall-E de hace un par de años y quedan extrañas. También lo de la geometría que es otro humo de cuidado que se implementará en 2 juegos.

Lo triste es que tanta tecnología brilli brilli para que luego un exclusivo de Play deje en ridículo los gráficos del PC.

Está generación me recuerda a las NVIDIA FX, la peor que tuvieron en su historia, y eso que la serie 4 (4800) había tenido mucho éxito.

@T-elos
Tengo un 14700 non K, y aunque estoy muy contento, es un 2% mejor que un 13700 y además se calienta mucho más. Sin líquida aún con un Noctua si no lo limitas te llega a más de 90 grados en Cinebech. Igualmente me salió muy bien de precio y es una bestia, pero es un refrito. Ahora sigo siendo más de Intel que de AMD aunque ahora está vaya algo mejor.

Por cierto, y yo también ando jodido por esto. Tengo hasta el día 19 para devolver la tarjeta 4800s en PCComponentes, y quería una de las nuevas pero viendo el percal, se me ha quitado todas las ganas.




ah pues quiza en eso habre trenido suerte , yo tengo una refrigeracion liquida 360 para mi 14700k y la temperatura maxima que he visto ha sido 70-72 grados quiza algun pico de 80 por un segundo, en cinebench si me ha llegado a 100 eso si, y aun asi pensaba me habia salido caliente porque venia de un i7 9700k y aquello era frio como un cadaver nunca lo vi ni llegar a 60 grados.
T-elos escribió:
Sacoponcho1980 escribió:
pakolo1977 escribió:Tengo que decir que estas gráficas ya se consideren un refrito de las anteriores o no, las van a sustituir de todas formas. Al igual que la 2080 sustituyó a la 1080ti al tener capacidad de rasterizado similar aunque menos Vram. Aquella la disfruté mucho en los 4 años que la tuve, pero eso no empequeñece lo legendaria que es la 1080ti.

Y por supuesto, el que quiera comprar una mañana de estas que lo haga sin más problema, aunque a mi no me gusten para mi no significa eso que realmente por eso sean malas.

En mi caso es que tengo "envidia" del multiframe (guiño guiño). Ya me gustaría echar a andar la mía y poder ver 200 y pico cuadros al cyberpunk 2077 con las settings al máximo aunque haya artefactos como montañas de grandes, todo por obra y gracia del chino juan y sus esbirros.

Sobre todo, os deseo que disfrutéis vuestras gráficas todo o más lo que yo estoy disfrutando la mía. Una vez más, mucha suerte mañana, buenos precios, envíos rápidos y cuidadosos. Apretad bien los cables cuando las pinchéis en vuestros pcs y si tenéis dudas sobre si la fuente de alimentación no da para meterle tanta caña, no dudéis en preguntar por aquí.


Los 200 y pico frames solo molan porque lo pone en la pantalla. Puro placebo para vender humo. No son 200 y pico frames reales, son 200 y pico frames donde 3 imágenes son inventadas y que no son 100% iguales a la original aunque apenas se note. Son 200 y pico frames siempre con Ghosting, y aunque lo han mejorado una barbaridad con DLSS4 sigue el Ghosting ahí y un efecto raro.

Nos quieren vender estas tecnologías como comprables al 4k o mejores y siempre se ven peor que un 4k nativo en “movimiento”. NVIDIA solo está dando pan y circo a los que quieren monitores de chorrocientos hz para jugar al Fornite.

Y ya no te digo la nueva tecnología horrible de crear caras por IA con las 50x, que parecen generadas con un Dall-E de hace un par de años y quedan extrañas. También lo de la geometría que es otro humo de cuidado que se implementará en 2 juegos.

Lo triste es que tanta tecnología brilli brilli para que luego un exclusivo de Play deje en ridículo los gráficos del PC.

Está generación me recuerda a las NVIDIA FX, la peor que tuvieron en su historia, y eso que la serie 4 (4800) había tenido mucho éxito.

@T-elos
Tengo un 14700 non K, y aunque estoy muy contento, es un 2% mejor que un 13700 y además se calienta mucho más. Sin líquida aún con un Noctua si no lo limitas te llega a más de 90 grados en Cinebech. Igualmente me salió muy bien de precio y es una bestia, pero es un refrito. Ahora sigo siendo más de Intel que de AMD aunque ahora está vaya algo mejor.

Por cierto, y yo también ando jodido por esto. Tengo hasta el día 19 para devolver la tarjeta 4800s en PCComponentes, y quería una de las nuevas pero viendo el percal, se me ha quitado todas las ganas.




ah pues quiza en eso habre trenido suerte , yo tengo una refrigeracion liquida 360 para mi 14700k y la temperatura maxima que he visto ha sido 70-72 grados quiza algun pico de 80 por un segundo, en cinebench si me ha llegado a 100 eso si, y aun asi pensaba me habia salido caliente porque venia de un i7 9700k y aquello era frio como un cadaver nunca lo vi ni llegar a 60 grados.


Con líquida es otro cantar sin duda. Igualmente yo estoy encantado, porque me salió a 349 euros y es una bestia parda, y no solo en juegos.
A falta de 5 minutos para las reviews, veremos si se cumplen las estimaciones "filtradas".
A colación, en generaciones anteriores el salto en rendimiento medio fue el siguiente:

980 -> 1080 = +51%

1080 -> 2080 = +39%

2080 -> 3080 = +63%

3080 -> 4080 = +49%
Sicopro escribió:
NAILIK escribió:Es tan jodidamente descarado el gap que han dejado entre la 5080 y la 5090 para meter entremedio lo que sería una verdadera 5080, que da miedito como mucha gente se come el marketing de Nvidia a paladas, y encima lo defienden y se ofenden!!!!!
La 5070 debería haber sido una 5060, la 5070TI una 5070, la 5080 una 5070Ti, sacar una 5080 en condiciones y dejar la 5090 tal como está.


Eso harán con las Super más adelante, anda que no hay trecho hasta la RTX 5090 para meter ahí gamas entre medio.

El salto ya se sabía que iba a ser pequeño desde hace meses en potencia bruta, desde que confirmaron que no iban a utilizar el nodo a 3 nm.

TSMC tuvo problemas con su nodo N3B, con bajos rendimientos (era inferior al 70 %). Además de que Apple acaparó gran parte de la producción de 3 nm, así que Nvidia y AMD se quedaron sin acceso.

Las GPUs suelen usar nodos maduros y optimizados para equilibrar rendimiento y costo. Así que el nodo a 3 nm no era una opción viable. Por eso optaron por 4NP, una variante de N4P, que a su vez es un refrito del N5. [carcajad]

Nvidia se centra en la IA y no separa como AMD las gamas profesionales y domésticas en RDNA y CDNA (y eso AMD lo va a dejar de hacer también con UDNA). No te van a sacar unas Blackwell con el nodo a 3 nm. Hasta que no tengan la arquitectura Rubin lista para los centros de datos olvídate de ver GPUs domésticas con ese nodo.

Así que lo mismo salen el año que viene, que no salen hasta el siguiente. También pueden sacarla primero para centros de datos y hasta 2027 no oler nada en GPUs domésticas.

Hoy se va a llenar el hilo de capitanes a posteriori diciendo obviedades sobre el rendimiento. Aquí ya se debatió hace meses el tema de que en rasterizado no iban a ser gran cosa, que tenían que tirar de DLSS, renderizado neural y demás historias para mejorar el rendimiento.

He perdido la cuenta de las veces que dije que el que quiera potencia bruta se esperase a las RTX 60. [carcajad]

Hasta puse una inferencia con la IA de que la RTX 5070 Ti en potencia bruta se iba a quedar al 75-80 % de la RTX 4090 y visto el presumible rendimiento de la RTX 5080, el margen de error va a ser del 0 % (lo clave). Si en promedio la RTX 5080 se queda a un 90-92 % por debajo de la RTX 4090, la 5070 Ti va a rondar un 75-80 % en potencia bruta de la RTX 4090.

Esto es del 26 de diciembre:

Situación frente a la RTX 4090:

En rasterización pura: La RTX 5070 Ti estaría lejos de la 4090, alcanzando entre el 70%-75% de su rendimiento.

En Ray Tracing puro: Alcanzaría entre el 75%-80% del rendimiento de la 4090.

Con DLSS 4 y Frame Generation: Podría igualar o superar a la 4090 en títulos compatibles (como Cyberpunk 2077 en modo Overdrive o Portal RTX), ya que la optimización de DLSS 4 favorecería a la nueva arquitectura.


Hagan caso a este hombre que sabe de lo que habla! [ok] [oki]
A mi me han tachado de todo sin llegar a tener tus conocimientos, y únicamente mirando y estudiando un poco los datos de la serie 5000 cuando fue presentada. En ese momento ya se podía ver que esto no llega a ser un verdadero salto de gama (a excepción de la 5090, que con las XX90 se la sacan) y que sin hacer salto de nodo esto es un refrito. Como tú dices, ahora vendrán los capitanes a posteriori a quedar de expertos. Nada nuevo bajo el sol.

MrKafka escribió:Cómo se ponen algunos porque se critica el producto que van a comprarse… XD


Y lo que te queda por leer [facepalm] Te recomiendo la opción de ignorados, ganaras en salud, y se quedan retratados ellos solos. Si en firma pusiera mi PC, yo personalmente, no tendría valor suficiente para poner que he comprado una 5080 viniendo de una 4080 o superior [hallow]
Espero que en un futuro no muy lejano, Nvidia saque una gama de gráficas 100% raster, sin IA. Cuánto hubiera costado una 5090 sin todos esos componentes para el DLSS y MFG, unos 1200€?? Si no, a esperar que China los coja de aquí a unos 10 años.
nerzhul1994 escribió:Espero que en un futuro no muy lejano, Nvidia saque una gama de gráficas 100% raster, sin IA. Cuánto hubiera costado una 5090 sin todos esos componentes para el DLSS y MFG, unos 1200€?? Si no, a esperar que China los coja de aquí a unos 10 años.


Esa empresa ya existe. Se llama AMD.

Un saludo,
the_aeon escribió:Pues solo se queda a 6 fps de la 4090, a ver si salen análisis a 4k con RT, que es lo me interesa.

Imagen
Un 10% de diferencia frente a la 4080S? Su puta madre Nvidia xD no he visto todavía ninguna review al completo pero pinta de locos lo de esta serie. Y como encima se calienten con los precios... Locura.
Guru 3d le da un bronce, vamos que si tienes una 4080-4090 ni se te ocurra cambiarla por una 5080, yo como voy a por la 5090 no me aplica pero para aquellos que tengan una una 4080 o 4090 mejor que se lo piensen


review 5080
Estas son muy buenas noticias para vender mi RTX 4090 a un precio mas alto [carcajad]

Imagen
Imagen
Daiben escribió:
the_aeon escribió:Pues solo se queda a 6 fps de la 4090, a ver si salen análisis a 4k con RT, que es lo me interesa.

Imagen


Virgensita de Guadalupe [facepalm] En serio que me ha dolido hasta a mi [facepalm] un 10% mas que la 4080 Super y un 23% mas que una triste 4070 Ti Super, y todo por un módico precio.
Que nadie haga la locura de cambiar una 4090 por una 5080 por Dios, que cada vez que alguien lo hace se muere un gatito [buuuaaaa]

Menos mal que la 5070Ti sale en un mes y algo, porque así tiene tiempo de vender 5080
Schencho escribió:Un 10% de diferencia frente a la 4080S? Su puta madre Nvidia xD no he visto todavía ninguna review al completo pero pinta de locos lo de esta serie. Y como encima se calienten con los precios... Locura.


Y un 7% en RT a 1440p...

Y un dato demoledor, con overclock y max power (400w) gana sobre un 12% y un así, está por debajo de una 4090 con undervolt y power limit reducido...
Pingües beneficios XD

Y luego la gente en la presentación diciendo que eran buenos precios, cuánto humo soltó jesús juan [qmparto]
Con MLPerf para IA lo esperado, NVIDIA mintiendo deliberadamente (deberían denunciarlos porque lo pone hasta en su página) . Solo puso lo que le interesó en IA, lo que dije yo FP4, ya que en todo lo demás en IA apenas mejoró de las 40x a las 50x.

Imagen
Pongo estos dos resultados comparando la 5080 vs la 4080(S) con ray-tracing usando el mismo procesador que el mío 9800X3D y la resolución que yo utilizo 1440p, son mis dos juegos favoritos de la generación:

Alan Wake II

Imagen

Cyberpunk 2077

Imagen

qué broma es esta?? [boing] [boing]
La broma del humo que por desgracia la gente se come. Ey! pero tenemos el MLFG X4 [facepalm]
Las custom de 5080 y 5090 salen a la venta mañana? Hay ficha en coolmod pero no se sabe la fecha.
Una increible mejora de 0% en RT e IA.

No llegan a inventarse el x4 en fake frames y estaría la cosa divertida.
Genshix escribió:Las custom de 5080 y 5090 salen a la venta mañana? Hay ficha en coolmod pero no se sabe la fecha.


En principio sí, pero con cuentagotas y con stock limitado durante algo de tiempo. De Zotac, por ejemplo, no habrá nada hasta mediados de Febrero
Vaya vergüenza de resultados, me parece que voy a comprarme la 4090 de cabeza vamos.
Lince_SPAIN escribió:Pongo estos dos resultados comparando la 5080 vs la 4080(S) con ray-tracing usando el mismo procesador que el mío 9800X3D y la resolución que yo utilizo 1440p, son mis dos juegos favoritos de la generación:

Alan Wake II

Imagen

Cyberpunk 2077

Imagen

qué broma es esta?? [boing] [boing]

A mí me parece mucho
Lince_SPAIN escribió:A falta de 5 minutos para las reviews, veremos si se cumplen las estimaciones "filtradas".
A colación, en generaciones anteriores el salto en rendimiento medio fue el siguiente:

980 -> 1080 = +51%

1080 -> 2080 = +39%

2080 -> 3080 = +63%

3080 -> 4080 = +49%


Te añado la siguiente a la lista, si me lo permites

4080 -> 5080 = 15%
Ni tan mal, me la esperaba peor:

Imagen

Imagen
Vaya el del rincón de Varo inventándose datos para estar a bien con NVIDIA que lo invitó al evento. No coincide con ningún otro análisis.

NAILIK escribió:
Genshix escribió:Las custom de 5080 y 5090 salen a la venta mañana? Hay ficha en coolmod pero no se sabe la fecha.


En principio sí, pero con cuentagotas y con stock limitado durante algo de tiempo. De Zotac, por ejemplo, no habrá nada hasta mediados de Febrero

Pues a ver mañana si me da tiempo de pillar una 5080 estando trabajando. Me lo estoy planteando porque vengo de una RX 7800 XT que quiero cambiar para pasar de AMD a Nvidia.
654321 escribió:Ni tan mal, me la esperaba peor:

Imagen

Imagen

Macho, otro que se monta la película. Que en un juego tenga un 20% no cuenta si en los demás da pena y para eso solo en 4k por la memoria más rápida. Esas comparativas están sesgadas. Menudos sois!

Dejad de poner comparativas sesgadas para auto convenceros de vuestra compra.
Lince_SPAIN escribió:Pongo estos dos resultados comparando la 5080 vs la 4080(S) con ray-tracing usando el mismo procesador que el mío 9800X3D y la resolución que yo utilizo 1440p, son mis dos juegos favoritos de la generación:

Alan Wake II

Imagen

Cyberpunk 2077

Imagen

qué broma es esta?? [boing] [boing]

Eso es el de HUB que es un hater de los verdes hombre, gráficazas envueltas en marketing x4.

El que tuviera pensado pasar de 4090 a una 5080 por aquello del MFG espero que se replantee el cambio.
Por dios pero si es super inferior a la 5090.
Imagen

Practicamente es una 4080 Super, nisiquiera tiene un peo de mejora de RT........no hay más que ver lo que hace en nativo. Vaya fraude de Nvidia.
Rendimiento máximo del 10% respecto la super.
Si la 9070xt se acerca a la super y es solo un 10-15% inferior por un 40% menos de precio la 5080 no la va a comprar ni el tato y el que pague ahora 1200-1600 euros por una 5080 se le va a quedar cara de tonto.
Incluso el que cambie su 4090 por una 5080 viendo las reviews merece la muerte más dolorosa posible.
Por cierto los que dicen que no hay especulación en eBay pujas por la 5090FE que ni siquiera ha salido ni tiene el vendedor por casi 3 mil euros ya. No hablamos de poner en venta algo y que nadie lo compre, hablamos de que ya está la gente pujando.
Hostia puta vaya maldito chiste de tarjeta grafica [facepalm] [facepalm]
Daiben escribió:Una increible mejora de 0% en RT e IA.

No llegan a inventarse el x4 en fake frames y estaría la cosa divertida.


Lo curioso es que Nvidia vende un salto de 2x de potencia en los RT Cores........
El video de toromocho

Diferencia entre una 4080 y 5080 sin fake frames . A favor de la 5080 claro.

13.72% fhd
6.89% qhd
4 43% uhd

ahí queda eso.
Sacoponcho1980 escribió:Macho, otro que se monta la película. Que en un juego tenga un 20% no cuenta si en los demás da pena y para eso solo en 4k por la memoria más rápida. Esas comparativas están sesgadas. Menudos sois!

Es de la review de TechpowerUp, y para 4K es para lo que nos interesa mucho, en mi caso solo juego en VR a resoluciones similares a 4K.

Ademas, si no he dicho que este bien, solo he dicho que me lo esperaba peor, menos del 12% de media en raster sobre la 4080S, relajate un poco.

HakiGold escribió:Lo curioso es que Nvidia vende un salto de 2x de potencia en los RT Cores........

No eran los TOPS de IA los que se duplicaban ? Que tambien es falso, los cores ahora pueden hacer calculos FP4, antes máximo FP8, pero a la misma precision rinden casi igual.
Sacoponcho1980 escribió:Vaya el del rincón de Varo inventándose datos para estar a bien con NVIDIA que lo invitó al evento. No coincide con ningún otro análisis.



Para mí no tienen credibilidad porque si hablan ahora mal ya no habrá más tarjetas gratis ni viajes a Las Vegas.
Las reviews honradas serán a partir de mañana que la gente la tenga pagando sin que nadie les regale nada.
Pues yo no la veo tan mala compra, me explico

La 5070ti te va a costar casi 1000€ (o más) porque no hay FE

En cambio, la 5080FE son 1190€

Por menos de 200€ no merece la pena dar el salto? Qué dices a esto @NAILIK

Obviamente en el supuesto de que tengas una 4070 para abajo
Lince_SPAIN escribió:A falta de 5 minutos para las reviews, veremos si se cumplen las estimaciones "filtradas".
A colación, en generaciones anteriores el salto en rendimiento medio fue el siguiente:

980 -> 1080 = +51%

1080 -> 2080 = +39%

2080 -> 3080 = +63%

3080 -> 4080 = +49%

Tienes los mismos datos pero con la gama 90? Que también se decía que era el menor salto en generaciones el de la 5090...
será un tema de drivers?
Es verdaderamente vergonzoso la performance de la 5080 vs 4080, ya ni te digo vs 4090 [mad]

Yo creo que solo merece la pena vs la 5070ti si eres capaz de comprar la FE de lanzamiento. No se va a vender ni una sola custom!
654321 escribió:Ni tan mal, me la esperaba peor:

Imagen

Imagen


Yo también me la esperaba peor... La verdad...
Para las resoluciones que yo uso al menos, así que haber si nos podemos hacer con una mañana.
Hay ganas de jubilar la 3080 de 10 GB jeje
Y tuvieron los Santos cojones en la presentación del famoso "5070 = 4090 performance"

Van a estar simpáticas las comparaciones cuando se levante el embargo.
xineloeol escribió:
Lince_SPAIN escribió:Pongo estos dos resultados comparando la 5080 vs la 4080(S) con ray-tracing usando el mismo procesador que el mío 9800X3D y la resolución que yo utilizo 1440p, son mis dos juegos favoritos de la generación:

Alan Wake II

Imagen

Cyberpunk 2077

Imagen

qué broma es esta?? [boing] [boing]

Eso es el de HUB que es un hater de los verdes hombre, gráficazas envueltas en marketing x4.


Es lamentable como han tenido el santo papo de lanzar esta serie como una serie nueva, Nvidia no tiene vergüenza. Se han tenido que sacar el MLFG de la manga porque sino ni los fans más acérrimos hubieran tragado. Ya me los imagino esperando las reviews, creyendose el marketing de Nvidia, para venir en tropel a reirse de los que decíamos lo que finalmente ha pasado.

Si alguien está necesitado de gráfica, debería esperar un poquito nada más y lanzarse en plancha a por la 5070Ti, que al menos se ahorrará unos buenos euros y en cuestión de rendimiento estará como mucho un 5-10% por debajo de la 5080.

Ahora volvamos a encender la maquina de marketing a tope con los youtubers comprados [qmparto] y no hablemos de los 130fps de Alan Wake 2 con MLFG X4.... arriba esos monitores a más de 200Hz [qmparto]

Nomada_Firefox escribió:Por dios pero si es super inferior a la 5090.


Lee lo que pusimos @Sicopro y yo hace un rato. Hay una gap exageradísimo para poder colocar nuevas gamas a corto plazo.
@dunkam82 Llevas varias paginas pidiendo las comparativas a 4k con ray tracing, ahí las tienes, donde estás ahora? XD

NAILIK escribió:Imagen
Imagen
Imagen
Imagen
Imagen
654321 escribió:
Sacoponcho1980 escribió:Macho, otro que se monta la película. Que en un juego tenga un 20% no cuenta si en los demás da pena y para eso solo en 4k por la memoria más rápida. Esas comparativas están sesgadas. Menudos sois!

Es de la review de TechpowerUp, y para 4K es para lo que nos interesa mucho, en mi caso solo juego en VR a resoluciones similares a 4K.

Ademas, si no he dicho que este bien, solo he dicho que me lo esperaba peor, menos del 12% de media en raster sobre la 4080S, relajate un poco.

HakiGold escribió:Lo curioso es que Nvidia vende un salto de 2x de potencia en los RT Cores........

No eran los TOPS de IA los que se duplicaban ? Que tambien es falso, los cores ahora pueden hacer calculos FP4, antes máximo FP8, pero a la misma precision rinden casi igual.

Hombre dices ni ta mal. Es que si no somos críticos con las marcas normal que nos tomen el pelo. La 4080 salió hace dos años y ahora te dan una mejora del 10% y te venden mentiras, entre ellas que en IA la duplicaba.
Vienen ya exprimidas las 5080 o se les puede hacer oc??
Lince_SPAIN escribió:Pongo estos dos resultados comparando la 5080 vs la 4080(S) con ray-tracing usando el mismo procesador que el mío 9800X3D y la resolución que yo utilizo 1440p, son mis dos juegos favoritos de la generación:

Alan Wake II

Imagen

Cyberpunk 2077

Imagen

qué broma es esta?? [boing] [boing]

Yo tengo un i5-13600K, imagino que voy a ir bien con una 5080... Pero aquí hay mucho experto que sabe mucho más seguro. Hoy por hoy que tengo el dinero para invertir (nunca he pasado de las 70 o equivalente ahora en AMD con la 7800 XT) pues me molaria poder pillar la 5080 y que me durase mucho.
8737 respuestas