[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Xpace está baneado por "clon de usuario megabaneado"
_anVic_ escribió:Que suba algún bench de sus dos Pcs. A ver que tal le tiran... con esa 4090 y el 12900k y el otro con la 3070 y el ryzen . Hasta que no me pase enlaces validados con su nick en algún bench de 3dmark yo no me creo nada de este tipo.

Y a mí qué me importa lo que tú te creas o no [qmparto] [qmparto] [qmparto]

Imagen

Disfruta esa envidia.
Para tener una 4090 si, pero para tener educación, nada.
_anVic_ está baneado por "clon de usuario baneado"
Xpace escribió:
_anVic_ escribió:Que suba algún bench de sus dos Pcs. A ver que tal le tiran... con esa 4090 y el 12900k y el otro con la 3070 y el ryzen . Hasta que no me pase enlaces validados con su nick en algún bench de 3dmark yo no me creo nada de este tipo.

Y a mí qué me importa lo que tú te creas o no [qmparto] [qmparto] [qmparto]


Imagen

Disfruta esa envidia.


Xpace escribió:Adquirí una RTX 4090 la semana pasada, la inauguré con Starfield, y pese a que va muy bien en ciertas zonas parece que la CPU llega a mucha intensidad y la GPU baja entorno al 90% de uso. En otros juegos va perfecta.

Tengo un monitor Samsung Odyssey G8 de 34" Ultrawide capado a 120 hz ya que muchos más FPS me marean.


Respecto a tu hilo de la 4090 y el 12900k hablando de uso intensivo en la cpu en Starfield... definitivamente eres un troll... Tengo un 13700kf ( que esencialmente es un 12900k más dopado en frecuencias de serie ) con ram ddr 4 @3800mhz cl15 y la cpu en general se rasca las pelotas, lo máximo que he visto es en alguna ciudad ( Atlantis o Akila ) llegar al 40 o 50% de uso como mucho, en el resto de zonas va por debajo en general del 30% de media...

Nvidia ninguna, aquí van tres 4090 chato... [fumando]

Imagen

Imagen


Prueba de ello, casi 1h de testeo con el 13700kf tacándose las pelotillas literalmente



Por tanto, no me creo que tengas el 12900k ni lo hayas probado en Satrfield porque no dirías esas paridas... [+risas] Y si lo tienes, no tienes ni idea de benchear o interpretar el osd

Eres un troll de manual.
Xpace está baneado por "clon de usuario megabaneado"
_anVic_ escribió:
Xpace escribió:
_anVic_ escribió:Que suba algún bench de sus dos Pcs. A ver que tal le tiran... con esa 4090 y el 12900k y el otro con la 3070 y el ryzen . Hasta que no me pase enlaces validados con su nick en algún bench de 3dmark yo no me creo nada de este tipo.

Y a mí qué me importa lo que tú te creas o no [qmparto] [qmparto] [qmparto]


Xpace escribió:Adquirí una RTX 4090 la semana pasada, la inauguré con Starfield, y pese a que va muy bien en ciertas zonas parece que la CPU llega a mucha intensidad y la GPU baja entorno al 90% de uso. En otros juegos va perfecta.

Tengo un monitor Samsung Odyssey G8 de 34" Ultrawide capado a 120 hz ya que muchos más FPS me marean.


Respecto a tu hilo de la 4090 y el 12900k hablando de uso intensivo en la cpu en Starfield... definitivamente eres un troll... Tengo un 13700kf ( que esencialmente es un 12900k más dopado en frecuencias de serie ) con ram ddr 4 @3800mhz cl15 y la cpu en general se rasca las pelotas, lo máximo que he visto es en alguna ciudad ( Atlantis o Akila ) llegar al 40 o 50% de uso como mucho, en el resto de zonas va por debajo en general del 30% de media...

Prueba de ello, casi 1h de testeo con el 13700kf tacándose las pelotillas literalmente



Por tanto, no me creo que tengas el 12900k ni lo hayas probado en Satrfield porque no dirías esas paridas... [+risas]

Eres un troll de manual.

... En Starfield (en ciudades) las CPUs modernas se ponen prácticamente al 100%. Salvo la tuya… que esa es especial. La han hecho en Neón para ti.

Por cierto, si juegas a 4K es normal que la CPU esté tranquila porque los FPS son menores. Es a resolución 2K y más baja cuando empiezan a abusar.
Editado por metalgear. Razón: Flame
_anVic_ está baneado por "clon de usuario baneado"
Xpace escribió:
_anVic_ escribió:
Xpace escribió:Y a mí qué me importa lo que tú te creas o no [qmparto] [qmparto] [qmparto]


Xpace escribió:Adquirí una RTX 4090 la semana pasada, la inauguré con Starfield, y pese a que va muy bien en ciertas zonas parece que la CPU llega a mucha intensidad y la GPU baja entorno al 90% de uso. En otros juegos va perfecta.

Tengo un monitor Samsung Odyssey G8 de 34" Ultrawide capado a 120 hz ya que muchos más FPS me marean.


Respecto a tu hilo de la 4090 y el 12900k hablando de uso intensivo en la cpu en Starfield... definitivamente eres un troll... Tengo un 13700kf ( que esencialmente es un 12900k más dopado en frecuencias de serie ) con ram ddr 4 @3800mhz cl15 y la cpu en general se rasca las pelotas, lo máximo que he visto es en alguna ciudad ( Atlantis o Akila ) llegar al 40 o 50% de uso como mucho, en el resto de zonas va por debajo en general del 30% de media...

Prueba de ello, casi 1h de testeo con el 13700kf tacándose las pelotillas literalmente



Por tanto, no me creo que tengas el 12900k ni lo hayas probado en Satrfield porque no dirías esas paridas... [+risas]

Eres un troll de manual.

Te he cerrado la boca y viene lo fácil: huida hacia adelante. Puedes creer lo que quieras, la verdad que me da igual. En Starfield (en ciudades) las CPUs modernas se ponen prácticamente al 100%. Salvo la tuya… que esa es especial. La han hecho en Neón para ti.

Por cierto, si juegas a 4K es normal que la CPU esté tranquila porque los FPS son menores. Es a resolución 2K y más baja cuando empiezan a abusar.



4k con Dlss al 67% que equivale a 1440p, picos más allá de 120fps en Akila +13 mods :



Sigue tacándose las pelotas el 13700Kf al 40/50% de uso. Y eso es en una zona cpu demandante, si te vas a otras zonas aun va mucho más relajado. [+risas]
garbaje_de_potanzos escribió:
Nomada_Firefox escribió:
garbaje_de_potanzos escribió:Pccomponentes quien la gestione estoy tranquilo, mi historial con ellos es amplia y nunca fue mala xD

Como todas las tiendas, ha tenido momentos peores y mejores. Pero ultimamente han mejorado mucho para equipararse a Amazon con la gestión de garantias y devoluciones. Aunque todavia hay algun que otro fallo, si bien, pienso que mucha gente que se queja, no lo cuenta todo realmente. :-|

Lo unico que se podria pensar de esa grafica que has pillado, al menos al precio que la venden nueva. Es que si sale algun dia el FSR3 y el generador de frames de AMD, si funciona y no es humo, acabara bajando como minimo al precio que la has comprado tu. Es facil que acabe poniendose a precio de RX 7700XT. La otra opción es que AMD simplemente suba de precio. Aunque esto ultimo es más facil que acabe sucediendo en futuras generaciones como sucedio con los Zen3. No son la madre teresa de calcuta. Siempre me hace mucha gracia la gente que pensaban que eran la empresa del pueblo. [facepalm] [sonrisa]


Sinceramente estábamos mirando la RX 7800 XT que nos parece mejor gráfica en general, pero mi colega se fijó en esta 4070 a ese precio que la acababan de listar y dijimos: "venga al carajo los 4GB menos de VRAM, vamos a por ella" xD Fue un momento de calentón ya que realmente estábamos estudiando que oferta de la AMD pillar [qmparto]

Bueno, yo diria que fuisteis a lo seguro. La promesa del FSR3 y el Fluid Motion, es eso, una promesa a secas de momento.

Creo que por eso mismo, toda la peña lanzandose a comprar RX, estan eso, lanzandose demasiado pronto.

Y has tenido suerte, me parece la peor fecha para comprar nada. De aqui a noviembre es mejor no comprar.
_anVic_ escribió:Dejando precios a un lado, el recorte que ha metido nvidia entre gráficas por debajo de la 4090 es innegable. Aunque amd no se ha quedado corta con la 7800xt rindiendo igual que la 6800xt.

En cuanto a la eficiencia de rendimiento por W nvidia lo ha hecho fenomenal esta generación y amd fatal. Recuerdo que prometían el doble de rendimiento entre la 7900xtx y la tope de gama de la anterior generación y al final las diferencias son muy inferiores.

Amd lo ha hecho mejor con los precios, pero es que no le queda otra, pues aun vendiendo más barato sigue vendiendo bastante menos que nvidia con sus precios abusivos.

La 4090 es en mi opinión y repito dejando precios a un lado, una gpu magistral, igual que lo fue la 1080ti o la 970, con unos precios mucho más acorde en aquellas generaciones.

El que tenga una 4090 bien afinada tanto con undervolt como con overclock y venga de haber tenido siempre gama top en series anteriores sabrá y entenderá de lo que hablo.

Es una auténtica locura poder sacar un rendimiento tan extraordinario consumiendo, si se afina bien, menos de 300w incluso jugando a 4k ultra .

Hace tiempo dejé por aquí un testeo con la 4090 pasando port royal con un score cercano a los 25k puntos consumiendo 300w pelados con uv, cuando una 4080 anda en los 18k tirando más de 300w o una 3090ti en 15k tirando más de 500w .

Sin duda.
Es la mejor gráfica que he tenido sin duda alguna.
Y tuve siendo tops, la 7900GT, la GTX 1080, luego la GTX 1080Ti , y sin ser top 1 ,pero siendo bastante buenas ,la 3080Ti,3070 y 4080.

Esta es la mejor en todo ,sin discusión.
Tanto por posibilidad de UV, que básicamente haces lo que quieres con ella y la dejas como quieras, sonoridad, temperaturas, diferencia de rendimiento con el resto...
Es una salvajada.
También lo cobran ,claro.

La siguiente que pondría ,es sin duda, la 1080Ti, que fue otra obra maestra de Nvidia y que a día de hoy, sigue yendo bastante bien.Y si llega a tener DLss, aún ni se tendría que cambiar. para jugar bien a 1440p.
Xpace está baneado por "clon de usuario megabaneado"
hh1 escribió:
_anVic_ escribió:Dejando precios a un lado, el recorte que ha metido nvidia entre gráficas por debajo de la 4090 es innegable. Aunque amd no se ha quedado corta con la 7800xt rindiendo igual que la 6800xt.

En cuanto a la eficiencia de rendimiento por W nvidia lo ha hecho fenomenal esta generación y amd fatal. Recuerdo que prometían el doble de rendimiento entre la 7900xtx y la tope de gama de la anterior generación y al final las diferencias son muy inferiores.

Amd lo ha hecho mejor con los precios, pero es que no le queda otra, pues aun vendiendo más barato sigue vendiendo bastante menos que nvidia con sus precios abusivos.

La 4090 es en mi opinión y repito dejando precios a un lado, una gpu magistral, igual que lo fue la 1080ti o la 970, con unos precios mucho más acorde en aquellas generaciones.

El que tenga una 4090 bien afinada tanto con undervolt como con overclock y venga de haber tenido siempre gama top en series anteriores sabrá y entenderá de lo que hablo.

Es una auténtica locura poder sacar un rendimiento tan extraordinario consumiendo, si se afina bien, menos de 300w incluso jugando a 4k ultra .

Hace tiempo dejé por aquí un testeo con la 4090 pasando port royal con un score cercano a los 25k puntos consumiendo 300w pelados con uv, cuando una 4080 anda en los 18k tirando más de 300w o una 3090ti en 15k tirando más de 500w .

Sin duda.
Es la mejor gráfica que he tenido sin duda alguna.
Y tuve siendo tops, la 7900GT, la GTX 1080, luego la GTX 1080Ti , y sin ser top 1 ,pero siendo bastante buenas ,la 3080Ti,3070 y 4080.

Esta es la mejor en todo ,sin discusión.
Tanto por posibilidad de UV, que básicamente haces lo que quieres con ella y la dejas como quieras, sonoridad, temperaturas, diferencia de rendimiento con el resto...
Es una salvajada.
También lo cobran ,claro.

La siguiente que pondría ,es sin duda, la 1080Ti, que fue otra obra maestra de Nvidia y que a día de hoy, sigue yendo bastante bien.Y si llega a tener DLss, aún ni se tendría que cambiar. para jugar bien a 1440p.

Yo no la tengo con UV, ¿más o menos como la dejas?
Xpace escribió:
hh1 escribió:
_anVic_ escribió:Dejando precios a un lado, el recorte que ha metido nvidia entre gráficas por debajo de la 4090 es innegable. Aunque amd no se ha quedado corta con la 7800xt rindiendo igual que la 6800xt.

En cuanto a la eficiencia de rendimiento por W nvidia lo ha hecho fenomenal esta generación y amd fatal. Recuerdo que prometían el doble de rendimiento entre la 7900xtx y la tope de gama de la anterior generación y al final las diferencias son muy inferiores.

Amd lo ha hecho mejor con los precios, pero es que no le queda otra, pues aun vendiendo más barato sigue vendiendo bastante menos que nvidia con sus precios abusivos.

La 4090 es en mi opinión y repito dejando precios a un lado, una gpu magistral, igual que lo fue la 1080ti o la 970, con unos precios mucho más acorde en aquellas generaciones.

El que tenga una 4090 bien afinada tanto con undervolt como con overclock y venga de haber tenido siempre gama top en series anteriores sabrá y entenderá de lo que hablo.

Es una auténtica locura poder sacar un rendimiento tan extraordinario consumiendo, si se afina bien, menos de 300w incluso jugando a 4k ultra .

Hace tiempo dejé por aquí un testeo con la 4090 pasando port royal con un score cercano a los 25k puntos consumiendo 300w pelados con uv, cuando una 4080 anda en los 18k tirando más de 300w o una 3090ti en 15k tirando más de 500w .

Sin duda.
Es la mejor gráfica que he tenido sin duda alguna.
Y tuve siendo tops, la 7900GT, la GTX 1080, luego la GTX 1080Ti , y sin ser top 1 ,pero siendo bastante buenas ,la 3080Ti,3070 y 4080.

Esta es la mejor en todo ,sin discusión.
Tanto por posibilidad de UV, que básicamente haces lo que quieres con ella y la dejas como quieras, sonoridad, temperaturas, diferencia de rendimiento con el resto...
Es una salvajada.
También lo cobran ,claro.

La siguiente que pondría ,es sin duda, la 1080Ti, que fue otra obra maestra de Nvidia y que a día de hoy, sigue yendo bastante bien.Y si llega a tener DLss, aún ni se tendría que cambiar. para jugar bien a 1440p.

Yo no la tengo con UV, ¿más o menos como la dejas?

1000Mv@2880 mhz es la que más suelo usar.
Xpace está baneado por "clon de usuario megabaneado"
hh1 escribió:
Xpace escribió:
hh1 escribió:Sin duda.
Es la mejor gráfica que he tenido sin duda alguna.
Y tuve siendo tops, la 7900GT, la GTX 1080, luego la GTX 1080Ti , y sin ser top 1 ,pero siendo bastante buenas ,la 3080Ti,3070 y 4080.

Esta es la mejor en todo ,sin discusión.
Tanto por posibilidad de UV, que básicamente haces lo que quieres con ella y la dejas como quieras, sonoridad, temperaturas, diferencia de rendimiento con el resto...
Es una salvajada.
También lo cobran ,claro.

La siguiente que pondría ,es sin duda, la 1080Ti, que fue otra obra maestra de Nvidia y que a día de hoy, sigue yendo bastante bien.Y si llega a tener DLss, aún ni se tendría que cambiar. para jugar bien a 1440p.

Yo no la tengo con UV, ¿más o menos como la dejas?

1000Mv@2880 mhz es la que más suelo usar.

Voy a probar porque la tengo de stock a 2900 también
No necesitas UV porque juegas a 120hz y eso ya la limita en consumo notablemente.
_anVic_ está baneado por "clon de usuario baneado"
Nomada_Firefox escribió:No necesitas UV porque juegas a 120hz y eso ya la limita en consumo notablemente.


Depende, si su monitor es 4k y juega a 120fps la 4090 a voltajes de stock si que consume incluso por encima de los 400w en algunos juegos.

La mayor eficiencia/rendimiento que yo haya conseguido en una 4090 es @2610mhz core @890mv y las memos @24ghz. Todo lo que este por encima o por debajo de esos voltajes deja de ser tan eficaz.

Conseguí en el Port Royal la mejor eficiencia posible en relación Fps/W con diferencia con ese UV.
Nomada_Firefox escribió:No necesitas UV porque juegas a 120hz y eso ya la limita en consumo notablemente.

Según juego y resolución.

@_anVic_
Yo conseguí algo cgcanl a eso pero con 900 mV.
Y sí, era lo mejor eficiencia / rendimiento.

Epro yo suelo usar básicamente 2 configs,una la de 1000mV @ 2880mhz y otra para juegos en los que va sobradisima ,capada la 80% de power y a tomar por culo.

1440p tengo mucho margen.

Es increíble ver juegos como Dead Island 1440p todo en ultra,consumiendo una mierda a 180fos llegando a pocos de por encima de 240fps...
Vaya bestia .

@Xpace
Tengo otra por si me crashea algún juego(todavía no me ha pasado,los crrasheos que tuve eran del puto Rivatuner), con 1000mV@2865mhz.

Fíjate que me decías el pedazo de cuello de botella del 12600.
Ya te dije que no era tanto y que se juega sobradisimo.Mira el Dead Island cómo va
Para que más?Si le tengo que hasta capar los fps.

Quizás notaría algo en mejores bajos ,pero poco más.Por arriba va sobrado.
garbaje_de_potanzos escribió:
Xpace escribió:
garbaje_de_potanzos escribió:Al final he caído y he pillado una RTX 4070, la vimos ayer un compi y yo a 540€ reacondicionada en perfecto estado en PCcomponentes y la pillamos ambos. Los dos venimos de una RTX 2060S//2070.

No digo que haya sido buena compra, pero creo que el salto en rendimiento vamos a notarlo un cacho no?? Sobre todo con pijadas como RT o DLSS3
Imagen

@LynX te toca jajajaj

Reacondicionada en perfecto estado de PCComponentes [facepalm] [qmparto] [qmparto] [qmparto] [qmparto]

Es casi mejor comprársela a un minero.


?? Tiene 3 años de garantía y normalmente les doy el júbilo antes de eso, no veo el problema.


Yo estoy esperando que la repongan el día 25 de septiembre ya que cuando la iba a comprar se agotaron.
Estaba a 639 y ahora a 659, pero por tema de impuestos se me queda en 545 euros que no está mal. Es lo que me costó casi mi 1070 TI xD. Me parece cara pero es lo que hay.
LynX escribió:
garbaje_de_potanzos escribió:
Xpace escribió:Reacondicionada en perfecto estado de PCComponentes [facepalm] [qmparto] [qmparto] [qmparto] [qmparto]

Es casi mejor comprársela a un minero.


?? Tiene 3 años de garantía y normalmente les doy el júbilo antes de eso, no veo el problema.


Yo estoy esperando que la repongan el día 25 de septiembre ya que cuando la iba a comprar se agotaron.
Estaba a 639 y ahora a 659, pero por tema de impuestos se me queda en 545 euros que no está mal. Es lo que me costó casi mi 1070 TI xD. Me parece cara pero es lo que hay.

No se, pero yo veo mejores opciones en las 6800XT, 7800XT y 6950XT que en la 4070.
hh1 escribió:
LynX escribió:
garbaje_de_potanzos escribió:
?? Tiene 3 años de garantía y normalmente les doy el júbilo antes de eso, no veo el problema.


Yo estoy esperando que la repongan el día 25 de septiembre ya que cuando la iba a comprar se agotaron.
Estaba a 639 y ahora a 659, pero por tema de impuestos se me queda en 545 euros que no está mal. Es lo que me costó casi mi 1070 TI xD. Me parece cara pero es lo que hay.

No se, pero yo veo mejores opciones en las 6800XT, 7800XT y 6950XT que en la 4070.


Lo bueno de la 4070 es que quito la 1070 TI, pincho la 4070 y no he de cambiar nada del pc, ni fuente, ni micro, ni cables ni nada ya que va con un pin de 8 de los de siempre. Para salir del paso para mí es la mejor opción. En un futuro cuando actualice el pc la 4070 se la daré a mi hermano y entonces ya me pillaré una mejor.
La 7800 XT también me parece una buena opción pero entonces ya he de cambiar la fuente y es un poco más cara. Además los contorladores de amd no me dan muy buena espina xD.
Xpace está baneado por "clon de usuario megabaneado"
hh1 escribió:
Nomada_Firefox escribió:No necesitas UV porque juegas a 120hz y eso ya la limita en consumo notablemente.

Según juego y resolución.

@_anVic_
Yo conseguí algo cgcanl a eso pero con 900 mV.
Y sí, era lo mejor eficiencia / rendimiento.

Epro yo suelo usar básicamente 2 configs,una la de 1000mV @ 2880mhz y otra para juegos en los que va sobradisima ,capada la 80% de power y a tomar por culo.

1440p tengo mucho margen.

Es increíble ver juegos como Dead Island 1440p todo en ultra,consumiendo una mierda a 180fos llegando a pocos de por encima de 240fps...
Vaya bestia .

@Xpace
Tengo otra por si me crashea algún juego(todavía no me ha pasado,los crrasheos que tuve eran del puto Rivatuner), con 1000mV@2865mhz.

Fíjate que me decías el pedazo de cuello de botella del 12600.
Ya te dije que no era tanto y que se juega sobradisimo.Mira el Dead Island cómo va
Para que más?Si le tengo que hasta capar los fps.

Quizás notaría algo en mejores bajos ,pero poco más.Por arriba va sobrado.


La he dejado en 2860 creo que era y 1000mv. He estado un rato con el Starfield y bien. Unos 58-60 grados al 100% de uso y ningún crasheo. Eso sí, en caso de que me crashee lo muevo… aunque lo dudo, yo creo que a 1000mv va bien.
Xpace escribió:
hh1 escribió:
Nomada_Firefox escribió:No necesitas UV porque juegas a 120hz y eso ya la limita en consumo notablemente.

Según juego y resolución.

@_anVic_
Yo conseguí algo cgcanl a eso pero con 900 mV.
Y sí, era lo mejor eficiencia / rendimiento.

Epro yo suelo usar básicamente 2 configs,una la de 1000mV @ 2880mhz y otra para juegos en los que va sobradisima ,capada la 80% de power y a tomar por culo.

1440p tengo mucho margen.

Es increíble ver juegos como Dead Island 1440p todo en ultra,consumiendo una mierda a 180fos llegando a pocos de por encima de 240fps...
Vaya bestia .

@Xpace
Tengo otra por si me crashea algún juego(todavía no me ha pasado,los crrasheos que tuve eran del puto Rivatuner), con 1000mV@2865mhz.

Fíjate que me decías el pedazo de cuello de botella del 12600.
Ya te dije que no era tanto y que se juega sobradisimo.Mira el Dead Island cómo va
Para que más?Si le tengo que hasta capar los fps.

Quizás notaría algo en mejores bajos ,pero poco más.Por arriba va sobrado.


La he dejado en 2860 creo que era y 1000mv. He estado un rato con el Starfield y bien. Unos 58-60 grados al 100% de uso y ningún crasheo. Eso sí, en caso de que me crashee lo muevo… aunque lo dudo, yo creo que a 1000mv va bien.

No creo que tengas problema con eso .
Muy mal te debería de salir.

Y si hay que bajar un poco, no pasa nada.Luego en rendimiento se nota entre 0 y nada.
Para los bebcj, pues sí, da más puntos y tal, pero luego se traduce en 1fps y a veces no eso el bajar pocos mhz.

Yo la dejé en 2880mhz por dejarla lo más fina posible .
Pero vamos ,que si tengo que dejarla en 2825mhz o algo así, no pasa nada .La pérdida es mínima.

Aunque no te crashee ,para dejarla fina y cerciorarte de que no te da bajones ,monitoriza con él gpu zel apartado Perf.Caop reasons y ahí ves si tienes algunos bajones por alguna causa.Si no he sale nada marcado ,está fetén.Si marca poco ,tampoco es preocupante.Si ya te marca varias ,yo lo afinaría más.

Está bicha es un tarjetón que da gusto toqueteat.Se deja tocar bastante y hagas lo que hagas ,siempre ganas en algo

Ojalá las futuras 5080-5090 sean tan buenas como esta en esto.
_anVic_ está baneado por "clon de usuario baneado"
Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Como ves Nómada voy bastante por debajo de 120fps. Así que depende mucho del juego, parámetros usados y la resolución, que en el caso de el troll es 4k según el monitor de su firma.
_anVic_ escribió:Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Si efectivamente depende mucho del juego, parámetros y resolución.

El metro Exodus en ultra sin dlss y con rt on a 4k nativo pone a cualquier 4090 a consumir como si no hubiera un mañana. Eso es en ultra pero hay un parámetro que va aun más allá, que es en extremo [+risas] .
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Si efectivamente depende mucho del juego, parámetros y resolución.

El metro Exodus en ultra sin dlss y con rt on a 4k nativo pone a cualquier 4090 a consumir como si no hubiera un mañana. Eso es en ultra pero hay un parámetro que va aun más allá, que es en extremo [+risas] .

Yo lo jugué a 1440p.No tengo ya como probar a 4K.
Pro sí, incluso a 1440p ese juego tira de la hostia.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:
hh1 escribió:Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Si efectivamente depende mucho del juego, parámetros y resolución.

El metro Exodus en ultra sin dlss y con rt on a 4k nativo pone a cualquier 4090 a consumir como si no hubiera un mañana. Eso es en ultra pero hay un parámetro que va aun más allá, que es en extremo [+risas] .

Yo lo jugué a 1440p.No tengo ya como probar a 4K.
Pro sí, incluso a 1440p ese juego tira de la hostia.


Si tu monitor es 1440p nativo usando DSR puedes ponerlo hasta 5120 x 2880 que equivale a 5k . Así que si puedes ponerla a renderizar a 4k incluso más allá.

Algunos juegos permiten elevar la escala de resolucion hasta en 200% . Si usas DSR a 5120 x 2880 y a eso le aplicas el 200% de escala estaríamos hablando de que podrías poner a renderizar tu 4090 entre 8 y 10k con el monitor que tienes 1440p...Además de poder usar otro supersamplig añadido a la ecuación como el SSAA si quieres rizar el rizo y llevarlo a un extremo absurdo
En qué clase de pollagordeo se está convirtiendo el hilo?
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:
Si efectivamente depende mucho del juego, parámetros y resolución.

El metro Exodus en ultra sin dlss y con rt on a 4k nativo pone a cualquier 4090 a consumir como si no hubiera un mañana. Eso es en ultra pero hay un parámetro que va aun más allá, que es en extremo [+risas] .

Yo lo jugué a 1440p.No tengo ya como probar a 4K.
Pro sí, incluso a 1440p ese juego tira de la hostia.


Si tu monitor es 1440p nativo usando DSR puedes ponerlo hasta 5120 x 2880 que equivale a 5k . Así que si puedes ponerla a renderizar a 4k incluso más allá.

Algunos juegos permiten elevar la escala de resolucion hasta en 200% . Si usas DSR a 5120 x 2880 y a eso le aplicas el 200% de escala estaríamos hablando de que podrías poner a renderizar tu 4090 entre 8 y 10k con el monitor que tienes 1440p...Además de poder usar otro supersamplig añadido a la ecuación como el SSAA si quieres rizar el rizo y llevarlo a un extremo absurdo

Cierto...pues algún día probaré,por curiosear.
Para 4k que equivalencia tiene de DSR?
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Imagino que te refieres al Dead island 2.

Si a 1440p consume bastante menos. A 4k nativo todo ultra, fov a 100 y sin FSR la cosa cambia con la 4090 de serie paso de los 400W y con undervolt baja de los 300w .

Undervolt

Imagen

Stock

Imagen

Curiosamente solo hay 6 fps de diferencia como en el Metro Exodus. Pero aquí la eficiencia con UV no es tan notable solo es del 30%, al no estar usando los tensor y rt cores.

Para 4k nativo puedo poner DSR hasta 8k que es 4 veces 4 k en resolución total de pixeles..
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:Por poner un ejemplo de un juego muy demandante a 4k nativo en ultra con RT on y sin dlss, Metro exodus la enhanced edition:

4090 a stock con bios de 520w de headroom:

Imagen

Consumo de 489W para 87fps

Mismo frame pero con undervolt medio decente:

Imagen

6 fps menos pero consumiendo -141 W.

El resultado en stock en cuanto a eficiencia de rendimiento por Fps generado /W consumido es de : 0,17 Fps/W
Y con undervolt obtengo 0,23 Fps/W y 8 grados menos. Lo que se traduce en un 40% más de eficiencia.

Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Imagino que te refieres al Dead island 2.

Si a 1440p consume bastante menos. A 4k nativo todo ultra, fov a 100 y sin FSR la cosa cambia con la 4090 de serie paso de los 400W y con undervolt baja de los 300w .

Undervolt

Imagen

Stock

Imagen

Curiosamente solo hay 6 fps de diferencia como en el Metro Exodus. Pero aquí la eficiencia con UV no es tan notable solo es del 30%, al no estar usando los tensor y rt cores.

Para 4k nativo puedo poner DSR hasta 8k que es 4 veces 4 k en resolución total de pixeles..

Sí...el DI2 que es el que juego actualmente.
Xpace está baneado por "clon de usuario megabaneado"
hh1 escribió:
_anVic_ escribió:
hh1 escribió:Ya ves.
Y si lo dejas en algo intermedio, te rinde básicamente igual y sigue siendo más eficiente
No me he fijado ahora con Dead Islad ,pero creo que estaba gastando en torno a 200w 1440p a ultra y fps capados a 240.
Es es que es brutal.
Ah...y 47°C...


Imagino que te refieres al Dead island 2.

Si a 1440p consume bastante menos. A 4k nativo todo ultra, fov a 100 y sin FSR la cosa cambia con la 4090 de serie paso de los 400W y con undervolt baja de los 300w .

Undervolt

Imagen

Stock

Imagen

Curiosamente solo hay 6 fps de diferencia como en el Metro Exodus. Pero aquí la eficiencia con UV no es tan notable solo es del 30%, al no estar usando los tensor y rt cores.

Para 4k nativo puedo poner DSR hasta 8k que es 4 veces 4 k en resolución total de pixeles..

Sí...el DI2 que es el que juego actualmente.

Pues al final me ha bajado 6 grados de temperatura con tu configuración de UV y el rendimiento el mismo. Uno 58 grados pasando test de estrés... nada mal.
[Alex] escribió:En qué clase de pollagordeo se está convirtiendo el hilo?

Ya no se puede hablar de las gráficas a las que alude el hilo, o como va?
Dime ,de qué quieres hablar?

O sea,estamos hablando y dando datos de una de las gráficas del hilo, de cómo sacarle mejor el partido,hablando de lo buena que es,de cómo nos va...y es pollagirdeo?
Claro ,porque hablamos de la 4090.
Si estuviésemos hablando de una 4060, todo sería fantástico.

Pues nada chicos ,venga ,vamos a hablar de Jenni Hermoso o del nuevo "FIFA".

O mejor ,dinos yú de qué se puede o no se puede hablar en el hilo de las RTX 4000

@Xpace
Esa es la idea ,que rinda igual o mejor ,pero consumiendo menos y estando más fresca..

A mí me rinde un poco por encima que de stock.
Diría que un 2% a lo sumo.Lo gana al ser más estable.
hh1 escribió:
[Alex] escribió:En qué clase de pollagordeo se está convirtiendo el hilo?

Ya no se puede hablar de las gráficas a las que alude el hilo, o como va?
Dime ,de qué quieres hablar?

O sea,estamos hablando y dando datos de una de las gráficas del hilo, de cómo sacarle mejor el partido,hablando de lo buena que es,de cómo nos va...y es pollagirdeo?
Claro ,porque hablamos de la 4090.
Si estuviésemos hablando de una 4060, todo sería fantástico.

Pues nada chicos ,venga ,vamos a hablar de Jenni Hermoso o del nuevo "FIFA".

O mejor ,dinos yú de qué se puede o no se puede hablar en el hilo de las RTX 4000

@Xpace
Esa es la idea ,que rinda igual o mejor ,pero consumiendo menos y estando más fresca..

A mí me rinde un poco por encima que de stock.
Diría que un 2% a lo sumo.Lo gana al ser más estable.


En serio es necesario ir poniendo fotitos para enseñar lo que uno tiene o deja de tener?

Tanta aprobación de gente ajena necesitamos?

[fiu]
Xpace está baneado por "clon de usuario megabaneado"
[Alex] escribió:
hh1 escribió:
[Alex] escribió:En qué clase de pollagordeo se está convirtiendo el hilo?

Ya no se puede hablar de las gráficas a las que alude el hilo, o como va?
Dime ,de qué quieres hablar?

O sea,estamos hablando y dando datos de una de las gráficas del hilo, de cómo sacarle mejor el partido,hablando de lo buena que es,de cómo nos va...y es pollagirdeo?
Claro ,porque hablamos de la 4090.
Si estuviésemos hablando de una 4060, todo sería fantástico.

Pues nada chicos ,venga ,vamos a hablar de Jenni Hermoso o del nuevo "FIFA".

O mejor ,dinos yú de qué se puede o no se puede hablar en el hilo de las RTX 4000

@Xpace
Esa es la idea ,que rinda igual o mejor ,pero consumiendo menos y estando más fresca..

A mí me rinde un poco por encima que de stock.
Diría que un 2% a lo sumo.Lo gana al ser más estable.


En serio es necesario ir poniendo fotitos para enseñar lo que uno tiene o deja de tener?

Tanta aprobación de gente ajena necesitamos?

[fiu]

Sí.
[Alex] escribió:
hh1 escribió:
[Alex] escribió:En qué clase de pollagordeo se está convirtiendo el hilo?

Ya no se puede hablar de las gráficas a las que alude el hilo, o como va?
Dime ,de qué quieres hablar?

O sea,estamos hablando y dando datos de una de las gráficas del hilo, de cómo sacarle mejor el partido,hablando de lo buena que es,de cómo nos va...y es pollagirdeo?
Claro ,porque hablamos de la 4090.
Si estuviésemos hablando de una 4060, todo sería fantástico.

Pues nada chicos ,venga ,vamos a hablar de Jenni Hermoso o del nuevo "FIFA".

O mejor ,dinos yú de qué se puede o no se puede hablar en el hilo de las RTX 4000

@Xpace
Esa es la idea ,que rinda igual o mejor ,pero consumiendo menos y estando más fresca..

A mí me rinde un poco por encima que de stock.
Diría que un 2% a lo sumo.Lo gana al ser más estable.


En serio es necesario ir poniendo fotitos para enseñar lo que uno tiene o deja de tener?

Tanta aprobación de gente ajena necesitamos?

[fiu]

Y qué problema hay?

Fotos e imágenes demuestran que es cierto lo que se dice
No se...parece que he molesta que se hable de ello.
Me reitero,si hablamos de una 4060 ,no estarías diciendo nada.

Yo no pongo fotos ni nada ,porque me da pereza tremenda y mi tiempo es oro.Solo he aportado en casos aislados o cuando ya me tocan las narices ,como ya pasó en su día y me hicieron aportar videos e imágenes.
Pero es que , generalmente ,me la sopla los que no se crean las cosas.No gano nada mintiendo.

Pero vamos, que yo no veo el problema a las fotos.Es más ,me parece cojonudo porque aporta bastante al hilo.

Lo dicho, si hablamos de la 4060, no dices nada .
¿Que cpu me recomiendan para la 4090? Actualmente llevo un ryzen 7 5800x y estoy teniendo problemas para mantener 60 FPS en según que juegos

Estaba viendo si hacer upgrade a una ryzen 7 7800x 3d o un ryzen 9 7950x, no se que opinais 🤔
_revan_ escribió:¿Que cpu me recomiendan para la 4090? Actualmente llevo un ryzen 7 5800x y estoy teniendo problemas para mantener 60 FPS en según que juegos

Estaba viendo si hacer upgrade a una ryzen 7 7800x 3d o un ryzen 9 7950x, no se que opinais 🤔

Juegas a 4K, imagino.
En serio te cuesta mantener 60Fps con la 4090???
Imagino que habrás de 4K nativo, sin usar nada más.

En qué juegos tienes esos "problemas"?
Que RAM tienes?
hh1 escribió:
_revan_ escribió:¿Que cpu me recomiendan para la 4090? Actualmente llevo un ryzen 7 5800x y estoy teniendo problemas para mantener 60 FPS en según que juegos

Estaba viendo si hacer upgrade a una ryzen 7 7800x 3d o un ryzen 9 7950x, no se que opinais 🤔

Juegas a 4K, imagino.
En serio te cuesta mantener 60Fps con la 4090???
Imagino que habrás de 4K nativo, sin usar nada más.

En qué juegos tienes esos "problemas"?
Que RAM tienes?


-Si, juego en 4k, aunque uso DLSS cuando toca o esta disponible, la verdad es que apenas noto diferencia con el 4k nativo, en cyberpunk si he llegado a ver algún defecto visual, pero nada mas

-ram, de momento tengo 16gb DDR4 a 3600mhz, tengo pendiente comprar 2 modulos mas para hacer los 32

-Pues, de momento, the witcher 3 y starfield, de hecho si no les pongo frame generation no hay forma de jugarlos a buenos fps y creo que serían los únicos en los que he visto problemas
_revan_ escribió:
hh1 escribió:
_revan_ escribió:¿Que cpu me recomiendan para la 4090? Actualmente llevo un ryzen 7 5800x y estoy teniendo problemas para mantener 60 FPS en según que juegos

Estaba viendo si hacer upgrade a una ryzen 7 7800x 3d o un ryzen 9 7950x, no se que opinais 🤔

Juegas a 4K, imagino.
En serio te cuesta mantener 60Fps con la 4090???
Imagino que habrás de 4K nativo, sin usar nada más.

En qué juegos tienes esos "problemas"?
Que RAM tienes?


-Si, juego en 4k, aunque uso DLSS cuando toca o esta disponible, la verdad es que apenas noto diferencia con el 4k nativo, en cyberpunk si he llegado a ver algún defecto visual, pero nada mas

-ram, de momento tengo 16gb DDR4 a 3600mhz, tengo pendiente comprar 2 modulos mas para hacer los 32

-Pues, de momento, the witcher 3 y starfield, de hecho si no les pongo frame generation no hay forma de jugarlos a buenos fps y creo que serían los únicos en los que he visto problemas

Es que estás hablando de dos juegos que ,uno está mal optimizado, y al otro le han ido metiendo extras que consumen un huevo y parte del otro.

Con lo que dices vas a mejorar ,pero en esos juegos tampoco vas a ir mucho más allá.,porque como te digo,están rotos y con varias implementaciones.
Imagino que hablas de The Witcher 3 con Ray Tracing, verdad?
Salió mal optimizado también cone eso.

Muchas veces no es cuestión de equipo, sino de mala ootimzacion de los juegos.

Aquí tienes a Nate probando el Starfield con la 4090

En Starfield , 60-70 fps y no es por lo visto la zona más demandante.
Y este irá con un 13700k o más.
_revan_ escribió:
hh1 escribió:
_revan_ escribió:¿Que cpu me recomiendan para la 4090? Actualmente llevo un ryzen 7 5800x y estoy teniendo problemas para mantener 60 FPS en según que juegos

Estaba viendo si hacer upgrade a una ryzen 7 7800x 3d o un ryzen 9 7950x, no se que opinais 🤔

Juegas a 4K, imagino.
En serio te cuesta mantener 60Fps con la 4090???
Imagino que habrás de 4K nativo, sin usar nada más.

En qué juegos tienes esos "problemas"?
Que RAM tienes?


-Si, juego en 4k, aunque uso DLSS cuando toca o esta disponible, la verdad es que apenas noto diferencia con el 4k nativo, en cyberpunk si he llegado a ver algún defecto visual, pero nada mas

-ram, de momento tengo 16gb DDR4 a 3600mhz, tengo pendiente comprar 2 modulos mas para hacer los 32

-Pues, de momento, the witcher 3 y starfield, de hecho si no les pongo frame generation no hay forma de jugarlos a buenos fps y creo que serían los únicos en los que he visto problemas

Yo creo que es más tema de optimización que otra cosa. Deberías estar más que bien con ese 5800 X a las resoluciones que juegas siempre y cuando los juegos estén bien optimizados. De hecho yo lo tengo con una XT 7900 XTX y le saca el "jugo" más que bien.
hh1 escribió:
_revan_ escribió:
hh1 escribió:Juegas a 4K, imagino.
En serio te cuesta mantener 60Fps con la 4090???
Imagino que habrás de 4K nativo, sin usar nada más.

En qué juegos tienes esos "problemas"?
Que RAM tienes?


-Si, juego en 4k, aunque uso DLSS cuando toca o esta disponible, la verdad es que apenas noto diferencia con el 4k nativo, en cyberpunk si he llegado a ver algún defecto visual, pero nada mas

-ram, de momento tengo 16gb DDR4 a 3600mhz, tengo pendiente comprar 2 modulos mas para hacer los 32

-Pues, de momento, the witcher 3 y starfield, de hecho si no les pongo frame generation no hay forma de jugarlos a buenos fps y creo que serían los únicos en los que he visto problemas

Es que estás hablando de dos juegos que ,uno está mal optimizado, y al otro le han ido metiendo extras que consumen un huevo y parte del otro.

Con lo que dices vas a mejorar ,pero en esos juegos tampoco vas a ir mucho más allá.,porque como te digo,están rotos y con varias implementaciones.
Imagino que hablas de The Witcher 3 con Ray Tracing, verdad?
Salió mal optimizado también cone eso.

Muchas veces no es cuestión de equipo, sino de mala ootimzacion de los juegos.


Claro, Witcher 3 con todo en ultra incluyendo RT a lo máximo que da, aunque con frame generation va bien, lo mismo con starfield, que con los ultimos drivers mejoro "algo", pero sigue sin estar fino del todo

no se, quizás son paranoias mias y con esa CPU voy sobrado, no lo se, a veces me da por querer cambiar y no se, ahí estoy viendo/investigando si es viable o no

También comentar que no tengo una TV (por que si, juego desde la TV) que le saque provecho a la 4090, sigo anclado en el HDMI 2.0, por lo que quizás con una pantalla mas potente podría explotar mas el potencial del equipo, quizás con Freesync/Gsync se noten menos las rascadas
_revan_ escribió:
hh1 escribió:
_revan_ escribió:
-Si, juego en 4k, aunque uso DLSS cuando toca o esta disponible, la verdad es que apenas noto diferencia con el 4k nativo, en cyberpunk si he llegado a ver algún defecto visual, pero nada mas

-ram, de momento tengo 16gb DDR4 a 3600mhz, tengo pendiente comprar 2 modulos mas para hacer los 32

-Pues, de momento, the witcher 3 y starfield, de hecho si no les pongo frame generation no hay forma de jugarlos a buenos fps y creo que serían los únicos en los que he visto problemas

Es que estás hablando de dos juegos que ,uno está mal optimizado, y al otro le han ido metiendo extras que consumen un huevo y parte del otro.

Con lo que dices vas a mejorar ,pero en esos juegos tampoco vas a ir mucho más allá.,porque como te digo,están rotos y con varias implementaciones.
Imagino que hablas de The Witcher 3 con Ray Tracing, verdad?
Salió mal optimizado también cone eso.

Muchas veces no es cuestión de equipo, sino de mala ootimzacion de los juegos.


Claro, Witcher 3 con todo en ultra incluyendo RT a lo máximo que da, aunque con frame generation va bien, lo mismo con starfield, que con los ultimos drivers mejoro "algo", pero sigue sin estar fino del todo

no se, quizás son paranoias mias y con esa CPU voy sobrado, no lo se, a veces me da por querer cambiar y no se, ahí estoy viendo/investigando si es viable o no

También comentar que no tengo una TV (por que si, juego desde la TV) que le saque provecho a la 4090, sigo anclado en el HDMI 2.0, por lo que quizás con una pantalla mas potente podría explotar mas el potencial del equipo, quizás con Freesync/Gsync se noten menos las rascadas

Con Gsync claro que se notan menos las rascadas.

Son dos juegos rotos a su manera.Coml te digo, con un 7800X3D vas a mejorar obviamente ,pero que tampoco esperes mucha mejora en esos juegos ,porque como digi, están rotos.

Si a Nate le va de mínimos en esa zona a unos 60Fos Starfield ,y creo que tiene un 13700K o un 13900K, quiere decir que no con esa cpu , a 4 k nativo, mantiene 60fps en todo el juego.

Ya te responderá @_anVic_ que él tiene Starfield y va con una 4090 y un 13700K.

Y el RT de The Witcher 3 tuvo bastantes quejas por mal rendimiento.
_anVic_ está baneado por "clon de usuario baneado"
Ese 5800x correctamente afinado, con ram decente y baja latencia, deberia ir bien en general con esa 4090 y más si juegas siempre en 4k..

Ahora bien, en el caso de Starfield, hay que puntualizar que los ryzen salen mal parados , tanto es así que hasta un 7800X3D anda por debajo del 13600k.

Por otro lado decirle al compañero @cucu1982 y @_revan_ que no es lo mismo a nivel de software tirar con ese 5800x de una 4090 que de la 7900xtx, ya que como digo a dicho nivel de software con los drivers de nvidia se tiene mayor impacto en cuanto a cpu dependencia . Por tanto si cogemos ambos 5800x a exactamente las mismas frecuencias con la misma ram, uno con la 4090 y el otro con la 7900xtx , va a rendir mejor con esta última porque hay una menor demanda de la cpu a la hora de dar el callo.
Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.

Te irá bastante bien.
Obviamente no dará todo lo que puede dar pero jugarrás sobradamente.
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.

Y qué tal si lo pruebas y sales de dudas? Si no te gusta el rendimiento pides de vuelta el dinero y listo.

Incluso con una 7800X3D y una 4090 a 1440p no consigue llegar a mas de 80fps de media: https://youtu.be/vTNiZhEqaKk?t=269

Y con una CPU 5950x el resultado no parece muy diferente, teniendo en cuenta de que es muy importante la zona donde se testee (y seguro que es diferente entre lo analizado por un video y otro): https://youtu.be/CoCKGmEnnEM?t=410
_anVic_ está baneado por "clon de usuario baneado"
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.



Yo mismo tuve el 9900k ( para sacarle bien el partido lo tenia entre 5,3 y 5,4ghz ) unos meses con la 4090 con ram ddr4 a 3600mhz cl15 pero jugaba a 4k 120hz y no me iba nada mal . Tengo unos cuantos resultados guardados y no distan mucho de los que tengo con el 13700KF.

Ahora bien para 1440p 165hz no hice demasiadas pruebas. No obstante para esa resolución y hz la 4090 es muy overkill, viniendo de una 1080Ti te bastaría con dar el alto a una 3080ti / 6950xt / 7900xt, que son más económicas que la 4090 y te darán muy buen rendimiento sin necesidad de cambiar de plataforma.
_anVic_ escribió:
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.



Yo mismo tuve el 9900k ( para sacarle bien el partido lo tenia entre 5,3 y 5,4ghz ) unos meses con la 4090 con ram ddr4 a 3600mhz cl15 pero jugaba a 4k 120hz y no me iba nada mal . Tengo unos cuantos resultados guardados y no distan mucho de los que tengo con el 13700KF.

Ahora bien para 1440p 165hz no hice demasiadas pruebas. No obstante para esa resolución y hz la 4090 es muy overkill, viniendo de una 1080Ti te bastaría con dar el alto a una 3080ti / 6950xt / 7900xt, que son más económicas que la 4090 y te darán muy buen rendimiento sin necesidad de cambiar de plataforma.


A mí es que me gusta la filosofía de gastar 1 vez lo máximo que me permita mi bolsillo y aguantar lo máximo posible olvidándome de renovar mínimo en 5-6 años. Entonces aunque compre la 4090 la CPU seguramente la renovaría en 1-2 años.

Que no es que busque yo GPU para "emparejar" a mi CPU, sino que voy intentando nivelar cada 2-3 años las 3 patas de la mesa (GPU-CPU-Monitor) siendo lo más caro lo que quiero renovar menos veces. Por ejemplo el año pasado salté de 1440p 60hz a 1440p 165hz. Siempre intentando claro que la compra de una GPU me de un nivel equiparable a un salto generacional, en la medida de lo posible. Ahora me ha vendido un RTX 4000 dos cosas, la primera que la 1080Ti aun sin ray tracing activado se va quedando corta para juegos AAA incluso a 60fps, y lo segundo que ya se empieza a ver caramelitos gráficos con ray tracing muy apetecibles (en concreto el pathtracing del CP 2077 y futuros juegos de Unreal Engine 5 me llaman mucho)

Si me compro una 3080ti para jugar a AAAs con ray tracing seguramente para la salida de GTA 6 me vuelva a sentir cojo en GPU.

Que bueno, a saber si con la 4090 en algún momento no se me cae una gota de sudor frío, porque me vi el benchmark que hizo el de Hardware Unboxed testeando uno de los planetas de Starfield más exigentes, y no me podía creer lo que estaba viendo en la 4090. Que vale que sea el planeta más exigente de Starfield, pero joer.. que no lleva ray tracing el juego eh.
_anVic_ escribió:Ese 5800x correctamente afinado, con ram decente y baja latencia, deberia ir bien en general con esa 4090 y más si juegas siempre en 4k..

Ahora bien, en el caso de Starfield, hay que puntualizar que los ryzen salen mal parados , tanto es así que hasta un 7800X3D anda por debajo del 13600k.

Por otro lado decirle al compañero @cucu1982 y @_revan_ que no es lo mismo a nivel de software tirar con ese 5800x de una 4090 que de la 7900xtx, ya que como digo a dicho nivel de software con los drivers de nvidia se tiene mayor impacto en cuanto a cpu dependencia . Por tanto si cogemos ambos 5800x a exactamente las mismas frecuencias con la misma ram, uno con la 4090 y el otro con la 7900xtx , va a rendir mejor con esta última porque hay una menor demanda de la cpu a la hora de dar el callo.

Interesante, entonces si entiendo bien, una 4090 rinde mejor con Intel, y yo que pille un ryzen por qué supuestamente tenían mejor rendimiento en emulación 🤔

Bueno, cambiarme a intel ahora sería enviable por qué me supondría cambiar también placa y ya es demasiado gasto, también he visto benchs y tira prácticamente igual el 5800x normal y el 3d

Bueno, nada que hacer, habrá que seguir tirando de FrameGenerator que por cierto, debes tener razón en que es un problema de ryzen en específico, por qué en dicho juego (starfield) da igual que ponga el juego a 1080p, 720 o 4k/2k, por qué tiene las mismas bajadas de frames en los mismos sitios independiente de la resolución

Claramente todd se pasó la optimización un poco por los huevos
Alexroyer escribió:
_anVic_ escribió:
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.



Yo mismo tuve el 9900k ( para sacarle bien el partido lo tenia entre 5,3 y 5,4ghz ) unos meses con la 4090 con ram ddr4 a 3600mhz cl15 pero jugaba a 4k 120hz y no me iba nada mal . Tengo unos cuantos resultados guardados y no distan mucho de los que tengo con el 13700KF.

Ahora bien para 1440p 165hz no hice demasiadas pruebas. No obstante para esa resolución y hz la 4090 es muy overkill, viniendo de una 1080Ti te bastaría con dar el alto a una 3080ti / 6950xt / 7900xt, que son más económicas que la 4090 y te darán muy buen rendimiento sin necesidad de cambiar de plataforma.


A mí es que me gusta la filosofía de gastar 1 vez lo máximo que me permita mi bolsillo y aguantar lo máximo posible olvidándome de renovar mínimo en 5-6 años. Entonces aunque compre la 4090 la CPU seguramente la renovaría en 1-2 años.

Que no es que busque yo GPU para "emparejar" a mi CPU, sino que voy intentando nivelar cada 2-3 años las 3 patas de la mesa (GPU-CPU-Monitor) siendo lo más caro lo que quiero renovar menos veces. Por ejemplo el año pasado salté de 1440p 60hz a 1440p 165hz. Siempre intentando claro que la compra de una GPU me de un nivel equiparable a un salto generacional, en la medida de lo posible. Ahora me ha vendido un RTX 4000 dos cosas, la primera que la 1080Ti aun sin ray tracing activado se va quedando corta para juegos AAA incluso a 60fps, y lo segundo que ya se empieza a ver caramelitos gráficos con ray tracing muy apetecibles (en concreto el pathtracing del CP 2077 y futuros juegos de Unreal Engine 5 me llaman mucho)

Si me compro una 3080ti para jugar a AAAs con ray tracing seguramente para la salida de GTA 6 me vuelva a sentir cojo en GPU.

Que bueno, a saber si con la 4090 en algún momento no se me cae una gota de sudor frío, porque me vi el benchmark que hizo el de Hardware Unboxed testeando uno de los planetas de Starfield más exigentes, y no me podía creer lo que estaba viendo en la 4090. Que vale que sea el planeta más exigente de Starfield, pero joer.. que no lleva ray tracing el juego eh.

Hay juegos mal optimizados que ni la mejor GPU con la mejor cpu van sobradas.
Eso no es problema de la 4090,cuando en el 99% de los juegos va sobrada

Yo juego a 1440p 240hz y te aseguro que es una barbaridad en todos los juegos
Y no vengo de malas gráficas ,que también he tenido antes 1080Ti, 3070,3080Ti y la 4080.

Te aseguro que te sobra gráfica e incluso te excedes para 165hz.
Y recuerdo que está el DlSS ,no te hablo del 3 ,sino del DLSS 2.0 que ya va de puta madre y hace que se exceda aún más y yo no noto diferencia alguna con 1440p nativo .

Y como te dicen, una 3080Ti ya te aseguro que para lo que pides, va más que bien.Es un cañón de gráfica también.

Lo que ves de justita en Starfield es 4K nativo y un juego absolutamente mal optimizado.
Y aún así, lo mueve decente , y con DLSS ,más sobrada ,y con FG ,vmmas sobrada aún.

Vamos ,yo no he jugado Starfield, no es mi tipo de juego.
Pero he jugado ya muchos con la 4090 y ya te digo que he tenido que capar la mitad de ellos de fps
_anVic_ está baneado por "clon de usuario baneado"
Alexroyer escribió:
_anVic_ escribió:
Alexroyer escribió:Pues anda que si al compi con esa CPU le va mal con la 4090 a 4K, yo que estoy planeando pillar una 4090 para emparejarla con mi i9-9900K y jugar a 1440p y 165hz...

Mejor me olvido creo.



Yo mismo tuve el 9900k ( para sacarle bien el partido lo tenia entre 5,3 y 5,4ghz ) unos meses con la 4090 con ram ddr4 a 3600mhz cl15 pero jugaba a 4k 120hz y no me iba nada mal . Tengo unos cuantos resultados guardados y no distan mucho de los que tengo con el 13700KF.

Ahora bien para 1440p 165hz no hice demasiadas pruebas. No obstante para esa resolución y hz la 4090 es muy overkill, viniendo de una 1080Ti te bastaría con dar el alto a una 3080ti / 6950xt / 7900xt, que son más económicas que la 4090 y te darán muy buen rendimiento sin necesidad de cambiar de plataforma.


A mí es que me gusta la filosofía de gastar 1 vez lo máximo que me permita mi bolsillo y aguantar lo máximo posible olvidándome de renovar mínimo en 5-6 años. Entonces aunque compre la 4090 la CPU seguramente la renovaría en 1-2 años.

Que no es que busque yo GPU para "emparejar" a mi CPU, sino que voy intentando nivelar cada 2-3 años las 3 patas de la mesa (GPU-CPU-Monitor) siendo lo más caro lo que quiero renovar menos veces. Por ejemplo el año pasado salté de 1440p 60hz a 1440p 165hz. Siempre intentando claro que la compra de una GPU me de un nivel equiparable a un salto generacional, en la medida de lo posible. Ahora me ha vendido un RTX 4000 dos cosas, la primera que la 1080Ti aun sin ray tracing activado se va quedando corta para juegos AAA incluso a 60fps, y lo segundo que ya se empieza a ver caramelitos gráficos con ray tracing muy apetecibles (en concreto el pathtracing del CP 2077 y futuros juegos de Unreal Engine 5 me llaman mucho)

Si me compro una 3080ti para jugar a AAAs con ray tracing seguramente para la salida de GTA 6 me vuelva a sentir cojo en GPU.

Que bueno, a saber si con la 4090 en algún momento no se me cae una gota de sudor frío, porque me vi el benchmark que hizo el de Hardware Unboxed testeando uno de los planetas de Starfield más exigentes, y no me podía creer lo que estaba viendo en la 4090. Que vale que sea el planeta más exigente de Starfield, pero joer.. que no lleva ray tracing el juego eh.


Lo primero que se debería valorar cuando uno pretende hacer un upgrade o simplemente montar algo de 0 es: a qué resolución y Hz piensas jugar los próximos años? En base a esa cuestión te montas el PC a la altura de dichos requisitos.

Si pillas la 4090 entonces yo me plantearía seriamente dar el salto a 4k, porque para 1440p 165hz no tiene mucho sentido... y luego ya valoras si cambiar de plataforma.

En cuanto a Starfield, ahora con los últimos drivers y resizable bar habilitado, se gana un 10% de rendimiento ( al menos es lo que gano yo con la 4090 ) . Aunque es un juego bastante roto a nivel de optimización, en Nexusmods ya hay mod gratuito para DLSS+ FG ( https://www.nexusmods.com/starfield/mods/761) y con eso activado en Akila que es donde se hizo el testeo de HU ( o eso creo ) puedes ir a más de 100fps sin problema. ( este testeo fue hace 12 días con el antiguo driver y sin resizable bar + 13 mods )

https://www.youtube.com/watch?v=IuYtTTiPd7E&t=94s

No obstante ahora en el siguiente parche en teoría van a implementar DLSS, menú de calibración para HDR, etc. La verdad es una vergüenza como han presentado el juego de salida.

Si te quieres reir un rato de Starfield mírate estos dos videos:



Para que nos entendamos... con el Ryzen 7 5800 X se ha follado poco... pero se ha follado bien, y se ha follado gratis [carcajad] [+risas]
@_revan_ no entendiste lo que dijo el compañero, AMD sobresatura mas el CPU en juegos DX 11 que Nvidia, en DX 12 es al contrario, es Nvidia quien sobresatura mas el CPU.

Es por culpa de los Drivers de cada compañia, por lo que decidiste bien con el 7800X3D, otro tema es que ese juego tiene problemas con HW de AMD hasta que lo solucionen.
14371 respuestas