[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

LynX escribió:
virtus escribió:@LynX que modelo te has comprado?


https://www.pccomponentes.com/asus-dual-geforce-rtx-4070-oc-edition-12gb-gddr6x-dlss3


ahh entendí mal y pensaba que la habías comprado por 699 en otra tienda.
disfrutala!!
El triste mundo de las gráficas, y la estafa que nos hemos tragado todos, que hasta una 4090, una gráfica de 2.000 euros sufra para mover un dlc de un juego, no es triste, es que da pena.

Rendimiento de Cyberpunk 2077: Phantom Liberty a prueba con 25 tarjetas gráficas

Luego vendrán las pruebas con fake frame y dlss 3.5, y parecerá que todo esta muy chulo, y que el juego va a 300 fps, pero la realidad es que a rendimiento puro son basura las gráficas.

Un saludo
GF3 escribió:El triste mundo de las gráficas, y la estafa que nos hemos tragado todos, que hasta una 4090, una gráfica de 2.000 euros sufra para mover un dlc de un juego, no es triste, es que da pena.

Rendimiento de Cyberpunk 2077: Phantom Liberty a prueba con 25 tarjetas gráficas

Luego vendrán las pruebas con fake frame y dlss 3.5, y parecerá que todo esta muy chulo, y que el juego va a 300 fps, pero la realidad es que a rendimiento puro son basura las gráficas.

Un saludo

La 4090 le saca un buen cacho de rendimiento a la 3090ti y esa ya era muy potente comparada con generaciones anteriores.
Puedes quejarte de precio con la 4090 pero no de rendimiento y usar el cyberpunk para ello es injusto porque en su ray tracing extremo TODA la iluminación está llevada con path tracing.
Algo que hasta ahora solo hemos visto en minecraft, quake y portal.
Juegos que sin el path tracing están de 3 a 5 generaciones por debajo del cyberpunk.
Si, no es jugable sin dlss y frame generation pero ese juego tan potente con path tracing da gracias que no tienes que medir el rendimiento en fotogramas por minuto o incluso por hora.
Pues a mí me ha sorprendido gratamente el uso del DLSS más el FG en mi 4070 en el Cyberpunk, creía que se vería peor. Solo en el phomode puedo ver durante unos 2 segundos como unos reflejos raros en la piel de mi personaje que desaparecen en 2 segundos o así (aunque me sale una opción que no me deja activar para activar rt en photomode). En movimiento con el DLSS en calidad y el FG activados no noto ninguna diferencia respecto a si no los uso (bueno solo los fps que se van al cuerno). Aunque solo lo estuve probando ayer y he de probarlo más.
En lo que estoy de acuerdo es que las gráficas actuales son un timo, pero si quieres jugar a los juegos actuales es lo que hay.
_anVic_ está baneado por "clon de usuario baneado"
GF3 escribió:El triste mundo de las gráficas, y la estafa que nos hemos tragado todos, que hasta una 4090, una gráfica de 2.000 euros sufra para mover un dlc de un juego, no es triste, es que da pena.

Rendimiento de Cyberpunk 2077: Phantom Liberty a prueba con 25 tarjetas gráficas

Luego vendrán las pruebas con fake frame y dlss 3.5, y parecerá que todo esta muy chulo, y que el juego va a 300 fps, pero la realidad es que a rendimiento puro son basura las gráficas.

Un saludo


Pues mírate el rendimiento a 1080p ultra con path tracing, sin dlss, ni FG. Paso captura comparativa ( del enlace que tu mismo has dejado.)

Imagen

La 4090 casi duplica en rendimiento a la 3090 ( gpu que de salida valia 1500 plometes ) y deja a la altura del betún a la competencia...sacando 14 fps la 7900xtx... le mete un bonito plus de un 330% más en rendimiento ( eso sin dlss ni fg ) :-|

Testeo de Daniel Owen por si a alguien le interesa:

GF3 escribió:El triste mundo de las gráficas, y la estafa que nos hemos tragado todos, que hasta una 4090, una gráfica de 2.000 euros sufra para mover un dlc de un juego, no es triste, es que da pena.

Rendimiento de Cyberpunk 2077: Phantom Liberty a prueba con 25 tarjetas gráficas

Luego vendrán las pruebas con fake frame y dlss 3.5, y parecerá que todo esta muy chulo, y que el juego va a 300 fps, pero la realidad es que a rendimiento puro son basura las gráficas.

Un saludo

De la 4090 se puede discutir el precio Por no decir que es cara.
Pero el rendimiento?
Si es lo más tocho que han lanzado en eones.

El problema viene en la optimización de lagunis juegos y el Añadaido del path tracing, que eso traga recursos a lo bruto.

Y bueno ,DLSS y FG también se paga y ayuda.
Para eso están.

Sin eso ,nada movería Path Tracing.
Y no es problema de potencia ,porque como ha te dijeron ,la 4090 está a años luz de la top de la generación pasada.
LynX escribió:Pues a mí me ha sorprendido gratamente el uso del DLSS más el FG en mi 4070 en el Cyberpunk, creía que se vería peor. Solo en el phomode puedo ver durante unos 2 segundos como unos reflejos raros en la piel de mi personaje que desaparecen en 2 segundos o así (aunque me sale una opción que no me deja activar para activar rt en photomode). En movimiento con el DLSS en calidad y el FG activados no noto ninguna diferencia respecto a si no los uso (bueno solo los fps que se van al cuerno). Aunque solo lo estuve probando ayer y he de probarlo más.
En lo que estoy de acuerdo es que las gráficas actuales son un timo, pero si quieres jugar a los juegos actuales es lo que hay.


Pues a mi el FG no me termina de convencer. Para llegar a FPS jugables (entre 55 y 70) no me gusta porque veo muy claramente los artefactos visuales y la respuesta al movimiento se siente demasiado lenta y pesada, como si jugara con lag. Lo que si le veo utilidad es si ya el juego te va a 65-80fps y lo activas para jugar a altas tasas de refresco a +100fps, los artefactos visuales apenas se aprecian y el input lag deja de ser notorio para mi.

Pero claro para mi el mayor atractivo de la tecnología era poder activar efectos y resoluciones apoyándote en FG para que fueran jugables, pero realmente no está para eso, al menos a mi no me vale xD
dos dudas, no entiendo del tema, pero me he puesto con el undervolt para mi 4070 y en las prueba de rendimiento del Cyberpunk antes de hacerlo me daba 70fps y después 81fps. Esto es posible? lo pregunto desde el mas absoluto desconocimiento. Algunos comentarios que he podido leer son del estilo, que si no es fiable, que si no vale la pena en una 4070, que si no hay riesgo, que si es recomendable hacerlo, que la grafica no sufre, etc,etc, con lo que no se si lo he hecho bien o lo he hecho mal o a saber, me estoy rallando por si a la grafica le va a pasar algo.

...y en el panel de Nvidia hay que hacer algo? tocar algo, activar cosas para sacar mas rendimiento? También he visto videos de peña que activan mil cosas para ganar no se cuantos fps sin perder calidad, o para que todo funcione mejor y tengo la cabeza que me va a explotar.
@jeslet Con la prueba de un juego sólo no te quedes, y mas con Cyberpunk que tiene tendencia a cambiarte el nivel de DLSS por la jeta sin que te des cuenta, así que lo mas seguro esque haya sido eso. Si al hacer undervolt no has subido muy mucho los relojes de fábrica (cosa que dudo mucho) no debería varíar los fps, de hecho normalmente se pierde un poco de rendimiento si quieres reducir mucho el consumo y temperaturas. Yo por ejemplo mi 4070 la he dejado en 915mv y bajado el core clock a 2600mhz y consume apenas 120Watts de media y pierde algo menos de un 10% de rendimiento, y la cabrona apenas supera los 53ºC a tope xD

Aunque para juegos exigentes supongo que buscaré un undervolt que mantenga relojes de fábrica y reducir los milivoltios hasta que sea estable.

Merece la pena?? Pues no se, yo siempre pienso que dejarla lo mas fresquita y eficiente posible afecta positivamente a su longevidad, y si tienes problemas de temperatura o potencia es un must hacerlo.
jeslet escribió:dos dudas, no entiendo del tema, pero me he puesto con el undervolt para mi 4070 y en las prueba de rendimiento del Cyberpunk antes de hacerlo me daba 70fps y después 81fps. Esto es posible? lo pregunto desde el mas absoluto desconocimiento. Algunos comentarios que he podido leer son del estilo, que si no es fiable, que si no vale la pena en una 4070, que si no hay riesgo, que si es recomendable hacerlo, que la grafica no sufre, etc,etc, con lo que no se si lo he hecho bien o lo he hecho mal o a saber, me estoy rallando por si a la grafica le va a pasar algo.

...y en el panel de Nvidia hay que hacer algo? tocar algo, activar cosas para sacar mas rendimiento? También he visto videos de peña que activan mil cosas para ganar no se cuantos fps sin perder calidad, o para que todo funcione mejor y tengo la cabeza que me va a explotar.


Es perfectamente normal ya que al reducir el voltaje bajan las temperaturas y las frecuencias boost se mantienen por mas tiempo por lo que en muchos casos ganas rendimiento.
garbaje_de_potanzos escribió:@jeslet Con la prueba de un juego sólo no te quedes, y mas con Cyberpunk que tiene tendencia a cambiarte el nivel de DLSS por la jeta sin que te des cuenta, así que lo mas seguro esque haya sido eso. Si al hacer undervolt no has subido muy mucho los relojes de fábrica (cosa que dudo mucho) no debería varíar los fps, de hecho normalmente se pierde un poco de rendimiento si quieres reducir mucho el consumo y temperaturas. Yo por ejemplo mi 4070 la he dejado en 915mv y bajado el core clock a 2600mhz y consume apenas 120Watts de media y pierde algo menos de un 10% de rendimiento, y la cabrona apenas supera los 53ºC a tope xD

Aunque para juegos exigentes supongo que buscaré un undervolt que mantenga relojes de fábrica y reducir los milivoltios hasta que sea estable.

Merece la pena?? Pues no se, yo siempre pienso que dejarla lo mas fresquita y eficiente posible afecta positivamente a su longevidad, y si tienes problemas de temperatura o potencia es un must hacerlo.

No hace falta que mantenga relojes de fábrica para conseguir un rendimiento igual o algo mejor

Con conseguir que sea más estable y no te baje rendimiento por temps o power, ya estás mejorando el rendimiento incluso con menos reloj,ya que te mantiene frecuencias estables más altas.
De nada sirve un reloj más alto si luego te pega bajones por lo que digo.

Hay mucha gente que hace UV y limita power nada más o pone al maximo posible la frecuencia con el enornvoltaje ,y no se molesta en mirar un test gráfico para ver si le está bajando rendimiento por algo de lo que comento.
Es solo un apunte.

Yo tengo la 4090 con reloj algo por debajo del de fábrica y gracias a lo que te digo, da sobre un 1-2% más de rendimiento que de fábrica.
Pero es que esto lo he conseguido con todas las gráficas que he tenido.

@jeslet
Haz pruebas con otros juegos y benmarks.
Un UV se siempre aconsejable.
@hh1 Yo esque desde que aprendí a usar el Core Voltaje Curve Editor del Afterburner no uso otra cosa para UV/OC :) En mi caso las ganancias de rendimiento por aumentar Mhz son mínimas, ya he probado el límite de mi 4070 que es subir el core a 3.100Mhz y las memorias a 11.500Mhz (esto es casi +300Mhz y +1.000Mhz respectivamente) y apenas se traduce en un 5% mas de rendimiento en juegos, así que paso de rallarme en rascar algo mas de reloj a la hora de bajar milivolts, que como al final eres tú el que asigna ambos valores manualmente usando ese método pues por eso dije de mantener los relojes de serie y bajar todo lo posible el consumo xD

Por eso también me extraña mucho que a @jeslet le haya aumentado el rendimiento en el bench del CP 2077 casi un 20% sólo por hacer UV, básicamente es imposible a no ser que su gráfica estuviera haciendo un thermal throttling bestial de serie, cosa que tampoco me creo. Seguro que se le cambió el nivel de DLSS por si sólo sin darse cuenta, que a mi me lo ha hecho alguna vez.
garbaje_de_potanzos escribió:@hh1 Yo esque desde que aprendí a usar el Core Voltaje Curve Editor del Afterburner no uso otra cosa para UV/OC :) En mi caso las ganancias de rendimiento por aumentar Mhz son mínimas, ya he probado el límite de mi 4070 que es subir el core a 3.100Mhz y las memorias a 11.500Mhz (esto es casi +300Mhz y +1.000Mhz respectivamente) y apenas se traduce en un 5% mas de rendimiento en juegos, así que paso de rallarme en rascar algo mas de reloj a la hora de bajar milivolts, que como al final eres tú el que asigna ambos valores manualmente usando ese método pues por eso dije de mantener los relojes de serie y bajar todo lo posible el consumo xD

Por eso también me extraña mucho que a @jeslet le haya aumentado el rendimiento en el bench del CP 2077 casi un 20% sólo por hacer UV, básicamente es imposible a no ser que su gráfica estuviera haciendo un thermal throttling bestial de serie, cosa que tampoco me creo. Seguro que se le cambió el nivel de DLSS por si sólo sin darse cuenta, que a mi me lo ha hecho alguna vez.

El OC a secas no suele ser gentable iara nada.
Pero UV con OC ,sí.
O UV a secas ,también.

Yo es que eso de llevar una gráfica capada ,que pagas un dineral por su potencia , no lo veo.
garbaje_de_potanzos escribió:@hh1 Yo esque desde que aprendí a usar el Core Voltaje Curve Editor del Afterburner no uso otra cosa para UV/OC :) En mi caso las ganancias de rendimiento por aumentar Mhz son mínimas, ya he probado el límite de mi 4070 que es subir el core a 3.100Mhz y las memorias a 11.500Mhz (esto es casi +300Mhz y +1.000Mhz respectivamente) y apenas se traduce en un 5% mas de rendimiento en juegos, así que paso de rallarme en rascar algo mas de reloj a la hora de bajar milivolts, que como al final eres tú el que asigna ambos valores manualmente usando ese método pues por eso dije de mantener los relojes de serie y bajar todo lo posible el consumo xD

Por eso también me extraña mucho que a @jeslet le haya aumentado el rendimiento en el bench del CP 2077 casi un 20% sólo por hacer UV, básicamente es imposible a no ser que su gráfica estuviera haciendo un thermal throttling bestial de serie, cosa que tampoco me creo. Seguro que se le cambió el nivel de DLSS por si sólo sin darse cuenta, que a mi me lo ha hecho alguna vez.


Es que lo recomendable no es subir todo lo que se pueda la frecuencia o bajar todo lo que se pueda el voltaje con la frecuencia de serie sino un equilibrio entre los dos valores

Un ejemplo seria:

Stock 1770 mhz @ 1.050v

OC + UV 1915 mhz @ 0.950 = un 10% de rendimiento extra

Que puedes subir a 1950 mhz la frecuencia con el voltaje de serie (1.050v) claro pero lo que dice @hh1 no va a mantenerlo todo el tiempo a los 1950 mhz, va a bajar a menos de 1900 mhz cuando la gráfica esté caliente y estresada, dando menos rendimiento

Tampoco sirve dejar la frecuencia de stock de 1770 mhz para meterle 0.850v, va a rendir igual que de stock o solo un pelín mas

Tienes que buscar la máxima frecuencia que puedas mantenerla todo el tiempo sin que baje y por ello se buscar el menor voltaje posible. Al ser este mas bajo que de stock puedes subir la frecuencia por encima.
_anVic_ está baneado por "clon de usuario baneado"
ditifet escribió:
garbaje_de_potanzos escribió:@hh1 Yo esque desde que aprendí a usar el Core Voltaje Curve Editor del Afterburner no uso otra cosa para UV/OC :) En mi caso las ganancias de rendimiento por aumentar Mhz son mínimas, ya he probado el límite de mi 4070 que es subir el core a 3.100Mhz y las memorias a 11.500Mhz (esto es casi +300Mhz y +1.000Mhz respectivamente) y apenas se traduce en un 5% mas de rendimiento en juegos, así que paso de rallarme en rascar algo mas de reloj a la hora de bajar milivolts, que como al final eres tú el que asigna ambos valores manualmente usando ese método pues por eso dije de mantener los relojes de serie y bajar todo lo posible el consumo xD

Por eso también me extraña mucho que a @jeslet le haya aumentado el rendimiento en el bench del CP 2077 casi un 20% sólo por hacer UV, básicamente es imposible a no ser que su gráfica estuviera haciendo un thermal throttling bestial de serie, cosa que tampoco me creo. Seguro que se le cambió el nivel de DLSS por si sólo sin darse cuenta, que a mi me lo ha hecho alguna vez.


Es que lo recomendable no es subir todo lo que se pueda la frecuencia o bajar todo lo que se pueda el voltaje con la frecuencia de serie sino un equilibrio entre los dos valores

Un ejemplo seria:

Stock 1770 mhz @ 1.050v

OC + UV 1915 mhz @ 0.950 = un 10% de rendimiento extra

Que puedes subir a 1950 mhz la frecuencia con el voltaje de serie (1.050v) claro pero lo que dice @hh1 no va a mantenerlo todo el tiempo a los 1950 mhz, va a bajar a menos de 1900 mhz cuando la gráfica esté caliente y estresada, dando menos rendimiento

Tampoco sirve dejar la frecuencia de stock de 1770 mhz para meterle 0.850v, va a rendir igual que de stock o solo un pelín mas

Tienes que buscar la máxima frecuencia que puedas mantenerla todo el tiempo sin que baje y por ello se buscar el menor voltaje posible. Al ser este mas bajo que de stock puedes subir la frecuencia por encima.


Esas frecuencias y voltajes son de Turing o Ampere, en esas dos arquitecturas sí tenia más sentido hacer undervolt.

Pero en las 4000 excepto la 4090 ( porque tiene más headroom de serie ) no le veo demasiado sentido a hacer UV de la 4080 para abajo, que son muy eficientes incluso de fábrica y los consumos son muy moderados tirando a bajos.

En la 4090 tengo varios perfiles, el más eficiente con UV consigo entre un 40 y un 45% más de eficiencia perdiendo un 5% de rendimiento vs de serie, usando voltajes muy bajos.

Con el voltaje que trae de fábrica puedo ponerla cerca de 3100mhz y meterle otros 3 ghz en las memos vs 2800mhz core 10500mhz memos que trae de stock. Con lo que los consumos son más o menos igual ( ya que mantengo el voltaje de serie ) pero se gana bastante rendimiento porque subo casi 300mhz en el core y 3ghz en memos.


Lo de mantener las temps controladas en las 4000 ( en general la mayoría de ensambles ) es bastante sencillo para evitar el throttling y evitar bajada de clocks. En el caso de mi 4090 raras veces la veo más alla de 50 grados incluso con overcock la puedo mantener bien a raya sin que me bajen los clocks ni 15 mhz .
@_anVic_ Joder +3Ghz de OC a la GDDR6X?? Yo pensaba no probar mas de +1Ghz que era lo que mas o menos me admitía la memoria GDDR6 de la 2060Super que tenía. Que bestia xD

Y bueno si consigo que la gráfica me vaya a velocidad de stock consumiendo 50 o 70Watts menos siempre será mejor, si que son eficientes pero pueden serlo mas aún, yo lo veo un WIN/WIN XD

EDIT.- Pues el Afterburner "sólo" me deja subir 2Ghz las memorias, he estado probando un rato y es estable jajajaja no me lo esperaba. Pero aun así sólo gano un 3% de rendimiento así que al menos en mi caso lo veo un poco tontería la verdad [+risas]
_anVic_ está baneado por "clon de usuario baneado"
+2000 en el msi AB en memos son 4ghz efectivos. Yo le meto solo +1500 que equivalen a esos 3ghz que he mencionado anteriormente.

Claro en la 4070 poca mejora vas a tener. En la 4090 se nota bastante más. En 4k hay juegos que solo por dopar memos 3ghz gano cerca de 10fps gratuitamente.
_anVic_ escribió:
ditifet escribió:
garbaje_de_potanzos escribió:@hh1 Yo esque desde que aprendí a usar el Core Voltaje Curve Editor del Afterburner no uso otra cosa para UV/OC :) En mi caso las ganancias de rendimiento por aumentar Mhz son mínimas, ya he probado el límite de mi 4070 que es subir el core a 3.100Mhz y las memorias a 11.500Mhz (esto es casi +300Mhz y +1.000Mhz respectivamente) y apenas se traduce en un 5% mas de rendimiento en juegos, así que paso de rallarme en rascar algo mas de reloj a la hora de bajar milivolts, que como al final eres tú el que asigna ambos valores manualmente usando ese método pues por eso dije de mantener los relojes de serie y bajar todo lo posible el consumo xD

Por eso también me extraña mucho que a @jeslet le haya aumentado el rendimiento en el bench del CP 2077 casi un 20% sólo por hacer UV, básicamente es imposible a no ser que su gráfica estuviera haciendo un thermal throttling bestial de serie, cosa que tampoco me creo. Seguro que se le cambió el nivel de DLSS por si sólo sin darse cuenta, que a mi me lo ha hecho alguna vez.


Es que lo recomendable no es subir todo lo que se pueda la frecuencia o bajar todo lo que se pueda el voltaje con la frecuencia de serie sino un equilibrio entre los dos valores

Un ejemplo seria:

Stock 1770 mhz @ 1.050v

OC + UV 1915 mhz @ 0.950 = un 10% de rendimiento extra

Que puedes subir a 1950 mhz la frecuencia con el voltaje de serie (1.050v) claro pero lo que dice @hh1 no va a mantenerlo todo el tiempo a los 1950 mhz, va a bajar a menos de 1900 mhz cuando la gráfica esté caliente y estresada, dando menos rendimiento

Tampoco sirve dejar la frecuencia de stock de 1770 mhz para meterle 0.850v, va a rendir igual que de stock o solo un pelín mas

Tienes que buscar la máxima frecuencia que puedas mantenerla todo el tiempo sin que baje y por ello se buscar el menor voltaje posible. Al ser este mas bajo que de stock puedes subir la frecuencia por encima.


Esas frecuencias y voltajes son de Turing o Ampere, en esas dos arquitecturas sí tenia más sentido hacer undervolt.

Pero en las 4000 excepto la 4090 ( porque tiene más headroom de serie ) no le veo demasiado sentido a hacer UV de la 4080 para abajo, que son muy eficientes incluso de fábrica y los consumos son muy moderados tirando a bajos.

En la 4090 tengo varios perfiles, el más eficiente con UV consigo entre un 40 y un 45% más de eficiencia perdiendo un 5% de rendimiento vs de serie, usando voltajes muy bajos.

Con el voltaje que trae de fábrica puedo ponerla cerca de 3100mhz y meterle otros 3 ghz en las memos vs 2800mhz core 10500mhz memos que trae de stock. Con lo que los consumos son más o menos igual ( ya que mantengo el voltaje de serie ) pero se gana bastante rendimiento porque subo casi 300mhz en el core y 3ghz en memos.


Lo de mantener las temps controladas en las 4000 ( en general la mayoría de ensambles ) es bastante sencillo para evitar el throttling y evitar bajada de clocks. En el caso de mi 4090 raras veces la veo más alla de 50 grados incluso con overcock la puedo mantener bien a raya sin que me bajen los clocks ni 15 mhz .


Si son de Ampere pero en las 4000 quitando las 4080 y 4090 que van sobredimensionadas de disipación pues las otras hacia abajo si que se nota una curva de frecuencia bien hecha.
_anVic_ está baneado por "clon de usuario baneado"
Tampoco hace falta un heatsink tocho con demasiados heatpipes para disipar eficazmente el calor que producen por ejemplo una 4060 o 4070. Son bastante mecheros de serie.

https://www.techpowerup.com/review/msi- ... io/38.html

Dejando a un lado la Gainward, mira temps/sonoridad de la mayoría de 4070 de serie. Van sobradas. Con esas temperaturas hay 0 throttling. Y eso es sin curva custom de ventilación con voltaje de fábrica.
Como ya dije no entiendo y lo que he hecho, a sido siguiendo los pasos de un video. Ahora mismo y nada mas encender el pc, lo tengo así tal cual, no se si servirá de mucho...

Imagen

Pd. el dlls no se me cambia
@ditifet

Tengo una 4070Ti que a sobredimensionada no le gana nadie, tuve que hacer bricolaje a la caja para meterla.

La mayoría de juegos no me funcionan a más de 53º, y en verano con 35º en la habitación lo máximo que ha tenido son 70º.

No me hace falta hacer UV para nada, y no creo que a la mayoría de la gente le haga falta, puede que en series anteriores si, pero en la 4XXX es raro que se necesite.

Un saludo
garbaje_de_potanzos escribió:@_anVic_ Joder +3Ghz de OC a la GDDR6X?? Yo pensaba no probar mas de +1Ghz que era lo que mas o menos me admitía la memoria GDDR6 de la 2060Super que tenía. Que bestia xD

Y bueno si consigo que la gráfica me vaya a velocidad de stock consumiendo 50 o 70Watts menos siempre será mejor, si que son eficientes pero pueden serlo mas aún, yo lo veo un WIN/WIN XD

EDIT.- Pues el Afterburner "sólo" me deja subir 2Ghz las memorias, he estado probando un rato y es estable jajajaja no me lo esperaba. Pero aun así sólo gano un 3% de rendimiento así que al menos en mi caso lo veo un poco tontería la verdad [+risas]

Yo es que creo que enfucas más la finalidad de tocar la gráfica.
Tu lo enfucas con la máxima de consumir menos e intentar no palmar mucho rendimiento.
Yo creo que se debe enfocar de manera que sea un equilibrio.No palmar rendimiento como maxi,ma ,salvo que sea irrisoria esa perdida de rendimiento h se gana una burrada de eguciencia (ejemplo de la 4090 que puedes palmar un -5%,va a seguro sobradisima y ganas mucha eficienciq).
Pero en una 4070 no vas tan sobrado ya como para estar regalando potencia.

Y esa potencia la puedes regalar de mhchas maneras ,ya sea limitando power,ha sea con demasiado bajo voltaje ,ya sea por temperaturas altas ,ya sea por power limit...

Por eso hablo de equilibrio,y el equilibrio suele estar bajando un poco los voltajes y bajando un pelo el reloj.
Por qué no tiene menos si baja el reloj?Por lo que te comentamos de que puedes conseguir que sea más estable que de fábrica con un reloj más alto.Al final el reloj de fábrica te va a bajar seguro por una cosa o por otra ,y va a ir por debajo que el que le pongas estable del UV.

Por eso es interesante monitorizar los bench o juegos con algún programa como GPUZ enir viendo la gráfica que te marca esas caídas,para así lograr dan con el punto dulce del UV.

Como dice @_anVic_,por debajo de la 4080 quizás no sea tan necesario en términos de consumo ,porque no consumen tanto.Pero yo sí veo aconsejable un UV en términos de eficiebcia por esto que digo.Pprque de fábrica raro es que no te peguen bajones por unas cosas o por otras.
Y joder ,si ya por el camino ganas algo de consumo y mejores temps,pues mejor que mejor.

Yo lo que nunca haré, es un UV donde palme potencia en gracias que no van tan sobradas.
Con la 4090 si tengo algún perfil más limitado para juegos en los que es escandolao lo sobrada que va.Ahí es absurdo está con un UV tan afinado .
Directamente es que uso ese UV y lo limito en power.
Pero no es lo que suelo usar.

@jeslet
Ahí no tienes la curva editada.
Lo normal es que hayas hecho un overlock sin más.
Pero claro, no estás viendo lo que digo,si te está bajando el reloj constantemente por power o temperaturas ,que seguro que sí.
Vamos ,que es un KC a lo rápido y "mal" hecho a "ojímetro".
Seguramente ,editando la curva de potencia ,bajando voltajes y un poco el reloj, consigas más rendimiento, mejores temperaturas y menor consumo.
Un tema, que lo mas seguro es que sea cosa del cable. Tengo una TV Oled 4K y una 4090, y un cable HDMI de 6 metros hdmi 2.1 feizlink de fibra, pero me pasa muchas veces que al cambiar de resolución, se me va la imagen, y tarda mucho en volver, tanto que lo mejor muchas veces es apagar la tv y encender (que no siempre funciona).

¿Hay algún cable mas recomendable de unos 4 metros actualmente que no se vaya de precio? Es para usar con 4K@120hz, HDR y Atmos... que al final todo suma, porque poniendo el equipo a 2K no me pasa.
GF3 escribió:@ditifet

Tengo una 4070Ti que a sobredimensionada no le gana nadie, tuve que hacer bricolaje a la caja para meterla.

La mayoría de juegos no me funcionan a más de 53º, y en verano con 35º en la habitación lo máximo que ha tenido son 70º.

No me hace falta hacer UV para nada, y no creo que a la mayoría de la gente le haga falta, puede que en series anteriores si, pero en la 4XXX es raro que se necesite.

Un saludo


No he dicho que haga falta, he dicho que hay mejoras haciéndolo
Pero que yo me hago varios perfiles, uno "low profile" donde palmo ~10% rendimiento pero la gráfica consume la mitad (100Watts) ideal para juegos con poca chicha gráfica, un perfil con los relojes de stock pero minimizando el consumo al máximo (consumiendo ~145Watts y mismo rendimiento que de serie), y otro perfil con OC para juegos mas exigentes intentando también que consuma algo menos que de fábrica.

Además que la 4070 la uso en un monitor 1080p y ahí va muy sobrada, osea no entiendo bien que me queréis decir. Ajustar un único perfil para todo?? Nunca lo hice así, prefiero mi método xD
_anVic_ está baneado por "clon de usuario baneado"
Yo tengo 3 perfiles UV, un perfil oc pero con voltajes de serie y otro con overvolt y oc máximo para sacar hasta el último fps si fuera menester.

A los clocks y voltajes de serie creo que no la he tenido ni 2 minutos.

2610mhz @890mv memos +1500
2775mhz @925mv memos +1500
2910mhz @1.0v memos +1250
3050mhz @1.050v memos +1000
3120mhz @1.1v memos +1700

Esos son mis perfiles en la 4090 asignados a diferentes teclas en forma de atajo para que pueda cambiar entre ellos sin necesidad de tabular al escritorio mientras juego o bencheo.
KKnot escribió:¿Hay algún cable mas recomendable de unos 4 metros actualmente que no se vaya de precio? Es para usar con 4K@120hz, HDR y Atmos... que al final todo suma, porque poniendo el equipo a 2K no me pasa.

Yo estoy mas o menos como tú y aunque no necesito uno de 4m, sí que te puedo hablar que incluso con cables de 2m me han dado problemas. No te puedo ayudar pero al menos te puedo decir qué cables no compraría :Ð

Mi problema es diferente, me ocurre que a 4k@144hz (con o sin HDR) el VRR en según qué juegos produce parpadeos e incluso pérdida de señal temporal.

Como mi TV (Samsung QN95B) tiene un menú de diagnóstico que comprueba si la calidad/velocidad del cable es suficiente, he comprobado que el cable me decía que no era válido y que lo reemplace. He comprado 2 cables, el 1º lo compré sin tener muy en cuenta la calidad del cable y el 2º ya revisé que fuera certificado (aunque podría ser falso quizás) y aunque este último mejoró algo no solucionó el problema:
https://www.amazon.es/gp/product/B088D57W1T?th=1
https://www.amazon.es/gp/product/B08TGG316Z?th=1

Comprobé que si configuraba la TV a 4k@120hz me decía que el cable era válido (probé el 2º y ya me olvidé del 1º) y efectivamente ya no noto problemas así que aunque me joda un poco pasar de 144hz a 120hz, doy el problema solucionado de forma temporal.

En su día cuando compré el 2º cable encontré recomendaciones mas profesionales de cables y creo que mínimo se iba a 50€ el cable, no sé si para asegurar que realmente era de calidad o qué, pero no quise pagar ese dinero por un cable. Si en algún momento necesito sí o sí los 144hz ya volveré a mirar el tema mejor y estaré dispuesto a pagar mas dinero.
garbaje_de_potanzos escribió:Pero que yo me hago varios perfiles, uno "low profile" donde palmo ~10% rendimiento pero la gráfica consume la mitad (100Watts) ideal para juegos con poca chicha gráfica, un perfil con los relojes de stock pero minimizando el consumo al máximo (consumiendo ~145Watts y mismo rendimiento que de serie), y otro perfil con OC para juegos mas exigentes intentando también que consuma algo menos que de fábrica.

Además que la 4070 la uso en un monitor 1080p y ahí va muy sobrada, osea no entiendo bien que me queréis decir. Ajustar un único perfil para todo?? Nunca lo hice así, prefiero mi método xD

No no.
Yo tengo 4 perfiles.Uso generalmente 2.

Entendí que tú usabas uno, solo para sacar rendimiento .

@_anVic_
Yo con 1000mV no puedo pasar de 2880mhz.
No te ha salido mala bicha.
Bueno, pues hoy me he levantado con la noticia de que ahora hablan del DLSS 10 para un futuro lejano.

https://elchapuzasinformatico.com/2023/09/nvidia-dlss-10-sistema-renderizado-100-neuronal/

Todavía me acuerdo del 2018, un pasado no tan lejano, en el que el chino Juan hablaba que en cosa de 10 años las gráficas podrían hacer raytracing en tiempo real con cuadros por segundo suficientes como para poder jugar con eso. Supongo que contextualizando lo que decía estaría metiendo a la ia en aquella ecuación, aunque no lo tengo tan claro ya que por aquel entonces los núcleos tensor pensaban en usarlos para escalar la imagen, el resto no salía del laboratorio de pruebas.

Me da a mi que la ia no la quieren solamente porque estén ganando un pastizal vendiendo chips ahora mismo o la previsión que tengan, creo que se han dado cuenta de que con el silicio a base de potencia computacional bruta algo así no se puede conseguir, no al menos en un ordenador doméstico. De alguna manera para los gráficos por computador aplicados a los videojuegos el paradigma tiene que cambiar para que la rueda siga girando.

Ojalá consiga aguantar con mi gráfica el tiempo suficiente como para que la siguiente sea una de esas que puedan con algo así.
Qué modelo de 4090 recomendáis actualmente? Hay un montón y no me decido...
BennBeckman escribió:Qué modelo de 4090 recomendáis actualmente? Hay un montón y no me decido...


Generalmente la más barata, porque todas rinden parecido (diferencias del 2-3% máximo a lo sumo).
anavas44 escribió:
BennBeckman escribió:Qué modelo de 4090 recomendáis actualmente? Hay un montón y no me decido...


Generalmente la más barata, porque todas rinden parecido (diferencias del 2-3% máximo a lo sumo).

Pero entiendo que en cuanto a materiales unas diferirán de otras. ¿No?
No me gustaría gastarme 1500€ en un cacharro de plástico chino...
BennBeckman escribió:
anavas44 escribió:
BennBeckman escribió:Qué modelo de 4090 recomendáis actualmente? Hay un montón y no me decido...


Generalmente la más barata, porque todas rinden parecido (diferencias del 2-3% máximo a lo sumo).

Pero entiendo que en cuanto a materiales unas diferirán de otras. ¿No?
No me gustaría gastarme 1500€ en un cacharro de plástico chino...


Todas las marcas son ensambladoras oficiales aprobadas por nvidia, no vas a tener cacharros de plástico chino (bueno, realmente todas son plástico chino, pero de buena calidad).

Dicho esto, mi experiencia ha sido:
- Zotac 4090 AMP Airo - a los 6 meses se me jodió y esta marca tarda MESES en tramitar los RMA
- Asus ROG Strix 4090 - mi actual 4090, preciosa, materiales de calidad, y probablemente la 4090 que más sube por aire, pero claro, tiene un precio que a mi parecer no compensa a no ser que la consigas de oferta
_anVic_ está baneado por "clon de usuario baneado"
anavas44 escribió:
BennBeckman escribió:
anavas44 escribió:
Generalmente la más barata, porque todas rinden parecido (diferencias del 2-3% máximo a lo sumo).

Pero entiendo que en cuanto a materiales unas diferirán de otras. ¿No?
No me gustaría gastarme 1500€ en un cacharro de plástico chino...


Todas las marcas son ensambladoras oficiales aprobadas por nvidia, no vas a tener cacharros de plástico chino (bueno, realmente todas son plástico chino, pero de buena calidad).

Dicho esto, mi experiencia ha sido:
- Zotac 4090 AMP Airo - a los 6 meses se me jodió y esta marca tarda MESES en tramitar los RMA
- Asus ROG Strix 4090 - mi actual 4090, preciosa, materiales de calidad, y probablemente la 4090 que más sube por aire, pero claro, tiene un precio que a mi parecer no compensa a no ser que la consigas de oferta


Que clocks te hace de serie y con overclock esa 4090 Strix?

Te lo digo más que nada porque al final es cuestión de suerte... tuve una 4090 Palit ( un modelo muy básico, con un vrm bastante precario ) me costó 1600€ y me hacia 3150mhz en el core y cerca de los 12400mhz en memos sin despeinarse.

Imagen
KKnot escribió:Un tema, que lo mas seguro es que sea cosa del cable. Tengo una TV Oled 4K y una 4090, y un cable HDMI de 6 metros hdmi 2.1 feizlink de fibra, pero me pasa muchas veces que al cambiar de resolución, se me va la imagen, y tarda mucho en volver, tanto que lo mejor muchas veces es apagar la tv y encender (que no siempre funciona).

¿Hay algún cable mas recomendable de unos 4 metros actualmente que no se vaya de precio? Es para usar con 4K@120hz, HDR y Atmos... que al final todo suma, porque poniendo el equipo a 2K no me pasa.


Yo tengo este y me va perfecto


NEWDERY Cable HDMI 2.1 8K 5 Metro, Cable HDMI 5M Macho a Macho 8K@60Hz, 4K@120Hz / 144Hz DSC, Soporte eARC, HDR10+, VRR, Dolby Vision, HDCP 2.2/2.3, Compatible con PS5 / Xbox One X/Fire TV (Negro) https://amzn.eu/d/gXBA9oo

4k a 120 Hz y HDR sin problema con una Bravia con HDMI 2.1 obviamente y una 3090

Lo tengo desde hace 1 año y medio
BennBeckman escribió:Qué modelo de 4090 recomendáis actualmente? Hay un montón y no me decido...

Pues todo depende del precio.
No sé ahora mismo como andan ,pero partiría de la base de que me iría a las más baratas .
Cogeria la más barata y todas las que estén en un rango de +75€ más o menos.

Por qué?
Porque a la hora de la verdad ,todas ,hasta la peor ,va sobrada.
Teng yo la PNY que es de las peores ,y realmente la diferencia con las mejor s no es casi ni notiria en rendimiento, y en sonoridad , a mí me parece que 0 problemas ,0 Coil Whine ,tempeturas bajísimas (45-53°C según juego) y se deja hacer un buen UV.

No pagaría más por ninguna.
Dentro de ese rango, pillaría la que sea mejor.

Yo me qjedé con las ganas de la KFA2 que valía lo mismo que la PNY ,es algo mejor ,me parece más guapa ...pero estaba agotada.
Luego, a efectos reales ,me iba básicamente a dar igual una que otra.

No te ralles porque la mía es de la peor citas y va de putísima madre.


PD: 1549€ la Palit en Coolmod.No pagaba más.
@_anVic_
Es que es eso.Por supuesto que hay diferencia de materiales entre ellas ,pero al final, la clave es el silicio que te toca.
_anVic_ escribió:
anavas44 escribió:
BennBeckman escribió:Pero entiendo que en cuanto a materiales unas diferirán de otras. ¿No?
No me gustaría gastarme 1500€ en un cacharro de plástico chino...


Todas las marcas son ensambladoras oficiales aprobadas por nvidia, no vas a tener cacharros de plástico chino (bueno, realmente todas son plástico chino, pero de buena calidad).

Dicho esto, mi experiencia ha sido:
- Zotac 4090 AMP Airo - a los 6 meses se me jodió y esta marca tarda MESES en tramitar los RMA
- Asus ROG Strix 4090 - mi actual 4090, preciosa, materiales de calidad, y probablemente la 4090 que más sube por aire, pero claro, tiene un precio que a mi parecer no compensa a no ser que la consigas de oferta


Que clocks te hace de serie y con overclock esa 4090 Strix?

Te lo digo más que nada porque al final es cuestión de suerte... tuve una 4090 Palit ( un modelo muy básico, con un vrm bastante precario ) me costó 1600€ y me hacia 3150mhz en el core y cerca de los 12400mhz en memos sin despeinarse.

Imagen


Efectivamente es cuestión de suerte. Esa Palit probablemente sea del top 1% mundial de 4090 ya que esos números no son alcanzables por la mayoría. La mía "sólo" llega a 3100 de clock y +1500 de memo.
ditifet escribió:
KKnot escribió:Un tema, que lo mas seguro es que sea cosa del cable. Tengo una TV Oled 4K y una 4090, y un cable HDMI de 6 metros hdmi 2.1 feizlink de fibra, pero me pasa muchas veces que al cambiar de resolución, se me va la imagen, y tarda mucho en volver, tanto que lo mejor muchas veces es apagar la tv y encender (que no siempre funciona).

¿Hay algún cable mas recomendable de unos 4 metros actualmente que no se vaya de precio? Es para usar con 4K@120hz, HDR y Atmos... que al final todo suma, porque poniendo el equipo a 2K no me pasa.


Yo tengo este y me va perfecto


NEWDERY Cable HDMI 2.1 8K 5 Metro, Cable HDMI 5M Macho a Macho 8K@60Hz, 4K@120Hz / 144Hz DSC, Soporte eARC, HDR10+, VRR, Dolby Vision, HDCP 2.2/2.3, Compatible con PS5 / Xbox One X/Fire TV (Negro) https://amzn.eu/d/gXBA9oo

4k a 120 Hz y HDR sin problema con una Bravia con HDMI 2.1 obviamente y una 3090

Lo tengo desde hace 1 año y medio



Lástima que ya no esté en Amazon disponible. Es que me da mucha pereza andar pillando cables y devolviendolos porque no valen la verdad.
¿ Esperaríais al nuevo conector de la 4090 tanto en la tarjeta gráfica como en la fuente de alimentación?
SonMf escribió:¿ Esperaríais al nuevo conector de la 4090 tanto en la tarjeta gráfica como en la fuente de alimentación?

Depende de cuánto hay que esperar.
Yo no tengo nada de eso y 0 problemas.
SonMf escribió:¿ Esperaríais al nuevo conector de la 4090 tanto en la tarjeta gráfica como en la fuente de alimentación?

Depende de la espera (cosa que no sé) y de lo que para ti suponga el riesgo de usar el conector actual.

Empezando por el riesgo actual, no conozco casos recientes, no ha habido casos en este hilo... a ver, es evidente que el nuevo conector es mejor que el actual, pero con conectarlo bien y asegurando que el cable no tenga una presión que pueda desconectarlo parcialmente con el tiempo evitas mayormente el problema.


En cuanto al nuevo conector, han hecho un poco mas largo el cable conector (0,25mm solamente), los pines de los sensores los han recordado 1,5mm, y ahora tiene control de seguridad para evitar que consuma cuando no está bien conectado:

En español: https://elchapuzasinformatico.com/2023/ ... s-12vhpwr/

No sé si hay hay casos de founders recibidas con el nuevo conector, he visto un reddit de hace 2 meses donde dicen que sí pero no lo veo claro y tampoco he visto claro una comparativa ambos conectores (no en un esquema sino un conector real), ya que la diferencia a parte de ver un H++ en el nuevo conector (el anterior es H+), lo visual a nivel del conector es que los conectores de los sensores son 1,5 mm mas cortos... cosa que a simple vista y sin comparar entre conectores no creo que sea muy evidente.

El nuevo conector es retrocompatible con el anterior, pero si he entendido lo que indico (lo he visto/leído un poco en diagonal) es retrocompatible a nivel de conexión física, pero no a nivel de funciones puesto que con el viejo conector no habrá ese control de seguridad. Y sobre la facilidad de que se desconecte no he leído nada, pero los 0,25mm extras dudo que cambien algo.
_anVic_ está baneado por "clon de usuario baneado"
Acabo de testar el FSR 3 en el Forspoken. También ha salido para el Immortals of Aveum.

No va nada mal. Me han sorprendido muy gratamente las latencias.

Funciona de lujo con la 4090 forzando V-sync desde el panel de control de nvidia. Igual que hago con FG. El que se anime que lo pruebe y que nos cuente que tal su experiencia.



_anVic_ escribió:Acabo de testar el FSR 3 en el Forespoken. También ha salido para el Immortals of Aveum.

No va nada mal. Me han sorprendido muy gratamente las latencias.

Funciona de lujo con la 4090 forzando V-sync desde el panel de control de nvidia. Igual que hago con FG. El que se anime que lo pruebe y que nos cuente que tal su experiencia.




Pues no va nada mal.
A ver si lo vemos en más juegos y complementa al FG , que de momento, está en "4" juegos contados.

Buena noticia.
Quien lo iba a decir, los verdes tirando de los rojos. A ver si nvidia aprende.
Con intención de pasar por agua (alphacool waterblock)

¿Que gpu seria mejor? (4080)

Estoy entre: Tuf (asus) | Amp Airo (Zotac) | y Msi sin ningún modelo exacto aun claro elegido...

En un principio iba a elegir Asus... pero la serie 4000 en asus salieron malas... ya que son las mas le llega a Osmanys Martinez (un youtuber que repara gpus a nivel profesional....
uchi23a escribió:Con intención de pasar por agua (alphacool waterblock)

¿Que gpu seria mejor? (4080)

Estoy entre: Tuf (asus) | Amp Airo (Zotac) | y Msi sin ningún modelo exacto aun claro elegido...

En un principio iba a elegir Asus... pero la serie 4000 en asus salieron malas... ya que son las mas le llega a Osmanys Martinez (un youtuber que repara gpus a nivel profesional....


Las Asus que comenta Osmanys se refiere en general, no solo en las 4000
ditifet escribió:
Las Asus que comenta Osmanys se refiere en general, no solo en las 4000


Dice en general en el canal de Sfdx Show, pero en sus videos propios habla muy mal de la tuf y la strix... de la 4000 que se relajaron despues de lo bien que salio en 3000
Estoy pensando en agenciarme una 4070ti, teniendo un Ryzen 3700x tendría mucho cuello de botella?
No me queda muy claro

Gracias!
richichan escribió:Estoy pensando en agenciarme una 4070ti, teniendo un Ryzen 3700x tendría mucho cuello de botella?
No me queda muy claro

Gracias!

Depende de la resolución que uses, cuanta más alta sea, menos cuello de botella tendrás, pero comparado con un procesador más actual, pues sí, algo de cuello de botella tendrás, ya depende de tu nivel de exigencia y de tu bolsillo valorar si merece la pena conservarlo o actualizar a un Ryzen de la serie 5000, además de la placa base que tengas también, claro.

Saludos.
14352 respuestas