[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Fleishmann escribió:@parh

No lo niego, pero lo mejor de lo mejor tiene que notarse en algún juego.

Tu coges una 4080 y una 4090 que podrían ser las dos mejores, y tienes diferencias tangibles y evidentes en muchos juegos.

Si coges una 4090 y una Ti que tenga un 15% más de rendimiento y ¿en qué juego presente o inminente veremos una diferencia apreciable?

Ahora mismo la 4090 es overkill para todo lo conocido, puede que sea la tarjeta más overkill en su contexto temporal que haya visto. Evidentemente dejará de serlo en algún momento pero no lo veo muy cerca.


Después de muchos años cacharreando, y de leeros, al final me calenté y cogí la 4090. Nunca había tenido más allá de una serie 3070 en fijo. Con ganas de probarlo mañana cuando me llegue, ya me he ido también a ddr5 aprovechando la bajada ligera de precios..

Voy con un monitor 1440p de Asus … recomendáis pasar a un 4K para disfrutar al 100%? Alguna recomendación de modelo ?

Un saludo compañeros
@joakylla

Preferencias en monitores hay como culos, un montón diferentes.

Yo juego en 27 1440p y muy contento, evidentemente mi equipo ahora mismo se fuma un piti mientras escupe los juegos al máximo. ¿Es mejor en 4k? Pues para mi si que lo sería llegados a este punto pero hay que saber cuando aflojar la manteca y cuando holdear.

Yo personalmente me guardo para un OLED que se ponga en modo chollo. Un 32 o quizás un 38 UW, veremos, no tengo prisa, es más necesito unos meses para no tener represalias en casa.

Bienvenido a la élite obscena, toma tu purito y tu copa de brady, la máquina que emite papelitos con las acciones de nuestras inversiones está en aquella esquina. Le diré a Ambrosio que te haga un canapé. Ponte cómodo.
Fleishmann escribió:@joakylla

Preferencias en monitores hay como culos, un montón diferentes.

Yo juego en 27 1440p y muy contento, evidentemente mi equipo ahora mismo se fuma un piti mientras escupe los juegos al máximo. ¿Es mejor en 4k? Pues para mi si que lo sería llegados a este punto pero hay que saber cuando aflojar la manteca y cuando holdear.

Yo personalmente me guardo para un OLED que se ponga en modo chollo. Un 32 o quizás un 38 UW, veremos, no tengo prisa, es más necesito unos meses para no tener represalias en casa.

Bienvenido a la élite obscena, toma tu purito y tu copa de brady, la máquina que emite papelitos con las acciones de nuestras inversiones está en aquella esquina. Le diré a Ambrosio que te haga un canapé. Ponte cómodo.


Me dejas más tranquilo, mi monitor es del mismo estilo, un Asus 1440p 144hz de 27”. Creo que también voy a holdear monitor para un uw y mientras revisaré teclado, ratón y auriculares que arrastro unos logitech sencillos de hace 6-7 años que se oye más el crujido a plástico que lo que estoy viendo por la pantalla.
Hola, para los compis que tengan una 4080 PNY Verto, la que va sin lucecitas, excepto el logo de PNY. Os dejo la config que mejor me ha ido, iguala a una 7900XTX en raster en el superposition 4k optimized (22.700) que tambien tuve. Saca 1000 puntos mas que de stock sin notarse mas consumo y sin crasheos. Aqui la config del MSI Afterburner, sin curvas ni leches. Comprobado varios dias con los juegos mas exigentes.

Imagen

Probarla y me comentais. Que gran tarjeta la PNY, de verdad, creia que era un modelo que estaba en la cola y no me ha podido sorprender mas, menudo bicho.

Un saludo.
@HaGeK La mía es una 4090 PNY con lucecitas... Se lo podría poner la misma configuración que has puesto para la 4080?

Muchas gracias!!!
_anVic_ está baneado por "clon de usuario baneado"
Yo tuve también una 4080 por cacharreo y ver diferencias VS la 4090, pero se la vendí a mi mejor amigo viendo que rendia un 30% menos de media . Os dejo un par de resultados de la 4080 a su máximo oc :


Imagen


Imagen

@HaGeK que te da a su máximo oc?
joakylla escribió:
Fleishmann escribió:@parh

No lo niego, pero lo mejor de lo mejor tiene que notarse en algún juego.

Tu coges una 4080 y una 4090 que podrían ser las dos mejores, y tienes diferencias tangibles y evidentes en muchos juegos.

Si coges una 4090 y una Ti que tenga un 15% más de rendimiento y ¿en qué juego presente o inminente veremos una diferencia apreciable?

Ahora mismo la 4090 es overkill para todo lo conocido, puede que sea la tarjeta más overkill en su contexto temporal que haya visto. Evidentemente dejará de serlo en algún momento pero no lo veo muy cerca.


Después de muchos años cacharreando, y de leeros, al final me calenté y cogí la 4090. Nunca había tenido más allá de una serie 3070 en fijo. Con ganas de probarlo mañana cuando me llegue, ya me he ido también a ddr5 aprovechando la bajada ligera de precios..

Voy con un monitor 1440p de Asus … recomendáis pasar a un 4K para disfrutar al 100%? Alguna recomendación de modelo ?

Un saludo compañeros


Haz "trampas" y activa el DLDSR x2.25, así tienes resolución 4K en tu monitor 1440p [sati] Un 5-10% más tasante que nativo, pero oye, la calidad de imagen es absurda.
Tras probar la 4080 con juegos que tenia instalados y no encontrar mucha diferencia a excepción del Halo Infinite, he probado el Atomic Heart lo he notado mucho, me va a tope y a 144, me falta probar algún juego con ray tracing seguramente instale el Control.

Mi monitor en estos momentos es de 1920 a 144fps, pero me van a dejar uno ultrapanoramico en 2k para ver si noto la diferencia.
_anVic_ escribió:Yo tuve también una 4080 por cacharreo y ver diferencias VS la 4090, pero se la vendí a mi mejor amigo viendo que rendia un 30% menos de media . Os dejo un par de resultados de la 4080 a su máximo oc :


Imagen


Imagen

@HaGeK que te da a su máximo oc?


ufffffffff eso es a 1110mV, miedo me da desde hace mis añitos ya que fundí una buena gráfica al subirle el voltaje, evidentemente son cosas que ocurren raramente y ahora es más seguro, aun así no me atrevo antes me tienen que amenazar de muerte o algo así. De todos modos he copiado los settings del test a 1080 que hiciste porque mi monitor es 1440p, pongo shaders extreme, textures high y activo motion blur y depth of field.... pero yo con el voltaje stock 1075mV, subí el core a +165 (totalmente seguro) y la memoria +1300 (más seguro todavía) en plan un tuning de andar por casa sin entrar en las curvas de undervolt que tanto me gustan.

Imagen

Imagen

pues algo no cuadra, la diferencia es más o menos un irrisorio 1% pero con voltaje stock, core y memorias relajadas y el consumo como un 22% menos (bajando 70w de media pongamos), es decir vamos a poner 20% más de consumo y el riesgo de dañar poco a poco la gráfica para conseguir un 1% más de rendimiento? No me salen las cuentas, o es este benchmark en concreto, o el overclock de voltaje no vale para nada la pena o simplemente ya vienen de fábrica rozando el límite de su rendimiento (opto por esta opción), qué opinas?

Muy interesante el experimento y me reafirmo muy sorprendido con lo poco que sube y lo mucho que consume el overclock pero lo bien que se porta con voltaje stock y tuneos campechanos, el año que viene cuando me compre la 5080 o 5090 de rigor probaré a hacer alguna prueba con overclock a la 4080 [carcajad]

edit: mi silicio en mi 4080 Suprim X es del montón, es decir, ni bueno ni malo entre medias tirando para arriba, aquí la prueba del silicio unos días después de actualizar la BIOS gaming por la más nueva que había de MSI para mi modelo Suprim X, el caso es que el update subió algunos MHz el reloj al jugar con todo en stock (de 2865 con la tarjeta templada a 2895 con los ventiladores, antes de actualizar iba entre 2865 y 2850 siempre), la BIOS silent no la toqué.

Imagen
_anVic_ está baneado por "clon de usuario baneado"
Lince_SPAIN escribió:
_anVic_ escribió:Yo tuve también una 4080 por cacharreo y ver diferencias VS la 4090, pero se la vendí a mi mejor amigo viendo que rendia un 30% menos de media . Os dejo un par de resultados de la 4080 a su máximo oc :


Imagen


Imagen

@HaGeK que te da a su máximo oc?


ufffffffff eso es a 1110mV, miedo me da desde hace mis añitos ya que fundí una buena gráfica al subirle el voltaje, evidentemente son cosas que ocurren raramente y ahora es más seguro, aun así no me atrevo antes me tienen que amenazar de muerte o algo así. De todos modos he copiado los settings del test a 1080 que hiciste porque mi monitor es 1440p, pongo shaders extreme, textures high y activo motion blur y depth of field.... pero yo con el voltaje stock 1075mV, subí el core a +165 (totalmente seguro) y la memoria +1300 (más seguro todavía) en plan un tuning de andar por casa sin entrar en las curvas de undervolt que tanto me gustan.

Imagen

Imagen

pues algo no cuadra, la diferencia es más o menos un irrisorio 1% pero con voltaje stock, core y memorias relajadas y el consumo como un 22% menos (bajando 70w de media pongamos), es decir vamos a poner 20% más de consumo y el riesgo de dañar poco a poco la gráfica para conseguir un 1% más de rendimiento? No me salen las cuentas, o es este benchmark en concreto, o el overclock de voltaje no vale para nada la pena o simplemente ya vienen de fábrica rozando el límite de su rendimiento (opto por esta opción), qué opinas?

Muy interesante el experimento y me reafirmo muy sorprendido con lo poco que sube y lo mucho que consume el overclock pero lo bien que se porta con voltaje stock y tuneos campechanos, el año que viene cuando me compre la 5080 o 5090 de rigor probaré a hacer alguna prueba con overclock a la 4080 [carcajad]

edit: mi silicio en mi 4080 Suprim X es del montón, es decir, ni bueno ni malo entre medias tirando para arriba, aquí la prueba del silicio unos días después de actualizar la BIOS gaming por la más nueva que había de MSI para mi modelo Suprim X, el caso es que el update subió algunos MHz el reloj al jugar con todo en stock (de 2865 con la tarjeta templada a 2895 con los ventiladores, antes de actualizar iba entre 2865 y 2850 siempre), la BIOS silent no la toqué.

Imagen


Efectivamente llegado a cierto punto de oc no vale para nada la pena subir voltajes, ya que las ganancias son inapreciables pero como punto negativo sí suben consumo y temps, normalmente uso siempre undervolt para jugar y en los benchs busco su máximo rendimiento solo por curiosidad a ver que es capaz de dar exprimiéndola a tope unos minutos.

Al final las frecuencias van muy cerca, de ahí que solo haya 2fps de diferencia a mi favor. Me llegó a subir algo más el core y memos pero ya con algún artefacto y no lo di por bueno aunque me pasaba el bench.

Probé también en su día sin hilar muy fino reducir el consumo de la 4090 por debajo de los 300W en ese test y veo curiosamente que conseguí cerca del 12% más en fps pero consumiendo 287W respecto a tu resultado con la 4080.

La verdad son una pasada de gráficas en cuanto a FPS/W.


Imagen

Se puede reducir a los 250W y aun sacar más fps que la 4080 con oc


Imagen

O irte a los 330w pelaos y sacar cerca de 163 fps

Imagen

Con voltajes de stock paso los 22k sin problema:

Imagen
@_anVic_

Curioso lo de la 4090 con menos voltaje rindiendo mejor que una 4080 en esta prueba, si también lo hace en juegos a 50w menos consigue un 15% más de fps que una 4080 entonces creo que me he equivocado de gráfica, en todas las reviews de friquis como nosotros han hecho estas pruebas y en juegos a paridad de porcentaje de consumo existe paridad de resultados con el respectivo porcentaje lógico de diferencia, pero no he visto una 4090 consumiendo lo mismo o menos que una 4080 en un juego y sacándole 20 fps, eso no, estaríamos hablando de una 4080 con un chip deficiente o realmente desastroso en eficiencia energética cuando en realidad es algo más eficiente que la 4090...

así que supongo es en este tipo de pruebas sintéticas donde en algunas bajar el core no afecta al rendimiento pero sí en gran medida al consumo mientras mantienen resultados elevados en benchmarks puesto que quizá lo que afecta al resultado es el ancho de banda del bus y la velocidad de la memoria y no tanto el core, ya te digo que en juegos no pasa...

Imagen
_anVic_ está baneado por "clon de usuario baneado"
Lince_SPAIN escribió:@_anVic_

Curioso lo de la 4090 con menos voltaje rindiendo mejor que una 4080 en esta prueba, si también lo hace en juegos a 50w menos consigue un 15% más de fps que una 4080 entonces creo que me he equivocado de gráfica, en todas las reviews de friquis como nosotros han hecho estas pruebas y en juegos a paridad de porcentaje de consumo existe paridad de resultados con el respectivo porcentaje lógico de diferencia, pero no he visto una 4090 consumiendo lo mismo o menos que una 4080 en un juego y sacándole 20 fps, eso no, estaríamos hablando de una 4080 con un chip deficiente o realmente desastroso en eficiencia energética cuando en realidad es algo más eficiente que la 4090...

así que supongo es en este tipo de pruebas sintéticas donde en algunas bajar el core no afecta al rendimiento pero sí en gran medida al consumo mientras mantienen resultados elevados en benchmarks puesto que quizá lo que afecta al resultado es el ancho de banda del bus y la velocidad de la memoria y no tanto el core, ya te digo que en juegos no pasa...

Imagen


En juegos con undervolt a 2700mhz y 925mv es un mechero la verdad y consume muy poco. No hice las pruebas pertinentes con la 4080 a tope de oc vs la 4090 con undervolt porque tuve la 4080 una tarde solo [+risas]

Pero bueno si quieres hacer alguna prueba en algun juego concreto con la 4080 con oc vs la 4090 undervolt, para ver rendimiento en fps/W por mi no hay problema.

Yo creo que aun poniéndola solo a 2550mhz core @ 890mv y memos apretadas seria igual o un pelín superior a la 4080 con oc y los consumos son ridículamente bajos., lo probé el otro día y me quede flipado.

Normalmente la suelo tener a 2700mhz custom curve entre 925 y 950mv memos a solo +1000 y ya consume bastante menos que a stock.

Hice una prueba hace tiempo cuando salió el the callisto protocol cuando no tenia parches a 8k con undervolt, memos de serie y solía andar entre 300 y 350w

https://www.youtube.com/watch?v=nt2IkawVJVI&t=733s

No se como andará la 4080 con esos parámetros
@guille15 no lo se, prueba a ver, es una configuracion bastante generica y no es agresiva. Seguro que cualquier modelo de 4080 o 4090 la aguanta y sacas algunos FPS de mas sin palmar calor y consumo.

Yo realmente no busco OC, solo rascar algo sin que lo note la tarjeta. Lo de la curva era una locura, siempre me acababa crasheando en algun juego cuando parecia que lo tenia ya todo controlado, pero supongo que es por ser un poco inexperto en el tema.

@_anVic_ no le he apretado las tuercas, lo maximo q llegue a ver fueron 23.000 en el 4k optimized, pero sin subir mucho los voltajes (no me gusta darle chicha) esos 25.000 son una barbaridad [plas]

De todas maneras una cosa es pasar un test y otra poder jugar a los juegos sin que te den errores o se salga del juego o se quede pillado. Yo solo me quedo con lo que es estable y ya me olvido, aunque sea un poquito mas que de stock.
Buenos dias,una duda o que opinais? Cambiar un i7 9700k 32gb de Ram por un 13700k ( Placa claro, Z790 ) y 32gb ram ddr5 o cambiar una 3080 RTX MSi Suprim X por una 4080 RTX MSi Suprim x? Juego en 32:9 a 5120x1440, esta claro al final cada uno decide, depende de cada uno...pero eso ;-)
La grafica tarde o temprano la cambiare pero viendo que estan bajando,esperarme...
Gracias.
Saludos.
Kurosawa42 escribió:Buenos dias,una duda o que opinais? Cambiar un i7 9700k 32gb de Ram por un 13700k ( Placa claro, Z790 ) y 32gb ram ddr5 o cambiar una 3080 RTX MSi Suprim X por una 4080 RTX MSi Suprim x? Juego en 32:9 a 5120x1440, esta claro al final cada uno decide, depende de cada uno...pero eso ;-)
La grafica tarde o temprano la cambiare pero viendo que estan bajando,esperarme...
Gracias.
Saludos.


El 9700K - 4080 le mete sopas con hondas al 13700K - 3080 en juegos, y más a esa resolución.
_anVic_ está baneado por "clon de usuario baneado"
Kurosawa42 escribió:Buenos dias,una duda o que opinais? Cambiar un i7 9700k 32gb de Ram por un 13700k ( Placa claro, Z7
90 ) y 32gb ram ddr5 o cambiar una 3080 RTX MSi Suprim X por una 4080 RTX MSi Suprim x? Juego en 32:9 a 5120x1440, esta claro al final cada uno decide, depende de cada uno...pero eso ;-)
La grafica tarde o temprano la cambiare pero viendo que estan bajando,esperarme...
Gracias.
Saludos.


Vas a ganar muchos más fps si cambias la gráfica.

En mi caso cuando adquiri la 4090, viniendo de la 3090ti, decidí aguantar con el 9900k hasta la salida del 7800X3D que será en abril de este año. Va a ser el nuevo rey del gaming incluso por encima del 13900KS .

Si subes el 9700k a 5ghz o por encima tienes la ram a 3600mhz a unas latencias decentes jugando a la resolución que mencionas no te preocupes que dará la talla con la 4080 en la mayoria fe juegos vas a ver un incremento de fps muy considerable.

Luego puedes cambiar de cpu aprovechando alguna oferta. Yo en tu lugar para la 4080, si es para jugar a esa resolución no me iría más allá de un 7700x o un 13600k .
Pues creo que ire a por esa 4080, la verdad es que el i7 9700k es un procesador de 10 eh, como va.
Muchisimas gracias a los dos ;) [beer] .
_anVic_ está baneado por "clon de usuario baneado"
HaGeK escribió:@guille15 no lo se, prueba a ver, es una configuracion bastante generica y no es agresiva. Seguro que cualquier modelo de 4080 o 4090 la aguanta y sacas algunos FPS de mas sin palmar calor y consumo.

Yo realmente no busco OC, solo rascar algo sin que lo note la tarjeta. Lo de la curva era una locura, siempre me acababa crasheando en algun juego cuando parecia que lo tenia ya todo controlado, pero supongo que es por ser un poco inexperto en el tema.

@_anVic_ no le he apretado las tuercas, lo maximo q llegue a ver fueron 23.000 en el 4k optimized, pero sin subir mucho los voltajes (no me gusta darle chicha) esos 25.000 son una barbaridad [plas]

De todas maneras una cosa es pasar un test y otra poder jugar a los juegos sin que te den errores o se salga del juego o se quede pillado. Yo solo me quedo con lo que es estable y ya me olvido, aunque sea un poquito mas que de stock.



Con que le hagas una curva asi te valdrá para cualquier resolución y settings. Mi 4090 tiene un chip muy vago y aguanta sin problema hasta en 8k a 2700mhz core, 950mv, memos +1000 .

Luego si quieres afinar puedes probar misma frecuencia de core pero bajando voltajes de 900 a 925mv. Es un buen undervolt, rinde de lujo y reduces bastante el consumo y temps.

Imagen

Actualizo configuración mecheril:

Imagen

@Lince_SPAIN 8fps más de media que la 4080 con oc consumiendo casi 70 W menos en el chip :



@Lince_SPAIN Port Royal misma configuración llegando a un máximo de 306W. Si te apetece probarlo con tu 4080 con oc ahí tienes para ver diferencias.

Imagen

Si alguien quiere probar su 4080 a tope de oc, estaría bien a ver donde llega en consumos y resultados de gráficos para comparar.

Buscando por Youtube he visto este video de una 4080 con algo de oc llegando solo a 17731 puntos en gráficos con un pico máximo de 347,6 W

https://www.youtube.com/watch?v=Wm-BLx2douc

Luego he bajado 40W llegando a solo 306w respecto a ese video pero he obtenido más del 30% de mejora en fps, lo cual me parece una salvajada, debería rendir al menos 19 o 20k puntos una 4080 con oc.
Kurosawa42 escribió:Buenos dias,una duda o que opinais? Cambiar un i7 9700k 32gb de Ram por un 13700k ( Placa claro, Z790 ) y 32gb ram ddr5 o cambiar una 3080 RTX MSi Suprim X por una 4080 RTX MSi Suprim x? Juego en 32:9 a 5120x1440, esta claro al final cada uno decide, depende de cada uno...pero eso ;-)
La grafica tarde o temprano la cambiare pero viendo que estan bajando,esperarme...
Gracias.
Saludos.

Sin duda ,vas a notar más un cambio de gráfica que de cpu.

@_anVic_
Una duda: por qué haces las preguntas del Superposition en 1080p extreme?No sería más lógico hacerlas en 4k?

@joakylla
Yo es que no noto diferencia entre 1440p y 4K ,y menos en monitores.
Seré raro.

Pasarte al 4k sería lo lógico con una 4099, pero lo que nadie tiene luego en cuenta ,es que hay que mantenerlo a los años ,y eso supone gasto en gráfica top cada 2-3-4 máximo.
A 1440p no tienes ese problema.
@_anVic_

Impresionante todo lo que muestras y la verdad has hecho un trabajo estupendo revelando la mejor forma de domar a la fiera y sacarle todo su potencial. En cuanto pille un par de horas voy a ver si puedo contestarte debidamente con las pruebas a la 4080. Desde luego te ha salido una gráfica muy pero que muy peleona.

Por lo demás vuelvo a reiterarme que si esto es el comportamiento habitual de todas las 4090 y si, digamos, capamos una 4080 y una 4090 a 150w y la 4090 es capaz de sacarle 20fps en los juegos a pesar del hachazo entoces me he equivocado de gráfica, no sería el fin del mundo porque para mi setup 1440p me vale hasta que salga la serie 5000 pero desde luego no habría sido mi mejor decisión.

Saludotes y gracias por la magnífica info.
Bueno, te habrías equivocado si te hubiera valido el mismo dinero…..pero hay 500 € de diferencia.
_anVic_ está baneado por "clon de usuario baneado"
@hh1 No porque en 4k optimized paso los 220fps y ahí el limitante en mi caso es mi viejo 9900k ya que se me relaja la gpu con lo cual no se pueden hacer correctamente las pruebas.

Por contra a 1080p extreme la media es bastante inferior y la gpu va todo el rato al 99% sin que la cpu sea un limitante.

También acabo de pasarlo en 8k optimized donde los consumos son aun mayores debido a la resolución,.

Imagen

Aun así he conseguido 100fps de media con un consumo muy comedido, 320 w de pico máximo en conjunto y 217,5 W en el chip.

A stock en 8k optimized me da menos fps y paso los 410W de consumo.

Imagen

Así que ni tan mal, rasco algún fps habiendo bajado casi 100W el consumo

@Lince_SPAIN hombre caparla a 150w es muy bestia, aun así aquí tienes un pase , no he podido bajar de los 155w

Imagen
@HaGeK Gracias, crack!!!

Pruebo y te digo.

Saludos.
_anVic_ escribió:@hh1 No porque en 4k optimized paso los 220fps y ahí el limitante en mi caso es mi viejo 9900k ya que se me relaja la gpu con lo cual no se pueden hacer correctamente las pruebas.

Por contra a 1080p extreme la media es bastante inferior y la gpu va todo el rato al 99% sin que la cpu sea un limitante.

También acabo de pasarlo en 8k optimized donde los consumos son aun mayores debido a la resolución,.

Imagen

Aun así he conseguido 100fps de media con un consumo muy comedido, 320 w de pico máximo en conjunto y 217,5 W en el chip.

A stock en 8k optimized me da menos fps y paso los 410W de consumo.

Imagen

Así que ni tan mal, rasco algún fps habiendo bajado casi 100W el consumo

@Lince_SPAIN hombre caparla a 150w es muy bestia, aun así aquí tienes un pase , no he podido bajar de los 155w

Imagen

Pero en 1080p no te limita igual la cpu? [beer]
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:@hh1 No porque en 4k optimized paso los 220fps y ahí el limitante en mi caso es mi viejo 9900k ya que se me relaja la gpu con lo cual no se pueden hacer correctamente las pruebas.

Por contra a 1080p extreme la media es bastante inferior y la gpu va todo el rato al 99% sin que la cpu sea un limitante.

También acabo de pasarlo en 8k optimized donde los consumos son aun mayores debido a la resolución,.

Imagen

Aun así he conseguido 100fps de media con un consumo muy comedido, 320 w de pico máximo en conjunto y 217,5 W en el chip.

A stock en 8k optimized me da menos fps y paso los 410W de consumo.

Imagen

Así que ni tan mal, rasco algún fps habiendo bajado casi 100W el consumo

@Lince_SPAIN hombre caparla a 150w es muy bestia, aun así aquí tienes un pase , no he podido bajar de los 155w

Imagen

Pero en 1080p no te limita igual la cpu? [beer]


No porque es en modo extreme, el de 1080p tiene los shaders en extremo y el de 4k optimized no.

Además si te fijas la media en fps en el 1080p extreme es muy inferior al 4k optimized. El de 1080p extreme con algo de oc ando en unos 165fps, por contra el 4k optimized paso los 220fps de meda incluso con undervolt a frecuencias bastante bajas y aún así se me relaja la gpu. Luego el limitante en 1080p extreme es la gpu y no la cpu y en el 4k optimized el limitante es más la cpu especialmente si es antigua como la mía, ya que tengo picos de incluso más de 300fps. No se si me explico o no me entiendes. Es bastante simple de entender.

Luego los benchs más demandantes para ver y comparar consumos entre la 4090 vs 4080 serian el superposition 8k optimized, si quieres en 4k deberías poner los shaders en extremo manualmente, el Port Royal o el time spy extreme.

Esos son los benchs que más W van a demandar de tu gpu y no será la cpu en ningún caso el limitante, a no ser que tengas una micro de 2 o 4 núcleos del año de la tana [+risas]
Descartada la 4090 (juego a 1440p 165hz) me voy a decidir finalmente entre la 7900xtx y la 4080.

1. No me puede interesar menos el RT ni DLLS, las considero a ambas el cancer de la industria, pero muchos aun no estan listos para tener esta conversacion. Una es un brilli brilli como ustedes le llaman que hace que los juegos parezcan artificiales, con esos pisos y paredes ridiculamente brillantes, horrible. La otra son solo FAKE frames, a costa de un input lag que mi cerebro despues de pasar casi 2 decadas con juegos FPS a nivel competitivo lo nota y MUCHISIMO.

7900xtx
A favor>
1. Es una bestia, mas potente que la 4080 en practicamente todos los juegos actuales

2. Le haces UV mas su respectivo OC y queda mas cercana de la 4090 de lo que podeis creer

3. Suelen envejecer como los buenos vinos

En contra>

1) Consume casi 500w con el perfil OC que me interesa meterle, no me preocupa el consumo electrico pero si la estabilidad del socket de mi pared [qmparto] creo que puede provocar stutering electrico

2) Mucho calor, mi ciudad en verano es 35-40c

3) Arquitectura RDN3 que muchos consideran esta verde y puede dar problemas a futuro

4080

A favor unicamente tiene que es IMPRESIONANTE su eficiencia energetica para la potencia que consigue 200-250w (seguro puede bajar mas)

Dicho esto, ustedes por cual se irian?

En mi caso la 4080 cuesta 100us mas que la 7900xtx
Yo estoy dudando entre la 4080 y la 4090. Lo que no se si les sacaré partido con un i5 10505 o subir al i9 10900. Juego a 2k y sobre todo PCVR.
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:@hh1 No porque en 4k optimized paso los 220fps y ahí el limitante en mi caso es mi viejo 9900k ya que se me relaja la gpu con lo cual no se pueden hacer correctamente las pruebas.

Por contra a 1080p extreme la media es bastante inferior y la gpu va todo el rato al 99% sin que la cpu sea un limitante.

También acabo de pasarlo en 8k optimized donde los consumos son aun mayores debido a la resolución,.

Imagen

Aun así he conseguido 100fps de media con un consumo muy comedido, 320 w de pico máximo en conjunto y 217,5 W en el chip.

A stock en 8k optimized me da menos fps y paso los 410W de consumo.

Imagen

Así que ni tan mal, rasco algún fps habiendo bajado casi 100W el consumo

@Lince_SPAIN hombre caparla a 150w es muy bestia, aun así aquí tienes un pase , no he podido bajar de los 155w

Imagen

Pero en 1080p no te limita igual la cpu? [beer]


No porque es en modo extreme, el de 1080p tiene los shaders en extremo y el de 4k optimized no.

Además si te fijas la media en fps en el 1080p extreme es muy inferior al 4k optimized. El de 1080p extreme con algo de oc ando en unos 165fps, por contra el 4k optimized paso los 220fps de meda incluso con undervolt a frecuencias bastante bajas y aún así se me relaja la gpu. Luego el limitante en 1080p extreme es la gpu y no la cpu y en el 4k optimized el limitante es más la cpu especialmente si es antigua como la mía, ya que tengo picos de incluso más de 300fps. No se si me explico o no me entiendes. Es bastante simple de entender.

Luego los benchs más demandantes para ver y comparar consumos entre la 4090 vs 4080 serian el superposition 8k optimized, si quieres en 4k deberías poner los shaders en extremo manualmente, el Port Royal o el time spy extreme.

Esos son los benchs que más W van a demandar de tu gpu y no será la cpu en ningún caso el limitante, a no ser que tengas una micro de 2 o 4 núcleos del año de la tana [+risas]

Aclarado [beer]

@zeo360
Yo no creo que saques mucha diferencia cambiando a un 10900k por encima de 1080p.
_anVic_ está baneado por "clon de usuario baneado"
calloudiano escribió:Descartada la 4090 (juego a 1440p 165hz) me voy a decidir finalmente entre la 7900xtx y la 4080.

1. No me puede interesar menos el RT ni DLLS, las considero a ambas el cancer de la industria, pero muchos aun no estan listos para tener esta conversacion. Una es un brilli brilli como ustedes le llaman que hace que los juegos parezcan artificiales, con esos pisos y paredes ridiculamente brillantes, horrible. La otra son solo FAKE frames, a costa de un input lag que mi cerebro despues de pasar casi 2 decadas con juegos FPS a nivel competitivo lo nota y MUCHISIMO.

7900xtx
A favor>
1. Es una bestia, mas potente que la 4080 en practicamente todos los juegos actuales

2. Le haces UV mas su respectivo OC y queda mas cercana de la 4090 de lo que podeis creer

3. Suelen envejecer como los buenos vinos

En contra>

1) Consume casi 500w con el perfil OC que me interesa meterle, no me preocupa el consumo electrico pero si la estabilidad del socket de mi pared [qmparto] creo que puede provocar stutering electrico

2) Mucho calor, mi ciudad en verano es 35-40c

3) Arquitectura RDN3 que muchos consideran esta verde y puede dar problemas a futuro

4080

A favor unicamente tiene que es IMPRESIONANTE su eficiencia energetica para la potencia que consigue 200-250w (seguro puede bajar mas)

Dicho esto, ustedes por cual se irian?

En mi caso la 4080 cuesta 100us mas que la 7900xtx



Media en 16 juegos a 4k
Imagen

Andan casi a la par, le saca un 3,70% de ventaja .

Luego a es cuestión de prioridades, si te va más el ray tracing, FG, Dlss, eficiencia, G-sync, mejor soporte de drivers, etc... entonces la 4080 es sin duda la opción ganadora , aunque sea algo superior en precio.

Bueno decir que si a la 7900xtx le haces uv + oc se queda cerca de la 4090 yendo ésta de serie no es ser muy objetivo... cuando le saca el 26% en 4k y los fps mínimos del 1% low de la 4090 es incluso superior a los máximos medios totales de la 7900xtx ...115fps ( 1% low de la 4090 ) por los 113fps avg de la 7900xtx como se ve en el gráfico. A eso sumale que la 4090 se puede poner fácilmente a 3ghz core y subirle las memos 2,4ghz sin despeinarse.

Realmente la 4090 no tiene competencia alguna, juega literalmente ella sola en otra liga y luego ya si eso vienen el resto de gráficas .en un gap más estrecho y comedido,

EDIT: decir que el ray tracing y el Dlss son el cáncer de la industria es buscar controversia cuanto menos. Ah y por cierto lo de los fake frames no es el dlss sino el frame generation .
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen

Te podrá gustar más o menos pero decir que es un cáncer cuanto menos me duele leerlo.
@_anVic_

Ese es mi opinion sobre la 4090, simplemente no tiene competencia ni nada que se le acerque, mi problema es que soy taliban de los cpus, para mi el cpu es la pieza mas importante de una pc y se que mi 12700k 5.0ghz ddr4 no aprovecharia la 4090, sobre todo en 1440p. No pienso cambiar de cpu hasta la serie 14 (ahora 15) de intel o su equivalente de amd

Se que son cosas distintas, pero al final el FG es parte de la tecnologia dlss, los desarroladores de juegos estan usando dicha tecnologia como excusa para sacar juegos con una optimizacion terrible, tan solo ve lo que rinde la 4090 con 4k sin dicha tecnologia, en poco tiempo va a ser una grafica para 4k 60hz, nada puede sustituir un producto con una rasterizacion superior, pura y dura, mis 2 centavos.
_anVic_ está baneado por "clon de usuario baneado"
calloudiano escribió:@_anVic_

Ese es mi opinion sobre la 4090, simplemente no tiene competencia ni nada que se le acerque, mi problema es que soy taliban de los cpus, para mi el cpu es la pieza mas importante de una pc y se que mi 12700k 5.0ghz ddr4 no aprovecharia la 4090, sobre todo en 1440p. No pienso cambiar de cpu hasta la serie 14 (ahora 15) de intel o su equivalente de amd

Se que son cosas distintas, pero al final el FG es parte de la tecnologia dlss, los desarroladores de juegos estan usando dicha tecnologia como excusa para sacar juegos con una optimizacion terrible, tan solo ve lo que rinde la 4090 con 4k sin dicha tecnologia, en poco tiempo va a ser una grafica para 4k 60hz, nada puede sustituir un producto con una rasterizacion superior, pura y dura, mis 2 centavos.


Tu crees en serio que FG es terrible?-... Lo has probado insitu para constatarlo por ti mismo o te basas más bien en dimes y diretes..,? mira la línea del frametime y buscame algún video testeo de alguien sin usar FG con una línea más plana de lo que ahí te muestro, con mejores 0,1%/1% low inscluso usando un viejo 9900k. Ah y por cierto las latencias totales de renderizado eran entre 25 y 35ms con nvidia reflex activado.

https://www.youtube.com/watch?v=Xqc2uXDbaSs&t=522s
_anVic_ escribió:
calloudiano escribió:@_anVic_

Ese es mi opinion sobre la 4090, simplemente no tiene competencia ni nada que se le acerque, mi problema es que soy taliban de los cpus, para mi el cpu es la pieza mas importante de una pc y se que mi 12700k 5.0ghz ddr4 no aprovecharia la 4090, sobre todo en 1440p. No pienso cambiar de cpu hasta la serie 14 (ahora 15) de intel o su equivalente de amd

Se que son cosas distintas, pero al final el FG es parte de la tecnologia dlss, los desarroladores de juegos estan usando dicha tecnologia como excusa para sacar juegos con una optimizacion terrible, tan solo ve lo que rinde la 4090 con 4k sin dicha tecnologia, en poco tiempo va a ser una grafica para 4k 60hz, nada puede sustituir un producto con una rasterizacion superior, pura y dura, mis 2 centavos.


Tu crees en serio que FG es terrible?-... Lo has probado insitu para constatarlo por ti mismo o te basas más bien en dimes y diretes..,? mira la línea del frametime y buscame algún video testeo de alguien sin usar FG con una línea más plana de lo que ahí te muestro, con mejores 0,1%/1% low inscluso usando un viejo 9900k. Ah y por cierto las latencias totales de renderizado eran entre 25 y 35ms con nvidia reflex activado.

https://www.youtube.com/watch?v=Xqc2uXDbaSs&t=522s


No ha dicho que el FG sea terrible. Ha dicho que las compañías están aprovechando el FG para optimizar menos los juegos y que nosotros podamos compensar el rendimiento con el FG. No creo que sea 100% así en mi opinión pero puede que acabe pasando.
@_anVic_

No notas el input lag en tus videos con vsync forzado y dlss??? pregunta sincera

No hablo de opiniones de youtubers ni foros de internet, las he probado y el input lag&artifacts&frames falsos que genera me produce una mayor fatiga visual y somnolencia, es desactivar esas tecnologias y el juego es toda una experiencia diferente, para bien. No es una tecnologia para mi, pero para aquellos que no lo notan entiendo perfectamente que les guste tanto, debo admitir que la manera que disminuye el cuello de botella en cpus antiguos es bastante interesante y en definitiva algo bueno para el gaming en general.

Por cierto, se ve que configuras tus juegos cuidando cada detalle, para lograr la mejor relacion posible calidad visual y rendimiento, respeto mucho eso, el diablo esta en los detalles

Strait escribió:
_anVic_ escribió:
calloudiano escribió:@_anVic_

Ese es mi opinion sobre la 4090, simplemente no tiene competencia ni nada que se le acerque, mi problema es que soy taliban de los cpus, para mi el cpu es la pieza mas importante de una pc y se que mi 12700k 5.0ghz ddr4 no aprovecharia la 4090, sobre todo en 1440p. No pienso cambiar de cpu hasta la serie 14 (ahora 15) de intel o su equivalente de amd

Se que son cosas distintas, pero al final el FG es parte de la tecnologia dlss, los desarroladores de juegos estan usando dicha tecnologia como excusa para sacar juegos con una optimizacion terrible, tan solo ve lo que rinde la 4090 con 4k sin dicha tecnologia, en poco tiempo va a ser una grafica para 4k 60hz, nada puede sustituir un producto con una rasterizacion superior, pura y dura, mis 2 centavos.


Tu crees en serio que FG es terrible?-... Lo has probado insitu para constatarlo por ti mismo o te basas más bien en dimes y diretes..,? mira la línea del frametime y buscame algún video testeo de alguien sin usar FG con una línea más plana de lo que ahí te muestro, con mejores 0,1%/1% low inscluso usando un viejo 9900k. Ah y por cierto las latencias totales de renderizado eran entre 25 y 35ms con nvidia reflex activado.

https://www.youtube.com/watch?v=Xqc2uXDbaSs&t=522s


No ha dicho que el FG sea terrible. Ha dicho que las compañías están aprovechando el FG para optimizar menos los juegos y que nosotros podamos compensar el rendimiento con el FG. No creo que sea 100% así en mi opinión pero puede que acabe pasando.


Que no te quepa duda, esa sera la tonica a futuro, juegos terriblemente optimizados pero hey, ahi tienes tu fg dlss para que haga nuestro trabajo, ya esta pasando con varios juegos y solo evolucionara a peor, le aplauden que con esas tecnologiaslas gpus duraran mas tiempio vigentes, yo opino lo contrario, solo crearan una obsolecencia programada mayor, a costa de malas optimizaciones y de futuros dlss cuatro, cincos y seis....
_anVic_ está baneado por "clon de usuario baneado"
Ha mencionado que el dlss es el cáncer de la industria y que el FG va asociado a éste, el cual genera fake frames con un input lag que su cerebro no procesa porque juega competitivo, yo me pregunto si lo habrá probado insitu o lo dice en base a qué experiencia?

Que no sea ideal para jugar competitivo no quita que tenga otras bondades, además te diré que debidamente configurado no suele tener más allá de entre 25 y 45 ms dependiendo del juego. Lo cual es una latencia bastante buena.

En un juego competitivo tienes latencia del servidor, más la que tengas del renderizado total de tu pc, periféricos, el tiempo de reacción propia de cada uno y otra cosa muy importante la que genere su panel. Al final es un conjunto de cosas. Si su monitor no es oled, la mayoría tienen unos tiempos de respuesta peores. No se si lo habrá tomado en cuenta .

https://imgur.com/ZhVBsdO

@Calloudiano si te soy sincero lo noto muy poco, ya te digo que son entre 25 y 45ms, en competitivo podría marcar la diferencia no digo que no. Pero yo uso una c1 para jugar en general a todo que tiene un GTG real de 1ms y pico , 3 veces menos que los mejores monitores ips o VA de 240hz .

Uno de los factores más importantes en el competitivo es tu tiempo de reacción, además del motion clarity persistance que pueda tener tu panel para tener el mínimo desenfoque a la hora de trackear enemigos.

En este campo la c1 está muy por encima de la gran mayoría de paneles pudiendo conseguir un motion clarity persistance sin desenfoque usando BFI en high, de hasta 1200 pixel/s en el test ufo de blur busters con una equivalencia de 312fps en cuanto a enfoque de imagen.

También tengo un monitor asus rog strix 1440p, de 170hz ips, con gsync, hdr y toda la pesca... pero hace el ridículo vs la C1 en ese aspecto, que a mi juicio es vital en un shooter competitivo. Se necesita un monitor de 312hz y mantener esos fps para igualar el motion clariry persistance que consigues con la C1 a solo 120hz con BFI en high. Siendo fácil de conseguir en la c1 porque solo has de mantener esos 120fps por contra en un monitor tendrías que mantener esos 312 fps constantes para conseguir el mismo resultado siendo tarea bastante más complicada.
_anVic_ escribió:Ha mencionado que el dlss es el cáncer de la industria y que el FG va asociado a éste, el cual genera fake frames con un input lag que su cerebro no procesa porque juega competitivo, yo me pregunto si lo habrá probado insitu o lo dice en base a qué experiencia?

Que no sea ideal para jugar competitivo no quita que tenga otras bondades, además te diré que debidamente configurado no suele tener más allá de entre 25 y 45 ms dependiendo del juego. Lo cual es una latencia bastante buena.

En un juego competitivo tienes latencia del servidor, más la que tengas del renderizado total de tu pc, periféricos, el tiempo de reacción propia de cada uno y otra cosa muy importante la que genere su panel. Al final es un conjunto de cosas. Si su monitor no es oled, la mayoría tienen unos tiempos de respuesta peores. No se si lo habrá tomado en cuenta .

https://imgur.com/ZhVBsdO

@Calloudiano si te soy sincero lo noto muy poco, ya te digo que son entre 25 y 45ms, en competitivo podría marcar la diferencia no digo que no. Pero yo uso una c1 para jugar en general a todo que tiene un GTG real de 1ms y pico , 3 veces menos que los mejores monitores ips o VA de 240hz .

Uno de los factores más importantes en el competitivo es tu tiempo de reacción, además del motion clarity persistance que pueda tener tu panel para tener el mínimo desenfoque a la hora de trackear enemigos.

En este campo la c1 está muy por encima de la gran mayoría de paneles pudiendo conseguir un motion clarity persistance sin desenfoque usando BFI en high, de hasta 1200 pixel/s en el test ufo de blur busters con una equivalencia de 312fps en cuanto a enfoque de imagen.

También tengo un monitor asus rog strix 1440p, de 170hz ips, con gsync, hdr y toda la pesca... pero hace el ridículo vs la C1 en ese aspecto, que a mi juicio es vital en un shooter competitivo. Se necesita un monitor de 312hz y mantener esos fps para igualar el motion clariry persistance que consigues con la C1 a solo 120hz con BFI en high. Siendo fácil de conseguir en la c1 porque solo has de mantener esos 120fps por contra en un monitor tendrías que mantener esos 312 fps constantes para conseguir el mismo resultado siendo tarea bastante más complicada.


Ya hay muchos monitores oled y qoled con mejores tiempos que tú televisión.

Además que una televisión con ese tamaño no sirve para competitivo.

De hecho es absurdo poner el fg en competitivo, suelen ser juegos poco exigentes y normalmente se juegan con gráficos en bajo para que no te estorben detalles innecesarios.

Además estáis ensaltando una tecnología que funciona bien cuando la base de fps es alta, si está fuera baja, por debajo de 60, sería un auténtico despropósito en cuanto a input lag, al menos en juegos rápidos.

Y recordar que tenéis gráficas muy actuales y muy caras, para ni no deberías necesitar el fg la verdad salvo en casos muy puntuales.
Veo que en los benchmark se tiene que seguir desactivando rt y demás tecnologías punteras gráficas (que.se notan y mucho, aunque algunos se quieran engañar) para que las gráficas de amd sigan saliendo a flote en las posiciones...
_anVic_ está baneado por "clon de usuario baneado"
PepeC12 escribió:
_anVic_ escribió:Ha mencionado que el dlss es el cáncer de la industria y que el FG va asociado a éste, el cual genera fake frames con un input lag que su cerebro no procesa porque juega competitivo, yo me pregunto si lo habrá probado insitu o lo dice en base a qué experiencia?

Que no sea ideal para jugar competitivo no quita que tenga otras bondades, además te diré que debidamente configurado no suele tener más allá de entre 25 y 45 ms dependiendo del juego. Lo cual es una latencia bastante buena.

En un juego competitivo tienes latencia del servidor, más la que tengas del renderizado total de tu pc, periféricos, el tiempo de reacción propia de cada uno y otra cosa muy importante la que genere su panel. Al final es un conjunto de cosas. Si su monitor no es oled, la mayoría tienen unos tiempos de respuesta peores. No se si lo habrá tomado en cuenta .

https://imgur.com/ZhVBsdO

@Calloudiano si te soy sincero lo noto muy poco, ya te digo que son entre 25 y 45ms, en competitivo podría marcar la diferencia no digo que no. Pero yo uso una c1 para jugar en general a todo que tiene un GTG real de 1ms y pico , 3 veces menos que los mejores monitores ips o VA de 240hz .

Uno de los factores más importantes en el competitivo es tu tiempo de reacción, además del motion clarity persistance que pueda tener tu panel para tener el mínimo desenfoque a la hora de trackear enemigos.

En este campo la c1 está muy por encima de la gran mayoría de paneles pudiendo conseguir un motion clarity persistance sin desenfoque usando BFI en high, de hasta 1200 pixel/s en el test ufo de blur busters con una equivalencia de 312fps en cuanto a enfoque de imagen.

También tengo un monitor asus rog strix 1440p, de 170hz ips, con gsync, hdr y toda la pesca... pero hace el ridículo vs la C1 en ese aspecto, que a mi juicio es vital en un shooter competitivo. Se necesita un monitor de 312hz y mantener esos fps para igualar el motion clariry persistance que consigues con la C1 a solo 120hz con BFI en high. Siendo fácil de conseguir en la c1 porque solo has de mantener esos 120fps por contra en un monitor tendrías que mantener esos 312 fps constantes para conseguir el mismo resultado siendo tarea bastante más complicada.


Ya hay muchos monitores oled y qoled con mejores tiempos que tú televisión.

Además que una televisión con ese tamaño no sirve para competitivo.

De hecho es absurdo poner el fg en competitivo, suelen ser juegos poco exigentes y normalmente se juegan con gráficos en bajo para que no te estorben detalles innecesarios.

Además estáis ensaltando una tecnología que funciona bien cuando la base de fps es alta, si está fuera baja, por debajo de 60, sería un auténtico despropósito en cuanto a input lag, al menos en juegos rápidos.

Y recordar que tenéis gráficas muy actuales y muy caras, para ni no deberías necesitar el fg la verdad salvo en casos muy puntuales.


Yo no he dicho que sea ideal para competitivo hacerlo en 48" ni tampoco que FG sea lo óptimo para tal menester, solo digo que a mi me resulta muy fluido cuando éste oscila entre 25 y 45ms en general sea el juego que sea.

Bueno no se que input lag tendrán en general los monitores oled o qd-oled, lo que sí se es que mi C1 fue medida bajo un osciloscopio + fotodetector para medir el tiempo de respuesta de píxeles, una cámara lenta para mostrar el impacto en el mundo real, así como el dispositivo LDAT (Latency Display Analysis Tool) de NVIDIA para medir la latencia total del sistema de extremo a extremo y los resultados fueron sobresalientes. En gaming mode 4,5ms de input lag, GTG de 1,23ms of response time, con un porcentaje de transición de error del 0,0% en inverse ghosting .

El problema de los monitores es que casi ninguno soporta BFI a 120hz, además de no poder calibrar muchas opciones que en la tv si se puede. Por ponerte un ejemplo, si un juego sale con HDR roto, cosa muy habitual y no se corrige el max cll/ mastering peak puede haber hard clipping en specular highlights,... eso por desgracia no lo puedes corregir con un monitor pero si con la TV si sabes como hacerlo de manera adecuada., es bastante simple, verás:

Hago captura en diferentes zonas y abro la foto con el programa HDR+ WCG image viewer para saber el MaxCLL , en base lo que me marca hago las correcciones pertinentes en el tone map, menú secreto, de servicio etc.

Imagen

En este caso, nos dice Max CLL 3950 tomando como referencia esos datos pongo Masteing peak y max CLL capado a 4000 y tone map off en modo hdr para tenerlo configurado de la manera más correcta posible. Luego si el juego tuviera black level rise, que no es el caso, habría que bajar el brillo de 50 a 46.

Pixel y brillo y contraste oled 100 color 55, balance de blancos cálido 50, nitidez lo correcto es 0, y tone map normalmente el mas correcto es HGIG con la luz de la habitación a oscuras o en ligera penumbra.

Con la app de calibración del HDR de windows tengo dos perfiles icc customizados para modo HGIG y tone map dinámico.

Ya me contarás como arreglas el HDR cuando está roto en algún juego usando el menú de configuración de un monitor.

Por otro lado no se si se podrá acceder de manera sencilla al menú de servicio en un monitor para corregir el dimming que tienen los oled. de fábrica, en mi C1 entro de manera sencilla y deshabilito TPC y GSR para solventar el problema en 10 segundos.

Al final si se valora todo, un Tv es mucho más versátil que un monitor.
@_anVic_

Joder justo le estaba diciendo a mi mujer que si había hard clipping en los specular highlights hace cinco minutos y me ha dado un bofetón que me ha saltado los mocos.
una pregunta absurda.
Toy mirando la pagina de gigabyte y veo que algunos modelos tienen una REV 1.0 / REV 2.0. Usando el comparador las diferencias que veo son el tamaño, mas pequeño en la revisión 2, los puertos y los accesorios que vienen y nada mas... ¿no?
Otras marcas suelen sacar tb revisiones?
_anVic_ está baneado por "clon de usuario baneado"
Fleishmann escribió:@_anVic_

Joder justo le estaba diciendo a mi mujer que si había hard clipping en los specular highlights hace cinco minutos y me ha dado un bofetón que me ha saltado los mocos.


Hombre culpa tuya! .Antes de soltarle eso has de preparar el terreno y ponerla en modo receptivo, dicho así en frio sin tacto le ha roto los esquemas. Hazle overclock a tu mujer igual así se le pasa el enfado
Cómo veis la 4080 por 1.300 euros? Creéis que seguirá bajando?

Saludos.
Mama mia qué precios de locura la serie 4000... hoy he pillado una 3070 por 300€, asi si.
daniel78 escribió:Cómo veis la 4080 por 1.300 euros? Creéis que seguirá bajando?

Saludos.


Preciazo. Pillala.
Tengo una duda con el frame generator, en este caso en el Spiderman. Yo juego a 1440p y en un monitor de 170Hz, con la 4090.

Si pongo el frame generator, me da chorrocientos frames y cuando suben por encima de 170, noto tearing (que es casi todo el tiempo). Entiendo que porque no actúa el GSync. Con el frame generator no permite activar el Vsync.

He leído en reddit que capes desde el control panel a 1-2 fps menos de la mitad (en mi caso pues 83-84) y actives el FG para que los doble, pero haciendo esto, el capado es efectivo y aunque active el FG, me sigue dando 83-84 como rocas.

¿Qué hacéis vosotros? Caparé a 168 desde control panel y activo el FG?

Lo ideal sería eso, estar en rango de GSync para no necesitar el Vsync.
Fleishmann escribió:Tengo una duda con el frame generator, en este caso en el Spiderman. Yo juego a 1440p y en un monitor de 170Hz, con la 4090.

Si pongo el frame generator, me da chorrocientos frames y cuando suben por encima de 170, noto tearing (que es casi todo el tiempo). Entiendo que porque no actúa el GSync. Con el frame generator no permite activar el Vsync.

He leído en reddit que capes desde el control panel a 1-2 fps menos de la mitad (en mi caso pues 83-84) y actives el FG para que los doble, pero haciendo esto, el capado es efectivo y aunque active el FG, me sigue dando 83-84 como rocas.

¿Qué hacéis vosotros? Caparé a 168 desde control panel y activo el FG?

Lo ideal sería eso, estar en rango de GSync para no necesitar el Vsync.


Fuerza el Vsync desde el panel de control de nvidia. Te va a ir mucho más suave con el vsync forzado que haciendo experimentos.
@Strait

Si justo estaba probando esa opción y perfecto, gracias!
daniel78 escribió:Cómo veis la 4080 por 1.300 euros? Creéis que seguirá bajando?

Saludos.

Es cara incluso a 1.300€.
Peeero ese es el precio más bajo al que ha estado .
Yo pensaba que iba a bajar mucho antes de precio, y la realidad es que ya estamos casi en Abril y ahí siguen con los precios.

Así que ,si tienes la pasta y puedes pwemitírtelo ,píllala ,que me da que no va a bajar mucho en un tiempo próximo
hh1 escribió:
daniel78 escribió:Cómo veis la 4080 por 1.300 euros? Creéis que seguirá bajando?

Saludos.

Es cara incluso a 1.300€.
Peeero ese es el precio más bajo al que ha estado .
Yo pensaba que iba a bajar mucho antes de precio, y la realidad es que ya estamos casi en Abril y ahí siguen con los precios.

Así que ,si tienes la pasta y puedes pwemitírtelo ,píllala ,que me da que no va a bajar mucho en un tiempo próximo


la serie 4000 ya ha hecho suelo. Quiza alguna oferta puntual de algun ensamblador podria haber, pero no se va a encontrar una 4080 por 1000 pavos ni una 4090 por 1500 pavos (por poner 2 ejemplos).

La serie 4000 es la mejor precio/rendimiento desde la serie 1000 (la 2000 fue una estafa y con la 3000 nvidia no tenia que poner toda la carne en el asador porque sabia que los mineros las comprarian por toneladas, como asi sucedió). Yo no recuerdo un salto tan espectacular de generacion de graficas como el que ha habido con la serie 4000 que ha pulverizado a la anterior. Pero es lo logico, sin los mineros en el mercado, nvidia tenia que lanzar un producto potente para el gamer y vaya si lo ha hecho. Y para rematar, está el FG, que ha sido todo una revolucion, casi un milagro de Nvidia, que te duplica el rendimiento sin practicamente ningun impacto visual apreciable. Y ya para acabar, la competencia... AMD ni está ni se le espera...

EDITO: de hecho, pensar que como el bitcoin se recupere, las graficas van a subir nuevamente como la espuma...
¿La serie 4000 ha hecho suelo?
Probablemente, pero veremos, yo imagino que dentro de un año, o unos meses, cuando salga la 4090 Ti, igual rebajan algo la 4090 y de rebote la 4080. Pero no creo que sea una rebaja demasiado grande, más bien poner la 4090 Ti a 1600$ y bajar la 4090 a 1450 o 1500, con lo que lo mismo ajustan algo las demás.
Pero vete a saber, igual están vendiendo lo que quieren y en vez de bajar las demás, simplemente ponen la 4090 Ti a 1900$ y las demás las dejan igual.
Yo vengo de la 3080 de 12gb y palmar he palmado pasta, casi 500e. De una 3080 12 a una 4080. Pero tambien te digo que es otra historia.

Temperaturas ridiculas, consumos a full en 2k a 144hz que no llegan casi nunca a los 250w, ni calor ni leches... La torre mas silenciosa que una tumba. Y el FG es una pasada los FPS minimos han pasado al doble en todos los juegos que lo soportan, me da igual que sean inventados o no.

Habria comprado la 4090, porque realmente es la que mas te da por el precio que pagas, pero son 500 pavos mas, y para moverla paso de cambiar micro placa y memoria, me quedo como estoy y me aseguro de poder tirar a todo unos años sin problema. Al menos con mi configuracion. Cuando llegue una nueva gen de micros, tarjetas y memorias, pues ya me planteo una 5080 y seguro que hay mejores micros que ahora tambien :) El 4k ni me lo planteo porque con un monitor de 32 a un metro no veo los pixeles...

Si al final los juegos bien programados los mueves con una 3080 igual que con una 4080... y con el gsync ya ni te cuento...
14371 respuestas