[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Rvilla87 escribió:
Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...

Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.

El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.

Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.

Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? :-? (cuidado con el límite de v-sync lo explican unos segundos atrás).

O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/


Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.
Pacorrr escribió:
Rvilla87 escribió:
Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...

Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.

El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.

Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.

Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? :-? (cuidado con el límite de v-sync lo explican unos segundos atrás).

O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/


Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.


Tengo una TV 4k 120hz y un monitor 2k 165hz y suelo notar input lag en cuanto lo hay. Ya te digo yo que el input lag DLSS 3 es el menor de sus problemas. De hecho es que noto 0 input lag.
Rvilla87 escribió:
Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...

Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.

El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.

Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.

Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? :-? (cuidado con el límite de v-sync lo explican unos segundos atrás).

O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/

Me ha hecho gracia el test.
174ms de media.La mejor 133 ms.
Strait escribió:
Kavezacomeback escribió:@Ingalius ¿En qué juego mejora las texturas?


El DLSS en calidad mejora a la resolución nativa en muchos juegos. Especialmente el antialiasing que mete que hace la imagen muy definida y nítida. Para muestra una imagen. Fíjate en los árboles o en la nitidez de las rocas que están a lo lejos:

Imagen


Mejora unas cosas y empeora otras (las texturas entre ellas). Para lo que comentas un buen reshade.

Yo tengo DLSS hasta la versión 2 y he realizado pruebas para aburrir, me dices juego y lo vemos, pero ya os adelanto de que no mejora las texturas, lo que hace es un sharpen y por eso los textos se leen mejor, por poner un ejemplo.
Pacorrr escribió:Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.

Sobre los errores gráficos no entro, de hecho para mí ese tema ya es suficiente para descartar DLSS 3, al menos de forma generalizada. Pero mi pregunta era respecto al input lag. Entiendo lo que quieres decir de la comparación, de hecho muchas veces he comentado que me parece un error hablar de los fps de forma absoluta y no relativa. No es lo mismo una mejora de 10 fps cuando comparas con 20 fps que cuando comparas con 1000 fps: lo 1º es una mejora importantísima y lo 2º es algo inapreciable.

Y aún con todo esto, si en un mundo paralelo la visión del ser humano solo estuviera preparada para ver hasta 20 fps como se puede entender, lo anterior daría igual un ejemplo u otro.

Pues ahora con el tema de los milisegundos de input lag vengo un poco a esto último que comento. En la mayoría de casos creo que no importa que añada 10 ms al input lag cuando lo "normal" es que no notemos esa diferencia. Da igual que de base sea 10 ms a 20 ms que de 500 ms a 510 ms... esa diferencia de 10 ms como tal debería ser imperceptible para la gran mayoría de personas.

¿Tú notas la diferencia de 10 ms? No sé si lo has probado, pero quizás los que hayáis probado y notéis lag sea debido a una mal implementación del juego en concreto (ni sabía que el Cyberpunk aún no tiene DLSS 3 abierto al público), os habéis encontrado el problema del límite de V-sync (y ya no son +10 ms sino +70 ms) o a saber, quizás os autosugestionáis.

Desde su salida se ha dicho que el DLSS 3 no es nada recomendable para juegos competitivos porque añade retraso, y ahí la cosa es algo "seria" y todo suma, cuando menos input lag mejor, pero es que con algunos de los mensajes que decís ahora parece que es que el DLSS 3 solo sirve para juegos lentos... me parece bastante exagerado ese tipo de afirmación por 10 ms :-?
¿Por casualidad tenéis análisis o artículos de medios profesionales que hablen del tema y opinen igual?
Rvilla87 escribió:
Pacorrr escribió:Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.

Sobre los errores gráficos no entro, de hecho para mí ese tema ya es suficiente para descartar DLSS 3, al menos de forma generalizada. Pero mi pregunta era respecto al input lag. Entiendo lo que quieres decir de la comparación, de hecho muchas veces he comentado que me parece un error hablar de los fps de forma absoluta y no relativa. No es lo mismo una mejora de 10 fps cuando comparas con 20 fps que cuando comparas con 1000 fps: lo 1º es una mejora importantísima y lo 2º es algo inapreciable.

Y aún con todo esto, si en un mundo paralelo la visión del ser humano solo estuviera preparada para ver hasta 20 fps como se puede entender, lo anterior daría igual un ejemplo u otro.

Pues ahora con el tema de los milisegundos de input lag vengo un poco a esto último que comento. En la mayoría de casos creo que no importa que añada 10 ms al input lag cuando lo "normal" es que no notemos esa diferencia. Da igual que de base sea 10 ms a 20 ms que de 500 ms a 510 ms... esa diferencia de 10 ms como tal debería ser imperceptible para la gran mayoría de personas.

¿Tú notas la diferencia de 10 ms? No sé si lo has probado, pero quizás los que hayáis probado y notéis lag sea debido a una mal implementación del juego en concreto (ni sabía que el Cyberpunk aún no tiene DLSS 3 abierto al público), os habéis encontrado el problema del límite de V-sync (y ya no son +10 ms sino +70 ms) o a saber, quizás os autosugestionáis.

Desde su salida se ha dicho que el DLSS 3 no es nada recomendable para juegos competitivos porque añade retraso, y ahí la cosa es algo "seria" y todo suma, cuando menos input lag mejor, pero es que con algunos de los mensajes que decís ahora parece que es que el DLSS 3 solo sirve para juegos lentos... me parece bastante exagerado ese tipo de afirmación por 10 ms :-?
¿Por casualidad tenéis análisis o artículos de medios profesionales que hablen del tema y opinen igual?

Hombre, si lo digo es porque lo noto, y aquí otro usuarios opinan igual. El ejemplo más claro que puedo darte, la fase de Portal que tienes que caer desde las alturas y hacer un portal muy rápidamente mirando hacia abajo en el momento justo para coger impulso, con el frame generator + reflex (AKA DLSS 3) me fue imposible, tuve que jugar esa fase sin eso o no había manera de acertar, por el input lag.
@Pacorrr vale, ya me parece bien que pongas un ejemplo, así hablamos sobre datos concretos. Así buscando rápidamente veo este reddit donde dicen de un análisis de DF (aquí el video, min 18):
Imagen

A ver si lo entiendo, en nativo 4k tanto con reflex como sin reflex tiene un retraso de unos 90-130 ms. Con DLSS 3 no hay opción sin reflex porque entiendo que te obliga a usar reflex, y tienes un retraso de 56 ms.

Es decir, ¿tienes menos retraso con DLSS 3 que sin él? ¿A ti cuánto te da?

En el video de DF dicen literalmente que el input lag de DLSS 3 en ese ejemplo con Portal es indetectable respecto a DLSS 2. ¿Notas el retraso con DLSS 2?
Sí, lo noto hasta el punto de ser imposible pasarme la fase, era la número 15 en la que hay que ser muy preciso para poder hacer el portal en el momento justo para coger impulso. Obviamente en esa fase también le quité el RT porque con RT sin reescalado ese juego se arrastra [qmparto]

Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.
Pacorrr escribió:Si se inventa frames, los intermedios. Esos frames que introduce DLSS 3 no son frames reales, no están renderizados por la gpu ni el motor del juego. Por eso se les llama fake frames. Y en cuanto al input lag, pues eso es ya muy subjetivo, habrá quién lo note más o menos, pero notarse se nota, hasta en el monitor con menos input lag del mercado se notará (el mío es bastante bueno en ese aspecto).


Sí bueno, me refería a que no predice los futuros frames con el fin de tener más, sino que rellena huecos entre varios frames, pero sí esos frames no existen y los "inventa" el DLSS. Si es más que cuando lo leo me imagino que os referís a futuros frames en lugar de a los intermedios [+risas], pero es como dices.

De todas formas estoy hay que verlo en funcionamiento, el DLSS no funciona igual si estás con el personaje parado en un punto fijo que cuando te mueves, cuando hay movimiento tiene más problemas. Pero poco a poco se va mejorando, con el DLSS 1 no merecía la pena activar nada, pero ya con los últimos no falla tanto.
Vamos a poner un ejemplo simple, luego que el que quiera saque sus propias conclusiones

Caso a, tienes un juego que te va a 60fps, tu input lag es de 16,6ms
- Sin activar DLSS tienes 16,6ms de input lag.
- Si activas DLSS2 igual te sube a 90fps, tienes un input lag de 11,1ms
- Si activas DLSS3 que injecta un fps entre 2 reales tienes 120fps y 16,6ms

Este es un buen caso para DLSS3, tienes 120 fps aunque no te responda tan rapido como deberia, habrá a gente que le guste y a gente que no le guste, menos input lag de 16,6ms no vas a tener porque el DLSS3 solo duplica los fps inventandose la mitad de los frames, pero tu juego no puede recibir señales entre esos frames, internamente es como si fuera a 60 fps.

Ahora os pongo el caso chungo para mi, el caso B, tienes un juego que te va a 30 fps
- Sin activar DLSS tienes 33,3ms de input lag (que es bastante)
- Si activas DLSS2 igual te sube los fps a 45 fps, por lo que se te reduce el input lag a 22,2ms.
- Si activas DLSS3 tienes 60 fps pero con un input lag de 33,3ms

Que veas el juego mas suave o menos suave esta muy bien, pero los input lags no los mejoras.

Para mi al menos no tiene sentido teniendo DLSS2, pero cada uno es libre de jugar como quiera. La tecnologia esta ahi y quien quiera la utilizará, venderla como si fuera un antes y un despues eso deberiamos tener todos claros que es marketing de Nvidia.
@Pacorrr Digital Foundry te podrá gustar mas o menos pero dan datos que se pueden contrastar. Aún no sé el input lag que tienes que dices que notas, porque no sé si es que te va de esos 10 ms o es que tienes un problema como otros usuarios han comentado: con el DLSS 3 en Portal RTX: 1, 2 (este dice al final: "changing DLSS to Balanced and mess with some developers settings fixed game as it should be. So right now no input lag and no texture bugs"), 3...

¿El problema de input lag solo lo notas en Portal o en otros juegos?

Por otra parte DF por mucho medio propagandístico que lo puedas considerar, no me creo que sean tan gilipollas de retratarse ellos mismos dando datos falsos que cualquiera pueda desmentir fácilmente. Una cosa es opinar y otra dar datos falsos, lo 1º puede colar, lo 2º no tiene sentido para un medio que pretenda ser referente en análisis técnicos de videojuegos (como lo son).

También pedí en anteriores posts datos de cualquier otro medio donde opine que el DLSS 3 añade mucho input lag (no hablamos de 5-10 ms), casi que me serviría con 1 solo medio relativamente importante para empezar a creer que DLSS 3 añade un input lag tan alto como para que se note. Yo la verdad que lo que encuentro hablando de la latencia del DLSS 3 son todo artículos que dicen que prácticamente no es perceptible el retraso que pueda añadir.

Por si no queda claro mi argumento, en ningún momento niego que tú no notes un mayor input lag con el Portal, lo que intento decir es que quizás es un error de ese juego y el problema mas que del propio DLSS 3 es de la implementación que se ha hecho en ese juego o algo relacionado (que como ves algunos usuarios han solucionado).

De hecho es que me cuesta creeros cuando encima PepeC12, otro que comentaba sobre el gran input lag que añade DLSS 3, ahora de repente dice esto:

PepeC12 escribió:Ahora os pongo el caso chungo para mi, el caso B, tienes un juego que te va a 30 fps
- Sin activar DLSS tienes 33,3ms de input lag (que es bastante)
- Si activas DLSS2 igual te sube los fps a 45 fps, por lo que se te reduce el input lag a 22,2ms.
- Si activas DLSS3 tienes 60 fps pero con un input lag de 33,3ms

Que veas el juego mas suave o menos suave esta muy bien, pero los input lags no los mejoras.

Me parece muy bien esto que dices, pero de esto que dices ahora, donde en tu propio ejemplo el DLSS 3 no empeora el input lag, a lo que dijiste ayer de que jugar con DLSS 3 es como jugar en streaming o que solo le ves sentido a juegos lentos como el flight simulator hay una diferencia importante, no?
stan01 escribió:
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti

A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.


Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...

Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas

Pues otro más que a 799 haría un esfuerzo,esperare a ver precios oficiales y si no pues que se las coman con patatas.
Saludos
Rvilla87 escribió:@Pacorrr Digital Foundry te podrá gustar mas o menos pero dan datos que se pueden contrastar. Aún no sé el input lag que tienes que dices que notas, porque no sé si es que te va de esos 10 ms o es que tienes un problema como otros usuarios han comentado: con el DLSS 3 en Portal RTX: 1, 2 (este dice al final: "changing DLSS to Balanced and mess with some developers settings fixed game as it should be. So right now no input lag and no texture bugs"), 3...

¿El problema de input lag solo lo notas en Portal o en otros juegos?

Por otra parte DF por mucho medio propagandístico que lo puedas considerar, no me creo que sean tan gilipollas de retratarse ellos mismos dando datos falsos que cualquiera pueda desmentir fácilmente. Una cosa es opinar y otra dar datos falsos, lo 1º puede colar, lo 2º no tiene sentido para un medio que pretenda ser referente en análisis técnicos de videojuegos (como lo son).

También pedí en anteriores posts datos de cualquier otro medio donde opine que el DLSS 3 añade mucho input lag (no hablamos de 5-10 ms), casi que me serviría con 1 solo medio relativamente importante para empezar a creer que DLSS 3 añade un input lag tan alto como para que se note. Yo la verdad que lo que encuentro hablando de la latencia del DLSS 3 son todo artículos que dicen que prácticamente no es perceptible el retraso que pueda añadir.

Por si no queda claro mi argumento, en ningún momento niego que tú no notes un mayor input lag con el Portal, lo que intento decir es que quizás es un error de ese juego y el problema mas que del propio DLSS 3 es de la implementación que se ha hecho en ese juego o algo relacionado (que como ves algunos usuarios han solucionado).

De hecho es que me cuesta creeros cuando encima PepeC12, otro que comentaba sobre el gran input lag que añade DLSS 3, ahora de repente dice esto:

PepeC12 escribió:Ahora os pongo el caso chungo para mi, el caso B, tienes un juego que te va a 30 fps
- Sin activar DLSS tienes 33,3ms de input lag (que es bastante)
- Si activas DLSS2 igual te sube los fps a 45 fps, por lo que se te reduce el input lag a 22,2ms.
- Si activas DLSS3 tienes 60 fps pero con un input lag de 33,3ms

Que veas el juego mas suave o menos suave esta muy bien, pero los input lags no los mejoras.

Me parece muy bien esto que dices, pero de esto que dices ahora, donde en tu propio ejemplo el DLSS 3 no empeora el input lag, a lo que dijiste ayer de que jugar con DLSS 3 es como jugar en streaming o que solo le ves sentido a juegos lentos como el flight simulator hay una diferencia importante, no?


Pero si los datos se los debe de dar directamente Nvidia, parece un canal controlado por Jensen Huang, al menos tienen la decencia de poner cuándo está patrocinado (que es la mayoría de veces), porque más partidistas no pueden ser, yo es que no veo ningún video ni reportaje suyo ya desde hace tiempo. Yo sólo te puedo decir lo que experimento yo, la latencia no la medí, no sé cuánta había, ya me pasé y desinstalé el juego, pero si con frame generator + reflex me era imposible acertar porque tenía retardo entre que yo hacía las acciones de mover el ratón y pulsar el botón, y sin frame generator + reflex no sentía ese retardo, pues la cosa está clarinete vamos. En otros juegos aunque haya un aumento de input lag (siempre lo va a haber por la naturaleza de los frames de relleno, que esos no pasan por CPU, es como si no contasen), como The Witcher 3 o Spider-Man, pues no será tan molesto al ser single player y no necesitar precisión, pero haberlo lo hay, por supuesto. No hay mejor prueba que lo que experimenta uno mismo, ya puede decir Digital Foundry misa y lo que quiera, también ponía al DLSS por las nubes en su momento (seguramente patrocinado también) y para mí no es para tanto, sirve para salir de un apuro cuando no hay más remedio, pero no me parece que sea mejor que nativa como afirman ellos, salvo por el antialias, hay un shimmering y ghosting añadidos, en mayor o menor medida, que ellos parece que no quisieron contar, siempre minimizan todo lo negativo, todo parece la releche para ellos, qué casualidad.
Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.



Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.

Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.
Cyborg_Ninja escribió:
Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.



Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.

Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.

Porque no me parecen muy objetivos, suelo discrepar bastante con lo que suelen sacar en sus vídeos, y ya tuvieron movidas con el de Hardware Unboxed porque pusieron una miniatura donde se veía un frame inventado con errores, el de Digital Foundry poco menos que llamó "clickbaiter" al de HU, desde entonces me desuscribí de DF.
Pacorrr escribió:
Cyborg_Ninja escribió:
Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.



Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.

Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.

Porque no me parecen muy objetivos, suelo discrepar bastante con lo que suelen sacar en sus vídeos, y ya tuvieron movidas con el de Hardware Unboxed porque pusieron una miniatura donde se veía un frame inventado con errores, el de Digital Foundry poco menos que llamó "clickbaiter" al de HU, desde entonces me desuscribí de DF.


Yo discrepar como tal no mucho, es decir, sus análisis me parecen correctos. Pero como tengas una plataforma de AMD es perder el tiempo.
Cyborg_Ninja escribió:
Pacorrr escribió:
Cyborg_Ninja escribió:

Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.

Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.

Porque no me parecen muy objetivos, suelo discrepar bastante con lo que suelen sacar en sus vídeos, y ya tuvieron movidas con el de Hardware Unboxed porque pusieron una miniatura donde se veía un frame inventado con errores, el de Digital Foundry poco menos que llamó "clickbaiter" al de HU, desde entonces me desuscribí de DF.


Yo discrepar como tal no mucho, es decir, sus análisis me parecen correctos. Pero como tengas una plataforma de AMD es perder el tiempo.

Para mí son unos vendemotos, te cuentan o se centran en la parte que les interesa a ellos. Para ellos los frames inventados no son problema porque no se notan, para HU sí se notan, pues los de Digital Foundry fueron a atacar a HU por decir eso... jamás vi un canal grande defender una marca de tal manera [qmparto]
Esa supuesta 4070ti, al nivel de que RTX3000 estaría? Una 3090/3090ti?
@Pacorrr voto por ti XD

Los de DF menuda mierda han alimentado con el console war y haciendo de adivinos de resoluciones y demás, viven de crear polémica.

Sobre la 70ti pues a 800€ precio final arrasa tal y como está el mercado, así que necesita un ajuste que al final se va a los 1000€
paxama escribió:
stan01 escribió:
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti

A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.


Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...

Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas

Pues otro más que a 799 haría un esfuerzo,esperare a ver precios oficiales y si no pues que se las coman con patatas.
Saludos

No hay mucho que esperar.
7999$...lo pasasa a € y le metes el 21% de IVA.
Eso ,la más barata , claro.
A ojo, sin mirar mucho, pues unos 950€.

@KindapearHD
En test sintéticos ahí anda.
Habrá que ver en juegos.
Irá desde una 3080Ti a una 3090Ti.
Yo creo que más bien 3080Ti-3090.
Buenas a todos, hoy me ha llegado el bloque de agua para la KFA2 4090 SG. Os dejo por aquí unas capturillas, estoy perdido con el tema de las puntuaciones, a ver si están dentro de la normalidad.

Imagen

Imagen

Imagen

Imagen

Imagen

Y aquí os dejo una captura comparando las puntuaciones con el ultimo bench realizado en mi anterior 6900XT

Imagen

Instalando el bloque me dio un poco de yuyu porque colocando el bakcplate, había un orificio para el tornillo que estaba ligeramente desplazado o desalineado con respecto al resto, me veía empaquetando el bloque para enviarlo de vuelta, pero finalmente y con un poco de saliva...

Después de ese amago de yuyu y tras pegarme un rato haciendo malabares para colocar el cableado para que se viera bonito (he usado el extensor de 3x pcie 8pines de Amazon) y otro rato en purgar el circuito de agua, llegó la hora de la verdad. Conecté todo, pulsé el botón de encender y el monitor no me daba imagen en ningún Displayport. En ese momento sentí el verdadero terror, le conecté el cable HDMI a la LG OLED y ahí si me daba imagen, instalé los drivers y ya pude configurar correctamente el monitor en el panel de control de Windows.

P.D: Olvidé echar fotos de como ha quedado instalada en el pc, estaba ya hasta los cajones, que hoy me he levantado a las 05:00 que curraba de mañana.
@Pacorrr insisto que una cosa son las opiniones, las tonterías que han dicho en twitter y demás, y otra muy diferente son los datos. Tanto Cyborg_Ninja como yo te hemos dicho en qué se equivocan al dar esos datos que dan y solo te limitas a hablar de opiniones de DF mas o menos acertadas y chorradas de tweeter. Que por cierto en el análisis del DLSS 3 dijeron claramente (y demostraron con videos) que generaba ruido en Spiderman, Flying simulator y otros juegos. Y dieron mucho detalle de cuándo y cómo aparecían esos problemas. De los pocos medios (por no decir el único) que explicaron tanta cosa.

A mi no me importa tanto el quién sino el qué. Como si el mayor fanático de Nvidia dice que la 4090 es mejor que la 7090XTX, por muy fan de Nvidia que sea mientras lo demuestre y cuadre lo que dice, le creeré.

No mediste la latencia del Portal (para ver que posiblemente te diera un valor muy exagerado, parecido al del límite del v-sync), ignoras todo lo que dije de los otros usuarios con problemas del Portal que solucionaron.. me parece a mi que a ti lo que menos te importa es saber si DLSS 3 realmente hace injugable al Portal sino que tu tuviste una mala experiencia y ya está.

Creo que es un error tomar como ejemplo 1 experiencia (que encima puede haber sido errónea) y extrapolarlo a la tecnología en sí, pero bueno, ya se verá. Quizás tienes una 4090 defectuosa. No he sido capaz de encontrar rápidamente otros resultados de latencia del Portal, tan solo los de DF.

A ver si algún otro usuario de una 4090/4080 revisa los datos de latencia (con el Frameview por ejemplo) y comenta si tiene o no latencia con DLSS 3.
https://developer.nvidia.com/nvidia-lat ... lysis-tool

Para que midais aunque es de nVidia y eso hace desconfíe la verdad :p
Rvilla87 escribió:@Pacorrr insisto que una cosa son las opiniones, las tonterías que han dicho en twitter y demás, y otra muy diferente son los datos. Tanto Cyborg_Ninja como yo te hemos dicho en qué se equivocan al dar esos datos que dan y solo te limitas a hablar de opiniones de DF mas o menos acertadas y chorradas de tweeter. Que por cierto en el análisis del DLSS 3 dijeron claramente (y demostraron con videos) que generaba ruido en Spiderman, Flying simulator y otros juegos. Y dieron mucho detalle de cuándo y cómo aparecían esos problemas. De los pocos medios (por no decir el único) que explicaron tanta cosa.

A mi no me importa tanto el quién sino el qué. Como si el mayor fanático de Nvidia dice que la 4090 es mejor que la 7090XTX, por muy fan de Nvidia que sea mientras lo demuestre y cuadre lo que dice, le creeré.

No mediste la latencia del Portal (para ver que posiblemente te diera un valor muy exagerado, parecido al del límite del v-sync), ignoras todo lo que dije de los otros usuarios con problemas del Portal que solucionaron.. me parece a mi que a ti lo que menos te importa es saber si DLSS 3 realmente hace injugable al Portal sino que tu tuviste una mala experiencia y ya está.

Creo que es un error tomar como ejemplo 1 experiencia (que encima puede haber sido errónea) y extrapolarlo a la tecnología en sí, pero bueno, ya se verá. Quizás tienes una 4090 defectuosa. No he sido capaz de encontrar rápidamente otros resultados de latencia del Portal, tan solo los de DF.

A ver si algún otro usuario de una 4090/4080 revisa los datos de latencia (con el Frameview por ejemplo) y comenta si tiene o no latencia con DLSS 3.


Es que no sé si no me has entendido o si me explico mal, ese juego lo jugué cuando compré la 4090 hace ya 3 semanas, no lo medí porque no me hizo falta, con la prueba empírica de probarlo me basta, mete input lag y habrá quién lo note más y quién lo note menos, es intrínseco de cómo funciona, al generar frames falsos, la latencia aumenta por narices, no son frames reales para poder hacer que la latencia sea mejor o igual... Que haya gente que lo note más o lo note menos? Pues como lo de los fake frames, que unos dicen que no se notan y otros decimos que sí hay circunstancias que hacen que se note. Cómo mides eso? Pues con tu propia experiencia, no hay más. Si no te vale mi experiencia pues estupendo, no pasa nada de nada.

En juegos en los que no haga falta precisión pues ese añadido de latencia no molestará, pero en el caso concreto del Portal, en esa fase en la que tienes que mirar hacia el suelo rápidamente y abrir un portal antes de tocar el suelo, a mí se me hizo imposible poder pasar de ahí con frame generator + reflex, al desactivarlo ningún problema porque respondía en el momento preciso en el que había que hacer las acciones. Tampoco es tan difícil creo yo, ni hace falta medir nada ni nada más, si con una cosa notas más input lag y sin esa cosa no, pues está muy claro el tema. Que tú te crees a Digital Foundry y sus datos, pues muy bien, me parece estupendo, pero esa no es mi experiencia desde luego, y y no es la primera vez que discrepo con ellos, porque siempre eligen el escenario más favorable o lo que ellos quieren mostrar.
Es interesante ver tanto numero pero al final lo que importa es la experiencia de cada uno

Yo me considero de los afortunados que no notan nada raro con el DLSS 3, estoy jugando al portal RTX con todo a tope a 4K 60 FPS RT y todo perfecto

Lo que si me parece es una maravilla es como se ve todo y lo que aporta esta tecnologia, que en mi caso es una GPU para años sin tener que invertir mas dinero en otra nueva

Si fuese de los que lo notase seguramente devolveria la grafica ya que entonces me duraria la mitad de años que quiero que me dure jugando a 4K 60 FPS

Edit: Lo acabo de mirar y voy por la pantalla 17 del portal y por ahora perfect. Que pedazo de juego es el joio
leonxx escribió:Es interesante ver tanto numero pero al final lo que importa es la experiencia de cada uno

Yo me considero de los afortunados que no notan nada raro con el DLSS 3, estoy jugando al portal RTX con todo a tope a 4K 60 FPS RT y todo perfecto

Lo que si me parece es una maravilla es como se ve todo y lo que aporta esta tecnologia, que en mi caso es una GPU para años sin tener que invertir mas dinero en otra nueva

Si fuese de los que lo notase seguramente devolveria la grafica ya que entonces me duraria la mitad de años que quiero que me dure jugando a 4K 60 FPS

Edit: Lo acabo de mirar y voy por la pantalla 17 del portal y por ahora perfect. Que pedazo de juego es el joio

Afortunadamente la tarjeta en la mayoría de juegos tira que da gusto XD

En los que no haya más remedio, pues sí, habrá que tirar de reescalados, pero son pocos de momento, y más que nada los que tienen RT con el pack completo, sombras, iluminación, reflejos, y oclusión ambiental. Por ejemplo el Cyberpunk 2077 (que es al que estoy jugando ahora), a 4K con RT ultra o al máximo hay que tirar de reescalado sí o sí para llegar a un mínimo de 60, de hecho con todo al máximo DLSS o FSR en modo calidad no llega para 60 si pones algunos ajustes en psycho, tienes que bajar a modo equilibrado.
@Pacorrr por tu último mensaje (y cómo has ignorado en mis últimos 3 o 4 mensajes lo de que Portal RTX estaba roto) me queda bastante claro que yo sí te estoy entendiendo y en cambio tú no me estás entendiendo.

Sí, sé que la percepción de cada uno es diferente y que uno puede notar latencia y otro no jugando exactamente con la misma latencia. Sé que una persona puede ver ruido o cosas raras con el DLSS 3 y otra persona no porque no tiene la misma observación, está medio ciega o lo que sea. Todo eso lo sé pero no te estoy hablando de nada relacionado con eso.

No mediste la latencia porque ya la notaste mal, vale, en parte lo entiendo porque si ya es evidente para qué medirla. Pero cuando te digo que lo suyo es medirla aún así es porque, quizás (como casi seguro que te pasó), tu latencia era exageradamente alta debido a algún bug del juego y/o implementación del DLSS 3 con reflex o lo que sea. De hecho exactamente como ya te he dicho 2 o 3 veces anteriormente con todos esos posts de usuarios que tuvieron problemas y lo solucionaron (pasaron de tener latencia exagerada a no tener ese problema).

Por otra parte, no estoy discutiendo sobre la obviedad de que DLSS 3 añade latencia. Lo que discuto (mi 1º mensaje al respecto) es si añade tanta como para hacer algunos juegos injugables como pretendéis decir alguno de vosotros. Si no te fías de DF también tienes Hardware Unboxed donde se ve que incluso en juegos con bajos FPS como Cyberpunk tienes la misma latencia en nativo 4k que con DLSS 3 calidad (en DLSS 3 rendimiento tienes menos latencia). En F1 2022 menos latencia que nativo y precisamente en Flight Simulator (donde no importa tanto) es el único caso que es peor ya que tiene 73 ms respecto a 61 ms en nativo. De Hardware Unboxed te fías o de estos tampoco?

Que por cierto, con el caso del F1 2022 comentan que antes que jugar con DLSS 3 calidad mejor jugar con DLSS 2 performance porque se obtiene los mismos fps con menos latencia. Este caso sí me parece un buen ejemplo de inutilidad del DLSS 3... pero es solo un ejemplo, no podemos extrapolar al resto de juegos (como haces tú con tu experiencia con Portal).

Otro ejemplo, de ellos mismos, con Cyberpunk puedes elegir jugar a 112 fps / 63 ms latencia (DLSS 3 calidad) vs 90 fps / 43 ms latencia (DLSS 2 performance) será decisión suya de si nota mas el cambio 63 ms -> 43 ms de latencia o los 112 fps --> 90 fps. A modo referencia, en nativo va a 42 fps con 64 ms de latencia (mayor que con DLSS 3).

Pero vamos, de lo que dice Hardware Unboxed (que lo veo comprensible) a decir/apoyar comentarios como que DLSS 3 es como jugar en streaming o hace casi injugable muchos juegos excepto los tipo Flight Simulator pues la diferencia es importante. Lo de Hardware Unboxed le veo sentido, lo vuestro a saber de dónde lo sacáis, porque sin métricas y solo basándoos en una experiencia del Portal con muchos casos reportados de que está roto pues no me parece muy razonable darle credibilidad.
Rvilla87 escribió:@Pacorrr por tu último mensaje (y cómo has ignorado en mis últimos 3 o 4 mensajes lo de que Portal RTX estaba roto) me queda bastante claro que yo sí te estoy entendiendo y en cambio tú no me estás entendiendo.

Sí, sé que la percepción de cada uno es diferente y que uno puede notar latencia y otro no jugando exactamente con la misma latencia. Sé que una persona puede ver ruido o cosas raras con el DLSS 3 y otra persona no porque no tiene la misma observación, está medio ciega o lo que sea. Todo eso lo sé pero no te estoy hablando de nada relacionado con eso.

No mediste la latencia porque ya la notaste mal, vale, en parte lo entiendo porque si ya es evidente para qué medirla. Pero cuando te digo que lo suyo es medirla aún así es porque, quizás (como casi seguro que te pasó), tu latencia era exageradamente alta debido a algún bug del juego y/o implementación del DLSS 3 con reflex o lo que sea. De hecho exactamente como ya te he dicho 2 o 3 veces anteriormente con todos esos posts de usuarios que tuvieron problemas y lo solucionaron (pasaron de tener latencia exagerada a no tener ese problema).

Por otra parte, no estoy discutiendo sobre la obviedad de que DLSS 3 añade latencia. Lo que discuto (mi 1º mensaje al respecto) es si añade tanta como para hacer algunos juegos injugables como pretendéis decir alguno de vosotros. Si no te fías de DF también tienes Hardware Unboxed donde se ve que incluso en juegos con bajos FPS como Cyberpunk tienes la misma latencia en nativo 4k que con DLSS 3 calidad (en DLSS 3 rendimiento tienes menos latencia). En F1 2022 menos latencia que nativo y precisamente en Flight Simulator (donde no importa tanto) es el único caso que es peor ya que tiene 73 ms respecto a 61 ms en nativo. De Hardware Unboxed te fías o de estos tampoco?

Que por cierto, con el caso del F1 2022 comentan que antes que jugar con DLSS 3 calidad mejor jugar con DLSS 2 performance porque se obtiene los mismos fps con menos latencia. Este caso sí me parece un buen ejemplo de inutilidad del DLSS 3... pero es solo un ejemplo, no podemos extrapolar al resto de juegos (como haces tú con tu experiencia con Portal).

Otro ejemplo, de ellos mismos, con Cyberpunk puedes elegir jugar a 112 fps / 63 ms latencia (DLSS 3 calidad) vs 90 fps / 43 ms latencia (DLSS 2 performance) será decisión suya de si nota mas el cambio 63 ms -> 43 ms de latencia o los 112 fps --> 90 fps. A modo referencia, en nativo va a 42 fps con 64 ms de latencia (mayor que con DLSS 3).

Pero vamos, de lo que dice Hardware Unboxed (que lo veo comprensible) a decir/apoyar comentarios como que DLSS 3 es como jugar en streaming o hace casi injugable muchos juegos excepto los tipo Flight Simulator pues la diferencia es importante. Lo de Hardware Unboxed le veo sentido, lo vuestro a saber de dónde lo sacáis, porque sin métricas y solo basándoos en una experiencia del Portal con muchos casos reportados de que está roto pues no me parece muy razonable darle credibilidad.

No había un problema anómalo de latencia, porque sólo me supuso un problema dicha latencia en esa fase, al requerir de mucha precisión. Si hubiera algo anómalo, fuera de lo común, tirones etc... lo hubiera notado desde el primer momento. Era la latencia añadida, sumado a que soy un manco, lo que me impidió avanzar de esa zona.

@DaNi_0389 también ha comentado que nota The Witcher 3 menos fino con frame generator + reflex a pesar de tener más suavidad de movimiento.
Pacorrr escribió:Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.


El día de los inocentes fue el 28.
kak4rot escribió:Buenas a todos, hoy me ha llegado el bloque de agua para la KFA2 4090 SG. Os dejo por aquí unas capturillas, estoy perdido con el tema de las puntuaciones, a ver si están dentro de la normalidad.

Imagen

Imagen

Imagen

Imagen

Imagen

Y aquí os dejo una captura comparando las puntuaciones con el ultimo bench realizado en mi anterior 6900XT

Imagen

Instalando el bloque me dio un poco de yuyu porque colocando el bakcplate, había un orificio para el tornillo que estaba ligeramente desplazado o desalineado con respecto al resto, me veía empaquetando el bloque para enviarlo de vuelta, pero finalmente y con un poco de saliva...

Después de ese amago de yuyu y tras pegarme un rato haciendo malabares para colocar el cableado para que se viera bonito (he usado el extensor de 3x pcie 8pines de Amazon) y otro rato en purgar el circuito de agua, llegó la hora de la verdad. Conecté todo, pulsé el botón de encender y el monitor no me daba imagen en ningún Displayport. En ese momento sentí el verdadero terror, le conecté el cable HDMI a la LG OLED y ahí si me daba imagen, instalé los drivers y ya pude configurar correctamente el monitor en el panel de control de Windows.

P.D: Olvidé echar fotos de como ha quedado instalada en el pc, estaba ya hasta los cajones, que hoy me he levantado a las 05:00 que curraba de mañana.


Como pasaba en las 3090 FE, 3080ti fe etc... es increible el salvaje disipador que hace falta para refrigerar algo tan pequeño... es que yo he tenido la 3080ti fe pasada por agua, y ya era una cucada, pero es que ese PCB de la 4090 me parece aun más pequeño tadavía... una pasada para montar una caja ITX enana y todo refrigerado por agua
Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante [looco]
Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante [looco]


Yo siempre le voy a meter DLSS a todos los juegos en los que pueda aunque me vayan sobrados sin reescalar. Por consumo, temperaturas y porque a veces con DLSS se ve incluso mejor que a resolución nativa. Después están los que hacen todo lo contrario y juegan con DSR.
Strait escribió:
Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante [looco]


Yo siempre le voy a meter DLSS a todos los juegos en los que pueda aunque me vayan sobrados sin reescalar. Por consumo, temperaturas y porque a veces con DLSS se ve incluso mejor que a resolución nativa. Después están los que hacen todo lo contrario y juegan con DSR.


A ver que cada cual use lo que quiera, faltaría más, pero discrepo sobre lo de que se vea mejor. Si que mejora texto en según que juego y resoluciones, pero en general estoy en desacuerdo.

Yo lo uso por falta de potencia en según que juegos, pero de lo contrario ni con un palo.
Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.


Casi 20 minutos de por qué se ve mejor con DLSS 2 que en nativo. No pasa obviamente en todos los juegos, pero si en basantes:

@Rvilla87

En mi monitor 1440p 144Hz G-Sync al activar el DLSS3 Frame Generator se limitan los frames automáticamente a 138fps, yo juego con teclado y ratón gaming y no noto la diferencia entre jugar a 100fps nativos y 138fps con DLSS 3, llevo 46 años vivo y unos 36 dándole a este hobby, de esos 36 al menos 20 en PC de gama media-alta. EL DLSS 3 es un avance tecnológico importante que evolucionará como lo hace el DLSS original, no te preocupes cuando el FSR 3 de AMD también incluya una tecnología parecida veremo súbitamente que todos los "negacionistas" sufren amnesia y parestesia múltiple que les impide notar la diferencia entre los frames reales generados tradicionalmente y los que mete el algoritmo.

Imagen

he puesto la screenshot con una nevada importante (en pantalla completa se aprecia) para ver si el DLSS3 a 138 fps te mete donuts de chocolate en lugar de copos de nieve... parece que no.

Para conseguir 138fps con todo al máximo de manera constante incluyendo el ray-tracing y demás brilli-brilli en este juego necesitas hacerle un OC a un Intel 13XXX + DDR5 de calidad, tira muchísimo de CPU y ancho de banda, yo con mi DDR4 y 5800X3D sólo tengo que activar una opción en el menú y a disfrutar, por no mencionar que me consume la tarjeta lo mismo que el supuesto 13900K subido de vueltas. Sin errores gráficos ni caídas de frames ni stuttering ni historias, una tecnología que solo lleva un par de meses entre nosotros y según veo en las .dll ya acumula bastante trabajo y mejoras perceptibles.

Off-topic, Digital Foundry es quien te hace un análisis técnico impecable de todos los títulos y conversiones a PC, tiran de la oreja a cualquier desarrollador sin importar el pedigrí y consiguen que bastantes den un paso hacia la luz desde la oscuridad de la flojera, que aquí se les llame poco más que "vendidos" y desacrediten sus investigaciones poco menos que clama al cielo, quizá deberían ver a Hardware Unboxed, a Steve, que le han metido unos buenos zascas por parte de Frame Chasers demostrando lo parcial que fue en su review de la 7900XTX, una pillada detrás de otra, pero claro como este señor saca bien en las fotos a AMD no nos quejamos, en fin feliz salida y entrada de años para todos.
A ver que el de digital compara el reescalado de consola vs dlss y dice claramente que es su opinión y que cada cual tiene la suya.
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.


Kavezacomeback escribió:
Strait escribió:
Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante [looco]


Yo siempre le voy a meter DLSS a todos los juegos en los que pueda aunque me vayan sobrados sin reescalar. Por consumo, temperaturas y porque a veces con DLSS se ve incluso mejor que a resolución nativa. Después están los que hacen todo lo contrario y juegan con DSR.


A ver que cada cual use lo que quiera, faltaría más, pero discrepo sobre lo de que se vea mejor. Si que mejora texto en según que juego y resoluciones, pero en general estoy en desacuerdo.

Yo lo uso por falta de potencia en según que juegos, pero de lo contrario ni con un palo.


en el a plague tale con el dlss en calidad también añade un antialiasing que hace que se mire algo mejor
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.


Piensa que tb añade un filtro de nitidez, podríamos decir que la mejor calidad de imagen es por orden:

Res nativa + filtro de nitidez
DLSS
Res nativa

Despues depende tb del juego, pero vamos si como contrapartida te da tantos fps el uso es obligado casi siempre jugando a 4K ya que ganas mucho y apenas pierdes.

Lo que no se es que sentido tienen este tipo de debates cuando tecnologías como el DLSS son grandes avances en el mundo del pc que hemos pedido durante decadas y gracias a dios hoy día tenemos, despues ya que las use quien quiera o quien pueda.

Yo siendo una putilla gráfica, sacando cientos de fotos a los juegos ya que me encanta y metiendo reshade a todo lo que se mueve solo puedo flipar con lo bien implementado que esta esto y a la vez maldecir a nvidia por restringir estas tecnologias a solo unos pocos como han hecho con el dlss 3.
@Dakot4 hice pruebas y al final le metí un reshade.

Hoy ya no es día para ello, pero vamos cualquier otro se hacen unas capturas a ver [oki]

@ionesteraX también se pule parte del DOF si lo hay. Pero de todas, todas, rebaja la calidad de las texturas un poco.

Feliz noche vieja y año nuevo a todos.
ionesteraX escribió:
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.


Piensa que tb añade un filtro de nitidez, podríamos decir que la mejor calidad de imagen es por orden:

Res nativa + filtro de nitidez
DLSS
Res nativa

Despues depende tb del juego, pero vamos si como contrapartida te da tantos fps el uso es obligado casi siempre jugando a 4K ya que ganas mucho y apenas pierdes.

Lo que no se es que sentido tienen este tipo de debates cuando tecnologías como el DLSS son grandes avances en el mundo del pc que hemos pedido durante decadas y gracias a dios hoy día tenemos, despues ya que las use quien quiera o quien pueda.

Yo siendo una putilla gráfica, sacando cientos de fotos a los juegos ya que me encanta y metiendo reshade a todo lo que se mueve solo puedo flipar con lo bien implementado que esta esto y a la vez maldecir a nvidia por restringir estas tecnologias a solo unos pocos como han hecho con el dlss 3.

Yo creo que la resolución nativa está por encima del dlss... Sin duda
A ver, que tiene pros como más frames, todo más estable etc es obvio. Por eso existe la tecnología.
Y que puede que en algún juego esté tan bien implementado que no se note, también.
Pero de ahí a que se vea mejor... hay un paso. Cuando el original en el que se basa el reescalado es el original, es imposible que se vea mejor el reescalado.
Yo mismo lo he usado en algún juego y me parece la caña. No soy negacionista.
Feliz año nuevo a todos!

Ojalá este 2023 nuestras nuevas gráficas echen mucho humo en el buen sentido del concepto. Mucha paz y mucho tiempo para dedicarlo a nuestra afición favorita. Que los gráficos de los motores evolucionen durante estos meses a algo difícil de creer ahora mismo en tanto evolucionen tan bien y tan rápido.

Que los que desarrollan los videojuegos disfruten con su trabajo casi tanto como disfrutamos jugando sus creaciones.

Mucha salud para est3 año!
A ver qué pasa con la 4070 ,el 5 sale a la venta no?
Veremos precios reales.......
Y como queda con respeto a la 7900xt que imagino será su rival o no ?
Estoy perdido pero de los 1000€ no creo que bajen.
Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.
mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.


feliz año vecino, yo me pillaría una RM1000X de Corsair y su cable oficial 12VHPWR que funciona estupendamente, una ATX 3.0 estaría bien pero los precios se van de madre. El problema es que el cable ( enlace aquí ) solo está disponible un par de veces a la semana.
Lince_SPAIN escribió:
mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.


feliz año vecino, yo me pillaría una RM1000X de Corsair y su cable oficial 12VHPWR que funciona estupendamente, una ATX 3.0 estaría bien pero los precios se van de madre. El problema es que el cable ( enlace aquí ) solo está disponible un par de veces a la semana.

Pues esa rm1000x más el cable es perfecta para el equipo.
Gracias [oki]
mingui escribió:
Lince_SPAIN escribió:
mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.


feliz año vecino, yo me pillaría una RM1000X de Corsair y su cable oficial 12VHPWR que funciona estupendamente, una ATX 3.0 estaría bien pero los precios se van de madre. El problema es que el cable ( enlace aquí ) solo está disponible un par de veces a la semana.

Pues esa rm1000x más el cable es perfecta para el equipo.
Gracias [oki]


Con un 13900K y una RTX 4090 yo me estiraria un poco mas y pondria una fuente de 1200W.
Yo tengo un 13900K y puede gastar mas de 300W el solo.
@beatle Que tal esta Corsair HX1200 1200W 80 Plus Platinum Modular?
mingui escribió:@beatle Que tal esta Corsair HX1200 1200W 80 Plus Platinum Modular?


Tengo justo esa y es buenisima y silenciosa.
14371 respuestas