Rvilla87 escribió:Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...
Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.
El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.
Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.
Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? (cuidado con el límite de v-sync lo explican unos segundos atrás).
O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/
Pacorrr escribió:Rvilla87 escribió:Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...
Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.
El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.
Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.
Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? (cuidado con el límite de v-sync lo explican unos segundos atrás).
O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/
Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.
Rvilla87 escribió:Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...
Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.
El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.
Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.
Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? (cuidado con el límite de v-sync lo explican unos segundos atrás).
O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/
Strait escribió:Kavezacomeback escribió:@Ingalius ¿En qué juego mejora las texturas?
El DLSS en calidad mejora a la resolución nativa en muchos juegos. Especialmente el antialiasing que mete que hace la imagen muy definida y nítida. Para muestra una imagen. Fíjate en los árboles o en la nitidez de las rocas que están a lo lejos:
Pacorrr escribió:Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.
Rvilla87 escribió:Pacorrr escribió:Es que no es cuestión de 10ms o 50ms más, es desde dónde estamos comparando, porque por ejemplo 10ms más partiendo de 20ms es un 50% más de latencia. Y si encima le añades los errores gráficos a la ecuación... mira me parece muy bien el que lo quiera usar pero hay que ser honestos con sus defectos también. No son frames reales, es como la interpolacion de las teles pero mejorado, pero sigue siendo una ilusión.
Sobre los errores gráficos no entro, de hecho para mí ese tema ya es suficiente para descartar DLSS 3, al menos de forma generalizada. Pero mi pregunta era respecto al input lag. Entiendo lo que quieres decir de la comparación, de hecho muchas veces he comentado que me parece un error hablar de los fps de forma absoluta y no relativa. No es lo mismo una mejora de 10 fps cuando comparas con 20 fps que cuando comparas con 1000 fps: lo 1º es una mejora importantísima y lo 2º es algo inapreciable.
Y aún con todo esto, si en un mundo paralelo la visión del ser humano solo estuviera preparada para ver hasta 20 fps como se puede entender, lo anterior daría igual un ejemplo u otro.
Pues ahora con el tema de los milisegundos de input lag vengo un poco a esto último que comento. En la mayoría de casos creo que no importa que añada 10 ms al input lag cuando lo "normal" es que no notemos esa diferencia. Da igual que de base sea 10 ms a 20 ms que de 500 ms a 510 ms... esa diferencia de 10 ms como tal debería ser imperceptible para la gran mayoría de personas.
¿Tú notas la diferencia de 10 ms? No sé si lo has probado, pero quizás los que hayáis probado y notéis lag sea debido a una mal implementación del juego en concreto (ni sabía que el Cyberpunk aún no tiene DLSS 3 abierto al público), os habéis encontrado el problema del límite de V-sync (y ya no son +10 ms sino +70 ms) o a saber, quizás os autosugestionáis.
Desde su salida se ha dicho que el DLSS 3 no es nada recomendable para juegos competitivos porque añade retraso, y ahí la cosa es algo "seria" y todo suma, cuando menos input lag mejor, pero es que con algunos de los mensajes que decís ahora parece que es que el DLSS 3 solo sirve para juegos lentos... me parece bastante exagerado ese tipo de afirmación por 10 ms
¿Por casualidad tenéis análisis o artículos de medios profesionales que hablen del tema y opinen igual?
Pacorrr escribió:Si se inventa frames, los intermedios. Esos frames que introduce DLSS 3 no son frames reales, no están renderizados por la gpu ni el motor del juego. Por eso se les llama fake frames. Y en cuanto al input lag, pues eso es ya muy subjetivo, habrá quién lo note más o menos, pero notarse se nota, hasta en el monitor con menos input lag del mercado se notará (el mío es bastante bueno en ese aspecto).
PepeC12 escribió:Ahora os pongo el caso chungo para mi, el caso B, tienes un juego que te va a 30 fps
- Sin activar DLSS tienes 33,3ms de input lag (que es bastante)
- Si activas DLSS2 igual te sube los fps a 45 fps, por lo que se te reduce el input lag a 22,2ms.
- Si activas DLSS3 tienes 60 fps pero con un input lag de 33,3ms
Que veas el juego mas suave o menos suave esta muy bien, pero los input lags no los mejoras.
stan01 escribió:silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti
A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.
Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...
Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas
Rvilla87 escribió:@Pacorrr Digital Foundry te podrá gustar mas o menos pero dan datos que se pueden contrastar. Aún no sé el input lag que tienes que dices que notas, porque no sé si es que te va de esos 10 ms o es que tienes un problema como otros usuarios han comentado: con el DLSS 3 en Portal RTX: 1, 2 (este dice al final: "changing DLSS to Balanced and mess with some developers settings fixed game as it should be. So right now no input lag and no texture bugs"), 3...
¿El problema de input lag solo lo notas en Portal o en otros juegos?
Por otra parte DF por mucho medio propagandístico que lo puedas considerar, no me creo que sean tan gilipollas de retratarse ellos mismos dando datos falsos que cualquiera pueda desmentir fácilmente. Una cosa es opinar y otra dar datos falsos, lo 1º puede colar, lo 2º no tiene sentido para un medio que pretenda ser referente en análisis técnicos de videojuegos (como lo son).
También pedí en anteriores posts datos de cualquier otro medio donde opine que el DLSS 3 añade mucho input lag (no hablamos de 5-10 ms), casi que me serviría con 1 solo medio relativamente importante para empezar a creer que DLSS 3 añade un input lag tan alto como para que se note. Yo la verdad que lo que encuentro hablando de la latencia del DLSS 3 son todo artículos que dicen que prácticamente no es perceptible el retraso que pueda añadir.
Por si no queda claro mi argumento, en ningún momento niego que tú no notes un mayor input lag con el Portal, lo que intento decir es que quizás es un error de ese juego y el problema mas que del propio DLSS 3 es de la implementación que se ha hecho en ese juego o algo relacionado (que como ves algunos usuarios han solucionado).
De hecho es que me cuesta creeros cuando encima PepeC12, otro que comentaba sobre el gran input lag que añade DLSS 3, ahora de repente dice esto:PepeC12 escribió:Ahora os pongo el caso chungo para mi, el caso B, tienes un juego que te va a 30 fps
- Sin activar DLSS tienes 33,3ms de input lag (que es bastante)
- Si activas DLSS2 igual te sube los fps a 45 fps, por lo que se te reduce el input lag a 22,2ms.
- Si activas DLSS3 tienes 60 fps pero con un input lag de 33,3ms
Que veas el juego mas suave o menos suave esta muy bien, pero los input lags no los mejoras.
Me parece muy bien esto que dices, pero de esto que dices ahora, donde en tu propio ejemplo el DLSS 3 no empeora el input lag, a lo que dijiste ayer de que jugar con DLSS 3 es como jugar en streaming o que solo le ves sentido a juegos lentos como el flight simulator hay una diferencia importante, no?
Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.
Cyborg_Ninja escribió:Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.
Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.
Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.
Pacorrr escribió:Cyborg_Ninja escribió:Pacorrr escribió:
Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.
Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.
Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.
Porque no me parecen muy objetivos, suelo discrepar bastante con lo que suelen sacar en sus vídeos, y ya tuvieron movidas con el de Hardware Unboxed porque pusieron una miniatura donde se veía un frame inventado con errores, el de Digital Foundry poco menos que llamó "clickbaiter" al de HU, desde entonces me desuscribí de DF.
Cyborg_Ninja escribió:Pacorrr escribió:Cyborg_Ninja escribió:
Por curiosidad, Pacorrr, ¿por qué? normalmente dan datos bastante objetivos.
Sí es verdad que al menos yo tengo la sensación de que siempre tiran -exageradamente- a Nvidia, y la prueba más sólida de ello es que cada vez que hacen algún benchmark de juegos de PC en vez de consola el 99% de las GPUs que usan son gráficas Nvidia. Pero tampoco suelen mentir ni dar datos incorrectos.
Porque no me parecen muy objetivos, suelo discrepar bastante con lo que suelen sacar en sus vídeos, y ya tuvieron movidas con el de Hardware Unboxed porque pusieron una miniatura donde se veía un frame inventado con errores, el de Digital Foundry poco menos que llamó "clickbaiter" al de HU, desde entonces me desuscribí de DF.
Yo discrepar como tal no mucho, es decir, sus análisis me parecen correctos. Pero como tengas una plataforma de AMD es perder el tiempo.
paxama escribió:stan01 escribió:silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti
A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.
Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...
Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas
Pues otro más que a 799 haría un esfuerzo,esperare a ver precios oficiales y si no pues que se las coman con patatas.
Saludos
Rvilla87 escribió:@Pacorrr insisto que una cosa son las opiniones, las tonterías que han dicho en twitter y demás, y otra muy diferente son los datos. Tanto Cyborg_Ninja como yo te hemos dicho en qué se equivocan al dar esos datos que dan y solo te limitas a hablar de opiniones de DF mas o menos acertadas y chorradas de tweeter. Que por cierto en el análisis del DLSS 3 dijeron claramente (y demostraron con videos) que generaba ruido en Spiderman, Flying simulator y otros juegos. Y dieron mucho detalle de cuándo y cómo aparecían esos problemas. De los pocos medios (por no decir el único) que explicaron tanta cosa.
A mi no me importa tanto el quién sino el qué. Como si el mayor fanático de Nvidia dice que la 4090 es mejor que la 7090XTX, por muy fan de Nvidia que sea mientras lo demuestre y cuadre lo que dice, le creeré.
No mediste la latencia del Portal (para ver que posiblemente te diera un valor muy exagerado, parecido al del límite del v-sync), ignoras todo lo que dije de los otros usuarios con problemas del Portal que solucionaron.. me parece a mi que a ti lo que menos te importa es saber si DLSS 3 realmente hace injugable al Portal sino que tu tuviste una mala experiencia y ya está.
Creo que es un error tomar como ejemplo 1 experiencia (que encima puede haber sido errónea) y extrapolarlo a la tecnología en sí, pero bueno, ya se verá. Quizás tienes una 4090 defectuosa. No he sido capaz de encontrar rápidamente otros resultados de latencia del Portal, tan solo los de DF.
A ver si algún otro usuario de una 4090/4080 revisa los datos de latencia (con el Frameview por ejemplo) y comenta si tiene o no latencia con DLSS 3.
leonxx escribió:Es interesante ver tanto numero pero al final lo que importa es la experiencia de cada uno
Yo me considero de los afortunados que no notan nada raro con el DLSS 3, estoy jugando al portal RTX con todo a tope a 4K 60 FPS RT y todo perfecto
Lo que si me parece es una maravilla es como se ve todo y lo que aporta esta tecnologia, que en mi caso es una GPU para años sin tener que invertir mas dinero en otra nueva
Si fuese de los que lo notase seguramente devolveria la grafica ya que entonces me duraria la mitad de años que quiero que me dure jugando a 4K 60 FPS
Edit: Lo acabo de mirar y voy por la pantalla 17 del portal y por ahora perfect. Que pedazo de juego es el joio
Rvilla87 escribió:@Pacorrr por tu último mensaje (y cómo has ignorado en mis últimos 3 o 4 mensajes lo de que Portal RTX estaba roto) me queda bastante claro que yo sí te estoy entendiendo y en cambio tú no me estás entendiendo.
Sí, sé que la percepción de cada uno es diferente y que uno puede notar latencia y otro no jugando exactamente con la misma latencia. Sé que una persona puede ver ruido o cosas raras con el DLSS 3 y otra persona no porque no tiene la misma observación, está medio ciega o lo que sea. Todo eso lo sé pero no te estoy hablando de nada relacionado con eso.
No mediste la latencia porque ya la notaste mal, vale, en parte lo entiendo porque si ya es evidente para qué medirla. Pero cuando te digo que lo suyo es medirla aún así es porque, quizás (como casi seguro que te pasó), tu latencia era exageradamente alta debido a algún bug del juego y/o implementación del DLSS 3 con reflex o lo que sea. De hecho exactamente como ya te he dicho 2 o 3 veces anteriormente con todos esos posts de usuarios que tuvieron problemas y lo solucionaron (pasaron de tener latencia exagerada a no tener ese problema).
Por otra parte, no estoy discutiendo sobre la obviedad de que DLSS 3 añade latencia. Lo que discuto (mi 1º mensaje al respecto) es si añade tanta como para hacer algunos juegos injugables como pretendéis decir alguno de vosotros. Si no te fías de DF también tienes Hardware Unboxed donde se ve que incluso en juegos con bajos FPS como Cyberpunk tienes la misma latencia en nativo 4k que con DLSS 3 calidad (en DLSS 3 rendimiento tienes menos latencia). En F1 2022 menos latencia que nativo y precisamente en Flight Simulator (donde no importa tanto) es el único caso que es peor ya que tiene 73 ms respecto a 61 ms en nativo. De Hardware Unboxed te fías o de estos tampoco?
Que por cierto, con el caso del F1 2022 comentan que antes que jugar con DLSS 3 calidad mejor jugar con DLSS 2 performance porque se obtiene los mismos fps con menos latencia. Este caso sí me parece un buen ejemplo de inutilidad del DLSS 3... pero es solo un ejemplo, no podemos extrapolar al resto de juegos (como haces tú con tu experiencia con Portal).
Otro ejemplo, de ellos mismos, con Cyberpunk puedes elegir jugar a 112 fps / 63 ms latencia (DLSS 3 calidad) vs 90 fps / 43 ms latencia (DLSS 2 performance) será decisión suya de si nota mas el cambio 63 ms -> 43 ms de latencia o los 112 fps --> 90 fps. A modo referencia, en nativo va a 42 fps con 64 ms de latencia (mayor que con DLSS 3).
Pero vamos, de lo que dice Hardware Unboxed (que lo veo comprensible) a decir/apoyar comentarios como que DLSS 3 es como jugar en streaming o hace casi injugable muchos juegos excepto los tipo Flight Simulator pues la diferencia es importante. Lo de Hardware Unboxed le veo sentido, lo vuestro a saber de dónde lo sacáis, porque sin métricas y solo basándoos en una experiencia del Portal con muchos casos reportados de que está roto pues no me parece muy razonable darle credibilidad.
Pacorrr escribió:Yo digital foundry la tengo vetada, me parece un canal propagandístico más que informativo, no me creo nada de ellos.
kak4rot escribió:Buenas a todos, hoy me ha llegado el bloque de agua para la KFA2 4090 SG. Os dejo por aquí unas capturillas, estoy perdido con el tema de las puntuaciones, a ver si están dentro de la normalidad.
Y aquí os dejo una captura comparando las puntuaciones con el ultimo bench realizado en mi anterior 6900XT
Instalando el bloque me dio un poco de yuyu porque colocando el bakcplate, había un orificio para el tornillo que estaba ligeramente desplazado o desalineado con respecto al resto, me veía empaquetando el bloque para enviarlo de vuelta, pero finalmente y con un poco de saliva...
Después de ese amago de yuyu y tras pegarme un rato haciendo malabares para colocar el cableado para que se viera bonito (he usado el extensor de 3x pcie 8pines de Amazon) y otro rato en purgar el circuito de agua, llegó la hora de la verdad. Conecté todo, pulsé el botón de encender y el monitor no me daba imagen en ningún Displayport. En ese momento sentí el verdadero terror, le conecté el cable HDMI a la LG OLED y ahí si me daba imagen, instalé los drivers y ya pude configurar correctamente el monitor en el panel de control de Windows.
P.D: Olvidé echar fotos de como ha quedado instalada en el pc, estaba ya hasta los cajones, que hoy me he levantado a las 05:00 que curraba de mañana.
Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante
Strait escribió:Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante
Yo siempre le voy a meter DLSS a todos los juegos en los que pueda aunque me vayan sobrados sin reescalar. Por consumo, temperaturas y porque a veces con DLSS se ve incluso mejor que a resolución nativa. Después están los que hacen todo lo contrario y juegan con DSR.
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.
Kavezacomeback escribió:Strait escribió:Kavezacomeback escribió:Tenéis una 4090 o 4080 y pensáis en hacer reescalado en vez de meterle mods hasta que se atragante
Yo siempre le voy a meter DLSS a todos los juegos en los que pueda aunque me vayan sobrados sin reescalar. Por consumo, temperaturas y porque a veces con DLSS se ve incluso mejor que a resolución nativa. Después están los que hacen todo lo contrario y juegan con DSR.
A ver que cada cual use lo que quiera, faltaría más, pero discrepo sobre lo de que se vea mejor. Si que mejora texto en según que juego y resoluciones, pero en general estoy en desacuerdo.
Yo lo uso por falta de potencia en según que juegos, pero de lo contrario ni con un palo.
NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.
ionesteraX escribió:NicOtE escribió:Es que no se puede ver mejor que sin. No tiene sentido cuando es un reescalado... por bueno que sea no se puede ver mejor que en resolución nativa.
Piensa que tb añade un filtro de nitidez, podríamos decir que la mejor calidad de imagen es por orden:
Res nativa + filtro de nitidez
DLSS
Res nativa
Despues depende tb del juego, pero vamos si como contrapartida te da tantos fps el uso es obligado casi siempre jugando a 4K ya que ganas mucho y apenas pierdes.
Lo que no se es que sentido tienen este tipo de debates cuando tecnologías como el DLSS son grandes avances en el mundo del pc que hemos pedido durante decadas y gracias a dios hoy día tenemos, despues ya que las use quien quiera o quien pueda.
Yo siendo una putilla gráfica, sacando cientos de fotos a los juegos ya que me encanta y metiendo reshade a todo lo que se mueve solo puedo flipar con lo bien implementado que esta esto y a la vez maldecir a nvidia por restringir estas tecnologias a solo unos pocos como han hecho con el dlss 3.
mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.
Lince_SPAIN escribió:mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.
feliz año vecino, yo me pillaría una RM1000X de Corsair y su cable oficial 12VHPWR que funciona estupendamente, una ATX 3.0 estaría bien pero los precios se van de madre. El problema es que el cable ( enlace aquí ) solo está disponible un par de veces a la semana.
mingui escribió:Lince_SPAIN escribió:mingui escribió:Buenas, estoy cambiando todo el equipo por un i9 13900k + rtx 4090,que fuente de alimentación recomendáis máximo 300€.
feliz año vecino, yo me pillaría una RM1000X de Corsair y su cable oficial 12VHPWR que funciona estupendamente, una ATX 3.0 estaría bien pero los precios se van de madre. El problema es que el cable ( enlace aquí ) solo está disponible un par de veces a la semana.
Pues esa rm1000x más el cable es perfecta para el equipo.
Gracias
mingui escribió:@beatle Que tal esta Corsair HX1200 1200W 80 Plus Platinum Modular?