[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Y sin el frame generation, no da suficientes fps?
BladeRunner escribió:Y sin el frame generation, no da suficientes fps?

Con la 4090 que tengo hay que usar el DLSS o FSR en modo equilibrado, y aún así hay veces que se queda muy cerca de 60 o baja ligeramente. Pero vaya, prefiero esa opción, sin duda.
Pacorrr escribió:
BladeRunner escribió:Y sin el frame generation, no da suficientes fps?

Con la 4090 que tengo hay que usar el DLSS o FSR en modo equilibrado, y aún así hay veces que se queda muy cerca de 60 o baja ligeramente. Pero vaya, prefiero esa opción, sin duda.


en dlss quality tambien deberia darte suficientes fps. A que resolucion juegas?
parh escribió:
Pacorrr escribió:
BladeRunner escribió:Y sin el frame generation, no da suficientes fps?

Con la 4090 que tengo hay que usar el DLSS o FSR en modo equilibrado, y aún así hay veces que se queda muy cerca de 60 o baja ligeramente. Pero vaya, prefiero esa opción, sin duda.


en dlss quality tambien deberia darte suficientes fps. A que resolucion juegas?

A 4K XD

Jugaba en calidad al principio, pero en la ciudad había muchas caídas por debajo de 60, así que bajé a equlibrado. Eso sí, tengo todos los ajustes al máximo, excepto los de post-procesado (destello de lente, grano, viñeteado etc...) que los desactivo porque no me gustan.
Pacorrr escribió:
parh escribió:
Pacorrr escribió:Con la 4090 que tengo hay que usar el DLSS o FSR en modo equilibrado, y aún así hay veces que se queda muy cerca de 60 o baja ligeramente. Pero vaya, prefiero esa opción, sin duda.


en dlss quality tambien deberia darte suficientes fps. A que resolucion juegas?

A 4K XD

Jugaba en calidad al principio, pero en la ciudad había muchas caídas por debajo de 60, así que bajé a equlibrado. Eso sí, tengo todos los ajustes al máximo, excepto los de post-procesado (destello de lente, grano, viñeteado etc...) que los desactivo porque no me gustan.


si, yo tambien desctivo grano y destello de lente. cuantos fps obtienes con el benchmark todo en ultra/psyco DLSS off y DLSS calidad?
parh escribió:
Pacorrr escribió:
parh escribió:
en dlss quality tambien deberia darte suficientes fps. A que resolucion juegas?

A 4K XD

Jugaba en calidad al principio, pero en la ciudad había muchas caídas por debajo de 60, así que bajé a equlibrado. Eso sí, tengo todos los ajustes al máximo, excepto los de post-procesado (destello de lente, grano, viñeteado etc...) que los desactivo porque no me gustan.


si, yo tambien desctivo grano y destello de lente. cuantos fps obtienes con el benchmark todo en ultra/psyco DLSS off y DLSS calidad?

Imagen

Imagen
Pacorrr escribió:
parh escribió:
Pacorrr escribió:A 4K XD

Jugaba en calidad al principio, pero en la ciudad había muchas caídas por debajo de 60, así que bajé a equlibrado. Eso sí, tengo todos los ajustes al máximo, excepto los de post-procesado (destello de lente, grano, viñeteado etc...) que los desactivo porque no me gustan.


si, yo tambien desctivo grano y destello de lente. cuantos fps obtienes con el benchmark todo en ultra/psyco DLSS off y DLSS calidad?

Imagen

Imagen


gracias, tio. Me cuadran tus valores. Obtengo 38 en nativo (casi no hay cuello de botella) y 64 en dlss calidad (ya ahi tu procesador empieza a marcar la diferencia)
_anVic_ está baneado por "clon de usuario baneado"
Si ahora el Cyberpunk con la versión 1.61 ya se puede usar dlss 3. Ayer lo probé por curiosidad todo ultra rt demencial en el bench interno a 4k y pasaba los 100 fps de media con dlss calidad más frame generation con la 4090.
_anVic_ escribió:Si ahora el Cyberpunk con la versión 1.61 ya se puede usar dlss 3. Ayer lo probé por curiosidad todo ultra rt demencial en el bench interno a 4k y pasaba los 100 fps de media con dlss calidad más frame generation con la 4090.

Sí pero da errores gráficos jugando cuando entras en el modo análisis para inspeccionar el entorno, para mí no es usable.
_anVic_ escribió:Si ahora el Cyberpunk con la versión 1.61 ya se puede usar dlss 3. Ayer lo probé por curiosidad todo ultra rt demencial en el bench interno a 4k y pasaba los 100 fps de media con dlss calidad más frame generation con la 4090.


Si, combinando dlss y fg pasa los 100 sobrados en ultra como indicas. Pero no.olvidar que esta nueva tecnología está pensada para el lanzamiento.de rt overdrive, que es una auténtica burrada a nivel gráfico. Esos 100 y pico con suerte pasarán a ser 50 y algo.
La nueva actualización del Witcher 3 lleva la última versión del Frame Generator (1.0.7.0)

La comparto por aquí: DLSS Frame Generator 1.0.7.0

Si lo utilizamos junto a la última versión de DLSS (2.5.1), que se puede descargar aquí; Todas las revisiones de DLSS

y tras reemplazar los archivos antiguos en los juegos compatibles con DLSS+FrameGen como los títulos de Spider-Man, Cyberpunk, Plague Tale étc veremos mejoras, lo he probado en el Remaster y en el Miles Morales y los pequeños errores en la interfaz y el ligero difuminado se han corregido con el combo 1.0.7.0 + 2.5.1, maravilloso, igual es placebo pero es que la latencia ahora parece casi casi nativa (que evidentemente no lo es, pero Reflex estará funcionando mejor), a ver si luego lo pruebo en el Cyberpunk que llevaba la 1.0.5.0.

Nvidia trabajando a marchas forzadas en esta tecnología, se nota que quieren pulirla para que sirva de reclamo en las tarjetas de gama baja tipo 4060 donde marcaría diferencia junto a los nuevos aceleradores y codificadores de vídeo y el SER (shader execution reordering).

Edit: por otro lado, hablando de optimizaciones, si forzamos el "resizable bar" en el Dead Space remake ganamos 20-30 fps de media, que no es ninguna tontería. Para ello ya sabéis que es necesario modificar el perfil del juego con el Nvidia Inspector activando las opciones de la sección "common" rBAR feature, rBAR options y rBAR size limit con el valor de 1, que es la compatibilidad con Battlefield V y similares.
Lince_SPAIN escribió:La nueva actualización del Witcher 3 lleva la última versión del Frame Generator (1.0.7.0)

La comparto por aquí: DLSS Frame Generator 1.0.7.0

Si lo utilizamos junto a la última versión de DLSS (2.5.1), que se puede descargar aquí; Todas las revisiones de DLSS

y tras reemplazar los archivos antiguos en los juegos compatibles con DLSS+FrameGen como los títulos de Spider-Man, Cyberpunk, Plague Tale étc veremos mejoras, lo he probado en el Remaster y en el Miles Morales y los pequeños errores en la interfaz y el ligero difuminado se han corregido con el combo 1.0.7.0 + 2.5.1, maravilloso, igual es placebo pero es que la latencia ahora parece casi casi nativa (que evidentemente no lo es, pero Reflex estará funcionando mejor), a ver si luego lo pruebo en el Cyberpunk que llevaba la 1.0.5.0.

Nvidia trabajando a marchas forzadas en esta tecnología, se nota que quieren pulirla para que sirva de reclamo en las tarjetas de gama baja tipo 4060 donde marcaría diferencia junto a los nuevos aceleradores y codificadores de vídeo y el SER (shader execution reordering).

Edit: por otro lado, hablando de optimizaciones, si forzamos el "resizable bar" en el Dead Space remake ganamos 20-30 fps de media, que no es ninguna tontería. Para ello ya sabéis que es necesario modificar el perfil del juego con el Nvidia Inspector activando las opciones de la sección "common" rBAR feature, rBAR options y rBAR size limit con el valor de 1, que es la compatibilidad con Battlefield V y similares.


si quiere probar esto que indicas en cyberpunK, tengo que reemplazar el dll del FG?
parh escribió:si quiere probar esto que indicas en cyberpunK, tengo que reemplazar el dll del FG?


sí, pero yo reemplazaría tanto el DLSS como el DLSS-G, nvngx_dlss y nvngx_dlssg, uno con la versión 2.5.1 y el otro con la 1.0.7.0, los archivos a reemplazar estarán ubicados si utilizas la versión EPIC Store en... letra de unidad:\Epic\Cyberpunk2077\bin\x64 y para la versión STEAM en.... letra de unidad:\SteamLibrary\steamapps\commony\Cyberpunk2077\bin\x64

para los Spider-Man y el Plage Tale Requiem lo mismo pero los archivos están en el directorio raíz de los títulos, siempre es conveniente hacer una copia de seguridad de ambos dll's antes de cambiarlos por versiones más actualizadas, hay algunos títulos como el Shadow of the Tomb Raider que están muy optimizados para una versión específica de DLSS, pero yo te diría que es la única excepción, el resto de títulos que soportan DLSS funcionan y se ven mejor con la versión más actualizada, en este caso 2.5.1.
Pacorrr escribió:He probado el CP 2077 con el frame generator y al entrar en el modo escaneo (botón LB del mando de Xbox) se ven montón de errores gráficos. Al entrar en el menú de pausa o en el del personaje, al volver al juego tarda un rato en estabilizar los fps. No he probado mucho más que cargar la partida que tenía a medias pero al entrar en modo escaneo canta enseguida.


Pues he probado el cyberpunk y no me pasa eso que se ve en el video

Lo tengo todo al maximo y DLSS 2 y Frame generator activado, de hecho lo tengo como en el video en modo calidad

No se si sera por ser cierta zona o no pero miraba debajo de los puentes de dia con el escaner y todo perfecto
@Lince_SPAIN gracias por la info, no es algo que me haya puesto a pensar (apenas uso DLSS), pero pensaba que las versiones del DLSS estaban en el driver de Nvidia y en los juegos simplemente se actualizaban para habilitar o no el DLSS/DLSS Frame Generator.

Pero bueno, ya sabiéndolo, seguramente en los juegos que use DLSS mire de actualizarlos si no lo están.

Por cierto, indico la fuente del DLSS Frame Generator también de techpowerup, para que podamos acceder al historial y veamos de dónde sale cada versión. Y ya de paso pongo también el otro enlace que pusiste y aquí ya está todo:

NVIDIA DLSS DLL (última versión: 2.5.1)
NVIDIA DLSS 3 Frame Generation DLL (última versión: 1.0.7.0)

Lo del resizable bar en el Dead Space, no he tocado nada del tema (lo tengo pendiente revisar con el nuevo PC), pero la idea de "forzar" cosas en juegos nuevos y que no estén preparados ya me da entre pereza y asco :Ð
Entiendo que es porque el juego acaba de salir y sigue en "beta", a ver si con el tiempo esto lo arreglan... o quizás estoy diciendo alguna tontería, no sé.
leonxx escribió:
Pacorrr escribió:He probado el CP 2077 con el frame generator y al entrar en el modo escaneo (botón LB del mando de Xbox) se ven montón de errores gráficos. Al entrar en el menú de pausa o en el del personaje, al volver al juego tarda un rato en estabilizar los fps. No he probado mucho más que cargar la partida que tenía a medias pero al entrar en modo escaneo canta enseguida.


Pues he probado el cyberpunk y no me pasa eso que se ve en el video

Lo tengo todo al maximo y DLSS 2 y Frame generator activado, de hecho lo tengo como en el video en modo calidad

No se si sera por ser cierta zona o no pero miraba debajo de los puentes de dia con el escaner y todo perfecto

No sé si será por la zona, yo de momento sigo por la misma en la del vídeo, en las badlands, lo he vuelto a probar y me lo sigue haciendo cuando activo el frame generator, lo cual lo veo como algo normal pues es conocido que produce errores gráficos, no sé si dependerá de la resolución, frecuencia u otras variables para que se note más o menos.
@Rvilla87 Lo del resizable bar se activa o no dependiendo del juego, para ello en los perfiles incluidos en los drivers se especifica en qué apps se utiliza o no, los testers de Nvidia prueban los juegos a medida que van saliendo tanto con resizable bar como sin esa característica, la opción que ofrece más rendimiento en general es la que se incluye en los controladores y no se puede cambiar sin usar el Inspector. Si utilizas esta herramienta verás en qué juegos se activa y en los que se descarta, sin embargo algunos títulos los testers no los prueban a tiempo para el lanzamiento de un set de drivers y queda pendiente para el siguiente release, en el caso de Dead Space Remake la mejora de rendimiento es tan evidente que 100% vendrá incluida de serie en los próximos Game Ready de Nvidia, en una 4080 la mejora en 4K es superior al 50%, de quedar unos frames por debajo de la 7900XTX (que utiliza la opción análoga "Smart Memory Access") en dicho título a superarla con bastante comodidad.

edit: en herramientas como GPU-Z o el propio panel de control de Nvidia seguramente a todos nos aparece "Resizable Bar: Enabled" pero eso no significa que se active para todas las apps, solo lo hará en aquellas que Nvidia haya permitido en sus controladores, por tanto mientras llega el "whitelist" incluyendo a Dead Space Remake hay que forzar el rBAR en su perfil de los drivers para conseguir ese gran aumento de rendimiento gratuito.
Lince_SPAIN escribió:@Rvilla87 Lo del resizable bar se activa o no dependiendo del juego, para ello en los perfiles incluidos en los drivers se especifica en qué apps se utiliza o no, los testers de Nvidia prueban los juegos a medida que van saliendo tanto con resizable bar como sin esa característica, la opción que ofrece más rendimiento en general es la que se incluye en los controladores y no se puede cambiar sin usar el Inspector. Si utilizas esta herramienta verás en qué juegos se activa y en los que se descarta, sin embargo algunos títulos los testers no los prueban a tiempo para el lanzamiento de un set de drivers y queda pendiente para el siguiente release, en el caso de Dead Space Remake la mejora de rendimiento es tan evidente que 100% vendrá incluida de serie en los próximos Game Ready de Nvidia, en una 4080 la mejora en 4K es superior al 50%, de quedar unos frames por debajo de la 7900XTX (que utiliza la opción análoga "Smart Memory Access") en dicho título a superarla con bastante comodidad.

edit: en herramientas como GPU-Z o el propio panel de control de Nvidia seguramente a todos nos aparece "Resizable Bar: Enabled" pero eso no significa que se active para todas las apps, solo lo hará en aquellas que Nvidia haya permitido en sus controladores, por tanto mientras llega el "whitelist" incluyendo a Dead Space Remake hay que forzar el rBAR en su perfil de los drivers para conseguir ese gran aumento de rendimiento gratuito.


Nvidia "pasa olímpicamente" del ReBar, desde que salió oficialmente a principios del año 2021, apenas hay una treintena de juegos que lo soportan vía drivers. En cambio en AMD tiene bastante más soporte.
Lince_SPAIN escribió:La nueva actualización del Witcher 3 lleva la última versión del Frame Generator (1.0.7.0)

La comparto por aquí: DLSS Frame Generator 1.0.7.0

Si lo utilizamos junto a la última versión de DLSS (2.5.1), que se puede descargar aquí; Todas las revisiones de DLSS

y tras reemplazar los archivos antiguos en los juegos compatibles con DLSS+FrameGen como los títulos de Spider-Man, Cyberpunk, Plague Tale étc veremos mejoras, lo he probado en el Remaster y en el Miles Morales y los pequeños errores en la interfaz y el ligero difuminado se han corregido con el combo 1.0.7.0 + 2.5.1, maravilloso, igual es placebo pero es que la latencia ahora parece casi casi nativa (que evidentemente no lo es, pero Reflex estará funcionando mejor), a ver si luego lo pruebo en el Cyberpunk que llevaba la 1.0.5.0.

Nvidia trabajando a marchas forzadas en esta tecnología, se nota que quieren pulirla para que sirva de reclamo en las tarjetas de gama baja tipo 4060 donde marcaría diferencia junto a los nuevos aceleradores y codificadores de vídeo y el SER (shader execution reordering).

Edit: por otro lado, hablando de optimizaciones, si forzamos el "resizable bar" en el Dead Space remake ganamos 20-30 fps de media, que no es ninguna tontería. Para ello ya sabéis que es necesario modificar el perfil del juego con el Nvidia Inspector activando las opciones de la sección "common" rBAR feature, rBAR options y rBAR size limit con el valor de 1, que es la compatibilidad con Battlefield V y similares.


Yo tambien actualizo de vez en cuando los archivos de DLSS cuando sale otra versión, pero solo en algunos juegos porque siempre he tenido la duda de si cambiando a mano esos archivos en juegos que tengan algún tipo de protección antitrampas no te puedes llevar un buen baneo...
Lince_SPAIN escribió:... hay que forzar el rBAR en su perfil de los drivers para conseguir ese gran aumento de rendimiento gratuito.

Eso en el panel de nvidia? no lo veo..
@AeolusFx porque las gráficas de AMD e Intel están diseñadas con esa característica en mente, gran parte de su rendimiento depende de ella. Sin embargo las de Nvidia se benefician solo en algunos casos, con Dead Space remake se consigue un incremento nunca visto en el resizable bar de Nvidia sobre todo en la serie 4000, lo normal es un par de frames de diferencia o directamente la paridad.

@BladeRunner en el panel de control de Nvidia puedes ver en información de la GPU si el resizable bar está habilitado en tu equipo, sin embargo los drivers limitan su funcionamiento a los títulos permitidos por Nvidia, no hay una opción para el usuario. Sin embargo, con la app Nvidia Inspector puedes forzar a los títulos que desees a utilizar dicha característica, se tarda 5 segundos pues solo hay que abrir la app, seleccionar el perfil del título y establecer un valor de 1 en las opciones rBAR feature, rBAR options, y rBAR size del apartado "common", puedes hacer un Google al respecto.

Imagen

Al aplicar los cambios se guardan en los drivers y resizable bar queda habilitado hasta la próxima modificación. (Si se instala el próximo driver desde cero con la opción "clean install" o a través de DDU tendremos que repetir el proceso). Tarde o temprano Nvidia debería ceder y ofrecer un "botón" para esta opción en el panel de control, advirtiendo que el rendimiento puede subir, bajar o mantenerse igual según el título.
_anVic_ está baneado por "clon de usuario baneado"
A mi también me salen artefactos en el modo análisis

https://mega.nz/file/wkJ2BK6S#XcvLUM4Vo ... PZhgwpYnfw
Hola buenas,

He comprado una Gigabyte Aero 4080 y en mi torre una Asus TUF 502 no me entra en horizontal, al cerrar el cristal me queda muy apretado y se ve forzado el conector de corriente.

Algún consejo para ponerla en vertical? Que tipo de alargador pciexpress comprar?

Gracias,
No sé si alguno recordará el debate de si la CPU era muy importante a 4k. El hecho de que los medios ignoraran en sus análisis de CPUs a la resolución 4k e incluso pusieran ejemplos de juegos a calidad media o baja a 1080p/1440p para que se viera la diferencia de rendimiento entre CPUs.

Bueno, pues Hardware Unboxed ha hecho un video diciendo que tanto los que se quejan de lo poco realista que es hacer benchmarks de CPUs con GPU desproporcionadas para la CPU (por ejemplo un Intel 13100 con una 4090) como los que piden datos de fps a 4k en los benchmark de CPUs no están entendiendo las reviews que hacen los medios.

Resumiendo, al primer grupo (GPU desproporcionada para la CPU) les dice que para llegar al límite de CPUs se tiene que usar una GPU que no genere cuello de botella porque si no no estás analizando el rendimiento de la CPU sino la GPU, mientras que al segundo grupo (pide datos de 4k en bench de CPUs) les dice que mire el límite de fps de la CPU a 1080p (que sí analizan todos los medios), porque la resolución y carga gráfica no importa de cara a la CPU sino mas bien el número de fps a procesar (y el resto de lógica que tenga el juego a nivel IA o lo que sea):


Y resumiendo la idea en general, traduzco lo que indica el comentario con mas votos de ese video que creo que lo resume muy bien:
[...] como dijo Steve, primero necesitas una CPU que te proporcione los fps máximos que deseas en los juegos a los que juegas. Luego, si conoces tu resolución, puedes elegir una GPU.


Me parece bien el mensaje, pero creo que llega un poco tarde. Quizás lo dijeron en algún momento y no llegué a leerlo/verlo, pero me parece un error que hayan estado un tiempo ignorando el test de CPUs en 4k (alguna excepción puntual ha habido) y ahora después de que tanta gente se queje de que están ignorando a los 4k responden de esta manera en plan "mira, que sois tontos". Y ni que decir tiene que los debates de si CPU potente en 4k sí o no no se hubieran alargado tanto como lo hicieron porque no había datos que demuestren una cosa ni la otra.

Aún así, aunque sea mas trabajo para los medios y lo consideren algo inútil, desde el punto de vista del usuario sigo viendo útil entrar a analizar el 4k e incluso diferenciar entre la RAM, como por ejemplo techspot aquí y no tener que hacer tú mismo una triangulación de datos para saber cómo te iría XD
Rvilla87 escribió:Resumiendo, al primer grupo (GPU desproporcionada para la CPU) les dice que para llegar al límite de CPUs se tiene que usar una GPU que no genere cuello de botella porque si no no estás analizando el rendimiento de la CPU sino la GPU, mientras que al segundo grupo (pide datos de 4k en bench de CPUs) les dice que mire el límite de fps de la CPU a 1080p (que sí analizan todos los medios), porque la resolución y carga gráfica no importa de cara a la CPU sino mas bien el número de fps a procesar (y el resto de lógica que tenga el juego a nivel IA o lo que sea):




y en serio esto habia que explicarlo? ¬_¬ joder, el nivel de razomaniento logico ha caido muuucho entre las nuevas generaciones...
@parh pues el 1º punto (bechmarks con GPU muy superior a la CPU) sí que me parece muy evidente y creo que no hacía falta ni explicarlo, pero el 2º punto de pedir 4k no lo veo tan lógico. ¿Cómo llegas a esa conclusión si los que pueden proporcionar los datos no te los dan?

Cuando ves que casi en todas las reviews de CPUs pasan de analizar nada en 4k y se limitan a decir básicamente que no hay diferencia (pero sin demostrarlo), y tampoco explican lo indicado en ese video, que se puede resumir "mira los fps que te da esa CPU a 1080p en ese juego en concreto y eso te aplica también a 4k siempre y cuando la GPU no te haga cuello de botella", no entiendo que se dé por hecho que eso se conoce y sea lógico.

¿Dónde y quién lo ha explicado?
Rvilla87 escribió:@parh pues el 1º punto (bechmarks con GPU muy superior a la CPU) sí que me parece muy evidente y creo que no hacía falta ni explicarlo, pero el 2º punto de pedir 4k no lo veo tan lógico. ¿Cómo llegas a esa conclusión si los que pueden proporcionar los datos no te los dan?

Cuando ves que casi en todas las reviews de CPUs pasan de analizar nada en 4k y se limitan a decir básicamente que no hay diferencia (pero sin demostrarlo), y tampoco explican lo indicado en ese video, que se puede resumir "mira los fps que te da esa CPU a 1080p en ese juego en concreto y eso te aplica también a 4k siempre y cuando la GPU no te haga cuello de botella", no entiendo que se dé por hecho que eso se conoce y sea lógico.

¿Dónde y quién lo ha explicado?


es que para mi es lo mismo. Partes de que el objetivo es evaluar el rendimiento de la CPU (no la GPU), pues ya esta, intentas saturar el CPU enviandole la mayor cantidad de FPS que sea posible, y para ello usas una resolucion baja para que la GPU sea capaz de entregar tropecientos FPS. En este caso, 1080p se ha convertido en el estandar de las resoluciones bajas, pero con 720p tambien nos valdria.
@parh ya, si entiendo lo que quieres decir, pero los datos que muestran los medios no me dicen eso.

Los medios cuando analizan las CPUs no analizan exclusivamente una resolución baja (1080p por ejemplo) y con baja calidad gráfica para que la GPU haga el menor cuello de botella posible (lo ideal es que no haga) sino que analizan a 1080p y 1440p y encima en la mayoría de casos a alta calidad gráfica, cuando es contraproducente con lo que se quiere probar. De hecho ahora mirando reviews del 13900k veo que incluso en varios sitios analizaron también en 4k :Ð


Y claro, como digo con lo de Hardware Unboxed, que digan una cosa y luego hagan otra me parece cuanto menos confuso.

¿Es que a la CPU le cuesta el mismo esfuerzo procesar 1 frame de un mismo juego a 1080p que a 4k? Si eso es así entonces estoy de acuerdo, no hace falta mostrar el resultado a 1440p ni 4k porque mientras muestren una resolución (y calidad gráfica) baja ya es suficiente, pero como puedes ver en todas esas reviews, NO es lo que hacen y es lo que me parece confuso.
Wdragon escribió:Hola buenas,

He comprado una Gigabyte Aero 4080 y en mi torre una Asus TUF 502 no me entra en horizontal, al cerrar el cristal me queda muy apretado y se ve forzado el conector de corriente.

Algún consejo para ponerla en vertical? Que tipo de alargador pciexpress comprar?

Gracias,


Uno con soporte de PCIE 4.0, que muchos solo son PCIE 3.0


Parece que hay que pulir un poco ese DLSS 3
_anVic_ está baneado por "clon de usuario baneado"
Kavezacomeback escribió:


Parece que hay que pulir un poco ese DLSS 3


En mi caso, con la 4090, observo menos artefactos que él por ir a bastantes más fps de base. Solo veo pequeños artefactos en modo análisis y tampoco es que me molesten demasiado.

Por otro lado, decir que para que dlss 3 vaya más fluido hay que forzar vsync desde el panel de control de nvidia, ya que en el propio juego, una vez habilitas frame generation te desactiva el vsync. Lo que si te activa es nvidia reflex para mejorar latencias.

Activado vsync en el panel de nvidia ya no tendrás tearing y se nota muy fluida la imagen. Para ver la latencia total de renderizado del pc, si tienes gforce experience instalado, pones
ver estadísticas de rendimiento en modo avanzado y para mostrarlo en el juego le das Alt+R asi ya puedes ver latencias. En mi caso me muevo en torno a 40 y pico ms con dlss 3 + vsync y reflex activado con todo ultra a 4k . Luego si tengo tiempo hago un video y lo dejo por aquí.

Edit: os dejo un video corto mostrando latencias usando Dlss 3

https://mega.nz/file/YppVXIqb#sNOr2Sr7h ... -dssWslzW0
@_anVic_ supongo que ves menos por que la GPU se inventa menos. Si que dice que cuando más aparecen es cuando activas los fake.
Kavezacomeback escribió:@_anVic_ supongo que ves menos por que la GPU se inventa menos. Si que dice que cuando más aparecen es cuando activas los fake.

Es que esos problemas visuales solo debería aparecer en los falsos, los no falsos no deberían tener problemas (o algo menores si es DLSS 2, pero el 2 ya lo conocemos desde hace años). El frame generation se "inventa" todo el frame, normal que sea donde peor se ve.

Esto ya lo hablamos en su momento cuando presentaron el DLSS 3 (frame generation), que con la 4090 quizás da el pego a nivel calidad porque con tantos frames por segundo es menos obvio que el ojo vea los frames falsos, y que cuando salgan las gráficas menos potentes, al tener menos fps de base, se iba a notar bastante mas la peor calidad del frame falso. De hecho incluso de salida ya se demostró con varios videos (recuerdo uno de DF con la 4090 limitando los fps de base).

Sobre este tema se habló bastante en este mismo hilo.
@Rvilla87 Sí, sí, pero ya sabes que se cuenta la película como se quiere. Lees que es la venida de cristo y no es tan así, después se necesita en GPUs que no sean la top y bueno pasa lo que pasa, que no todo el monte es orégano, y ni tan siquiera es mucho mejor que la anterior versión o FSR en algunos juegos (por que también se puede seleccionar esto con las nvidia y da unos numero muy parecidos a el dlss sin los fake).
BloodBlack está baneado por "clon de usuario baneado"
Rvilla87 escribió:@parh ya, si entiendo lo que quieres decir, pero los datos que muestran los medios no me dicen eso.

Los medios cuando analizan las CPUs no analizan exclusivamente una resolución baja (1080p por ejemplo) y con baja calidad gráfica para que la GPU haga el menor cuello de botella posible (lo ideal es que no haga) sino que analizan a 1080p y 1440p y encima en la mayoría de casos a alta calidad gráfica, cuando es contraproducente con lo que se quiere probar. De hecho ahora mirando reviews del 13900k veo que incluso en varios sitios analizaron también en 4k :Ð


Y claro, como digo con lo de Hardware Unboxed, que digan una cosa y luego hagan otra me parece cuanto menos confuso.

¿Es que a la CPU le cuesta el mismo esfuerzo procesar 1 frame de un mismo juego a 1080p que a 4k? Si eso es así entonces estoy de acuerdo, no hace falta mostrar el resultado a 1440p ni 4k porque mientras muestren una resolución (y calidad gráfica) baja ya es suficiente, pero como puedes ver en todas esas reviews, NO es lo que hacen y es lo que me parece confuso.


Es sencillo para los análisis de CPU interesa saber el salto de potencia de cada CPU y eso se logra generando cuello de botella de CPU y que está se encargué.

Uno de lo métodos más fácil de lograr cuello es bajando la resolución, eso hace que la carga de la GPU baje y que sean las CPU las que marque cual es más capaz de asignarle mayor trabajo carga y por cual mayor FPS.

A 4k no hay diferencia entre CPU porque la carga gráfica de pixeles recae en la GPU por cual es más fácil mantenerla al 99% de carga con cualquier CPU.

Eso si entra más potencia obtienen la GPU menor es la resolución necesaria para generar cuellos, por ejemplo antes se requeria 720p para generarles cuellos a GPU top mas antiguas, ahora 1080p, pero a 1440p ya algo de cuello en GPU top actuales, así que un par de generación puede que el nuevo estándar sean 1440p para análisis de CPU.
@_anVic_

Imagen

Los hay, pero veo que casi hay que ir buscando, no es como el caso de la 4070Ti donde es más evidente.
_anVic_ está baneado por "clon de usuario baneado"
Si exacto sigue habiendo pero en menor grado y para mi al menos no es demasiado molesto.
@BloodBlack como dices, las resoluciones van cambiando y lo que antes una resolución baja era 720p ahora es 1080p.

Pero mi comentario ya no entraba en el debate de si a 4k importa o no la CPU, sino en el mensaje de Hardware Unboxed diciendo algo que ni ellos mismos cumplen.

Kavezacomeback escribió:@_anVic_

Imagen

Los hay, pero veo que casi hay que ir buscando, no es como el caso de la 4070Ti donde es más evidente.

No sé si estoy entendiendo esto que comentáis, porque me da la impresión que con lo de evidente os referís a que genera mejor o peor el frame cuando no creo que sea así. Lo evidente no es en lo mal o bien que genera el frame falso sino en lo fácil o difícil que es detectar con nuestra vista el frame falso.

Si se captura un vídeo ya es muy fácil detectarlo, con una 4090 se va a detectar igual de fácil que la 4070 Ti y cualquier otra que use el frame generation. Básicamente 1 frame será el bueno y el siguiente el falso, de nuevo uno bueno y luego el falso, y así sucesivamente.

Pero si no capturamos y queremos verlo mientras jugamos la cosa empeora cuanto menos fps tengamos. Con una 4070 Ti si el juego nos va a 60 fps el frame falso lo vemos en pantalla durante 16 milisegundos mientras que con una 4090 si el juego nos va a 120 fps el frame falso lo vemos durante la mitad de tiempo, 8 milisegundos, y seguramente eso marque la diferencia para que en uno sea mas evidente que en otro. También los habrá que tengan muy buena percepción visual vean ambos casos fácilmente y al revés, los que no sean capaces de ver ninguno de esos 2 casos.
@Rvilla87 cuanto más frames generes de esta forma más fallos tienes.

Eso es lo que decimos.

Bueno igual no me has entendido bien, cuanto más fps reales uses para obtener los fakes mejor resultado tienes. Vamos que cuanto mejor sea la base, el punto de partida, o como lo quieras llamar, menos fallos vas a tener.

También sería interesante probar si hay más fallos partiendo desde una calidad media VS ultra.
Kavezacomeback escribió:@Rvilla87 cuanto más frames generes de esta forma más fallos tienes.

Pero es que no tiene que ver con la cantidad de frames que genere sino con el tiempo que estén en pantalla. De hecho es mas, aunque tuviéramos en cuenta que se basa en la cantidad de frames generado, es justo lo contrario:

En el ejemplo que puse:
- Con una 4070 Ti a 60fps generas 30fps falsos y 30fps reales, el 50%.
- Con una 4090 a 120fps generas 60fps falsos y 60fps reales, el 50%.

Y donde es mas evidente ver los problemas (mientras jugamos, frame a frame se ven igual) es en el caso de la 4070 Ti aunque genere menos fps (la mitad que la 4090). El motivo es el que dije, que están menos tiempo en pantalla y se nota menos.

Pero insisto, que todo esto se puede ver fácil si capturáis en video y lo veis frame a frame, el resultado será muy fácilmente apreciable a simple vista, sea la 4050 o la 6090 Titan XXXL.
@Rvilla87 habría que probar mucho por que no todo es tan claro, sobre todo por que se usa con dlss y RT y eso puede generar más errores.

Al cambiarlo todo habría que ver si settings medios/altos + dlss + fake+ RT da el mismo resultado que ultra + dlss+ fake + RT y así combinando con diferentes resoluciones.

Por ejemplo una 4070Ti parte de unos 25fps en CP 2077 Ultra + RT y una 4090 desde 50fps pues habría que ver cuál falla más o si por el contrario fallan igual.

El frame a frame esta bien, pero al igual que las pruebas de CPUs en resoluciones bajas con low son inútiles por que no es un escenario realista y de uso cotidiano.

Los fallos o las limitaciones deben ser perceptibles en tiempo real.
@Kavezacomeback sí, lo importante de todo esto al final es lo perceptibles en tiempo real, no quise decir lo contrario, no se si se me entendió al revés pero no era mi intención.

Otra cosa que no dije y en parte contradice lo que dije de que la 4070 Ti va a generar, frame a frame, igual de bien o de mal que la 4090... esto no es del todo así. Estaba imaginándome un caso sin mucho movimiento, con mucho movimiento lo hará mucho mejor la 4090 porque tiene mas frames de base.

Está relacionado con lo del tiempo que dura el frame en pantalla (lo de los 8ms o 16 ms) que creo que es la clave de este tema. Como el frame generation genera el frame falso en base al frame previo y varias métricas, cuanto más veces pueda generar el frame mucho mejor, porque habrá pasado menos tiempo entre el frame real y el siguiente frame real, con lo cual el cambio a nivel visual es mucho menor, no es un cambio drástico. Por eso, cuanto mas frames genere, mejor.

Se vio también en los videos como esta tecnología falla mucho en casos donde el cambio de imagen es muy brusco (en un juego de velocidad, cambiar la cámara o mirar atrás, por ejemplo).

Creo propiamente no importa si hay mayor o menor calidad gráfica, RT o lo que sea, que lo mas importante me da la impresión que es simplemente el cambio entre un frame y otro, y el tiempo que esté en pantalla (o dicho de otra forma, que se generan los frames falsos lo más rápido posible para que no haya cambios bruscos y se vea a simple vista mientras jugamos). Aunque claro, si el tener menos calidad gráfica y NO poner RT implica ganancia de FPS automáticamente lo veremos mejor, pero no por el cambio de calidad como tal sino por tener mas FPS. Supongo que si se hace pruebas con diferente calidad gráfica pero a mismos FPS base (limitando los FPS como hizo DF), veremos el mismo resultado.
Bueno a ver como evoluciona y si tan solo es que necesitan pulir software.

La competencia va hacer más o menos lo mismo, así que supongo se esforzaran todos en que esto vaya fino.
El frame generation no lo termino de ver mucho... en gráficas poco potentes generará demasiados artefactos visibles (menos frames disponibles y más tiempo del frame en pantalla), y en gráficas potentes... ¿para qué usarlo? Cuando se note q hacen falta más frames será demasiado tarde, los nuevos frames tardarán demasiado en pantalla y se verán errores. Otra cosa es el escalado, eso sí tiene utilidad para acelerar frames sin apenas pérdida de calidad.
Buenas, ¿alguien por aqui con una RTX4070ti me puede decir si tiene coilwhine? he devuelto mi Gaming X Trio por este problema y no se muy bien que modelo escoger, me han recomendado las Gigabyte.

BladeRunner escribió:El frame generation no lo termino de ver mucho... en gráficas poco potentes generará demasiados artefactos visibles (menos frames disponibles y más tiempo del frame en pantalla), y en gráficas potentes... ¿para qué usarlo? Cuando se note q hacen falta más frames será demasiado tarde, los nuevos frames tardarán demasiado en pantalla y se verán errores. Otra cosa es el escalado, eso sí tiene utilidad para acelerar frames sin apenas pérdida de calidad.

A mí no me ha gustado nada en los juegos que he probado que lo incluyan, además de la latencia añadida, sobre todo los errores gráficos son muy molestos, me parece el ejemplo perfecto de quiero y no puedo, en el sentido de que para poner el RT al máximo en algunos juegos, se necesite esto para tener una tasa de frames decentes, que luego no son frames reales, aunque sí dan la misma sensación de fluidez que si lo fueran.
_anVic_ está baneado por "clon de usuario baneado"
BladeRunner escribió:El frame generation no lo termino de ver mucho... en gráficas poco potentes generará demasiados artefactos visibles (menos frames disponibles y más tiempo del frame en pantalla), y en gráficas potentes... ¿para qué usarlo? Cuando se note q hacen falta más frames será demasiado tarde, los nuevos frames tardarán demasiado en pantalla y se verán errores. Otra cosa es el escalado, eso sí tiene utilidad para acelerar frames sin apenas pérdida de calidad.


En el plague tale requiem, en spiderman remastered o miles morales el dlss 3 cuando habilitas ray tracing con procesadores antiguos como el 9900k te salva el culo a base de bien .

Es decir Frame Generation se ejecuta como un post-proceso en la GPU, lo que permite a la red de IA aumentar las velocidades de fotogramas incluso cuando el juego está atascado por la CPU. Para juegos limitados por CPU, como aquellos que son físicos pesados o involucran mundos grandes, DLSS 3 permite que se renderice hasta el doble de la velocidad de fotogramas sobre lo que la CPU puede calcular. En Microsoft Flight Simulator, por ejemplo, con la recreación 1:1 del mundo real de nuestro planeta, DLSS 3 aumenta los FPS hasta 2 veces.

Que no funciona a la perfección está claro, pero no lo hace nada mal, ya lo irán puliendo.
BogdanBabut escribió:Buenas, ¿alguien por aqui con una RTX4070ti me puede decir si tiene coilwhine? he devuelto mi Gaming X Trio por este problema y no se muy bien que modelo escoger, me han recomendado las Gigabyte.



Yo tengo una Gigabyte Aero y no tiene ningún coilwhine [oki]
KindapearHD escribió:
BogdanBabut escribió:Buenas, ¿alguien por aqui con una RTX4070ti me puede decir si tiene coilwhine? he devuelto mi Gaming X Trio por este problema y no se muy bien que modelo escoger, me han recomendado las Gigabyte.



Yo tengo una Gigabyte Aero y no tiene ningún coilwhine [oki]


Perfecto, acabo de pedir esa misma, muchas gracias, a ver si hay suerte.
BogdanBabut escribió:
KindapearHD escribió:
BogdanBabut escribió:Buenas, ¿alguien por aqui con una RTX4070ti me puede decir si tiene coilwhine? he devuelto mi Gaming X Trio por este problema y no se muy bien que modelo escoger, me han recomendado las Gigabyte.



Yo tengo una Gigabyte Aero y no tiene ningún coilwhine [oki]


Perfecto, acabo de pedir esa misma, muchas gracias, a ver si hay suerte.


De todas formas depende las de la unidad que del modelo en cuestión.
14374 respuestas