Ray Tracing, enemigo número 1 del rendimiento

1, 2, 3, 4, 5
Dentro de 10 años el Raytracing será lo habitual, excepto para juegos que no lo pongan para parecer retro.

El 3D tambien tardo mucho, mirad como era el 3D del "Elite" en 1985:

Imagen
Silicio14mm escribió:Ya veremos que nos depara el futuro pero ya he comentado, salvo la 5090 y la 5080, parece que ninguna gpu va a aumentar en rendimiento de manera relevante respecto a la generación actual.

Rendimiento en bruto no. Pero con RT sin lugar a dudas y entonces la diferencia ya no sera del 100%, sera mucho más. :-|
@Nomada_Firefox
Raster / RT vs Path Tracing, el PT supongo es el RT con más rayos y donde realmente se nota el ray tracing es uno o dos pasos mas que el ultra RT. Bueno pues de momento me conformaré con el Raster.

Cuando exista la gpu a menos de 1000€ de Nvidia o AMD que maneje el PT con soltura y se pueda jugar 4k 120 PT sin tartamudeos allí estaré el primero en comprarla, hasta entonces tendré que conformarme con el misero 4k 120 HDR sin PT.

Porque aunque no sea el tema del hilo el precio de la GPU también es importante yo nunca gasto más de 1000 en gpu y nunca lo hare. La 1080ti 720€, la 6800xt 850€ y la 7900XTX Red Devil la conseguí reacondicionada, en mi caso perfecta pero sin caja, de PC Componentes por 900€.
Silicio14mm escribió:Cuando exista la gpu a menos de 1000€ de Nvidia o AMD que maneje el PT con soltura y se pueda jugar 4k 120 PT sin tartamudeos allí estaré el primero en comprarla, hasta entonces tendré que conformarme con el misero 4k 120 HDR sin PT.

Bueno, vas a esperar mucho porque me da que solo 3 juegos originales lo tienen, igual ni eso.......el PT esta peor que el RT cuando salio.

Y no creo que el PT acabe por incluirse en general antes de 10 años, más de lo que llevamos con RT (sobre unos 6 años), porque no ha tenido un buen efecto en positivo pero lo que si ha sucedido, es la adopción del RT para dar color a las escenas.
@Nomada_Firefox

Quizás la 7900XTX sea mi ultima gpu, pues si en el futuro próximo se acaba implantando el juego en la nube, con mejor imput lag y realmente no noto diferencia entre jugar con mi hardware en casa o desde un servidor, La TV, el mando y la suscripción.
Las consolas ya las abandone y ni he tenido xbox series ni ps5 y el mundo del pc gaming cada vez esta más caro y de nicho.
Curioso que se ponga de ejemplo el Alan Wake 2 cuando es de los juegos que menos se nota incluso el PT, Hay una clara diferencia en juegos como Cyberpunk en tema PT y en RT yo pondrían al Metro Exodus Enhacend que es totalmente diferente en iluminación al original.

Y el PT de Nvidia no lo pondría como referencia de rendimiento, está diseñado como marketing para forzar que la gente le vea una utilidad real al DLSS y Motion Frames , desperdicia mucho rendimiento usando rebotes reales de GI y reflejos, cuando hay técnicas para simular rebotes infinitos de GI con costes 0, como las que se utiliza en Lumen UE5 y precisamente en Metro Exodus Enhacend, incluso con el tema IA se están tardando en simular rebotes utilizando esta.

Y como han mencionado para los desarrolladores estás técnicas son la vida no solo en trabajo si no en costes, un desarrollador de Spiderman 2 le comento a DF, que cocinar la iluminación del mapa les llevaba unas 4 horas con granjas de PC , que bien pudieran ser unas 20 o 50pc renderizado la iluminación, y eso tendrá un coste energético alto también o si las alquilan, pero el problema de la iluminación precalculada es que cada cambio en el mapa, por ejemplo quitar o mover un árbol ,tenian que volver a cocinar toda la iluminación por 4 horas.... Un infierno, cosa que con la Iluminación en tiempo real eso no pasa, la desventajas sería el rendimiento, mientras que una iluminación cocinada tiene coste 0,ya que está previamente calculada.
Holas a todos

Pienso que debido a como lo ha vendido NVIDIA como una mejora visual que se basa en mostrar gráficos realistas, y se llevan mas de 20 años creando técnicas para para que el apartado visual de un video juego se vea lo mas realista posible pero son trucos para que sea vea de una forma consistente a como se debería ver en el mundo real

dichos esto y resumiendo mucho el utilizar las diferentes técnicas que existen hoy en día para los juegos crea diferentes sistemas que deben funcionar en sincronía para generar todos los efectos se apliquen de forma correcta para luego pasar al proceso de rasterizado (básicamente coger una escena 3D y pasarla a una imagen 2D para presentarla en un monitor X veces por segundo para crear la ilusión de movimiento)

la tecnología actual limita lo que los video juegos pueden hacer y es por eso que tantos juegos se parecen los unos a los otros por las mecánicas que se implementen estas limitadas a nivel técnico

Ahora si que hace el raytracing eliminar todas técnicas y crear un único sistema que maneje todo, lo cual sobre el papel permite o mas bien quita todas las limitaciones técnicas actuales, el valor del ray tracing no esta en la mejora visual ya que esta va representar algo que ya se hacia de otra forma así fuera falsa pero bastante convincente, nate gentile hace rato hizo un video donde lo explica mejor que yo cual es la trascendencia del ray tracing y no se trata de gráficos se trata de cambiar como se hacen los juegos por que lo que se puede hacer en los juegos actualmente se limita entre las técnicas que se usan para los efectos gráficos y la interactividad del juego dejare el video de nate gentile para el que quiera ampliar su conocimiento sobre el tema

para mi aun a las graficas actuales les falta potencia para tener juegos cuyo diseño vaya plenamente con ray tracing y va suponer un cambio como lo fue en su día el 3D, y vuelvo y lo repito no es por graficas es por lo puedas hacer en el juego

El tema es que el Ray Tracing donde más se luce es en la iluminación global, por ejemplo, en The Witcher 3 se nota:

Imagen

El problema es que The Witcher 3 nunca ha empleado ninguna técnica de iluminación global decente, y claro, se nota muchísimo. Pero qué pasa con los juegos que sí tengan una GI aunque sea precalculada pero sea muy precisa y muy efectiva? voy a poner de ejemplo AC: Unity:

Imagen


Esto es una historia completamente diferente, porque tiene una iluminación global precalculada pero tremendamente vistosa, efectiva y muy realista. Si la sustituyes por iluminación global por Ray Tracing será aún más precisa, pero ya la diferencia será anecdótica, tendrás que fijarte en los pequeñísimos detalles... pero el rendimiento se desplomará y tendrás que sacar la lupa para ver las diferencias. Ahí radica el verdadero problema.


Cuando se emplean planar reflections + SSR, el RT también es más preciso en los reflejos, el problema es que no se nota TANTO como para perder tanto rendimiento. Si vemos esto en estático:

SSR:

Imagen


Ray Tracing:

Imagen



Pues no vemos mucha diferencia, sí, jugando como su propio nombre indica (reflejos espacio pantalla) desde ciertos ángulos tiene artefactos y cosas así, el problema del RT es que es más preciso, los reflejos tienen mayor calidad, pero con esa "tontería" te comes 20-30 frames. A mí me parece mucho para algo que te vas a tener que fijar y que no salga a la vista.



Con Alan Wake 2 y el Path Tracing precisamente pasa lo que he comentado en el AC: Unity, como de por si el juego utiliza una iluminación global de calidad (y además, creo que es en tiempo real), pues si le añades el RT se nota poco, es más preciso, es mejor, pero ya tienes que ir haciendo zoom a las mesas y fijarte en los pequeños detalles, pero te estás comiendo un 70-80% de rendimiento fácilmente incluso con RTX 4000.




Yo lo que veo es que actualmente cuando activas esta opción, el rendimiento se desploma, y cuando se desploma tanto esperas que sea un "game changer", que sea activarlo y decir "joder", pero no, casi siempre vas a ver resultados muy similares.



El día que activarlo pierdas poco rendimiento o algo asumible será una historia totalmente diferente, pero hoy por hoy, yo prefiero dejarlo desactivado incluso con mi 4080, salvo que vaya muy sobrado de rendimiento. Esto por no mencionar algo de lo que no se suele hablar, y es que no son pocos los juegos que el RT mete un stuttering importante.
Personalmente pagar un sobre precio por una tecnología que no esta pulida ni con una 4090,me parece una estafa,al igual que el rescalado dlls,que ya de por si me parece un chiste [fumando]
Pero como todo en este mundillo,cada cual tendrá sus pros y contras,antes al menos te comprabas una grafica que daba el 100% de su rendimiento bruto,ahora tienes que pillar una gráfica de un pastizal para mover juegos,que ya deberían verse genial y super realistas sin tantas chorradas [+risas]
Es mi humilde opinión [beer]
la 4090 tampoco puede en 4K 120 RT con todo, para empezar avatar o alan wake 2 , eso no lo mueve nadie a 4K 120 RT
@Cyborg_Ninja

El TW3 no usa Ray Tracing "puro" (geometría), si no es un Ray Tracing basado Probes. Para mí la mejor implementación RT de Iluminación Global la tiene Metro Exodus Enhacend, rebotes infinitos y con opción de GI a full resolución, mitad y un cuarto, hace que esté muy optimizado tenga un muy buen rendimiento en cualquier sistema incluso AMD , y con una diferencia visual grande:

https://youtu.be/8MK6J7Ymtp4?si=m98nzW99AMuoClaS

Y sobre el control el mayor defecto de los reflejos SSR es que al sacarlo de pantalla desaparecen, eso en muchas escenas equivale Poping, principalmente en juegos donde no hay reflejos precalculados de fondo y solo hay SSR.
@Cyborg_Ninja
el RT mete un stuttering importante


No va fino y es el tartamudeo que ya he comentado varias veces, en ultima instancia, lo que hace
que no active el RT.
En the witcher 3, me gustaría activarlo pero mete stuttering.
Hay algo que no le he leído a nadie y no es baladí, activar RT cuando visualmente no es relevante va a producir un incremento de consumo bestial con todo lo que eso implica, así que por muy sobrada que este la gpu si veo que visualmente no aporta nada relevante, prefiero que la gpu siga sobrada y no sobrecargar el sistema a cambio de nada.

josep345
una tecnología que no esta pulida ni con una 4090,me parece una estafa

:) cuidado con lo que dices que aquí te piden carnet de prensa, verificación y documentos técnicos para opinar
veo estafa y le sumo humo [beer]

Todo el tema de RT me suena a “El rey desnudo” cuento escrito por Hans Christian Andersen
Imagen
Cuento en el que unos sastres, Nvidia, timan al rey, consumidores, haciéndole un traje que realmente no existe, insisten tanto y son tan convincentes, marketing, que el rey acaba por creerles pues los sastres dicen que solo los tontos no ven el traje.

Nvidia dijo que el RT era el futuro, no en 10 años, ya, que si no no vende, dijo mirar que brillos que reflejos que iluminación, que traje, comprar comprar con sobrecoste y vendió la serie 2000, mucha gente dijo, pues no veo nada y Nvidia saco la serie 3000 a un más cara, mucha gente siguió sin convencerse y saco la 4000 llegando a los 2800€ de gpu en algún modelo, a un quedan unos cuanto que no ven el dichoso traje otros estan muy contentos con el traje lo vean o no, pues no son tontos. A si que Nvidia sacara la serie 5000 y todos los listos a comprar. Ir preparando los 3000€ el traje lo merece.
@Silicio14mm

pero lo puedes apagar y tienes mas rendimiento, no tienes porque ponerte el traje invisible, la GPU rinde increible sin RT
El tema como dije en mi primer comentario se esta alargando mucho, es una tecnologia que necesitara su tiempo, como hace 10 años lo de jugar a 4K 120fps era un sueño, pero ahora es medianamente posible, pero claro, ahora la evolucion natural sera el RT y llegar al 8K.....

Con el tiempo esto que hace una RTX 4090 sera un pedo para una grafica de 200/300€, en ese momento el minimo sera el 4K hasta en las tostadoras y el RT a Full, pero para llegar a eso, hay que pasar un tiempo desarrollando, puliendo, arreglando y demas esa tecnologia, ¿si no hubiera salido hace unos años alguien cree que asi de golpe Nvidia hubiera podido sacar el bicho de RTX 4090 que tenemos o se moriria al activar RT?
@PSX22
pero lo puedes apagar y tienes mas rendimiento, no tienes porque ponerte el traje invisible, la GPU rinde increible sin RT
PC:

Si tienes una AMD y puedes apagarlo, si, te llaman tonto pero niegas el traje
Si tienes Nvidia ya has caído en su trampa, puedes apagarlo pero has pagado un sobrecoste por un hardware dedicado al RT que si no activas no usas.

Si me equivoco, que me corrijan.
Los RT Cores en las tarjetas gráficas de Nvidia están dedicados únicamente para las tareas de trazado de rayos en tiempo real no pueden usarse para rasterizar. Si no activas RT no se usan.
Los aceleradores de trazado de rayos de AMD pueden usarse para el raster si no activas el RT.

ivan95
Saludos
El tema como dije en mi primer comentario se esta alargando mucho
Siento si te aburre el tema, el cual durara, mientras la gente quiera opinar. Se que es un tema recurrente, pero a mi no deja de sorprenderme, que una opción grafica que quita tanto rendimiento sea una opción vista como valida, no esta para comercializar y punto.

Que hay que avanzar, estoy de acuerdo contigo, que le quedan 10 años, ok, pues comercialízala dentro de 10 años cuando funcione en condiciones. Cuando la caída de rendimiento sea del 25% no del 75% y la diferencia visual sea más que notable.

El 3d tardo mucho en llegar, si, pero no creo sea comparable con el RT. Pues el 3d no era una configuración que activar o no, era un cambio total en como íbamos a ver y a jugar a los juegos. El hardware 2d se sustituyo por hardware 3d y se comercializo cuando estaba listo para su uso.

Imagen
Yo por ejemplo recuerdo tener la mega drive, la mega cd y la 32x, en la 32x ya experimente algo de 3d, era pobre pero funcionaba perfectamente para la época, menudo disfrute con el virtual fighter.
Imagen
Luego compre la ps1 con Tomb Raider, y la primera vez que jugué, me dije esto es un cambio brutal, puedo girar la cámara, explorar en 3d, menuda locura


El RT es otra cosa, no es comparable, es una configuración grafica no un cambio de paradigma.
En todo caso véndemela cuando este lista.
Esto me recuerda al nvidia physx donde la gente incluso montaba una segunda tarjeta gráfica para ello y no arrastrar a la prcipal, en su tiempo Asus saco la ageia physx para activarlo con Radeon de principal pero a Nvidia no se lo tomo bien.

Ahora Esto me parece atajos para los creadores de juegos meter esto a cocinar una iluminacion ya cocinada como hacen en uncharter mismo.

[+risas] aún no eh tenido una rtx.. pero si te obligan a usar la resolución dinámica (DLLs,,) para que sea estable...
@Silicio14mm Las cosas no funcionan asi, si la sacan en 10 años, estaria verde, la evolucion necesita su tiempo, el hombre no paso del mono a lo que somos ahora en dos dias y medio......

Sin trabajar dia a dia durante años en el Gimnasio no te vas a poner como Hulk Hogan, la vida no es Marvel con el suero del Super Soldado de Capitan America🤣
@ivan95
Las cosas no funcionan asi, si la sacan en 10 años, estaria verde

Imagen
Nvidia lleva muchos años en el sector profesional, para edición de video y diseño gráfico, con los cuda, casi es un monopolio para el render por gpu.
Imagen
De hecho lo que le sale a cuenta a Nvidia es dejar el sector Gaming y centrarse solo en el profesional y en la IA que es lo que la ha catapultado a lo más alto.
Lo que quiero decir es que el RT, trazado de rayos, no es ningún invento de Nvidia, es una herramienta de los programas render tipo VRAY con los que Nvidia a trabajado mano a mano hace años. No necesita sacar nada al sector gaming para ir investigando, cuando llegue al render en tiempo real en el sector profesional, si quiere que lo comercialice en el sector gaming, pero ya te digo yo que una gpu capaz de hacer un render con trazado de rayos en tiempo real de calidad no baja de 6000€ en el sector profesional.
Imagen
9998€ EN PC componentes.
https://www.pccomponentes.com/tarjeta-grafica-pny-nvidia-tesla-p40-24gb-gddr5?utm_source=531573&utm_medium=afi&utm_campaign=shopforward.nl&sv1=affiliate&sv_campaign_id=531573&awc=20982_1723028397_421200a1fdfa159243adb2c980fb2c55&utm_term=deeplink&utm_content=11894.EAIaIQobChMIp4Th-NzihwMVvItoCR2A6ymxEAQYAyABEgJqu_D_BwE
@Silicio14mm


Te equivocas


Nvidia sin RT sigue siendo mejor que AMD

Ejemplo clarisimos




Trabajar con software Cuda dependiente

Trabajar con IA

Usar DLSS

Usar DLSS y FG

Consumo Watts

Querer la gpu mas potente del mercado en rasterizado


6 son mas que multitud de grandes ventajas donde Nvidia es superior y SIN uso de RT cores


Por cierto si el juego usa RT ligero los fps caen minimamente otra gran ventaja, con una 4090 da lo mismo RT que no si ya sobrepasas tu monitor con RT por ej 144hz da lo mismo 198fps o 210




El RT si es un cambio de paradigma visual, pero no el que tenemos ahora, mira RTx minecraft es otro juego

En cuanto a jugabilidad no es cambio logicamente, es una presentacion de la realidad


El paradigma nuevo es VR, es el unico a l altura del 2D al 3D
@PSX22
Te equivocas


Nvidia sin RT sigue siendo mejor que AMD


Yo nunca he negado, que Nvidia sea mejor en RT que AMD, pero no me equivoco en que los RT cores de Nvidia solo sirven para el trazado de rallos, si no activas RT no los usas.

Que a un así, siga siendo muy potente en rasterización, si no lo niego, pero si compras una RTX pagas los rcores y si no activas RT has pagado un sobre coste por unos RCores que no usas.

Quiero que quede claro que a mi AMD y Nvidia me la sudan. Esto no va de marcas, va de vender humo y estafar al consumidor.
PSX22 escribió:@Silicio14mm


Te equivocas


Nvidia sin RT sigue siendo mejor que AMD

Ejemplo clarisimos




Trabajar con software Cuda dependiente

Trabajar con IA

Usar DLSS

Usar DLSS y FG

Consumo Watts

Querer la gpu mas potente del mercado en rasterizado


6 son mas que multitud de grandes ventajas donde Nvidia es superior y SIN uso de RT cores


Por cierto si el juego usa RT ligero los fps caen minimamente otra gran ventaja, con una 4090 da lo mismo RT que no si ya sobrepasas tu monitor con RT por ej 144hz da lo mismo 198fps o 210




El RT si es un cambio de paradigma visual, pero no el que tenemos ahora, mira RTx minecraft es otro juego

En cuanto a jugabilidad no es cambio logicamente, es una presentacion de la realidad


El paradigma nuevo es VR, es el unico a l altura del 2D al 3D


Discutible. AMD más memoria VRAM, más potencia de rasterizado y mejor precio que sus rivales en Nvidia.
@Silicio14mm Puedes seguir todo lo que quieras, pero para avanzar hay que masificar, sin publicar no se masifica, por lo tanto, seria imposible que por muchos años que estuvieran de desarrollo en la sombra, evolucionara lo mismo que estando fuera, como ejemplo tienes a DLSS, a saber cuantos años estuvieron para la mierda de DLSS 1.0 y conforme salio al mercado en tan poco tiempo tuvimos el 2.0.

¿Quieres mas ejemplos?

¿Como puede ser que fabricantes de coches hacen pruebas mecanicas de sus motores y despues cuando salen al publico, salen fallos que ellos nunca vieron?
Si no los comercializaban nunca hubieran fallado......
Pero claro, ellos hacen un testeo de una manera continua, por ejemplo los puretech de Stellantis de esa manera no sufren nada, pero en uso normal de arrancar y parar y todo eso, es cuando se vio el fallo de las correas humedas por la gasolina que se mezcla con el aceite al parar el motor.

Como los soportes de los motores de los Boing 747 que se resquebrajaban con el tiempo, eso hasta que no sale al mercado y ocurre el fallo, es casi imposible provocarlo en test, este fallo costo muchas vidas hace unos años por desgracia.

La gente no llega y levanta 100Kg de peso el primer dia, es progresivo, como todo en la vida.

Podriamos seguir asi todo el dia.

Y que conste que a mi el RT me la suda bastante, no lo activo nunca (tampoco tengo muchos juegos con RT) pero entiendo que esto es un paso que hay que afrontar, como fue el filtrado anisotropico, que cuando salio no habia huevos de ponerlo al maximo y sin embargo ahora una reloj Casio podria con ello🤣
@ivan95
Yo no lo veo así
Puedes seguir todo lo que quieras
.Sigo hasta aquí, ya me quedo clara tú opinión, la respeto, es totalmente lógica pero creo que vemos las cosas de manera diferente, intentare darte mi punto de vista lo mejor posible y espero lo respetes, lo compartas o no, con esta ultima respuesta.

para avanzar hay que masificar, sin publicar no se masifica, por lo tanto, seria imposible que por muchos años que estuvieran de desarrollo en la sombra
¿La sombra? aquí es donde más discrepo de tu punto de vista, el sector profesional de Nvidia no son las sombras, son la luz, es inmensamente más importante y grande que el sector Gaming.

A si que lo que yo veo es que Nvidia desarrolla e innova en I+D para el sector profesional, primero fueron los cuda que acabaron aterrizando en el Gaming ahora es la IA, que a acabado aterrizando en gaming con los tensor cores y los RT cores. Nvidia suelta migajas al gaming de lo que va sacando en el sector profesional para ir rentabilizando a un más el I+D pero para nada depende ni desarrolla para el Gaming. La mina de oro para NVIDA es la IA.

Pasa buen Verano.
PSX22 escribió:@Silicio14mm


Te equivocas


Nvidia sin RT sigue siendo mejor que AMD

Ejemplo clarisimos




Trabajar con software Cuda dependiente

Trabajar con IA

Usar DLSS

Usar DLSS y FG

Consumo Watts

Querer la gpu mas potente del mercado en rasterizado


6 son mas que multitud de grandes ventajas donde Nvidia es superior y SIN uso de RT cores


Por cierto si el juego usa RT ligero los fps caen minimamente otra gran ventaja, con una 4090 da lo mismo RT que no si ya sobrepasas tu monitor con RT por ej 144hz da lo mismo 198fps o 210




El RT si es un cambio de paradigma visual, pero no el que tenemos ahora, mira RTx minecraft es otro juego

En cuanto a jugabilidad no es cambio logicamente, es una presentacion de la realidad


El paradigma nuevo es VR, es el unico a l altura del 2D al 3D



Dos de esos ejemplos no están relacionados con videojuegos, en dos realmente son uno (has separado DLSS y usar FG) y hay que tener en cuenta que AMD también tiene FG. El consumo depende de la generación de GPU más que de AMD vs Nvidia.

Y por supuesto has omitido aspectos nada importantes como la mayor memoria o que a igualdad de precio las AMD suelen ofrecer más potencia.

Ejemplo, la 7800XT tiene más VRAM y es más potente en raster que una 4070 y vale menos.
Silicio14mm escribió:@ivan95
Yo no lo veo así
Puedes seguir todo lo que quieras
.Sigo hasta aquí, ya me quedo clara tú opinión, la respeto, es totalmente lógica pero creo que vemos las cosas de manera diferente, intentare darte mi punto de vista lo mejor posible y espero lo respetes, lo compartas o no, con esta ultima respuesta.

para avanzar hay que masificar, sin publicar no se masifica, por lo tanto, seria imposible que por muchos años que estuvieran de desarrollo en la sombra
¿La sombra? aquí es donde más discrepo de tu punto de vista, el sector profesional de Nvidia no son las sombras, son la luz, es inmensamente más importante y grande que el sector Gaming.

A si que lo que yo veo es que Nvidia desarrolla e innova en I+D para el sector profesional, primero fueron los cuda que acabaron aterrizando en el Gaming ahora es la IA, que a acabado aterrizando en gaming con los tensor cores y los RT cores. Nvidia suelta migajas al gaming de lo que va sacando en el sector profesional para ir rentabilizando a un más el I+D pero para nada depende ni desarrolla para el Gaming. La mina de oro para NVIDA es la IA.

Pasa buen Verano.


En resumen, que conforme sale algo ya tiene que estar lo suficiente evolucionado para que no se note su uso en terminos de rendimiento, eso es lo que tu quieres y LA VIDA no funciona asi, tu no vas a irte al Gimnasio a levantar 150Kg si no hiciste ejercicio en tu vida, necesitaras tiempo e ir escalando desde abajo.

Las opiniones son como los culos, todos tenemos uno, pero eso no hara que la realidad cambie, la Tierra no es plana por que yo la sienta asi por ejemplo.......

Los motores de hoy dia con mas de 1000 ponis de potencia no son los mismos que los primeros motores, evolucionaron.....

Los juegos de hoy dia no son el Tetris de hace mas años que el sol, evolucionaron.....

Pero todo eso tiene una cosa en comun, fueron la base para lo que es hoy tanto los motores que pueden fabricar actualmente y los videojuegos de hoy dia, sin ese primer paso, lo mismo todavia estariamos en carruajes de caballos y jugando a las canicas.

Quieres otro ejemplo de evolucion pero a lo bestia, Apple empezo en un garaje, ¿Te tengo que decir lo que es Apple unas cuantas decadas despues?

Lo que no puedes esperar es que todo eso, conforme aparecio fuera lo que es hoy, los milagros estan en la biblia.
JagerCrow escribió:Holas a todos

Pienso que debido a como lo ha vendido NVIDIA como una mejora visual que se basa en mostrar gráficos realistas, y se llevan mas de 20 años creando técnicas para para que el apartado visual de un video juego se vea lo mas realista posible pero son trucos para que sea vea de una forma consistente a como se debería ver en el mundo real

dichos esto y resumiendo mucho el utilizar las diferentes técnicas que existen hoy en día para los juegos crea diferentes sistemas que deben funcionar en sincronía para generar todos los efectos se apliquen de forma correcta para luego pasar al proceso de rasterizado (básicamente coger una escena 3D y pasarla a una imagen 2D para presentarla en un monitor X veces por segundo para crear la ilusión de movimiento)

la tecnología actual limita lo que los video juegos pueden hacer y es por eso que tantos juegos se parecen los unos a los otros por las mecánicas que se implementen estas limitadas a nivel técnico

Ahora si que hace el raytracing eliminar todas técnicas y crear un único sistema que maneje todo, lo cual sobre el papel permite o mas bien quita todas las limitaciones técnicas actuales, el valor del ray tracing no esta en la mejora visual ya que esta va representar algo que ya se hacia de otra forma así fuera falsa pero bastante convincente, nate gentile hace rato hizo un video donde lo explica mejor que yo cual es la trascendencia del ray tracing y no se trata de gráficos se trata de cambiar como se hacen los juegos por que lo que se puede hacer en los juegos actualmente se limita entre las técnicas que se usan para los efectos gráficos y la interactividad del juego dejare el video de nate gentile para el que quiera ampliar su conocimiento sobre el tema

para mi aun a las graficas actuales les falta potencia para tener juegos cuyo diseño vaya plenamente con ray tracing y va suponer un cambio como lo fue en su día el 3D, y vuelvo y lo repito no es por graficas es por lo puedas hacer en el juego




Mucho texto, hago resumen; Ahora, los programadores, con RT hacen lo mismo en una semana que antes de 3 meses. Fin del resumen.
Si, esta claro que Nvidia no puede tener el RT metido en un cajón hasta que sea la hostia primero porque pierde dinero en inversión, sin rentabilizar y segundo que corre el riesgo en que alguien... AMD, Intel o quien sea saque algo parecido y se vuelva el estándar y le quite posición en el mercado.

Ya después en la vendida de humo que hacen con el RT en gaming no tienen defensa [+risas] [+risas]

Saludos!! [oki] [oki]
@Silicio14mm


Si yo no digo que los RT cores sirvan para mas cosas, digo que aunque no los utilices es mejor GPU nvidia



@trueskins


Totalmente falso, a la 4090 no le falta de nada

Quien te obliga a comprar chips recortados?


@Cyborg_Ninja


Se separa dlss de FG porque sin cosas distintas


Todo lo que tiene nvidia lo tiene amd, pero peor

Menos el precio
@charlylps
Nvidia no puede tener el RT metido en un cajón hasta que sea la hostia primero porque pierde dinero en inversión

No lo tiene en un cajón, primero saco los cuda en GPU quadro para profesionales y se hizo con el monopolio del render GPU, para diseño y edición, ya que el Open cl no acaba de estandarizarse.
Luego se centro en la IA para el sector profesional y se esta haciendo de oro.

No es que tenga que sacar los productos sin probar y 100% evolucionados desde el minuto uno es que esa evolución la realiza en el sector profesional, haciéndose de oro. Pero no es lo mismo sacar hardware para agilizar la renderización y facilitar el trabajo a profesionales, que pretender un RT en tiempo real con calidad y meterlo en gaming, pues no funciona. Coger esas graficas para el sector profesional recortarlas en RT cores, tensores y venderlas en el sector Gaming en mi opinión no ha sido buena idea.
Nvidia no pretende hacer series de levantamiento de pesas de 150kg de golpe, lleva siendo la reina de la halterofilia mucho tiempo.
Es como si Ferrari dedica todo su I+D a la formula 1 y acaba sacando una serie turismo para el consumidor apro0bechando todo lo aprendido y ya ensayado.

Las granjas de IA con miles de tesla Nvidia a 10.000€ cada una, son el futuro de Nvidia.
(mensaje borrado)
PSX22 escribió:@Silicio14mm


Si yo no digo que los RT cores sirvan para mas cosas, digo que aunque no los utilices es mejor GPU nvidia



@trueskins


Totalmente falso, a la 4090 no le falta de nada

Quien te obliga a comprar chips recortados?


@Cyborg_Ninja


Se separa dlss de FG porque sin cosas distintas


Todo lo que tiene nvidia lo tiene amd, pero peor

Menos el precio


No he dicho que sean lo mismo, he dicho que lo has puesto en plan:

- Usar DLSS
- Usar DLSS y FG


Y a ver, que es hacer un poco bulto. Es como si yo digo:

Tener más VRAM
Mejores texturas por mayor memoria de video y FG aplicable a todos los juegos (AFMF 2)

Que jugar a hacer bulto sabemos todos xDDD


Sin activar RT yo si creo que hay un empate técnico. En Nvidia puedes usar el DLSS y el FG que es algo mejor que el combo FSR y FG de AMD, pero la ventaja se va al traste con la diferencia de precio y rendimiento en bruto, además del déficit de VRAM, que siempre decís que no pasa factura y ya hay bastantes pasándolas putas con una 3060ti.
Cubre escenarios totalmente distintos


DLSS sin FG

DLSS con FG


Porque no son el mismo? Hay gente que se marea con FG o siente mareos por la latencia, o simplemente le incomoda jugar con latencia


Un variable mas es una ventaja mas, asi de simple y no es como decir es una gpu con mas vram y es una gpu con mayor capacidad de texturas



Elilinando RT cores nvidia te aseguro que seria la empresa lider sin lugar a dudas, porque? Porque antes de existir el RT core , ya era la lider




Cyborg_Ninja escribió:
PSX22 escribió:@Silicio14mm


Si yo no digo que los RT cores sirvan para mas cosas, digo que aunque no los utilices es mejor GPU nvidia



@trueskins


Totalmente falso, a la 4090 no le falta de nada

Quien te obliga a comprar chips recortados?


@Cyborg_Ninja


Se separa dlss de FG porque sin cosas distintas


Todo lo que tiene nvidia lo tiene amd, pero peor

Menos el precio


No he dicho que sean lo mismo, he dicho que lo has puesto en plan:

- Usar DLSS
- Usar DLSS y FG


Y a ver, que es hacer un poco bulto. Es como si yo digo:

Tener más VRAM
Mejores texturas por mayor memoria de video y FG aplicable a todos los juegos (AFMF 2)

Que jugar a hacer bulto sabemos todos xDDD


Sin activar RT yo si creo que hay un empate técnico. En Nvidia puedes usar el DLSS y el FG que es algo mejor que el combo FSR y FG de AMD, pero la ventaja se va al traste con la diferencia de precio y rendimiento en bruto, además del déficit de VRAM, que siempre decís que no pasa factura y ya hay bastantes pasándolas putas con una 3060ti.
Yo, honestamente, no entiendo el "debate". Es obvio que un buen uso e implementación de RT en un juego mejora la calidad gráfica. Del mismo modo, es indudable que el uso del RT se lleva por delante un buen puñados de FPS, siendo el impacto de rendimiento menor en Nvidia que en AMD. Todo esto creo que es objetivo y no opinable. Teniendo en cuenta todo ello, si hoy día alguien quiere jugar activando al máximo el RT, es obvio que debería decantarse por una GPU de Nvidia en vez de AMD.

Ahora bien, que el RT vaya a ser el futuro en el videojuego o no, es algo que no se sabe. Pero, si efectivamente fuese el futuro, lo será dentro de muchos años por mucho que le facilite la tarea a los desarrolladores de videojuegos. Y ello por dos razones: La primera, y más importante, es que las consolas siguen existiendo y ya se sabe que la nueva generación de consolas está "relativamente cerca". Salvo sorpresa mayúscula, estas nuevas consolas no van a ser capaces de ejecutar un uso intensivo de RT, puesto que si no el precio de la máquina se dispararía (sólo hay que ver el precio de una 4060 y el rendimiento de esta con RT). Ello garantiza ya un buen puñado de años desarrollando videojuegos sin que el RT sea el eje fundamental del desarrollo (sí, podrá hacerse uso del RT para adornar algún que otro efecto, pero nada salvaje que haga echar por tierra el rendimiento en consolas).

El segundo motivo es el actual parque de usuarios de PC. La mayoría de usuarios ni mucho menos tienen una GPU capaz de mover un juego con un RT intensivo. ¿Van a sacar juegos cuya iluminación, por ejemplo, descanse exclusivamente en el RT? Pues buena suerte vendiéndolo a la inmensa mayoría de los consumidores... ¿Qué cuesta más, ahorrarse dinero en desarrolladores y en horas de "cocinado de iluminación" y vender el producto a unos cuantos de miles, o seguir con técnicas de desarrollo más costosas y venderlo a cientos de miles o millones de usuarios?

Todo esto no quiere decir que Nvidia no esté poco a poco allanando el terreno para conseguir que el RT sea una técnica imprescindible en el futuro, pero de ahí a pensar que el RT va a ser imprescindible en un par de años va un trecho.
@Silicio14mm

:) cuidado con lo que dices que aquí te piden carnet de prensa, verificación y documentos técnicos para opinar
veo estafa y le sumo humo [beer]

Todo el tema de RT me suena a “El rey desnudo” cuento escrito por Hans Christian Andersen
Imagen
Cuento en el que unos sastres, Nvidia, timan al rey, consumidores, haciéndole un traje que realmente no existe, insisten tanto y son tan convincentes, marketing, que el rey acaba por creerles pues los sastres dicen que solo los tontos no ven el traje.

Nvidia dijo que el RT era el futuro, no en 10 años, ya, que si no no vende, dijo mirar que brillos que reflejos que iluminación, que traje, comprar comprar con sobrecoste y vendió la serie 2000, mucha gente dijo, pues no veo nada y Nvidia saco la serie 3000 a un más cara, mucha gente siguió sin convencerse y saco la 4000 llegando a los 2800€ de gpu en algún modelo, a un quedan unos cuanto que no ven el dichoso traje otros estan muy contentos con el traje lo vean o no, pues no son tontos. A si que Nvidia sacara la serie 5000 y todos los listos a comprar. Ir preparando los 3000€ el traje lo merece.


[beer] [beer]
Silicio14mm escribió:@charlylps
Nvidia no puede tener el RT metido en un cajón hasta que sea la hostia primero porque pierde dinero en inversión

No lo tiene en un cajón, primero saco los cuda en GPU quadro para profesionales y se hizo con el monopolio del render GPU, para diseño y edición, ya que el Opoen Gl no acaba de estandarizarse.
Luego se centro en la IA para el sector profesional y se esta haciendo de oro.

No es que tenga que sacar los productos sin probar y 100% evolucionados desde el minuto uno es que esa evolución la realiza en el sector profesional, haciéndose de oro. Pero no es lo mismo sacar hardware para agilizar la renderización y facilitar el trabajo a profesionales, que pretender un RT en tiempo real con calidad y meterlo en gaming, pues no funciona. Coger esas graficas para el sector profesional recortarlas en RT cores, tensores y venderlas en el sector Gaming en mi opinión no ha sido buena idea.
Nvidia no pretende hacer series de levantamiento de pesas de 150kg de golpe, lleva siendo la reina de la halterofilia mucho tiempo.
Es como si Ferrari dedica todo su I+D a la formula 1 y acaba sacando una serie turismo para el consumidor apro0bechando todo lo aprendido y ya ensayado.

Las granjas de IA con miles de tesla Nvidia a 10.000€ cada una, son el futuro de Nvidia.


Creo que te estás confundiendo, todas las GPU son Cudas, Cudas es el nombre comercial que le da Nvidia a los Cores de sus GPU, el Cuda en la gama profesional es a nivel de software/drivers, drivers optimizados para ciertas aplicaciones profesionales.

Y no las GPU Gaming, no son GPU recortadas de las profesionales, en realidad las Quadros y RTX a nivel de hardware son lo mismo, lo único que cambia es el soporte de drivers y drivers optimizados para ciertas aplicaciones profesionales como he comentado anterior.
@ScrollSpeed

He visto que he confundido Open GL con Open CL, respecto a núcleos Cuda no me he confundido, Nvidia tiene y AMD no. Ya sea a nivel driver o físico el hecho es que Nvidia es la propietaria de la tecnología Cuda y solo puede usarlas sus GPU. Los programas de render que trabajan con Open CL, pueden hacer uso de gpu amd.
Vray hace muchas versiones que no usa Open CL, solo hace render gpu con nvidia, hace uso de los núcleos cuda.
Imagen
Las GPU AMD no tienen núcleos Cuda
Imagen
Imagen
La 4090 parece más una gpu para el sector profesional que para gamig.
@Silicio14mm

Las AMD también tienen Cuda Cores [qmparto] .

Ves la parte de esa imagen que dice Shaders seguida de esos números altos 2000 ,6000 o 16000 (RTX 4090)? Cada uno de esos es un Core de la GPU, un Core es una ALU que puede hacer cálculos Coma flotante y enteros (FP y INT) en diferentes precisión 32, 16, 8 bits etc. Nvidia comercialmente les llama sus cores "Cuda", pero simplemente es un nombre comercial, todas las GPU se componen de esos Core.

Imagen

AMD SIMD
Imagen
@ScrollSpeed
Si, pero como Vray solo se comunica para render gpu usando los cuda cores de Nvidia, no puedo hacer render por gpu con la 7900xtx.
Supongo que por acuerdos entre nvidia propietaria de la tecnología o driver cuda y Vray

Si AMD llegara a un acuerdo con Vray las gpu AMD podrían usarse para render gpu en Vray
PSX22 escribió:Cubre escenarios totalmente distintos


DLSS sin FG

DLSS con FG


Porque no son el mismo? Hay gente que se marea con FG o siente mareos por la latencia, o simplemente le incomoda jugar con latencia


Un variable mas es una ventaja mas, asi de simple y no es como decir es una gpu con mas vram y es una gpu con mayor capacidad de texturas



Elilinando RT cores nvidia te aseguro que seria la empresa lider sin lugar a dudas, porque? Porque antes de existir el RT core , ya era la lider




Cyborg_Ninja escribió:
PSX22 escribió:@Silicio14mm


Si yo no digo que los RT cores sirvan para mas cosas, digo que aunque no los utilices es mejor GPU nvidia



@trueskins


Totalmente falso, a la 4090 no le falta de nada

Quien te obliga a comprar chips recortados?


@Cyborg_Ninja


Se separa dlss de FG porque sin cosas distintas


Todo lo que tiene nvidia lo tiene amd, pero peor

Menos el precio


No he dicho que sean lo mismo, he dicho que lo has puesto en plan:

- Usar DLSS
- Usar DLSS y FG


Y a ver, que es hacer un poco bulto. Es como si yo digo:

Tener más VRAM
Mejores texturas por mayor memoria de video y FG aplicable a todos los juegos (AFMF 2)

Que jugar a hacer bulto sabemos todos xDDD


Sin activar RT yo si creo que hay un empate técnico. En Nvidia puedes usar el DLSS y el FG que es algo mejor que el combo FSR y FG de AMD, pero la ventaja se va al traste con la diferencia de precio y rendimiento en bruto, además del déficit de VRAM, que siempre decís que no pasa factura y ya hay bastantes pasándolas putas con una 3060ti.


Repito, podrías haber dicho que en Nvidia puedes usar DLSS y FG y ya, no hacía falta añadir mucho rollo. Pero ojo, que el AFMF no lo puedes utilizar en Nvidia y la versión actual por lo visto está dando muy buenos resultados:




Y con una Nvidia te tienes que limitar solo a los que tengan FG con implementación oficial. En AMD puedes usar el FG implementado oficialmente en el juego o el de los drivers, que a diferencia de la versión anterior, parece que ya funciona bastante bien.


Pero bueno, yo esto lo resumiría que Nvidia tiene una ventaja consistente y objetiva en la gama alta, pero cuando se trata de gamas bajas y medias no lo tengo yo tan claro, para el RT se van a quedar cortas igual, y con Nvidia vas a pagar un sobreprecio y te vas a quedar con menor potencia en raster, más cara y que va a envejecer peor por su VRAM.

Elilinando RT cores nvidia te aseguro que seria la empresa lider sin lugar a dudas, porque? Porque antes de existir el RT core , ya era la lider


Bueno, ser la líder no va necesariamente ligado con hacer las cosas mejor. Muchas veces es la simple inercia de la marca y de haberlo hecho mejor con el tiempo, y de tener una marca más sólida en el mercado, y no por hacerlo actualmente mejor.

Y repito, sí lo hace en varias cosas mejor, pero yo no te diría que una 4070 es mejor compra que una 7800XT ni con el dinero de otro.
@Cyborg_Ninja

totalmente falso nuevamente, con nvidia puedes usar soluciones no oficiales de de crecion de frames con apps como loseless scaling , incluso en la serie 4000 ( aunque no lo necesitemos por razones logicas).

amd tiene AFMF y FSR3, pero soluciones inferiores , ademas que FSR tambien lo usa nvidia ( absurdo por ahi esta)


El AFMF comprobado que es un desastre, se desactiva ante condiciones duras de movimiento de imagenes ( dicho por frikis que estan todo el dia con gpus , y no hace otra cosa que probar y probar).

es totalmente falso que se este pagando sobrecoste en nvidia, porque en el mercado si el cliente no percibe un valor tangible, no compra y se va a la opcion que rinde igual a menor precio, y esto no es asi. No es asi con nvidia ni es asi con apple. La gente que paga mas, es porque recibe mas. De no recibir mas, claramente se compraria a menor coste amd para tener lo mismo. No es asi en ninguna gama. AMD directamente en gama ultra alta no existe, en gama media si lo hace mucho mejor, la 7800xt es de mis favoritas de amd porque apenas son 500€
PSX22 escribió:@Cyborg_Ninja

totalmente falso nuevamente,
El AFMF comprobado que es un desastre, se desactiva ante condiciones duras de movimiento de imagenes ( dicho por frikis que estan todo el dia con gpus , y no hace otra cosa que probar y probar).



Imagínate si te has informado poco que han dicho por activa y por pasiva que el AFMF 2 actual corrige ese problema:

In AFMF 2, we have made considerable improvements in frame generation by using AI-optimization to help develop an updated algorithm. At 1440p and greater, the Search Mode “Auto” setting automatically selects “High” mode, which reduces fallback for improved AFMF smoothness. The “Standard” setting is used for 1080p, which is the optimal setting for this resolution. We have also improved the overall image quality in AFMF 2 for a better gaming experience in any Search Mode setting when compared to AFMF 1.


Los "frikis" actualmente dicen que funciona bastante bien, según el juego obviamente, pero el mayor problema del AFMF 1, el que mencionas precisamente, está corregido.

con nvidia puedes usar soluciones no oficiales de de crecion de frames con apps como loseless scaling , incluso en la serie 4000 ( aunque no lo necesitemos por razones logicas).



¿Como que no lo necesitas? pero si estás mezclando churras con merinas. Lossless Scaling se puede utilizar con cualquier juego, como el AFMF2, y el FG de Nvidia solo se puede utilizar en juegos con implementación oficial de DLSS 3. No tiene nada que ver. AMD también tiene un FG en los juegos de forma oficial y funciona muy bien.
@PSX22

En el AFMF 2 ya no se desactiva al girar rápido la cámara y trae mejoras notable a nivel de latencia(la reduce a más de la mitad) y calidad visual, con soporte a juegos Vulkan/OpenGL. Es una mejora bastante importante.

Lo que dices de tu último es subjetivo, cada quien valorara si pagar un sobreprecios por técnicas un poco mejor. Y lo de Apple más de lo mismo.

En mi caso por ejemplo no pagaría ningún extra por ningún Featuring de Nvidia o Apple, no tienen nada que valga la pena a nivel de calidad, y en una GPU preferio lo importante rendimiento/precio.
Aquí DF haciendo un pequeño análisis del AFMF2, y efectivamente, el problema de que se desactive en los giros de cámara como el anterior ha desaparecido, resumiendo mucho, funciona MUCHO mejor y es una opción más que interesante:



Opción que ahora mismo no está en Nvidia, no tiene más. Es que no cuesta nada ser un poquito imparciales. Yo reconozco que el RT funciona claramente mejor en Nvidia y el DLSS también es mejor que el FSR, pero no cuesta nada reconocer que AMD tiene sus puntos fuertes: mejor relación calidad-precio en algunas gamas, más potencia en rasterización, más VRAM y ahora podríamos añadir el AFMF 2, que es una opción muy aceptable de FG y es una buena ventaja tener un FG que puedes utilizar con multitud de juegos sin tener implementación oficial (que son básicamente la mayoría del mercado).


Esto también viene bien para esos juegos "ahogados" por el RT en GPUs de AMD como la 7900xt o la 7900xtx, parece que no pero según Richard de DF incluso partiendo de 40fps los resultados son muy atractivos con el AFMF2.


Ya haré mis pruebas también.
@ScrollSpeed

esto debe ser una novedad de menos de 10 dias, pues sigo la actualidad y esto es lo que reportaban que era inusable. Si ha salido ahora, pues claro no vivo dentro de youtube tampoco, iran saliendo mas revisiones de esta version y habra que ver si es realmente lo que se dice.

Lo que me gusta es que se pueda usar a nivel driver con todos los juegos, es asi? en nvidia se hace por cada juego siempre que el driver lo incluya claro. habra que ver si genera los frames correctamente y sin apenas lag , tiene el modo boost como reflex amd? seria una gran noticia, cuando antes amd se ponga las pilas con FSR y FG , mas apretara nvidia en la serie 5000 y mejor para todos

@Cyborg_Ninja lo tendre que ver , ese video tiene 2 dias y es poco tiempo para probar todos los juegos en profundidad
PSX22 escribió:@ScrollSpeed

esto debe ser una novedad de menos de 10 dias, pues sigo la actualidad y esto es lo que reportaban que era inusable. Si ha salido ahora, pues claro no vivo dentro de youtube tampoco, iran saliendo mas revisiones de esta version y habra que ver si es realmente lo que se dice.

Lo que me gusta es que se pueda usar a nivel driver con todos los juegos, es asi? en nvidia se hace por cada juego siempre que el driver lo incluya claro. habra que ver si genera los frames correctamente y sin apenas lag , tiene el modo boost como reflex amd? seria una gran noticia, cuando antes amd se ponga las pilas con FSR y FG , mas apretara nvidia en la serie 5000 y mejor para todos

@Cyborg_Ninja lo tendre que ver , ese video tiene 2 dias y es poco tiempo para probar todos los juegos en profundidad


Sí es cierto que es bastante reciente, pero a diferencia del primero parece que en este han dado bastante con la tecla. La mayoría de impresiones son bastante positivas y funciona en la mayoría de juegos DX11/12/Vulkan.

Lo que sí es cierto es que parece que en Vulkan no funciona tan bien como en el resto. Por ejemplo en el Red Dead Redemption 2 con Vulkan parece que la mejora no es tan grande como en los demás. Pero pinta MUY interesante. Obviamente habrá juegos en los que funcione peor que en otros, pero por ejemplo parece haber unanimidad en que juegos como Control, Alan Wake 2 o Cyberpunk funcionan muy bien.
@Cyborg_Ninja

Diria que todo lo que juego es DX12, pero lo ideal es que ambas librerias esten optimizadas para eso. Cuanto mas lo mejoren mejor para todos, nvidia esta demasiado comoda, mirad la serie 5000 que no tienen prisa.
Cyborg_Ninja escribió:El tema es que el Ray Tracing donde más se luce es en la iluminación global, por ejemplo, en The Witcher 3 se nota:

Imagen

El problema es que The Witcher 3 nunca ha empleado ninguna técnica de iluminación global decente, y claro, se nota muchísimo. Pero qué pasa con los juegos que sí tengan una GI aunque sea precalculada pero sea muy precisa y muy efectiva? voy a poner de ejemplo AC: Unity:

Imagen


Esto es una historia completamente diferente, porque tiene una iluminación global precalculada pero tremendamente vistosa, efectiva y muy realista. Si la sustituyes por iluminación global por Ray Tracing será aún más precisa, pero ya la diferencia será anecdótica, tendrás que fijarte en los pequeñísimos detalles... pero el rendimiento se desplomará y tendrás que sacar la lupa para ver las diferencias. Ahí radica el verdadero problema.


Cuando se emplean planar reflections + SSR, el RT también es más preciso en los reflejos, el problema es que no se nota TANTO como para perder tanto rendimiento. Si vemos esto en estático:

SSR:

Imagen


Ray Tracing:

Imagen



Pues no vemos mucha diferencia, sí, jugando como su propio nombre indica (reflejos espacio pantalla) desde ciertos ángulos tiene artefactos y cosas así, el problema del RT es que es más preciso, los reflejos tienen mayor calidad, pero con esa "tontería" te comes 20-30 frames. A mí me parece mucho para algo que te vas a tener que fijar y que no salga a la vista.



Con Alan Wake 2 y el Path Tracing precisamente pasa lo que he comentado en el AC: Unity, como de por si el juego utiliza una iluminación global de calidad (y además, creo que es en tiempo real), pues si le añades el RT se nota poco, es más preciso, es mejor, pero ya tienes que ir haciendo zoom a las mesas y fijarte en los pequeños detalles, pero te estás comiendo un 70-80% de rendimiento fácilmente incluso con RTX 4000.




Yo lo que veo es que actualmente cuando activas esta opción, el rendimiento se desploma, y cuando se desploma tanto esperas que sea un "game changer", que sea activarlo y decir "joder", pero no, casi siempre vas a ver resultados muy similares.



El día que activarlo pierdas poco rendimiento o algo asumible será una historia totalmente diferente, pero hoy por hoy, yo prefiero dejarlo desactivado incluso con mi 4080, salvo que vaya muy sobrado de rendimiento. Esto por no mencionar algo de lo que no se suele hablar, y es que no son pocos los juegos que el RT mete un stuttering importante.

Bueno el valor del RT es tener una IG en tiempo real, que pase el tiempo, o entrar en una cueva con una linterna como en TW3, hay que avanzar.
Me reitero, la diferencia visual es tan insignificante en el común de los casos, que por muy sobrado que este el pc, prefiero tenerlo fresco RT OFF
Imagen
Que sufriendo RT ON a cambio de nada.
Imagen
A parte del regalito que trae el RT con el tartamudeo.
Imagen
Desactiva ray tracing
Silicio14mm escribió:Me reitero, la diferencia visual es tan insignificante en el común de los casos, que por muy sobrado que este el pc, prefiero tenerlo fresco RT OFF
Imagen
Que sufriendo RT ON a cambio de nada.
Imagen
A parte del regalito que trae el RT con el tartamudeo.
Imagen
Desactiva ray tracing

Bueno.......yo acostumbro a usar RT en los juegos que lo hay y no veo esos problemas.......ni se me churrusca el PC, eso si me churrusco yo pero eso es inevitable, ni veo ese tartamudeo.
210 respuestas
1, 2, 3, 4, 5