¿Tarjeta dedicada para RAY tracing?

Buenas, abro un debate respecto al RTX, por que visto lo visto, el gran consumo que tiene esta tecnologia, no usan una tarjeta al estilo de physis en su dia, para calcular todos los rallitos trazados de cojones, para liberar a la grafica de esto?

Segun hasta donde se, las graficas tienen los tensor core que hacen esto, pero no habria manera de ayudar con un hardware secundario¿? por que no lo hacen?
chrispro escribió:Buenas, abro un debate respecto al RTX, por que visto lo visto, el gran consumo que tiene esta tecnologia, no usan una tarjeta al estilo de physis en su dia, para calcular todos los rallitos trazados de cojones, para liberar a la grafica de esto?

Segun hasta donde se, las graficas tienen los tensor core que hacen esto, pero no habria manera de ayudar con un hardware secundario¿? por que no lo hacen?

La GPU, si hablamos de Nvidia, está liberada para ello, ya que como dices de eso se encargan los tensor core, no consume ningún core dedicado a operaciones INT o FP para ello. Otra cosa es AMD que, si no recuerdo mal, cada core o hace un tipo de operación u otro.

Aparte no creo que hubiera mercado para ello. Es una tecnología que si está bien implementada mola, pero no como para instalar/comprar un hardware dedicado para ella. Como ya se ha comentado en algún hilo, tiene más ventajas del lado de facilitar la programación de luces al desarrollador, que del lado de la ganancia para el usuario
Bueno, las RTX usan los tensor cores pero a lo que se referira @chrispro es que cuando activas el RT, incluso en juegos que usan DLSS, puedes perder 100fps de golpe. Asi que ciertamente dicho efecto tiene una gran repercusión. Yo por lo que he visto, lo mejor si se quiere usar, es utilizar la optimización del juego del geforce experience porque buscara la mejor configuración perdiendo lo mismo. Asi por ejemplo el Mechwarrior 5 que usa el motor de Unreal sin usar RT y usando DLSS con mi 3060 juegas a casi 200 fps, usando RT y poniendolo todo en ultra, lo que seria sin fijarse mucho y pensando en a lo bestia te baja a 60fps, con la configuración del geforce experience se queda en unos 100 fps, en ese caso por lo que vi, reducia efectos de particulas y seguia viendose muy bien.

Claro esta, el motor de Unreal es buenisimo con estas cosas, otros motores ni por fu ni por fa no pierden un monton.

Pero vamos, que estaria bien que el futuro la repercusión no fuera tan gorda.
@Nomada_Firefox

Por supuesto que como dices impacta al rendimiento. Con mi comentario de los cores dedicados (que por cierto patiné al decir los tensor, que eso son los de IA, serían los RT core), iba a la parte de que esto sería igual si sacas ese hard a otra tarjeta.

Hasta donde tengo entendido (que igual no es así, no es un área en la que sea experto), el impacto de raytracing viene de tener que esperar al resultado del cálculo que hacen los RT core, no a que su trabajo baje en nada el rendimiento de los core dedicados a otras tareas. Es decir, que si llevas los RT cores a un hard dedicado fuera de la GPU, no ganas nada por ello, vas a tener que "esperarlos" igual.

Pero como digo igual estoy equivocado en ese concepto base.
Por cierto, ahora que me acuerdo una cosita interesante, en el Far Cry 6, juego curioso porque esta hecho para hardware de AMD más que para los demas, hay varias opciones graficas llamadas DXR reflections y mi pregunta es ¿son efectos de Raytracing? he visto algun video de youtube donde lo vendian como eso pero me resulta llamativo porque no hace falta hardware especial, si bien uno de ellos que añade mejores reflejos en el agua consume unos cuantos fps, no tantos como el Raytracing de Nvidia y por lo demas es que tampoco se me parecen tantos. No obstante cada juego luce de un modo con esto.

En el Far Cry 6 tambien se puede usar el FSR de AMD que es su DLSS en abierto para cualquier tarjeta grafica. No se lo que sucede con una de AMD pero con una Nvidia, la ganancia no es espectacular.
Micropagos está baneado por "Saltarse el baneo con un clon"
Para aclarar los Tensor Core se encargan de la IA, son las unidades RT Core los que se encargan de una parte del Ray Tracing, en realidad apesar que no hay datos oficiales se cree que tanto los Tensor Core y RT Core son los mismo ALU en FP16, la unica diferencia es que los RT core estan conectados al SM y las caches por cual puede trabajar de manera paralela a los Cudas Core, mientras que los Tensor Core estan solo trabajan al final del frame.

Con esta base que explicó arriba y respondiendo al tema, en la teoria es imposible hacer un chip de dedicado para RT o designar una GPU.

El problema con el Ray Tracing es que se divide en dos etapas , intersección de rayos y sombreado, el sombreado se tiene que hacer en los FP32(cudas), por cual el Ray Tracing sigue necesitando de las partes de rasterizado de la GPU, los RT core solo se encargan de acelerar las partes de intersección de rayos que es lo mas intenso, pero un vez tienen los resultados del hit del rayo, la información se devuelve a los cudas para que lo sombreen.

Por eso los RT core estan conectados al SM y la Cache.
el tema es en cyberpunk por ejemplo, todo en ultra dlss calidad y rtx al maximo, 50 fps de media con una 3080 ti.

Pongo el juego en minimo, pero con rtx al maximo, y lo mismo... no puede, y aunque baje el rtx... a medio o bajo, la grafica no puede...

Sacan una tecnologia que ni el hardware mas caro actualmente ( 3090 evidentemente pero la diferencia es minima) que no puede con ello...
@chrispro

Y eso contando que es la segunda generación de graficas RTX....en las primeras RTX el ray tracing debe de quedarse en algo anecdótico
El Ray Tracing también ha llegado en un momento de salto de resolución generacional a 1440p/4K, lo que ha elevado el consumo de este efecto por mucho. NVIDIA ha aumentado la potencia de RT en Ampere respecto a Turing, pero también es verdad que ha reducido las unidades RT.

En un par de generaciones tendremos rendimiento 4K y RT de sobras, pero con ayuda de DLSS y DSR, y eso que ahora todavía estamos empezando a verlo en juegos.

En cuanto a una GPU dedicada, lo veo improbable a no ser que las propias GPU llevaran un bus de comunicación muy burro y una arquitectura especializada, ya hemos visto como el multi-GPU no se ha impuesto y una GPU "compositora" maestra parece muy improbable. Ahora mismo renta más sacar "chips gordos" para vender las mejores hornadas mucho más caras.
8 respuestas