Silicio14mm escribió:No puedo entender como te esfuerzas tanto en humillar y arrastrar por el suelo el hardware, más concretamente las Tarjetas Graficas, de la competencia y las tuyas propias. No se que ganas al convertir cyberpunk 2077 en una demo técnica, que demuestra lo ridículo, la tomadura de pelo y lo cutre que ha sido el ray tracing, así que para dejarlo bien claro, sacas una configuración de ray tracing mas agresiva, para que tus clientes vean que el camino que sigues es un pozo sin fondo, un agujero negro del rendimiento, dejando de rodillas a la 4090 que no puede a 4k nativos 60 a duras penas, una grafica de 2000 euros, en serio ¿ese es el camino?.
Cada vez tengo mas claro que el ray tracing no va a ser la técnica de iluminación a seguir a futuro.
Donde deja Nvidia a los poseedores de las 3080, 3080 ti, 3090 etc, contentos de saber que el ray tracing que tienen es el cutre y que el bueno el de ahora lo mueven a 30 1080p. Tanta serie 3000 para tener el ray tracing en off.
Eso pasó con physx, pero a diferencia de ésta tecnología, Ray tracing no es un invento de nvidia (Sí los tensor cores y los RT cores, y ahora hablaré de ellos), ray tracing es un método de iluminación usada, desde hace muchísimo, en los motores de render (Que no de videojuegos) para renderizar imágenes, es un cálculo de iluminación que consume muchos recursos y es muy costoso, ahora porque es posible renderizar con GPU y, donde la GPU tarda solo 30 segundos, la CPU puede tardar 8 horas en sacar un fotograma. Los RT cores han hecho mas viables este proceso de renderizar imágenes complejas en motores de render como puede ser Arnold.
Ahora bien, solo llevan tres generaciones de gráficas, y al igual que pasó con los cuda cores, Si no recuerdo mal, la primera generación de gráficas que empezó a usar los CUDA cores fueron la serie GTX 480, las cuales, en ese momento, su objetivo principal era mover physx, un sistema en desuso (ya que era propiedad de nvidia, al contrario que ray tracing, la cual no es invención de nvidia, una pena la verdad, ya que estaban muy chulos los efectos) capaz de crear físicas "realistas", La gtx 480 tenía 512 CUDA Cores, con éstos, no podias ni mover a buenos fps la tecnología a causa de la poca cantidad de cuda cores que tenía la gráfica, a pesar de ser el tope de gamas (era una tecnología que también consumía muchísimo).
Actualmente, una rtx 4080 (Por poner un modelo "equivalente" generacionalmente hablando) tiene 16.384 cuda cores.. y con eso mueves physx si existiera sin despeinarse (Estos CUDA cores se utilizan en la actualidad para las físicas de los juegos, aunque no sean physx y ni siquiera hay una opción para mejorar o empeorar o desactivar esas físicas ya que es una barrera que se ha solventado de largo)
Lo que quiero decir con esto, es que contra más pasen las generaciones, más RT cores meterá nvidia a sus gráficas (Los RT cores se usan para renderizar el ray tracing, no confundir con los Tensor cores), y mas facil será mover el ray tracing, y mayor cantidad de rayos y rebotes meterán en los juegos del futuro, hasta llegar un punto que incluso quiten la opción de configuración del trazado de rayos, ya que ese problema quedará totalmente solventado, y, como dije, los RT cores si están patentados por nvidia, el ray tracing no, por lo que es una tecnología que la puede usar cualquiera, siempre y cuando la marca tenga el hardware para moverla.
Actualmente el ray tracing en los videojuegos es ineficiente mal rendimiento, poca cantidad de rayos y rebotes, baja densidad de rayos y partículas extremadamente grandes creando incluso efectos malos, donde se ven como unas bolas difuminadas que aparecen y desaparecen en las zonas donde da la luz, pero esto, con el tiempo, se irá perfeccionando y mejorando hasta tal punto que toda la iluminación de un escenario será por medio del ray tracing.
Los RT cores que usa la 2080 no son los mismos que usan la 4080, los de la 4080 son de 3a generación (4a gen los Tensor cores) y su arquitectura es distinta.
Lo dicho, nvidia suele hacer eso, las primeras gráficas con una tecnología nueva no suelen ser viables para mover de forma fluida los procesos a los que está dedicado dicha tecnología, pero que con el paso de las generaciones van perfeccionando la tecnología.
Si tu único objetivo es mover bien el ray tracing en los juegos, y que por únicamente ese motivo te compras una nvidia, lo que te puedo decir es que te esperes a un par de generaciones (Si no más) más para que eso sea posible.
Yo soy modelador 3D, y sinceramente, mi trabajo prácticamente me obliga a comprar nvidia. Pero si usara solo el PC para jugar, yo no tendría como prioridad actualmente activar el ray tracing en los juegos, de hecho, yo no lo activo, prefiero ganar 30 fps más a activar el ray tracing tal y como está la tecnología actualmente (El hogwart legacy, por ejemplo, se ve mejor sin ray tracing que con él, y encima, va al doble de fps)
Así que nada.. Hay que esperar más para que le saquen todo el jugo a esto. Y no tengo dudas de que será el futuro de los videojuegos, ya que cada vez es mas fotorealista, y para que las iluminaciones y las sombras sean fotorealistas, se necesita el ray tracing, ya que literalmente funciona como funciona la luz real.
EDIT: Me he equivocado nombrando los RT cores con los tensor cores (He corregido el mensaje anterior, espero no tener erratas), los nucleos que procesan el ray tracing son los RT cores, y los tensor cores para el DLSS y demás. La rtx 2080 tiene 46 RT cores, y la 4080 tiene 76 RT cores, y la 4090 128 RT cores, y en un futuro, este número irá aumentando para ser mas eficientes a la hora de renderizar el ray tracing. También estos RT cores han ido aumentando de generación, siendo los de la serie 4000 de 3a generación, y los de la serie 3000 de 2a generación.