Vale, he estado investigando las soluciones de AMD y Nvidia en RT y ya entiendo muchas cosas.
Paso a explicar brevemente.
Nvidia utiliza otro sistema para calcular los rayos de RT a la implementacion de AMD, y la acceleracion de rayos de su tarjeta es distinta a AMD. AMD piensa que la implementacion de RT deberia ser de uan forma y tiene acceleracion para esa forma y Nvidia otra y tiene acceleracion para esa otra. Lo que no sabemos es cual es mejor.
Que quiere decir esto, si tu coges un juego con RT para Nvidia y lo pones a ejecutar en AMD va ir de culo, porque Nvidia accelera ciertas partes que Amd no. Esto tambien pasaria si coges un RT de Amd y lo ejecutas con Nvidia.
Por eso juegos como Cyberpunk o Godfall no tienen rayos en las dos graficas, parece ser que las implementaciones son distintas, lo que significa que tienes que generar unos RT para Nvidia y otros para Amd o adaptarlos como sea.
Con estos datos en la mano no es justo comparar juegos RT ahora mismo (de hecho va ser dificil compararlos a futuro), son dos implementaciones distintas y que supongo que podran dar resultados visuales distintos y rendimientos distintos.
Vaya putada para los desarrolladores, que en vez de hacer una implementacion tendran que hacer 2.
Encima como AMD no tiene juegos RT (salvo Godfall ahora mismo), los rendimientos en RT caen en picado.
Con esto no digo que AMD se vaya a comportar mejor que Nvidia con trazado de rayos, simplemente que es muy distinto el tema.
Me encantaria meterme un poco mas en las tripas pero es muy complicado encontrar datos de la implementacion de cada uno.