Nuevo golpe de efecto: Nvidia activa raytracing en las Gtx...



Se está cociendo algo gordo... Por sorpresa Nvidia suelta está bomba (está por ver cómo repercute en el rendimiento de las Gtx...) y alguna causa extraña tiene que haber... Vale lo del Raytracing de Crytek pero aún asi se cuece algo raro sino no es normal que envidia mine la exclusividad y el golpe de efecto de las Rtx.
Si ya flaquean los FPS en las RTX con RtCores dedicados para ello, no me quiero imaginar como lo hará en las GTX...
alvaro101 escribió:Si ya flaquean los FPS en las RTX con RtCores dedicados para ello, no me quiero imaginar como lo hará en las GTX...


Si una Vega es capaz de mover el Raytracing de Crytek una Gtx 1080Ti no creo que lo haga mucho peor... Al final el Raytracing no es más que un cálculo más y se calcula mediante un software específico... El cómo lo calculen las Rtx no tiene nada que ver cómo lo calculen la Vega con Crytek o las Gtx y el "apaño" que les quiera hacer Nvidia.
Cuando menos es curioso que Nvidia les de soporte 6-7 meses después de darlo como exclusivo de las Rtx para justificar sus precios desorbitados justo pocos días después de que salga el Raytracing de Crytek con las Vega y se hable mucho de las futuras Navi...
Cómo digo algo se está cociendo.
Pasará lo mismo que en Vegas, irán a pedales pese a estar usando mucho menos detalles. El lado bueno es que seguramente las compañías ya se tomen mas enserio su implementación

@Remior la demo de cryengine solo usa reflejos, nada de luces y sombras por trazado de rayos, lo hace de forma tradicional, ya veremos el monton de manos a la cabeza que se echaran mas de uno, cuando llegue un juego real y se arrastren.

Adjuntos

Claro sintoma de que las RTX no se venden a día de hoy. Es que a quien se le ocurre poner una gama media, como la serie XX60, a mas de 360€....
KindapearHD escribió:Claro sintoma de que las RTX no se venden a día de hoy. Es que a quien se le ocurre poner una gama media, como la serie XX60, a mas de 360€....


Puro marqueting, como bien dices esto viene de perlas para vender mas RTX, te van a dar la posibilidad de probar el trazado de rayos en muchas GTX, e incluso en GPUs de AMD la diferencia de framerate entre una RTX, una GTX y Vega será abismal a favor de las RTX, motivo por el que mas de uno cambiara a RTX. Es oficial desde que salio que el trazado de rayos lo pueden ejecutar cualquier GPU que se maneje en DX12 unica API de momento donde es posible esto.

Lo único bueno que veo, es que parece ser que esto ya no lo para nadie, el trazado de rayos será un nuevo avance en juegos que parece que llego para quedarse.

Referente al precio, es una pena lo caro que se esta volviendo el PC en general, pero con Vega 54 a 3++ no se pueden ver RTX60 mucho mas baratos, es mas, si Vega esta en esos precios es precisamente por las RTX.

Hay que reconocer que las cosas se empiezan con algo, el trazado a comenzado a moverse como dios manda con la serie RTX de Nvidia, aunque queda claro, que las futuras generaciones de GPUs serán las que lo muevan con mas soltura, y posiblemente, dejen a todo el mundo contento.

Saludos.
Creo que es una buena noticia para los que tengan las gtx así podrán ver si le gusta o no el raytracing
ya hay una tabla con pruebas con una gtx 1080ti y se arrastra en todos las pruebas con rt menos battlefield 5.
la demo de crytek es eso, una demo, de una demo a un juego en tiempo real hay años luz de necesidades de capacidad de calculo.

a ver si amd habilita raytracing tambien y vemos si se arrastran mas o menos.
pero es bueno que el parque de hardware compatible se amplie, hara que salgan mas juegos que lo usen.

yo lo tengo claro con la vega 56, me basta lo que me ofrece, no necesito ver como se arrastra.

saludos
Creo que Nvidia no esperaba las bajas ventas que están teniendo. Simple y llanamente. En lugar de sustituir los precios de las gamas anteriores, los han inflado y se han dado de bruces.
Evidentemente si una Vega puede, una GTX 1000 puede. Pero si estuviesen vendiendo GTX 2000 a cascoporro que no te queda ni la más mínima duda de que no lo "activaban".
Saludos.
Kaiser Sport escribió:Creo que Nvidia no esperaba las bajas ventas que están teniendo. Simple y llanamente. En lugar de sustituir los precios de las gamas anteriores, los han inflado y se han dado de bruces.
Evidentemente si una Vega puede, una GTX 1000 puede. Pero si estuviesen vendiendo GTX 2000 a cascoporro que no te queda ni la más mínima duda de que no lo "activaban".
Saludos.

Nvidia ya dijo en su dia que esperaba peores ventas de las que están consiguiendo, y con los precios que tienen me sorprende que hayan vendido tantas.

Con respecto al raytracing.. Es pesado, sí, el problema es que tienen que optimizarlo mejor. Por ejemplo en battlefield hasta los ojos de los personajes reflejan, y eso consume muchísimo si cosas tan pequeñas sean reflectivas, hoy por hoy lo veo más para la iluminación global que para reflejar todo el escenario. Pero sin duda es interesante que hayan metido esto en la serie 1000
Que nvidia declare que no se estan vendiendo tan mal, para mi solo pueden ser dos cosas:

- que.. los cojones (pero no lo van admitir porque eso solo los debilitaría)
- que se lo tomen como una generación conejillo de indias (que lo es, por lo de la gran novedad del raytracing, cambiando incluso el nombre por ello) y que tuvieran ya en mente que no iban a fabricar la cantidad de stock que de generaciones anteriores. Y aunque efectivamente estén vendiendo mucho menos de lo habitual, se lo toman con esa filosofia de que entra dentro de sus planes de "haremos menos stock porque sabemos que no va ser una generación de alto número de ventas"

O quizás sean ambas a la vez.. quien sabe, pero vaya, que se lo merecen, que toda empresa tenga que tener beneficios y sea su principal objetivo es una cosa, pero que vengas inflando precios generación tras generación llegando a tener hoy por hoy tarjetas de gama media con precios prohibitivos.. es, a todas luces, pisotear a tus clientes. Claro, lo han podido hacer gracias a que una amd les dejara el terreno bien llano.. ojalá ésto cambie pronto e intel también entre en juego mas pronto que tarde.

Tampoco los clientes son tontos, en cierta medida han podido soportar que se le estire como un chicle, pero otro porcentaje de ellos no está dispuesto a pasar por el aro cuando si solían actualizar.
Desde la misma nvidia

https://www.nvidia.com/en-us/geforce/ne ... oming-soon

GPUs geforce compatibles con la API DXR.
Imagen



Remior escribió: Vale lo del Raytracing de Crytek pero aún asi se cuece algo raro sino no es normal que envidia mine la exclusividad y el golpe de efecto de las Rtx.



Mas que nada lo haran por la proxima demostracion de un juego con soporte Ray Tracing Nativo que hara RTG|AMD en la GDC 2019, donde emplearan GPUs; obviamente, Radeon y que no cuentan con los nucleos dedicados del Ray Tracing. Asi que ya hay un juego que le hara competencia a Metro y a BFV.

hilo_rtg-amd-inciativa-gpuopen-software-stack-su-contra-gameworks_2142064_s50

Por ello que nvidia le de soporte a la recien estrenada API de microsoft DirectXRT [DXR] en sus controladores, y con ello SOPORTE A TODAS SUS GPUS DIrect3D12. Y con esto se 'adelantaran' al mismo soportte que RTG|AMD e Intel haran de DXR en sus proximos controladores de video.


Lo veo como la aceptacion de que las APIs propietarias para RT tiene sus dias contados [la de nvidia y la de rtg|amd] en juegos, ya que ya existen APIs de terceros que se dedican a eso del RT: DXR de microsoft [y que se agregara al paquete DX12] y VULKAN de Khronos group. Y ambas APIs pueden trabajar sin Nucleos dedicados al RT, o bien, usar Nucleos dedicados al RT

hilo_vulkan1-1-tendra-soporte-a-raytracing-proximamente_2308291







FullKillerUltimate. escribió:
Puro marqueting, como bien dices esto viene de perlas para vender mas RTX, te van a dar la posibilidad de probar el trazado de rayos en muchas GTX, e incluso en GPUs de AMD la diferencia de framerate entre una RTX, una GTX y Vega será abismal a favor de las RTX,..



Pero esto sera mas debido a la carga de trabajo que le hace al GPU el tema de AntiAliasing, si quitaras el AntiAliasing completamente y usaras en su lugar un filtro de post-procesamiento [como SMAA o TXAA] la diferencia no seria tan abismal; estoy mas que seguro de ello, y ahi se veria el verdadero potencial de fuerza bruta de computo de cada GPU.

Aqui; lo que he dicho ya muchas veces, la verdadera evolucion en el tema de manejo grafico seria el sistema AntiAliasing que emplean las geforce RTX con los circuitos dedicados Tensor Core [los cores para IA], el famoso DLSS, con lo que se le quita mucha carga al resto del GPU enfocado en el renderizado. DLSS el sistema de antialiasing de nvidia empleando IA en el GPU.

Pero veamos que ademas de DXR, si nvidia agregara DirectML [DXML]; que es la API de IA de microsoft para los GPUs y que pueden usar ya algunas GPUs Direct3D12, seria lo mismo que el uso de filtros de posprocesamiento, pero con las mismas ventajas de DLSS, es decir, evitar carga al GPU para el tema del antialiasing y entregandio una imagen nitida.

A continuacion una grafica mostrando el uso de X circuiitos del GPU en el tema de Ray Tracing, contrastando una GTX contra una RTX, y la RTX usando tanto los Core TR como SIn usar los Core TR. De hecho, para comparar contra la GTX seria el uso de la RTX sin los Cores RT.

Imagen

En esa imagen se ve que la RTX esta usando tanto los Nucleos de calculo de Punto Flotante [FP32], como de Enteros [INT32], supongo que hara mas trabajo al GPU y mas tiempos de espera el tema de usar solo FP32 que el emplear ambos [FP32/INT32]. Entonces ya la GTX estaria en cierta 'desventaja' al emplear solo FP32, pero esta desventaja ¿no seria forzada?, bien podria hacerse que la GTX tambien use calculos de punto flotante.

Luego, el tema del AntiAliasing DLSS, el cual brinda una gran ventaja en el tema de los tiempos de renderizado y con ello incrementar los fps generados; y que es exclusivo del hardware de las geforce RTX. Si nos damos cuenta en la misma imagen se nota que los Tensor Core, responsables del sistema DLSS estan trabajando junto con los Core RT; encargados del tema del ray tracing. Con lo que cierta parte de los fps generados por la RTX con sus sistema RT activado se los debemos precisamente al DLSS, y eso nos lleva a unas ´preguntas.

- Si 'apagaramos' el DLSS y dejamos el sistema RT cores activo en la geforce RTX, ¿seguiria siendo muy alta la generacion de fps?
- Si 'prendiera' el DLSS y 'apagara' el sistema RT cores de la misma geforce RTX ¿tendriamos la misma cantidad de fps que dejando el DLSS 'apagado'?
- Con lo anterior, si pudiera usar DLSS o sistema similar en una geforce GTX [via DXML] la diferencia de fps comparada con una geforce RTX equivalente sin su sistema RT cores, la diferencia de fps ¿realmente seria abismal?





Es oficial desde que salio que el trazado de rayos lo pueden ejecutar cualquier GPU que se maneje en DX12 unica API de momento donde es posible esto.


En realidad DX [DX12] es el nombre del paquete de APIs de microsoft, la API ala que te refieres seria Direct3D12, pero como vimos las GPUs pueden emplear diversas APIs del paquete DX y donde algunas no tienen que ser precisamente enfocadas al tema grafico exclusivamente, por ejemplo, DirectCompute.

Pero bueno, ya agregamos DXR y DXML ademas de D3D, DCompute y D2D que ya vienen soportando.

Y aqui ya solo queda ver que hacen realmente los desarrolladores, porque arsenal de APIs y funciones que pueden emplear es muy alto, solo es esperar a que los utilizen.




.
en esa tabla con la RTX 2080 se ve que en cuanto desactivan RT cores el frametime es casi 3 veces superior, eso con una 2080.
mi vega 56 tendria facilmente un frametime de 4 o 5 veces mas.

una tecnologia que hace un año se usaba en el cine y que para un solo fotograma requeria mucha capacidad de calculo, ahora va a resultar que hasta una calculadora lo mueve en tiempo real.
si hasta las rtx nadie a podido es porque no es tan facil y que ahora nvidia lo haga compatible con gtx es como bien dicen una estrategia de marketing, RT no es exclusivo de ellos y no van a pagar porque los desarrolladores lo implementen, por lo tanto tienen que ampliar el parque de hardware compatible para que los desarrolladores se animen a usarlo, no quiere decir que consideren que los Tensor cores y Rt cores no sean el futuro.

la demo de cryengine esta nublando muchos ojos, pero nadie se para a pensar que las demos vistas usando RT cores son brutales, años luz por encima de lo visto en el cryengine, vosotros habeis visto esa calidad en los juegos? yo tampoco y lo mismo espero de los juegos que salgan sin usar hardware dedicado, algo muy inferior a lo que se ve en una demo, vamos que espero muy poquito de raytracing sin rt cores y si con rt cores no me ha llamado mucho, sin rt cores directamente me parece algo anecdotico, dudo que se vea algo a corto medio plazo que ni siquiera llame un pelin la atencion.
la informacion esta para verla toda y en la misma pagina donde dan esas tablas dan una cifra 44TF, cuando las graficas sin hardware dedicado lleguen a eso habran igualado la capacidad de las RTX actuales con raytracing.

saludos
Es a lo que me refería cuando decía que se cocina algo.
Nvidia quiere que se use su software y sus apis exclusivas para que quien las use les pague canon a ellos y solo esté disponible en sus productos y su hardware. AMD buscaría lo mismo (algo similar es la "guerra" freesync gsync).
Ahora imaginad que viene un tercero y dice ni hardware ni software exclusivo ni pepinillos en vinagre que valga. Y ofrece gratis tecnologías más baratas para realizar lo mismo pero sin hardware ni software exclusivo ni cánones ni costos más altos. Al final los cores por muy exclusivo que sea su nombre son cores y lo que hacen es calcular órdenes que les manda el software. Si llega un tercero y dice: se acabó el monopolio y da algo que hace la misma función y muchas empresas de videojuegos empiezan a adoptarlo porque es más barato y no tienen que pagar canon por usarlo y además puede ofrecerlo a gente con muy diverso tipo de hardware (sea nvidia, AMD o Intel) llega a mucho más público y eso le permite tener mayores ventas.

Si Nvidia mueve ficha (cómo lo ha hecho con el gsync haciéndolo compatible con freesync) es porque ven que ellos mismos se están autoestrangulando siguiendo la estrategia Apple de: soy la más mejor yo me lo merezco y por eso pido lo que pido por mis productos.

Al final el dinero no sale de la nada y si tus productos son muy caros cada vez los comprará menos gente porque simplemente no puede permitirselos. Los avances tecnológicos triunfan si son baratos.
Muchas empresas acostumbradas a esto están aprendiendo el dicho de: "no hay mayor desprecio que no hacer aprecio" y ya hay mucha gente que no les hace aprecio ni les compra.
Benchs comparativos con GTX y RTX, con el RT cores activo e inactivo, igual con DLSS activo e inactivo.
https://www.reddit.com/r/nvidia/comment ... l_graphics

Imagen


Precisamente lo que decia, en la RTX alrededor de 10 fps de ganancia al usar el antialiasing con los RT cores activos.

Ahora si se pudiera activar DLSS cuando no se usan los RT cores en la RTX tendriamos quiza esos mismos 10fps de ganacia [lo mas probabel que este oscilando entre 7 y 10 fps de ganancia]. Asi se podria pasar de 25fps a ~35fps en METRO EXODUS, que se ve es el que mas uas de Ray Tracing, y entonces quedaria en 15fps menos en lugar de los 25fps menos que vemos en la tabla.




Imagen

Imagen




Imagen

Shadow of the Tom Raider con el parche update 1.3 le agregan soporte a Ray Tracing

Shadow of the Tomb Raider Patch #13
New features included in this patch:
- Nvidia’s Ray-Traced Shadows
- Support for DLSS

The following requirements must be met to be able to run Ray-Traced Shadows or DLSS:
- Window 10 update 1809 or higher
- Nvidia’s RTX 20- series GPU
- Nvidia’s latest drivers 419.35 and up
En sí cualquier GPU que soporte DirectX 12 debería soportar también DXR ¿no?
Si lo hace bien o mal es otra historia...
Yo lo veo claro.
Las desarrolladoras no van a usar RT en el diseño de juegos si no hay un parque de equipos lo bastante grande como para que merezcla la pena la inversión.
Y si no se desarrollan juego con RT, las RTX no se vana vender ergo nVidia hace pérdidas.

Solución? Soporte RT en gráficas antiguas.

A mi me parece genial. Que el RT se le de uso, que se desarrolle con ello desde el principio y lucirá mucho mejor. Que los parches estos que se han implementado en alguinos juegos son una cutrada.
NicOtE escribió:Yo lo veo claro.
Las desarrolladoras no van a usar RT en el diseño de juegos si no hay un parque de equipos lo bastante grande como para que merezcla la pena la inversión.
Y si no se desarrollan juego con RT, las RTX no se vana vender ergo nVidia hace pérdidas.

Solución? Soporte RT en gráficas antiguas.

A mi me parece genial. Que el RT se le de uso, que se desarrolle con ello desde el principio y lucirá mucho mejor. Que los parches estos que se han implementado en alguinos juegos son una cutrada.


Me parece que por ahi iran los tiros, es buena noticia para todos.
yo no se si RTX esta vendiendo mucho o poco, pero en las listas de hardware de steam ya empiezan a aparecer varias RTX y mi vega esta muy por debajo en ventas, lo que si esta claro es que todo lo que se hable de rayrracing es actualmente publicidad para nvidia, son los unicos capaces de ejecutar juegos con raytracing, entre la demo de cryengine, el anuncio de que pascal sera compatible con raytracing y el parche raytracing de shadow of the tomb raider, diria que es momento en que mas se habla de raytracing y con diferencia.
publicidad, publicidad y mas publicidad gratuita para nvidia.

al final van a conseguir que las rtx despeguen, sacando demos para otras graficas de lo que solo las rtx pueden mover en juegos.

saludos
sitosnk escribió:yo no se si RTX esta vendiendo mucho o poco, pero en las listas de hardware de steam ya empiezan a aparecer varias RTX y mi vega esta muy por debajo en ventas, lo que si esta claro es que todo lo que se hable de rayrracing es actualmente publicidad para nvidia, son los unicos capaces de ejecutar juegos con raytracing, entre la demo de cryengine, el anuncio de que pascal sera compatible con raytracing y el parche raytracing de shadow of the tomb raider, diria que es momento en que mas se habla de raytracing y con diferencia.
publicidad, publicidad y mas publicidad gratuita para nvidia.

al final van a conseguir que las rtx despeguen, sacando demos para otras graficas de lo que solo las rtx pueden mover en juegos.

saludos

AMD y Saber Interactive mostrarán hoy en el GDC World War Z con efectos de iluminación en tiempo real haciendo uso del motor de ray tracing Radeon Rays...
Pos muu bien,el tema de rayitos no me interesa nada,es mas,casi ni percibo los juegos que lo tengan o no,asi que por mi me quedo igual [beer] .Lo que deberian de hacer es sacar de una vez una grafica para jugar holgadamente a 4k 60fps y dejarse de inventitos.
Lo suyo sería que los rtcores se pudieran usar para;

-physx
-oclusion ambiental HBAO+ y vxao.
-hairworck (pelo, vegetación, y ropa )
-Antialising TAA (sin recurrir al rescatado dinámico del ddls o como lo llamen.

Entonces si sería interesante, ya que se quitaría una carga importante a la gráfica, ya que estos extras comen tanto, que gente recurre al sli manual para que se encargarán de los extras.

Puestos a pedir.. la serie siguiente de rtx aparte de salida USB C, pondrián poner esta vez una entrada HDMI para joder a marcas como el Gato, entonces podría se un buen movimiento de nv¥d¥a.
Pacorrr escribió:AMD y Saber Interactive mostrarán hoy en el GDC World War Z con efectos de iluminación en tiempo real haciendo uso del motor de ray tracing Radeon Rays...


Ya se los habia dicho posts y dias antes, pero a nadie le interesa... ni a ti segun se ve

hilo_rtg-amd-inciativa-gpuopen-software-stack-su-contra-gameworks_2142064_s50
TRASTARO escribió:
Pacorrr escribió:AMD y Saber Interactive mostrarán hoy en el GDC World War Z con efectos de iluminación en tiempo real haciendo uso del motor de ray tracing Radeon Rays...


Ya se los habia dicho posts y dias antes, pero a nadie le interesa... ni a ti segun se ve

hilo_rtg-amd-inciativa-gpuopen-software-stack-su-contra-gameworks_2142064_s50

No vivo en el foro, entro a ratos y no miro todos los hilos que hay.
Pacorrr escribió:
TRASTARO escribió:
Pacorrr escribió:AMD y Saber Interactive mostrarán hoy en el GDC World War Z con efectos de iluminación en tiempo real haciendo uso del motor de ray tracing Radeon Rays...


Ya se los habia dicho posts y dias antes, pero a nadie le interesa... ni a ti segun se ve

hilo_rtg-amd-inciativa-gpuopen-software-stack-su-contra-gameworks_2142064_s50

No vivo en el foro, entro a ratos y no miro todos los hilos que hay.

será que quizás estamos más a gusto hablando aqui que no en un hilo lleno de AUTO-flood del OP desde el 2017? al menos aquí variamos, solo faltaría obligarnos a postear en sus hilos [facepalm]
@Senegio @Saoren @hit @kikomanco
¿Y eso quer? Tampoco vivo en los foros pero mas o menos veo la mayoria. Ahora tampoco es como para que te vayas a enojar ¿o si?


@uchi23a

Para eso estan los CUDA core y el controlador de nvidia traduce a instrucciones CUDA las instrucciones DirectCompute o las de OpenCL.

Por cierto, TXAA asi como SMAA se maneja por los shaders empleados para el video, vamos lo que viene siendo ya la salida de la señal de video, por eso se llaman filtros por post-procesamiento, ya que son aplicados por circuitos muy ajenos al tema del render CGI

Nvidia nunca a sido su tema lo de captura de video, ni el tratamiento de video. ATI [ahora RTG|AMD] desde siempre lo habia manejado, y si dejo de hacerlo sera porque ya no hubo mercado por elpoco o nulo interes. Que a mi me gustaria que siguiera existiendo los modelos ATI ALL IN WONDER [bueno AMD All in Wonder] para video digital.

Pero pues el poco interes que hay es para lo de captura de tus jugadas, y con ello el uso del software propietario de RTG|AMD o de nVidia creado para ese menester cumple bien; o usando software de terceros pero que igual tiene acceso a las bibliotecas de control del GPU de la 'captura'.
@TRASTARO

Entiendo lo que dices, es otro punto a favor de las RTX, pero olvídate del DSLL, se puede usar el trazado sin DSLL, y vuelvo a decir que la diferencia será abismal entre una RTX o Vegas incluso sin DSLL. Ya queda poco para que todos lo podamos ver y salir de dudas
Últimamente NVDIA hace cosas raras sin tener necesidad por competencia, como compatiblidad de freesync, ahora esto, incluso están bajando la 2080ti cuando AMD no tiene ni para competir contra ella... No sé, no tiene ningún tipo de sentido y no pinta que cambie las cosas a corto plazo, pero algo se cuece. ¿Quizás sea NAVY?.

Mi teoría es que AMD va a pegar un pelotazo y están allanando el camino, lo que no se es cuando y como.
27 respuestas