Ray Tracing, enemigo número 1 del rendimiento

1, 2, 3, 4, 5
(mensaje borrado)
El miedo que le teneis algunos a unas 🤣🤣🤣🤣 es impresionante

Ya paso, ya paso todo, no te preocupes😉

Yo si se como se usan los signos, tu no, ni las "comas" tampoco, leerte es como leer un libro cerrado mientras arde, pero no pasa nada, cada persona tiene sus limitaciones😉

Gracias, espero que no me pase como cuando tenia 9 años y si, seguire poniendo todas las caras que me de la gana🤣

Edito: Reportar y no dar la cara es un poco.....🤣
(mensaje borrado)
Ya esta, ya paso todo, no te preocupes😉

Edito: Te reporto y te lo digo, no voy por la espalda😘
darksch escribió:A ver el stuttering es simplemente que los fps bajan del refresco del monitor y no se dispone de VRR. No es algo que el RT meta de por si como “efecto”.

Y si la mejora visual es nimia, es cosa de la implementación que se haya hecho. Si es así pues se quita y fuera. Porque algunos si que meten a veces el RT para decir mira voy a la última mi juego tiene RT.


El stuttering si no se dispone de VRR también te lo puedes comer. Lo que ocurre con el stuttering es que se percibe como un parón, aunque sea de muy poco tiempo, hay un pico entre los tiempos de fotogramas más alto.

Donde el VRR puede hacer milagros es cuando por limitación de GPU por ejemplo el juego te va a 50-55fps (y ni digamos ya si juegas a 144 hz y te baja a 125fps, ahí el VRR hace que sea prácticamente imposible de ver). Pongamos de ejemplo un juego a 60hz, jugándolo a 60fps rocosos, pero entras a una nueva área y por cualquier motivo (carga de shaders, stuttering transversal por alguna carga en segundo plano..) tienes una parada y el frametime por medio segundo ha sido de 60ms; el juego te ha ido a 60fps y el tirón de lo has comido. ¿Por qué al VRR le da "igual"? porque tener VRR lo que hace es que la tasa de refresco del monitor se ajuste al framerate, de esta forma cuando tienes un monitor a 60hz si te va a 55fps realmente está cambiando a 55hz, por eso mantiene la fluidez, pero con una caída abrupta en el frametime no hace nada.

Por eso cuando hay juegos con stuttering Digital Foundry por ejemplo suele aclarar que el G-Sync o Freesync no hacen nada para paliar el problema.


Por lo que no, el RT no mete stuttering como "efecto", pero se ha comprobado que incluso con GPUs y CPUs muy sobradas hay juegos que meten stuttering y no es una limitación de potencia, ni algo que se pueda evitar. Otra cosa es la percepción de cada uno, por ejemplo Nomada que solo juega al Far Cry el pobre hombre pues le hablas de que algunos tienen stuttering con pruebas y datos y se queda mirando al vacío, es decir, hay gente que no lo nota aunque lo tenga y gente que sí lo nota, pero en PC disponemos de herramientas para ver cuando hay picos en los tiempos de fotogramas que provocan stutter.
this cop_ escribió:@ivan95 ponete serio entonces ??? para que me dices que yo usaba un filtro que no "existia" cuando lo use en una grafica agp quizas por el año 2005

entonces no existia segun tu afirmacion ???


ahora pones que salio en los 90s

GENIO :D

1º escribes rarísimo, y no se te entiende bien, moléstate un poco en escribir bien porque cuesta seguirte. No serás el mismo troll no español que insulta a españoles, porque la cosa huele muy rara, eh? Y no quiero decir nada, pero ya acerté la anterior vez.

2º ivan95 puso un enlace que lo del anisotrópico salió en los años 90 (no, no ahora, lo puso antes), qué pinta lo que tu usaras en los 2000-2005? Como ya explicó él, el problema de rendimiento estaba al poco de salir en esos años 90... no 15 AÑACOS después que es cuando tú te refieres.

josep345 escribió:
ivan95 escribió:¿Se lo explica alguien que escribe de una manera inentendible o como lo hacemos?


Ya te lo explico yo,que te han pillado y punto.Aquí se debate sobre el RT.
No desvíes el tema [sonrisa]

Le han pillado? this cop no se enteró de nada y tú tampoco te has enterado de nada.

darksch escribió:A ver el stuttering es simplemente que los fps bajan del refresco del monitor y no se dispone de VRR. No es algo que el RT meta de por si como “efecto”.

Que va, hay muchos ejemplos de stuttering que no son debido a que los fps bajen del refresco del monitos y no tener VRR. Si el VRR fuera la solución (por lo que dices) el stuttering ya no existiría para los usuarios con VRR, no? Y no es el caso para nada.

Silicio14mm escribió:Ahora si tienes una 4090, te has gastado 2000 y pico euros, y quieres usar PR a 4k dudo que le hagas uv, l querrás poner a tope, y estrujarla al máximo, y seguro alcanzas picos de 600 watios.

Con UV la puedes seguir poniendo al tope y estrujarla sin alcanzar 600 watios. ¿Pero tú dónde te informas? En lugar de dedicar tiempo a poner imágenes sin ton ni podrías dedicar ese tiempo a informarte un mínimo.

Y por cierto, no, para nada por el hecho de gastarse cerca de 2000€ (y no 2000 y pico, otra mentira mas) vas a ponerla a gastar 600 watios para conseguir una mejora ínfima. De hecho solo con UV en según que casos puedes conseguir mejor rendimiento que sin IV, o también puedes combinar UV y OC. Pero no metamos mas variables al asunto que si ya solo con UV te pierdes mejor no hacerlo mas complicado.
@Rvilla87
Saludos querido compañero
Tú forma agresiva de entrar repartiendo estopa a diestro y siniestro es de hacérselo mirar.
En serio, ¿Quién te crees que eres, para decirme si puedo poner fotos o no y para llamarme tonto gratuitamente?, en fin, se te echaba de menos, fenómeno.

Precios de hoy Agosto 2024 de la RTX 4090 con la 5090 a las puertas.

Imagen
(mensaje borrado)
@4070s

hilo_mejor-rtx-4090-que-se-pueda-comprar_2505965

quiero hacerme un auto regalo de cumpleaños

para los poseedores de una 4090 que marca me recomiendan , me han comentado que es mejor evitar las zotac que tan verdadero es eso


respecto al dinero , tengo presupuesto ilimitado


De nada, he empatizado con alguien que quiere darse el gustazo de auto regalarse una 4090 la mejor sin importar el precio y he pensado que a mi me fastidiaría mucho comprarme una 4090 y luego enterarme que sale en un par de meses la 5090. A saber que trae, puede que no sea un cambio relevante o que por fin traiga RT cores para manejar con soltura el RT. Quizás sea un gran salto.

Imagen
@4070s Lo más barato que he visto actualmente en la 4090 es la Gainward Phantom GS a 1823€.
Silicio14mm escribió:Tú forma agresiva de entrar repartiendo estopa a diestro y siniestro es de hacérselo mirar.
En serio, ¿Quién te crees que eres, para decirme si puedo poner fotos o no y para llamarme tonto gratuitamente?, en fin, se te echaba de menos, fenómeno.

Eso solo lo hago con los trolles y contra la gente que desinforma, se le informe y sigue con lo mismo. Ya te vimos con tus grandes "verdades" comparando el RT de las 4080 con tu 7900XTX, obvio otras tantas y ahora vienes con 2 grandes verdades con lo del UV y el precio.

Y por cierto, yo NO te dije si puedes o no puedes poner imágenes ni te llamé tonto, dónde viste eso? Sabes leer? Te dije que mejor que dedicaras tiempo a informarte, y si dices algo falso o una tontería (han sido varias) no tiene por qué ser que seas tonto, puedes ser listo y saberlo pero desinformar a sabiendas por ejemplo. La verdad no sé cómo de inteligente eres, solo puedo basarme en lo que posteas (que insisto, hay bastante bulo). Si lo dices por lo de que te pierdes solo con el UV, demuéstrame lo contrario porque menudo mensajito con lo de los 600W, es que me está recordando mucho a la burrada del RT de las 4080 vs 7900XTX.

¿Qué me quieres demostrar con algunas 4090 por encima de 2000€, precisamente la mayoría NO son vendidas por pccomponentes con el sobreprecio que eso suele conllevar (empresas casi timo)? Si ya te puse un enlace con 4090 a 1800-2000€ en pccomponentes (y no miré mas tiendas, fui a lo rápido y fácil).
Veo que no lo entendiste, lo que te quise decir es que es fácil conseguir las 4090 por debajo de 2000€, que lo estés vendiendo (nunca mejor dicho) como si su precio fuera de normal por encima de los "2000 y pico euros" pues lo dicho, me parece desinformar mas que otra cosa.

Sobre el nuevo this cop ya se ha destapado como troll igual que el anterior usuario, nuevo PM de su parte, esta vez tan solo pongo el asunto: "a cagar hijo de puta" y con amenazas [facepalm]
Si es que hay que estar mal para llegar a ese nivel. Tan solo espero que pida ayuda psicológica y/o busque algo con lo que entretenerse porque no es normal esos mensajes. Pensaba que ivan95 se había precipitado reportando al usuario (tampoco fue para tanto, simplemente puede tener dificultades para comunicarse) pero ya veo que no.


4070s nuevo usuario de agosto, se repetirá la historia? Ostras el veranito... otra vez igual no!!!! [qmparto]
(mensaje borrado)
@Rvilla87 y tu quien eres ??? un policia virtual o algo asi ??? que andas cuestionando , investigando , sufriendo por quien se registra aca ???

UN SIN VIDA ES LO QUE ERES METIENDOSE DONDE NO LE IMPORTA

Que ha pasado con this cop? Le conoces? O no teneis nada que ver un usuario con el otro?
Cuidado, no le hables o te insultara por privado para asustarte🤣🤣🤣🤣🤣

Y ademas de eso es racista🤣

Eso de que Dios no castiga dos veces parece que es mentira😜
[beer] El patio de mi casa es particular...

Imagen

Pido no se me mencione, si no menciono yo antes, no quiero convertir esto en una riña de patio de colegio.

En Octubre 2022 salió la RTX 4090 y en estos dos años su precio medio es de 2500€ a un hay muchos modelos por ese precio a la venta, puedes encontrar modelos a 1800, si, pero quizás no sea el que buscas, quizás el que buscas sigue valiendo 2000 y pico estando tan cerca su sucesora.
Precios RTX 4090 a 12 de Agosto 2024, vendidas por pccomponentes, a punto de dejar su trono a favor de la 5090.

Imagen

Decir que RTX 4090 es cara, no es nada negativo, todos sabemos que es un producto de nicho para consumidores mega entusiastas y a día de hoy es el 1,80% de los jugadores de steam, cosa que no esta mal, pero desde luego no representa a la totalidad de usuarios de PC.

Siempre he defendido las bondades del UV y OC, cuanto mejor ajustes el consumo y uso de voltaje a las frecuencias de tú GPU, más fresca ira y mejores frecuencias alcanzara.

Y volviendo al tema del RT, si la industria del videojuego quiere acabar de implantarlo, tendrá que buscar la manera de aplicar un trazado de rayos que se note y funcione como mínimo en gamas medias, no dejarlo solo para un 2% de los mortales.
Silicio14mm escribió:Decir que RTX 4090 es cara, no es nada negativo, todos sabemos que es un producto de nicho para consumidores mega entusiastas

Aunque Nvidia quiera venderlo como gama entusiasta, ya no es eso, ahora es gama gente con visa oro. Los precios ya no hay por donde cogerlos. Son caros los de AMD pero los de Nvidia lo son todavia más. A Intel voy a ponerla en que remedio tienen porque si lo vendieran caro, no lo compraria absolutamente nadie.

Pido no se me mencione, si no menciono yo antes, no quiero convertir esto en una riña de patio de colegio.

Ajajajja, era lo ultimo que me faltaba por ver. Que haya gente irrespetuosa, poco agradable, siempre sucede en absolutamente todos los foros. Pero sino quieres que te respondan, no escribas. [beer]

Y volviendo al tema del RT, si la industria del videojuego quiere acabar de implantarlo, tendrá que buscar la manera de aplicar un trazado de rayos que se note y funcione como mínimo en gamas medias, no dejarlo solo para un 2% de los mortales.

Les da igual.

-Los pequeños estudios, no lo usan mayormente, saben lo que hay, Nvidia no les paga. Asi que no lo usan. Incluso algunos no lo usan porque sacan juegos de PC solamente.
-A los creadores de triple A, les da igual. Nvidia les ayuda a muchos, otros les da igual, de hecho incluso sino lo añaden, les van a criticar por bajo detalle.
charlylps escribió:@Silicio14mm

Como dices, yo no compre una 4080 Super por el RT, sino porque era el equivalente mas aproximado a la 7900 XTX que había en Nvidia, sin tener que vender un órgano para comprar la 4090. Que no descarto dentro de dos años pasarme a la 90 pero este no era el momento ya que no perdí el dinero de la 7900XTX pero lo tengo en un vale en una tienda, que es dinero pero no es lo mismo...
Igualmente creí que una 4080 Super con reescalado movería mejor el RT en juegos mas o menos tops o top como el Alan Wake 2. Por lo expuesto al principio de mi post no me moleste en informarme porque la iba a comprar si o si. No me siento engañado ni mucho menos.
Como dices, puede ser que alguien que venga de una RTX de la serie 2000, por poner un ejemplo, haga la inversión de comprar una 4080 Super y juegue a 4K como yo y vea el rendimiento con RT de algunos juegos y se quede en 33 pero eso ya depende de cada uno...

Lo que esta claro que 4K, gráficos alto/ultra, una alta tasa de fps y RT a día de hoy no caben en un mismo saco (quizas con una 4090, seguramente).

Saludos!! [oki] [oki]


Buenas, Decir que este post mío ha sido una media cagada XD XD ya que no se porque el juego al abrirse se me abría en el monitor que tengo como principal, que no es la TV donde juego los juegos modo historia y al pasarlo a la TV me mantiene todas las opciones graficas menos el reescalado, que lo cambiaba no se porque. Al cambiarlo ayer a Calidad (1440p) la verdad que el juego con RT en medio va mas que decente, tengo que probarlo con RT alto a ver... me imagino que ahi ya irá más jodido.

Saludosss [oki] [oki]
Que haya gente irrespetuosa, poco agradable, siempre sucede en absolutamente todos los foros. Pero sino quieres que te respondan, no escribas


Acabo de entender tú mensaje ahora, creía que me llamabas irrespetuoso y poco agradable a mi.

No hace falta ir haciendo menciones, de todo, si no parece más una discusión entre dos que un debate entre todos, cuando escribo una opinión sin hacer mención a nadie es para todos, aunque nazca de la lectura de opiniones de compañeros.

ahora es gama gente con visa oro

Se les fue de las manos el precio de la gama alta de Nvidia, no es de extrañar que represente un % residual

Al cambiarlo ayer a Calidad (1440p) la verdad que el juego con RT en medio va mas que decente

Me alegra que te funcione mejor en la TV con una 4080 y en 1440p no es para menos. Saludos [oki] [oki]

Los pequeños estudios, no lo usan mayormente, saben lo que hay, Nvidia no les paga

Un error hacerlo propietario.

Cuando las series 60 y 70 de Nvidia y las 700 y 800 de AMD puedan usar RT, se podrá hablar de implementación, hasta entonces RT solo para gamas altas, RT solo para unos pocos. [noop]
Silicio14mm escribió:Definitivamente contigo no voy a seguir debatiendo tu mensaje roza lo absurdo y enfermizo

¿Que tiene de enfermizo y absurdo decir que en los foros hay gente asi? veo que lo entendiste mal. Aunque lo de enfermizo no se porque ni en caso de eso. XD

Yo voy seguir citando a quien quiera citar. Seamos realistas, cuando no citas a alguien es como si estuvieras hablando para todos los demas y ocultandole el mensaje. Aunque no funcione porque uno acaba leyendolo.

¿Pero que te molesta ver alertas de que te han citado????
@Nomada_Firefox
He editado el mensaje anterior.
Acabo de entender tú mensaje ahora, creía que me llamabas irrespetuoso y poco agradable a mi.


¿Pero que te molesta ver alertas de que te han citado????

Si porque estoy en el curro diseñando y no quiero sentirme obligado a contestar. Tengo que adelantar curro.
@Silicio14mm Pues no respondas, no hay obligación alguna, esto es un foro, tampoco es como que lleguen alertas como el whatsapp. Be happy and don't worry, ya lo decia la canción. ;)
Silicio14mm escribió:En Octubre 2022 salió la RTX 4090 y en estos dos años su precio medio es de 2500€ a un hay muchos modelos por ese precio a la venta, puedes encontrar modelos a 1800, si, pero quizás no sea el que buscas, quizás el que buscas sigue valiendo 2000 y pico estando tan cerca su sucesora.

¿En qué te basas para decir lo de que el precio medio en estos 2 años es de 2500€? Según un estudio de mercado de 3DCenter a principios de año, el precio medio era de unos 2050€: https://www.noticias3d.com/noticia/9414 ... recio.html

Si te refieres al precio medio entre gamas "bajas" (si es que se puede hablar de bajo en una 4090) y altas en las 4090, ¿qué diferencias importantes ves como para pagar la diferencia de precio que pida el fabricante? Dejando de lado temas estéticos que eso cada uno tendrá su gusto particular.

No sé si estabas activo en el hilo de las Nvidia 4000, pero hace un tiempo había un forero bastante experto del tema de estrujar las gráficas, sacaba pecho de su MSI Suprim X por lo fresquita que la tenía y lo potente que era, hizo bastante buena publicidad de esa gráfica, ponía a caer de un burro las gráficas Palit por tener un PCB penoso (por un video de un experto en la materia) y... oh, sorpresa, como se veía a raíz de los numerosos análisis en muchos medios, apenas hay diferencia entre un fabricante y otro (es decir entre gráficas mas caras o baratas de las 4090). Es mas, lo que le pasó es que la Palit barata que probó le rendía mejor que su cara Suprim X incluso gastando menos [qmparto]

Por lo tanto, para que veas, la diferencia entre un modelo "barato" como la Palit (con PCB chustero) y uno top como las Suprim X se ha visto en... pues ya ves, justo lo contrario que se esperaría si solo se tiene en cuenta el precio.

Y puede que sea que la Palit le haya salido buenísima, pero, ¿has visto comparativas en medios profesionales donde de forma sistemática se hable de una diferencia notable entre un modelo y otro? Fuimos varios los que en su día hablamos de las diferencias entre varias 4090 y te puedo asegurar que no fui el único que llegó a la conclusión de: compra la mas barata, que mas o menos son todas iguales y te puede tocar una buena o mala sea del fabricante que sea.

Lo que suele ocurrir es que en algunos modelos mas caros le aplican un overclock en el que por ganar unos pocos fps más se consume mas (ejemplo de una Asus que cuesta +400$ respecto a la FE). Y en las 4090 sin OC se le puede aplicar OC para igualar, con lo cual estamos en lo mismo. Al final podrás mejorar el rendimiento en base al buen silicio que te toque y para eso, e insisto con el ejemplo anterior de la Palit, apenas importa el fabricante (la base de la gráfica es común y viene de Nvidia).
(mensaje borrado)
Imagen

Os dejo el enlace a un articulo que trata cuestiones surgidas en el hilo.

https://www.profesionalreview.com/guias ... -que-sirve

Estos son sus puntos.

Índice de contenidos

Rasterización, la antesala del RTX
Qué es el Ray Tracing
Qué es el Ray Casting y qué es un rayo (ray)
Ray Tracing en tiempo real
La importancia de NVIDIA DLSS
El problema del Ray Tracing: soporte en videojuegos
¿Es el futuro el Ray Tracing en PC y consola?


Saludos, va refrescando en levante [beer]
Ahora mismo hay soluciones muy buenas como el Sorbel que usa Forza Motorsport o Lumen del UE5. Son técnicas de RT por computación. Para objetos estáticos es equivalente, y luego se puede aplicar RT a objetos dinámicos, calcular la AO o los reflejos, para complementar.
Aumenta los requisitos como vemos en el UE5 pero no de forma tan exagerada y además funciona igual de bien en cualquier GPU al ser computación. Además así no se carga todo en la parte RT que digamos va aparte y se aprovecha la parte computacional de la GPU para equilibrar mejor.
El problema es que requiere un desarrollo muy técnico, salvo si usas UE5 claro y activas Lumen que “te lo dan hecho”.
@darksch
Ahora mismo hay soluciones muy buenas


Estos días le estoy dando al watch dogs legion, todo en ultra 4k 120, con RT desactivado, y salvo por los reflejos de objetos que no aparecen reflejados si no están en pantalla, no puedo distinguir si juego con rt o no.

A lo que voy, ¿No existe una técnica que active el RT cuando baje la cámara hacia un charco o mire un cristal para reflejar los objetos que no están en pantalla?. No haría falta tener RT siempre activado para reflejos, solo cuando más notorio es.

Como ya se ha dicho, hay mucho margen para la optimización, nvidia se apresuro al querer implantar RT a lo bruto y es posible que en el futuro Lumen y Sorbel, acaben puliendo tanto el rendimiento y optimización que hasta las consolas disfruten del RT.

Cuando el RT se estandarice en las gamas medias y consolas, se podrá decir que ya se a establecido mientras tanto a un esta en bragas y lleva ya 6 años, que se dice pronto.
Silicio14mm escribió:@darksch
Ahora mismo hay soluciones muy buenas




A lo que voy, ¿No existe una técnica que active el RT cuando baje la cámara hacia un charco o mire un cristal para reflejar los objetos que no están en pantalla?. No haría falta tener RT siempre activado para reflejos, solo cuando más notorio es.



Sí, aunque con limitaciones. Planar reflections + SSR + Cubemaps.

Atomic Heart:

Imagen
Usando Planar reflections + SSR + Cubemaps, si bajo la vista hacia el rio y dejo solo el agua en pantalla, ¿seguiré viendo los reflejos?

Yo he pensado que para reflejos de objetos fuera de pantalla, se podría usar una cámara contrapuesta a la del personaje que enfoque la visión contraria, básicamente el reflejo, y proyectar dicha imagen en las superficies como si fuera el reflejo. Seguro que consume menos que trazar rayos y da el pego.
Silicio14mm escribió:Usando Planar reflections + SSR + Cubemaps, si bajo la vista hacia el rio y dejo solo el agua en pantalla, ¿seguiré viendo los reflejos?

Yo he pensado que para reflejos de objetos fuera de pantalla, se podría usar una cámara contrapuesta a la del personaje que enfoque la visión contraria, básicamente el reflejo, y proyectar dicha imagen en las superficies como si fuera el reflejo. Seguro que consume menos que trazar rayos y da el pego.


Sí, en este caso sí, se perderían algunos de los SSR (screen space reflections), pero los planar reflections no:

Imagen

El problema que tienen si no recuerdo mal es que no es un efecto en tiempo real, por lo tanto no podrá cambiar de forma dinámica ni afectará a los objetos que se muevan en tiempo real. Por ejemplo, si pasa un personaje o cualquier objeto no se verá reflejado, los SSR sí, pero como su propio nombre indican (reflejos espacio pantalla) solo se ven mientras el objeto que se ve reflejado esté en pantalla.

En este video se puede observar bien:




Si te fijas, los reflejos no tienen los problemas de los SSR, son de calidad y no desaparecen. Es difícil distinguir del Ray Tracing a nivel visual. ¿El problema? pues también se ve en el vídeo, los objetos móviles no se reflejan y las personas tampoco.


En algunos juegos se utilizan simultaneamente. Sin ser tan efectivo como el RT, la verdad es que el efecto puede llegar a ser difícil de distinguir para la mayoría de gente, y además es mucho menos costoso.
@Cyborg_Ninja
Si te fijas, los reflejos no tienen los problemas de los SSR, son de calidad y no desaparecen. Es difícil distinguir del Ray Tracing a nivel visual

Creo que no soy el único que dudaba de si Atomic Heart tenia RT o no, se debe a lo que acabas de comentar a una buena implementación de planar reflections + SSR + Cubemaps. La primera hora de Atomic Heart te deja boquiabierto y te da igual si usa RT o no, yo sabia que no porque el ordenador me iba como un tiro. Me bajas el rendimiento un 70% y me creo que es RT.

Creo que solo he bajado la vista de cámara a los charcos para saber, que carajo me aportaba el RT, de normal jugando nunca lo hago.
@katatsumuri
Saludos, tu opinión sobre el video que has puesto, ¿es?

Puedo deducir que estas valorando la gran herramienta que es para diseñar, en eso estoy de acuerdo, pero sigo opinando que esta verde para la comercialización en el sector gaming
Está semana salió el benchmark de Black Myth Wukong en steam.
Estuve probando con y sin trazado de rayos y en RT bajo y alto y la verdad la mayor diferencia la noto en los cuadros por segundo más que en lo visual.
Creo que necesitaria correrlo de las formas uno al lado del otro para jugar a buscar las diferencias en lo visual para poder señalar donde hay mejora si es que la hay en lo gráfico porque así a simple vista no sabría decirlo.
Que no esta pulido el Rt a dia de hoy y,punto...No le busquéis tres patas al gato [fumando]

Es todo puro marketing para justificar el precio ratataaaa
Gnoblis escribió:Está semana salió el benchmark de Black Myth Wukong en steam.
Estuve probando con y sin trazado de rayos y en RT bajo y alto y la verdad la mayor diferencia la noto en los cuadros por segundo más que en lo visual.
Creo que necesitaria correrlo de las formas uno al lado del otro para jugar a buscar las diferencias en lo visual para poder señalar donde hay mejora si es que la hay en lo gráfico porque así a simple vista no sabría decirlo.


Lumen ya hace un buen trabajo en ese Benchmark, así que las diferencias con RT (Pathtracing)son ridículas y no vale la pena la caida brutal de rendimiento.
ScrollSpeed escribió:
Gnoblis escribió:Está semana salió el benchmark de Black Myth Wukong en steam.
Estuve probando con y sin trazado de rayos y en RT bajo y alto y la verdad la mayor diferencia la noto en los cuadros por segundo más que en lo visual.
Creo que necesitaria correrlo de las formas uno al lado del otro para jugar a buscar las diferencias en lo visual para poder señalar donde hay mejora si es que la hay en lo gráfico porque así a simple vista no sabría decirlo.


Lumen ya hace un buen trabajo en ese Benchmark, así que las diferencias con RT (Pathtracing)son ridículas y no vale la pena la caida brutal de rendimiento.


Creo que estoy perdido y/o tremendamente equivocado. Lumen no es la implementación de epic en UE5 del RT?
@Necrofero

Lumen Software es una variante del RT menos exigente que no necesita de unidades RT de las GPU, Lumen hardware si sería RT.
Imagen
https://www.muycomputer.com/2024/07/22/ ... -de-rayos/

Viendo que Sony se ha sumado a la fiesta del RT y que su Hardware es muy limitado comparado con las gamas altas del pc, se podría pensar que el futuro del trazado de rayos se encamina a utilizar una combinación de Lumen software y hardware según convenga que puedan mover las consolas y las gamas medias.

@ziu
Ahora con el pathtracing peor todavía, mucho más consumo.Nvidia se sacó está tecnología de la manga para q todas las gráficas q no soporten rtx no valgan nada y dejar a AMD en ko.

El pathtracing se nota pero no se cuantas generaciones más de rtx faltan para que sea viable

@e4ff00
RT es la mayor tomadura de pelo llevada a los videojuegos desde los tiempos de PhysX.
De alguna forma hay que vender nuevo hardware

100% de acuerdo



Un saludo a los que insinúan que nos lo imaginamos y tal, el juego tiene stuttering transversal y se acentúa bastante con RT.

Contra las herramientas y las pruebas no hay "imaginación" que valga.
Viendo el análisis de DF, Me parece tan surrealista, que se tenga que seguir poniendo una imagen al lado de otra para ver que hace el RT, y la única diferencia es que una es mas brillante que otra, gap que a mi parecer con un buen ajuste y calibrado de HDR y una buena pantalla lo solventas, tan surrealista que la gente siga queriendo pagar graficas de 2000€ mínimo, para poder mover el RT que es puro humo.

Pagar 2000€ para Jugar a 30 fps para usar PR, jugar en un pc de 4000€, a los FPS de una consola, tiene tela.
Silicio14mm escribió:El pathtracing se nota pero no se cuantas generaciones más de rtx faltan para que sea viable

Yo creo que en 10 años el pathtracing sera como ahora el RT en el caso de Nvidia. En el de AMD igual son 20 años. XD
@Nomada_Firefox

Esperemos que antes, si no para entonces ya habrá otra cosa y todo el tema del trazado de rayos por RT Cores se habrá olvidado, estará enterrado y muerto. Quiero decir que en 10 años es muy posible que existan instrucciones en las cpu futuras para manejar el trazado de rayos y no hagan falta GPU ladrillo.
Yo no creo que olviden el RT mientras Nvidia pague las facturas.

Y el Lumen no es un reemplazo viable porque es exclusivo de Unreal y realmente a muchas empresas no les gusta usar Unreal porque hay que pagar el uso del motor.

Aunque yo soy de los que piensa que se podia hacer de multiples maneras exactamente lo mismo. No hay más que ver juegos del 2016 como Titan Fall 2. Te das cuenta que el RT no era necesario.
Nomada_Firefox escribió:Yo no creo que olviden el RT mientras Nvidia pague las facturas.

Y el Lumen no es un reemplazo viable porque es exclusivo de Unreal y realmente a muchas empresas no les gusta usar Unreal porque hay que pagar el uso del motor.

Aunque yo soy de los que piensa que se podia hacer de multiples maneras exactamente lo mismo. No hay más que ver juegos del 2016 como Titan Fall 2. Te das cuenta que el RT no era necesario.


No dije que se olvide el RT si no la forma de aplicarlos y los rt cores
todo el tema del trazado de rayos por RT Cores se habrá olvidado


El trazado de rayos se queda, los RT Cores no estoy tan seguro
Nomada_Firefox escribió:Yo no creo que olviden el RT mientras Nvidia pague las facturas.

Y el Lumen no es un reemplazo viable porque es exclusivo de Unreal y realmente a muchas empresas no les gusta usar Unreal porque hay que pagar el uso del motor.

Aunque yo soy de los que piensa que se podia hacer de multiples maneras exactamente lo mismo. No hay más que ver juegos del 2016 como Titan Fall 2. Te das cuenta que el RT no era necesario.


Lumen no es exclusivo de Unreal más allá del derecho del nombre, Lumen solo es un nombre comercial que usan para referirse a técnicas de trazados de rayos SDFGI y RT, pero son técnicas de código libre que cualquier otro motor o estudio puede usar.

Silicio14mm escribió:No dije que se olvide el RT si no la forma de aplicarlos y los rt cores
todo el tema del trazado de rayos por RT Cores se habrá olvidado


El trazado de rayos se queda, los RT Cores no estoy tan seguro


No hay Otra forma de acelerar el RT, más que con los "RT Cores" o Unidades RT, y las CPU son muchísima más lenta que una GPU.

Las Unidades RT permiten acelerar el BVH de forma significativa.
@ScrollSpeed

Ya veremos que salto en RT cores trae la serie 5000
Pero ya llevamos 6 años con las RTX.
Quizás la solución de Nvidea no sea la mejor
Silicio14mm escribió:@ScrollSpeed

Ya veremos que salto en RT cores trae la serie 5000
Pero ya llevamos 6 años con las RTX.
Quizás la solución de Nvidea no sea la mejor


No solo se trata de RT Cores si no también de "Cudas(Shaders) Cores", y no hay otra solución , la Solución de Nvidia es la acertada.

No quiero meterme en tecnicismos, pero la mayoría de personas piensan que las Unidades RT(RT Core) se encargan del todo el Ray Tracing y simplemente la solución es ir metiendo más y mas RT Cores cada ves más vitaminados pero no.

El Ray Tracing se divide en dos etapas interseccion de rayos y Shading, la primera las realiza los RT Core pero la segunda se necesita de los Cuda Cores de toda la vida que se usan para la rasterizacion.

Y aquí es donde entran posibles cuellos, puedes tener unos RT core muy rápido haciendo intersecciones de los rayos, pero una vez se tengan esos datos de esos cálculos hay que sombrearlos y si los Cudas Cores son muy lentos generarán cuello.

La solución para seguir avanzando en Ray Tracing no son más RT core vitaminados o cambiarlos, es un enfoque equilibrado, osea las GPU tendrán que seguir avanzando en potencia de rasterizado y mejoras en las unidades RT, no hay de otra, saltos generacionales es lo único queda.
@ScrollSpeed

Entiendo entonces que RT cores es el nombre propietario de Nvidia pero son lo mismo que los aceleradores de rt de AMD y que los cuda cores es el nombre propietario de Nvidia pero cuda cores tienen todas las GPU.

Lo que esta claro es que Sony se ha sumado a la fiesta con la ps5 pro la cual hace incapie en el uso de RT, será interesante ver como una consola sin mucho musculo comparado con pc gama media alta y sin Hardware de Nvidia intenta lidiar con el Trazado de Rayos.
@Silicio14mm

Efectivamente tienen la misma funcion con diferentes nombres comercial, aunque en potencia si puede haber diferencias, tanto la unidades RT de Nvidia , AMD y Intel tiene la misma función Acelerar el BVH, luego cada unidad RT puede tener optimizaciones internas para acelerar más rápido ese BVH o otras funciones, las Unidades RT de Nvidia se dicen que son las más rápidas y las de AMD las más débiles.

AMD en RDNA 4 se especula que pretende mejorar bastante el RT y sus unidades, PS5 se especula que llevara arquitectura RDNa 3.5 + Unidades RT RDNA 4.
210 respuestas
1, 2, 3, 4, 5