[HO] NVIDIA GeForce RTX 5000

Se sable algo de que webs en España tendrán más stock o las que habilitarán el día 30 las compras ?

En teoría la hora sigue siendo las 15:00 ?
orie29 escribió:Se sable algo de que webs en España tendrán más stock o las que habilitarán el día 30 las compras ?

En teoría la hora sigue siendo las 15:00 ?

La venta es el día 30 a partir de las 15:00 en una tienda han puesto una grafica por cliente,si estas a la hora no tendrías problemas para comprar.
Dakot4 escribió:


En primer lugar, pido perdón de antemano a todos los fans de Nvidia por dar mi opinión. En segundo lugar, si es cierto que Nvidia ha puesto a tope la maquinaria de marketing comparando la gen 4000 con DLSS3.5 con la gen 5000 con DLSS4 es para.... [facepalm] Sinceramente, creo que tiene que ser un clickbait de manual de la cuenta esa de twitter
(mensaje bloqueado, mostrar mensaje)
Lo que parece que va quedando poco a poco claro es que a todos los poseedores de una serie 4000, más en concreto de 4070ti para arriba y especialmente los que tienen una 4090, no les va a compensar el cambio a una 5000. Salvo que sea por capricho o por estar a la última, por supuesto cada uno es libre de hacer con su dinero lo que quiera.
Todo esto a día de hoy, en un tiempo cuando estén mucho más maduras estas mejoras de IA puede que sí que la 5080 merezca más la pena que una 4090. Desde luego en enero de 2025 creo que no se da el caso.

La cuestión es que para los que no tenemos una 4000 ¿recomendaríais dar el salto a las 5000? En mi caso tengo una serie 3000, y una 5080 ó 5090 mejorarían mucho mi setup. Ahora, que puede que no rindan todo lo que se esperaba de ellas por esos precios, también puede ser cierto. Pero en mi caso mi gráfica tiene 4 años, si espero a las 6000 me voy a 6/7 años de gràfica.

¿Qué aconsejarías para los poseedores de una serie 2000 ó 3000?
@Ruko2k

De cabeza a la serie 5000, en concreto 5070 Ti, que pienso que es la más equilibrada en todos los sentidos
(mensaje bloqueado, mostrar mensaje)
NAILIK escribió:@Ruko2k

De cabeza a la serie 5000, en concreto 5070 Ti, que pienso que es la más equilibrada en todos los sentidos


Gracias! La putada es que no hay 5070 Ti FE. Esperemos que las ensambladoras no se suban mucho a la parra con los precios …
Estaré pendiente
Kroxy escribió:
Nomada_Firefox escribió:Bueno, yo no dije que no tuviera PC. Solo que la grafica no es para 4k. Y ademas cite a hh1 porque el tiene un i5-12600 con una RTX 4090, claro que el vio el panorama y en vez de jugar en 4k, lo hace en 1440p.

Imagen


Pero siento una curiosidad ¿tienes el brillo bajado en el monitor o tv o estas jugando con hdr y se ve asi? porque más que roma, parece dune, abrasa. Me recuerda mucho al HDR metiendo mucho brillo, no todos los juegos permiten regular el brillo, ni el monitor. A mi no me gusta nada usarlo, la noche parece de dia y el dia es demasiada luz, ademas de producir perdida de contraste.

Las capturas en hdr siempre se ven así de mal

Siempre no, solo si no sabes tratarlas/convertirlas a SDR. Ya sea que queden quemadas o apagadas o como sea, si tienes una buena captura HDR la puedes pasar a SDR simplemente perdiendo la parte HDR pero sin romperla de esa forma. Ejemplos de Hellblade 2, es lo que tengo a mano y no son las mas iluminadas que tengo pero como ejemplo de conversión a SDR sin romper valen: https://imgur.com/a/1ZLz0j0

El programa que uso para pasar las capturas de HDR a SDR es Pictureflect Photo Viewer. El mismo programa también lo uso para reducir el tamaño de las capturas (creo que 10 veces menos, lo digo de memoria) sin perder apenas calidad (desde luego no a simple vista)

NAILIK escribió:@Kroxy

Gracias Kroxy. Cierto, he estado mirando el porque y ya he visto que todas las capturas que se hacen en Windows con HDR salen sobrexpuestas. Hay está la respuesta [oki]

¿Te refieres a as capturas SDR (.png) que hace Windows cuando se está en modo HDR? Esas están mal y no sirven para nada, lo que hay que hacer es convertir las HDR (.jxr) a SDR correctamente como le digo a Kroxy.

Como es offtopic en este hilo no voy a alargarlo mas explicando en detalle, si queréis mas info podéis abrir un hilo y lo hablamos ahí.
@Rvilla87

Joder, muchísimas gracias! [oki]
Todavía no he trasteado con el programa y en los 3 minutos que hace que lo he instalado, ya he conseguido que se vean las capturas mucho mejor:

Imagen
Imagen

Voy a mirar bien opciones para que salgan como las veo yo. Gracias de nuevo!
orie29 escribió:Se sable algo de que webs en España tendrán más stock o las que habilitarán el día 30 las compras ?

En teoría la hora sigue siendo las 15:00 ?

Yo estoy como tú. Quiero la 5090 FE día 1 y estaré ahí a las 15:00. Pero con todos los especuladores y tal… buf. Imposible hacerse con una.
(mensaje borrado)
https://www.theverge.com/2025/1/15/2434 ... ly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53

SECHI escribió:https://www.theverge.com/2025/1/15/24344212/nvidias-dlss-is-surprisingly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53



Parece magia, los más puristas, los de la vieja escuela siempre vamos a preferir resolucion nativa todo en ultra sin mierdas de filtros, reconstruccion de rayos y nombres que suenan guay hasta que nos callen la boca cuando sea mejor. Creo que aun no ha llegado el momento.
Las custom también se empiezan a vender el 30?
SECHI escribió:https://www.theverge.com/2025/1/15/24344212/nvidias-dlss-is-surprisingly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53



pero es que es muy sencillo, quien no quiera activar DLSS porque considera que las tecnicas AI son un timo, simplemente tiene que desactivar en los juegos todos los efectos RT/PT y listo. Jugara mas o menos calidad consola, y tan feliz.

DLSS se creó para poder disfrutar ya en PC de Ray Traicing que, de otra forma, en tiempo real, a altas resoluciones y alta tasa de FPS es inviable.
alguien ha analizado un poco sobre " la poca info actual" que 5090 seria la mejor? (Bloque de agua VS 4 ventiladores VS founder...)

un saludo y gracias
gojesusga escribió:
SECHI escribió:https://www.theverge.com/2025/1/15/24344212/nvidias-dlss-is-surprisingly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53



Parece magia, los más puristas, los de la vieja escuela siempre vamos a preferir resolucion nativa todo en ultra sin mierdas de filtros, reconstruccion de rayos y nombres que suenan guay hasta que nos callen la boca cuando sea mejor. Creo que aun no ha llegado el momento.


pero es que ese momento de "callar las bocas" hace tiempo que esta aqui, basta ver cualquier comparativa de 4k nativo sin RT vs 4k dlss calidad con rt, la superioridad en calidad visual de esta ultima es evidente. No has visto como se transforma TW3 con el parche que añade RT? un juego de hace 1 decada (que se dice rapido) lo transforma.

Ahora, si lo que quieres es RT y nativo, es decir, todo calculado en tiempo real, eso simplemente no es viable y cualquiera que esté en la industria de la animacion 3D lo sabe.
titus_99 escribió:
orie29 escribió:Se sable algo de que webs en España tendrán más stock o las que habilitarán el día 30 las compras ?

En teoría la hora sigue siendo las 15:00 ?

La venta es el día 30 a partir de las 15:00 en una tienda han puesto una grafica por cliente,si estas a la hora no tendrías problemas para comprar.


Yo estoy interesado en pillar una y me parece una idea fenomenal que limiten a 1 por usuario, en qué web lo has visto?? Si se considera spam me lo podrías indicar por privado porfa.


Gracias!!
Y portátiles con estas nuevas 5000, se sabe algo? me tengo q pillar uno por curro y estoy esperando a que lleven las nuevas RTX.
parh escribió:
gojesusga escribió:
SECHI escribió:https://www.theverge.com/2025/1/15/24344212/nvidias-dlss-is-surprisingly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53



Parece magia, los más puristas, los de la vieja escuela siempre vamos a preferir resolucion nativa todo en ultra sin mierdas de filtros, reconstruccion de rayos y nombres que suenan guay hasta que nos callen la boca cuando sea mejor. Creo que aun no ha llegado el momento.


pero es que ese momento de "callar las bocas" hace tiempo que esta aqui, basta ver cualquier comparativa de 4k nativo sin RT vs 4k dlss calidad con rt, la superioridad en calidad visual de esta ultima es evidente. No has visto como se transforma TW3 con el parche que añade RT? un juego de hace 1 decada (que se dice rapido) lo transforma.

Ahora, si lo que quieres es RT y nativo, es decir, todo calculado en tiempo real, eso simplemente no es viable y cualquiera que esté en la industria de la animacion 3D lo sabe.


La implementación del RT TW3 es bastante normalita, pero es que en realidad tampoco usa RT "puro", tampoco usa las unidades RT de las GPU.
HakiGold escribió:
parh escribió:
gojesusga escribió:
Parece magia, los más puristas, los de la vieja escuela siempre vamos a preferir resolucion nativa todo en ultra sin mierdas de filtros, reconstruccion de rayos y nombres que suenan guay hasta que nos callen la boca cuando sea mejor. Creo que aun no ha llegado el momento.


pero es que ese momento de "callar las bocas" hace tiempo que esta aqui, basta ver cualquier comparativa de 4k nativo sin RT vs 4k dlss calidad con rt, la superioridad en calidad visual de esta ultima es evidente. No has visto como se transforma TW3 con el parche que añade RT? un juego de hace 1 decada (que se dice rapido) lo transforma.

Ahora, si lo que quieres es RT y nativo, es decir, todo calculado en tiempo real, eso simplemente no es viable y cualquiera que esté en la industria de la animacion 3D lo sabe.


La implementación del RT TW3 es bastante normalita, pero es que en realidad tampoco usa RT "puro", tampoco usa las unidades RT de las GPU.


que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?
Nomada_Firefox escribió:Bueno, yo no dije que no tuviera PC. Solo que la grafica no es para 4k. Y ademas cite a hh1 porque el tiene un i5-12600 con una RTX 4090, claro que el vio el panorama y en vez de jugar en 4k, lo hace en 1440p.

Imagen

Pero siento una curiosidad ¿tienes el brillo bajado en el monitor o tv o estas jugando con hdr y se ve asi? porque más que roma, parece dune, abrasa. Me recuerda mucho al HDR metiendo mucho brillo, no todos los juegos permiten regular el brillo, ni el monitor. A mi no me gusta nada usarlo, la noche parece de dia y el dia es demasiada luz, ademas de producir perdida de contraste.

No se lo que tendrá su cpu china.
Si se acerca al 12600 ,con una gráfica que dice , poco cuello de botella va a tener a 4K.
Lo que más justo se le queda son los 16gb de RAM que ya van justitos

Yo armé el pc para 1440p y ]buscar lo ma scercano a 240 fps
Cierto es que ,el 12600, era para convivir con una 3080Ti, no una 4090.
Peor se fueron dandoas cosas de tal manera ,que es que no le encuentro ,por unas cosas y otras ,un sentido a un uphrade de plataforma .
No al menos hasta que se bajen de la nube con los X3D
Porque para pasar a un 14600K ,me quedo como estoy ,visto lo visto.

Luego, de DDR5 a DDR4, va un mierdón en rendimiento por mucho que nos vendan.

Mi esperanza es un.9609X3D reducido en precio en estos meses.Y si no, pues ya hasta la siguiente gen

Eso sí, yo ya he pasado en el 99% de los juegos de jugar 1440p a jugar DSR 4k.
Así que ,aún es más absurdo el cambio.
parh escribió:
HakiGold escribió:
parh escribió:
pero es que ese momento de "callar las bocas" hace tiempo que esta aqui, basta ver cualquier comparativa de 4k nativo sin RT vs 4k dlss calidad con rt, la superioridad en calidad visual de esta ultima es evidente. No has visto como se transforma TW3 con el parche que añade RT? un juego de hace 1 decada (que se dice rapido) lo transforma.

Ahora, si lo que quieres es RT y nativo, es decir, todo calculado en tiempo real, eso simplemente no es viable y cualquiera que esté en la industria de la animacion 3D lo sabe.


La implementación del RT TW3 es bastante normalita, pero es que en realidad tampoco usa RT "puro", tampoco usa las unidades RT de las GPU.


que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?


El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.
SECHI escribió:https://www.theverge.com/2025/1/15/24344212/nvidias-dlss-is-surprisingly-popular


El 80% de la gente que puede activar el dlss lo hace.

Quien no quiera ver el cambio que esta sufriendo la industria es asunto suyo, la verdad es que desde que salieron estas tecnologías los que pueden usarlas lo hacen.

El dlss fue ya hace unos cuantos años, ahora parece que le toca el turno a los fake frames. Supongo que sera igual a cuando salio el dlss 2 que fue un gran salto desde el dlss 1, pues ahora veremos cómo evoluciona este tema en cada generacion.

Me acuerdo de discutir hace años sobre el dlss y que era imposible que una reconstrucción se fuera a ver mejor que una nativa. Pues ese dia, parece ser, ha llegado.

Un ejemplo aqui. Minuto 13:53


El DLSS para mí es obligado.
Me da una caliidad que no diferencio con el nativo y FPS extras.

El FG no dudo de qué acabe siendo algo similar ,pero hoy por tiene algunos contras más que el DLSS como son los artefactos y mayor input lag.
Isabel?
Sí claro.
Pero tan tan tan bueno como un DLSS 3 no es ,por ahora.
Que acabará siendo tan bueno?Puede ser.
Zell_22 escribió:Las custom también se empiezan a vender el 30?

Eso quiero saber yo, ya que las founders volarán en segundos.
HakiGold escribió:
parh escribió:
HakiGold escribió:
La implementación del RT TW3 es bastante normalita, pero es que en realidad tampoco usa RT "puro", tampoco usa las unidades RT de las GPU.


que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?


El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.



alguien en la sala para validar esta información? @sicopro quizas? XD

@owenkz si las founders vuelan, tened por seguro que a las custom PCC, coolmod, etc le aplicaran un incremento especulativo. Lo han venido haciendo en los ultimos lanzamientos importantes (vease el ultimo proce x3d de AMD) y le han pillado el gustillo.
Hoy tengo que decir una cosa algo mejor que las que he dicho en estos días pasados.

Desde que leí a Iker de hardware360 en twitter hablando de los tensor cores capadinhos en las series anteriores a la 5000 (que yo había malinterpretado al relacionarlo con un rumor de hace 2 años donde se decía que la 4090 tenía los tensor cores capados y de la 4080 hacia abajo no), estuve buscando evidencias de eso, llegando ayer a hacer un post donde me pensaba que iba a poder probar yo mismo eso de la 4090 con los tensor cores capados.

Ese post terminé yo mismo diciendo que no tenía yo evidencias suficientes como para afirmar esto y que seguiría buscando e investigando por mi cuenta para poder sustentar bien eso.

En todas estas hoy por la mañana conduciendo para el trabajo resulta que escucho este vídeo en plan podcast, que también resulta que es de gamer bits, el del post en twitter de un poco más arriba.

https://www.youtube.com/watch?v=IXfq9C3dyTU

A partir del minuto 11 empieza él a disculparse por una información que días atrás había dado incorrecta, creo que decía que los cuda cores a partir de la serie 5000 dejaban de apoyar algunas veces a los tensor cores para sus cálculos y que a partir de las Blackwell todo lo que tuviera que ver con ia se le puede asignar exclusivamente a los tensor cores.

Pues resulta que no, que es al revés. Que a partir de las 5000 los cuda cores pueden calcular operaciones que hasta ahora solamente hacían los tensor cores.

Ahora sí entiendo lo que quería decir iker, solamente que se había explicado tan mal o estaba él tan mal informado también que el dato del por que estaba incorrecto en realidad.

También gracias a eso se puede uno explicar el aumento de capacidad de cálculo en ia Tops que tienen las 5000 con respecto a las 4000 y anteriores, porque al final parece que el chino juan ahí no estaba capando nada en realidad.

Después de toda la diatriba, tampoco hay una certeza total de que esto sea así, pero por la navaja de ockham, es más plausible que los cuda cores nuevos, mejores que los anteriores, puedan calcular cosas adicionales en lugar de una teoría oscura acerca de tensor cores capados que salió hace dos años y no ha vuelto a tener rumores hasta ahora.

Yo también he estado equivocado en algo unos días.
HakiGold escribió:
parh escribió:
HakiGold escribió:
La implementación del RT TW3 es bastante normalita, pero es que en realidad tampoco usa RT "puro", tampoco usa las unidades RT de las GPU.


que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?

El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.

Qué raro la forma en la que lo has escrito con el uso de mayúsculas cuando no tocan, con palabras ¿erróneas?, con lo que parece traducciones al castellano o al inglés sin mucho sentido, mal uso de los signos de puntuación... te preguntaría si te lo ha escrito una IA pero tampoco me cuadra, parece un mix.

En todo caso, cuál es la fuente de eso que dices?


@pakolo1977 la verdad que no entendí tus posts y la búsqueda de algo ya pasado con las 4000 cuando si no ha salido a la luz (o no de forma alarmante) es porque normalmente no hay nada que destapar. En el mundo hay gente con muchos mas conocimientos que casi cualquiera de los que estamos por aquí y es capaz de hacer ese tipo de comprobaciones. Si después de más de 2 años no ha salido eso será que no hay mucha cosa que rascar, ya que si se hubiera destapado se hubiera hecho público rápidamente y saldría en todos los medios que eso es salseo del bueno. La cantidad de bulos de mierda que salen cada 2x3 como para que no se diera a conocer una verdad alarmante :Ð
parh escribió:que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?


De sus huevos morenos. Se ve que el calculo de intersecciones lo hace un gnomo dándole a una manivela.

HakiGold escribió:El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.


https://www.nvidia.com/en-us/geforce/news/portal-with-rtx-game-ready-driver/
https://www.nvidia.com/en-us/geforce/news/witcher-3-wild-hunt-dlss-rtx-ray-tracing-free-update-out-now/
https://developer.nvidia.com/rtx/ray-tracing/rtxgi

RTX Global Illumination (RTXGI) adds more immersive and realistic outdoor ray-traced lighting.

RTXGI (RTX Global Illumination) fue lanzado oficialmente por NVIDIA el 24 de marzo de 2020. Fue presentado como parte de las herramientas RTX para desarrolladores, destinadas a aprovechar las capacidades de trazado de rayos en tiempo real mediante los RT Cores de las GPUs NVIDIA.

El parche Next-Gen para The Witcher 3: Wild Hunt fue lanzado el 14 de diciembre de 2022. Este parche gratuito trajo mejoras gráficas significativas y nuevas características para aprovechar el hardware moderno, como las GPUs con soporte para trazado de rayos.

En PC, el parche permite aprovechar tecnologías avanzadas como DirectX 12 y trazado de rayos en tiempo real.


Utiliza los RT Cores incluso aunque puedas utilizar probes para optimizar.

Esto no es Lumen.

El BVH es fundamental para RTXGI y obviamente se utiliza trazado de rayos acelerado. Incluso aunque lo puedas complementar con probes vas a utilizar los RT Cores y BVH. RTXGI no puede funcionar sin BVH.

Las GPU de Nvidia no se cagan encima con el RT, ya que pueden manejar BVH8, así que ya estas aumentando el paralelismo y reduciendo el consumo de memoria.

Utilizar probes no invalida el uso de BVH con RTXGI. Ni tampoco el uso de los RT Cores.

Imagen

PD: @parh Me has puesto la presa a huevo. Imagínate lo absurdo que sería no sacarle partido a los RT Cores, si los tienes ahí, de free. Luego la API pues ya se encarga de abstraer el hardware para que funcione peor en GPUs de AMD sin ASIC dedicados (ni soporte de BVH8) o consolas. [carcajad]
Rvilla87 escribió:
HakiGold escribió:
parh escribió:
que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?

El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.

Qué raro la forma en la que lo has escrito con el uso de mayúsculas cuando no tocan, con palabras ¿erróneas?, con lo que parece traducciones al castellano o al inglés sin mucho sentido, mal uso de los signos de puntuación... te preguntaría si te lo ha escrito una IA pero tampoco me cuadra, parece un mix.

En todo caso, cuál es la fuente de eso que dices?


@pakolo1977 la verdad que no entendí tus posts y la búsqueda de algo ya pasado con las 4000 cuando si no ha salido a la luz (o no de forma alarmante) es porque normalmente no hay nada que destapar. En el mundo hay gente con muchos mas conocimientos que casi cualquiera de los que estamos por aquí y es capaz de hacer ese tipo de comprobaciones. Si después de más de 2 años no ha salido eso será que no hay mucha cosa que rascar, ya que si se hubiera destapado se hubiera hecho público rápidamente y saldría en todos los medios que eso es salseo del bueno. La cantidad de bulos de mierda que salen cada 2x3 como para que no se diera a conocer una verdad alarmante :Ð

Al final somos unos putos frikazos que nos ahogamos en tecnicismos y explicaciones de funcionamiento, cuando al final, lo único que vale es cómo rindan en las pruebas y en tu casa.Ya está.
@Rvilla87

No soy el mejor en escritura, pero cuándo se usa nombre propios entiendo que se debe usar la primera letras en mayúsculas, ejemplo Nvidia no nvidia, Ray Tracing no ray tracing etc.

RTXGI que vendió Nvidia en su momento estaba basado en una técnica que es muy común en juegos que se llama Probe (Sondas en español), esa versión se implemento en TW3 y el juego Warhammer, esa técnica no usa BVH porque no está basada en geometría, por cuál no se acelera por la Unidades RT de las GPU.

Esa esferas que ves en la demo son las que se llaman Probe o Sondas. Fuente:

@HakiGold lo que más me llamó la atención es leer literalmente en medio de una frase la palabra "Probé". Una tilde en una palabra en inglés que de primeras en lugar de leer "probe" como si fuera inglés pensé realmente que hablabas del verbo probar en español. Y fueron mas cosas pero bueno, eso ya es lo de menos, tan solo me pareció raro porque me daba a una IA cutre y luego con tantos errores me hizo dudar.

Lo que mas me interesaba era saber la fuente. La info que pones (tanto el enlace que pusiste como ese video) no veo que explique lo que dices de Witcher 3. La info que pones es de 2019 cuando la versión Next Gen de Witcher 3 salió a finales de 2022, difícilmente pueda explicar cómo implementaron el RT en un juego del futuro, no?

Precisamente la info que encontré antes de preguntarte fueron los enlaces que puso sicopro y de ahí mi pregunta, porque buscando rápidamente no encontré lo que decías.

¿Tienes fuentes de la implementación del RTX de Witcher 3 explicando lo que dijiste en tu post?

¿O simplemente tu referencia se explica con el funcionamiento de RTXGI? Porque sicopro lo contradice, a quién creemos?

Podéis poner fuentes o es que os tenemos que creer porque sois muy guapos? :Ð
HakiGold escribió:No soy el mejor en escritura, pero cuándo se usa nombre propios entiendo que se debe usar la primera letras en mayúsculas, ejemplo Nvidia no nvidia, Ray Tracing no ray tracing etc.


No, ray tracing no es un nombre propio, es simplemente trazado de rayos en inglés.

HakiGold escribió:RTXGI que vendió Nvidia en su momento estaba basado en una técnica que es muy común en juegos que se llama Probe (Sondas en español), esa versión se implemento en TW3 y el juego Warhammer, esa técnica no usa BVH porque no está basada en geometría, por cuál no se acelera por la Unidades RT de las GPU.


En su momento, pero si acaban de sacar la segunda versión, que encima se apoya en la IA. El otro día te limpiaste el culo con ello y menospreciaste toda esa tecnología sin ni siquiera entenderla.

https://elchapuzasinformatico.com/2024/03/nvidia-rtxgi-2-0-mayor-rendimiento-y-calidad-visual-en-juegos/

El otro día me decías que los Tensor Cores no apoyaban a nada. Que me lo inventaba.

NVIDIA anunció una importante actualización de su SDK de iluminación global por trazado de rayos, hablamos del NVIDIA RTXGI 2.0 (RTX Global Illumination 2.0). Gracias al hardware dedicado para IA de las GPU NVIDIA GeForce RTX, este SDK trae nuevos algoritmos propulsados por IA no solo para que los desarrolladores mejoren el desempeño de sus juegos. Sino también seguir mejorando la calidad visual del Ray Tracing (trazado de rayos).

Neural Radiance Cache (NRC) es un algoritmo basado en IA que entrena la caché de radiancia sobre una escena en tiempo real, manejando escenas totalmente dinámicas sin suposiciones sobre iluminación, geometría y materiales. Utiliza la aceleración de la IA para entrenar la caché de radiancia en tiempo real con el fin de ofrecer un rendimiento mejorado y una iluminación global más precisa en escenas muy exigentes.

Como resumen, esta técnica permite que los efectos avanzados de Ray Tracing y Patch Tracing sean más rápidos en las GPU NVIDIA mediante el uso de hardware acelerado por IA. Es decir, los Tensor Core de las GPU RTX.


HakiGold escribió:Esa esferas que ves en la demo son las que se llaman Probe o Sondas. Fuente:

https://youtu.be/F3hIculYFwM?si=NuhPppf0Uj2MMU4m


RTXGI no estaba basado exclusivamente en probes, sino que ya utilizaba trazado de rayos para calcular iluminación global. Los probes pueden ser parte de la optimización, pero no reemplazan el uso de trazado de rayos ni BVH.

Lo mismo pasa con RTXGI 2.0, aunque utilices los Tensor Cores.
owenkz escribió:
Zell_22 escribió:Las custom también se empiezan a vender el 30?

Eso quiero saber yo, ya que las founders volarán en segundos.

Yo de custom he estado mirando la Astral Asus 5090 que tiene unas medidas parecidas a mi Gigabyte 4090. La cosa es cuánto durarán las Asus.
hh1 escribió:No se lo que tendrá su cpu china.
Si se acerca al 12600 ,con una gráfica que dice , poco cuello de botella va a tener a 4K.
Lo que más justo se le queda son los 16gb de RAM que ya van justitos

Yo armé el pc para 1440p y ]buscar lo ma scercano a 240 fps
Cierto es que ,el 12600, era para convivir con una 3080Ti, no una 4090.
Peor se fueron dandoas cosas de tal manera ,que es que no le encuentro ,por unas cosas y otras ,un sentido a un uphrade de plataforma .
No al menos hasta que se bajen de la nube con los X3D
Porque para pasar a un 14600K ,me quedo como estoy ,visto lo visto.

Luego, de DDR5 a DDR4, va un mierdón en rendimiento por mucho que nos vendan.

Mi esperanza es un.9609X3D reducido en precio en estos meses.Y si no, pues ya hasta la siguiente gen

Eso sí, yo ya he pasado en el 99% de los juegos de jugar 1440p a jugar DSR 4k.
Así que ,aún es más absurdo el cambio.


Más razón que un santo!! [oki] menos mal que hay alguien que también se ha pasado al 4K como yo con un procesador de gama media y un tarjetón gráfico. Menuda envidia sana esa 4090 :) debe ir como un puto tiro, felicidades!
Ahora que no nos oyen los doctorados en cuellos de botella, te doy la razón en que es absurdo el cambio de procesador para jugar a 4K con lo que tienes, asi que puedes esperar tranquilamente a la siguiente gen de CPU. De hecho, en mi caso, hasta que no reviente el combo Erying 12500H que tengo no lo pienso cambiar, sólo que ya voy con 32GB DDR4 3200, porque como bien dices no hay una diferencia notoria a usar DDR5 (pero que tampoco nos oigan las "fashion victims" de comprar lo último de lo último para fardar de PC). Lo mejor de todo es que el consumo total de mi PC no llega ni a los 370W a plena carga [qmparto]

Y totalmente de acuerdo también con lo del DLSS, tenerlo y no usarlo es totalmente respetable, pero yo prefiero usarlo en calidad o rendimiento y sacarle unos cuantos FPS extras porque, como ya dije, a la distancia que juego en mi OLED 55" 120Hz no soy capaz de notar diferencias. Por eso veo un gran avance con las nuevas funcionalidades del DLSS4. Es una de las ventajas de irse haciendo mayor, que la vista sólo puede ir a peor con el tiempo XD
El FG lo veo diferente, porque en según que juegos la implementación es un despiporre, de ahí mis dudas con un FG a X3 o a X4 si ahora mismo el FG que hay tiene deficiencias palpables en ciertos juegos en cuanto a errores y latencia. Sólo hay que ver el pelo del video del Cyberpunk usando el MFG para ver que en un juego preparado para enseñar esta nueva tecnología se ven problemas. Imagínate estudios pequeños sin tanto recurso ni "patrocinio" por parte de Nvidia. No dudo que el MFG sólo podrá ir a mejor, y que en el futuro será lo normal, pero depender de que los estudios lo implementen, siempre que no se pueda forzar desde el panel de control de Nvidia, no lo veo ideal para dar el salto a una nueva gen. Solo hay que ver que Nvidia ya dice que desde el lanzamiento sólo habrá 75 juegos y aplicaciones compatibles con el nuevo MFG, así que doy por hecho que al principio no se podrá usar con cualquier juego.

Como dato sobre el tema del hilo, y como ha habido gente que lo ha preguntado, la 4070 Ti no saldrá hasta febrero, y no hay FE de esa gama, por lo que os tocará ir a versiones custom.
@Rvilla87

No sé que te parece raro, Nvidia presento la técnica DDGI o RTXGI en GDC del 2019(video que te he puesto), está técnica luego se aplicó en el paquete RTXGI al TW3, se aplico a otros juegos contados, lo que Nvidia vendía como RTXGI en su momento no era el Ray Tracing triángulo que se venía utilizando, si no el expuesto en el vídeo basado en Probes.

Porque se que es el que se utilizó, no recuerdos la fuente pero en su momento se menciono y también el modder que sacó el mod de optimización lo menciona, que su optimización está basada en el tema de las Sondas.

https://www.nexusmods.com/witcher3/mods/7432

También aclarar que esto solo es para Iluminación Global, para los reflejos y no recuerdo si tenía sombras se usaba el Ray Tracing triángulo aprovechando si las Unidades RT, pero el cambio visual mas grande era la Iluminación Global que no era RT triángulo, si Probe y no aprovechaba las Unidades RT.
(mensaje bloqueado, mostrar mensaje)
NAILIK escribió:
hh1 escribió:No se lo que tendrá su cpu china.
Si se acerca al 12600 ,con una gráfica que dice , poco cuello de botella va a tener a 4K.
Lo que más justo se le queda son los 16gb de RAM que ya van justitos

Yo armé el pc para 1440p y ]buscar lo ma scercano a 240 fps
Cierto es que ,el 12600, era para convivir con una 3080Ti, no una 4090.
Peor se fueron dandoas cosas de tal manera ,que es que no le encuentro ,por unas cosas y otras ,un sentido a un uphrade de plataforma .
No al menos hasta que se bajen de la nube con los X3D
Porque para pasar a un 14600K ,me quedo como estoy ,visto lo visto.

Luego, de DDR5 a DDR4, va un mierdón en rendimiento por mucho que nos vendan.

Mi esperanza es un.9609X3D reducido en precio en estos meses.Y si no, pues ya hasta la siguiente gen

Eso sí, yo ya he pasado en el 99% de los juegos de jugar 1440p a jugar DSR 4k.
Así que ,aún es más absurdo el cambio.


Más razón que un santo!! [oki] menos mal que hay alguien que también se ha pasado al 4K como yo con un procesador de gama media y un tarjetón gráfico. Menuda envidia sana esa 4090 :) debe ir como un puto tiro, felicidades!
Ahora que no nos oyen los doctorados en cuellos de botella, te doy la razón en que es absurdo el cambio de procesador para jugar a 4K con lo que tienes y puedes esperar tranquilamente a la siguiente gen de CPU. De hecho, en mi caso, hasta que no reviente el combo Erying que tengo no lo pienso cambiar, sólo que ya voy con 32GB DDR4 3200, porque como bien dices no hay una diferencia notoria a usar DDR5 (pero que tampoco nos oigan las "fashion victims" de comprar lo último de lo último para apenas ganar rendimiento). Lo mejor de todo es que el consumo total de mi PC no llega ni a los 370W a plena carga [qmparto]

Como dato sobre el tema del hilo, y como ha habido gente que lo ha preguntado, la 4070 Ti no saldrá hasta febrero, y no hay FE de esa gama, por lo que os tocará ir a versiones custom.

Es que si a caso ,un cambio de plataforma a coste "bajo" ,bueno.
Algunas veces si que notaría algo.
Pero es que meter lo de un 9800X3D no compensa en absoluto.

Ahora mismo estoy jugando a The Finals con 58w de cpu y 180w de la gráfica.
No te digo más.

La verdad es que la 4090 es más que sólo potencia.Es globalmente una máquina.
...
Editado por metalgear. Razón: offtopic
@Rvilla87

Lo he puesto en el primer post.

https://developer.nvidia.com/rtx/ray-tracing/rtxgi

Vete al FAQ de RTXGI:

P: ¿Qué es RTXGI?
R: RTXGI es un kit de desarrollo de software que aprovecha la potencia del trazado de rayos de la GPU para proporcionar soluciones escalables para el cálculo de la iluminación global en aplicaciones gráficas en tiempo real.

P: ¿RTXGI utiliza trazado de rayos?
R: ¡Sí! La capacidad de trazar rayos arbitrarios es un componente esencial que permite actualizar de forma dinámica y flexible la información de iluminación en tiempo de ejecución.

HakiGold escribió:https://www.nexusmods.com/witcher3/mods/7432


Ese mod solamente modifica los probes.

HakiGold escribió:También aclarar que esto solo es para Iluminación Global, para los reflejos y no recuerdo si tenía sombras se usaba el Ray Tracing triángulo aprovechando si las Unidades RT, pero el cambio visual mas grande era la Iluminación Global que no era RT triángulo, si Probe y no aprovechaba las Unidades RT.


Como te he dicho antes, BVH y probes pueden coexistir, ya que los probes son una herramienta complementaria para optimizar el trazado de rayos, no un reemplazo.

RTXGI combina ambas cosas, ya que utiliza probes para reducir la cantidad de rayos trazados en ciertas áreas, pero los cálculos fundamentales siguen dependiendo del trazado de rayos y del hardware RT.

Es lo mismo que cuando ladras sobre que la rasterización es necesaria, claro que lo es, yo nunca he dicho lo contrario, pero cada vez va a ser necesaria menos rasterización para poder inferir el resultado final. Aquí estamos haciendo lo mismo con probes y BVH. Te mola la analogía, eh, con mini zasca.
parh escribió:
HakiGold escribió:
parh escribió:
que es una implementacion no muy ambiciosa es evidente, tratandose de un parche no un remake o juego nuevo, y aun asi conisdero que la mejora es bastante notoria. Pero de lo que no usa el hardware RT de la gpu... de donde ha salido esa info?


El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.



alguien en la sala para validar esta información? @sicopro quizas? XD

@owenkz si las founders vuelan, tened por seguro que a las custom PCC, coolmod, etc le aplicaran un incremento especulativo. Lo han venido haciendo en los ultimos lanzamientos importantes (vease el ultimo proce x3d de AMD) y le han pillado el gustillo.

Yo es que no sé ni si intentar pillar una FE, no me gusta nada que la 5090 sea de solo dos slots, ya que voy a pagar un pastizal no me importa hacer un pequeño esfuerzo extra y pillar una más grande.
En agosto me pude comprar aunque acabe devolviendola en LDLC una asus dual 4070 super oc por 611 euros, viendo esta nueva info la 5070 me parece todavia menos atractiva, no hay ninguna clase de salto generacional aqui, y acabas pagando mas dinero solo por la IA.

@Sicopro

No quería contestarte porque siempre te metes en temas que no sabes vendiendolo como una verdad absoluta y no para aprender , pero aprovechando tu comentario que es desconocimiento, aprovechó para aclarar algunos términos para los interesados:

- Ray Tracing en español significa Trazado de Rayos, no hay que confundir que es una técnica única y que funciona de una sola forma, hay otras técnicas en la cuales también se Trazan Rayos, es una palabra genérica.

- El Ray Tracing que nosotros conocemos y no han estado vendiendo es el Ray Tracing triángulo, eso significa que los Rayos hacen intersección con la geometría de la escena, para acelerar esas intersección se invento el BVH que enterminos simples mejora eficiencia de la geometría haciendo mas rápido la intersecciónes de Rayos, pero el BVH es una técnica que solo funciona con la geometría del juego.

- La función de las Unidades RT solo es acelerar el BVH no directamente la geometría, en palabras simples para que las Unidades RT de las GPU puedan funcionar necesitan BVH, no aceleran nada más que eso, por eso son Unidades de función fija.

- Conociendo estos es bastante simple, hay otras técnicas en las cuales se disparan y Trazan Rayos, las cuales no funcionan con la geometría y no hay intersección en la geometría, pero que al no estar basadas en la geometría no utilizan BVH, así no las Unidades RT solo se usa cuando hay BVH, no porque una técnica trace rayos ya se usan.

Las técnicas donde se Trazan Rayos y no por geometría, general busca rendimiento sin necesidad Hardware RT, pero lógicamente son menos precisas:

- Ray Tracing Probe , la mencionada en el tema que se implemento en TW3 , los Rayos usan la información de los Probe para calcular la GI, no de la geometría.

- Ray Tracing Voxel o Cone Tracing, en vez de geometría se voxeliza la escena y se usan Rayos anchos en forma de cono, el Cryengine usa está técnica para su Svogi, pero Nvidia en su momento también presento la suya como VXGI.

- Ray Tracing SDF, se Trazan Rayos utilizando la información del Signal Distances Field para calcular la GI, esto es lo que utiliza Lumen Software.

- Ray Tracing Screen Space , se Trazan Rayos utilizando como información el Buffer de profundidad del espacio en pantalla, esto sea usado mucho en los reflejos SSR, y en GI se utilizó en algunos juegos del UE4 que aparece como SSGI.

Todas estas técnica no utilizan el BVH por cuál no se aceleran con las Unidades RT de las GPU.

PD:Perdón por el tocho post ,no soy de esos XD.
owenkz escribió:
parh escribió:
HakiGold escribió:
El RTX que promocionaban Nvidia y utiliza TW3 es una tecnica de Trazado de Rayos pero utilizando los clasicos Probé para calcular la GI.

Las Unidades RT de las GPU son de función fija solo calcula el BVH, el BVH solo se utiliza en Ray Tracing "puro" basado en geometría/triángulo.

El Ray Tracing tiene varias "sub técnicas" , Lumen Software por ejemplo Traza Rayos utilizando el Signal distances Field no la geometría, TW3 usa probes, también hay Trazado de Rayos utilizando voxel (Cryengine), y utilizando el espacio de pantalla buffer de profundidad.

Todas estas técnicas al no usar geometría no usan BVH, por cuál no se calcula y acelera en las Unidades RT de las GPU.



alguien en la sala para validar esta información? @sicopro quizas? XD

@owenkz si las founders vuelan, tened por seguro que a las custom PCC, coolmod, etc le aplicaran un incremento especulativo. Lo han venido haciendo en los ultimos lanzamientos importantes (vease el ultimo proce x3d de AMD) y le han pillado el gustillo.

Yo es que no sé ni si intentar pillar una FE, no me gusta nada que la 5090 sea de solo dos slots, ya que voy a pagar un pastizal no me importa hacer un pequeño esfuerzo extra y pillar una más grande.

¿Qué hay de malo en que sea de 2 slots?
@HakiGold

Creo que tienes un serio problema de empatía y tomas a todo el mundo por tonto. Insultas de forma velada y condescendiente.

Te han pedido pruebas sobre una afirmación concreta que has hecho. No que nos expliques el significado de lo que es RT y otras perogrulladas. Todo lo demás que has comentado viene ya explicado en gran medida en los links que he puesto, los cuales son información oficial que te contradicen, simplemente manipulas aislando cosas concretas sin verlo como funciona realmente en su conjunto.

Ya te he contestado a todo lo demás, no me voy a volver a repetir.

Podrías haber dicho algo tan fácil como: "se utiliza menos el hardware RT que en otros juegos" o "se utiliza diferente para la GI", y entonces habrías sido preciso. Pero literalmente has dicho "que no se utiliza el hardware RT", por eso has dejado a varios con un ojo abierto y otro cerrado Oooh, en plan WTF: ¿De dónde sale esa afirmación?

Es imposible tener ningún tipo de debate constructivo contigo y lo he intentando en algún hilo, pero imposible. No te voy a responder más.
Nvidiaenjoyer escribió:
owenkz escribió:
parh escribió:

alguien en la sala para validar esta información? @sicopro quizas? XD

@owenkz si las founders vuelan, tened por seguro que a las custom PCC, coolmod, etc le aplicaran un incremento especulativo. Lo han venido haciendo en los ultimos lanzamientos importantes (vease el ultimo proce x3d de AMD) y le han pillado el gustillo.

Yo es que no sé ni si intentar pillar una FE, no me gusta nada que la 5090 sea de solo dos slots, ya que voy a pagar un pastizal no me importa hacer un pequeño esfuerzo extra y pillar una más grande.

¿Qué hay de malo en que sea de 2 slots?

Por el tema de calor y ruido más que nada.
Joder que lío llevo. Entonces ¿merece la pena pasar de la 4090 a la 5090 o no? Teniendo en cuenta que con suerte podré venderla por 1200€. Juego a 4k 120Hz (si es posible, si no bajo a 60).
NBRuJaDo escribió:Joder que lío llevo. Entonces ¿merece la pena pasar de la 4090 a la 5090 o no? Teniendo en cuenta que con suerte podré venderla por 1200€. Juego a 4k 120Hz (si es posible, si no bajo a 60).

Yo si tendría la 4090 no la cambiaba, intentaba tirar ya hasta la 6090.
Yo es lo que haré con la mía intentar estirarla hasta la 7000.
5770 respuestas