[HO] NVIDIA GeForce RTX 5000

Nvidiaenjoyer escribió:Nvidia tiene un 75% de cuota de mercado en GPUs y es la empresa más valiosa del mundo hoy día.


Según JPR la cuota de mercado de Nvidia es del ~88%

La empresa más valiosa del mundo es Apple según capitalización bursátil

Ni una has dado [+risas]
kamy33 escribió:Parece que en Coolmod ya van apareciendo algunas, quitando las que se listan en 1000€, el resto de precios podría encajar en los finales:

Imagen

Edit: No, el botón del carrito no funciona, ya he probado XD


Para que el que tenga dudas con los precios, acabo de entrar en la web y ahora indican un precio de 99.999€ para todas
@the_aeon Mucho escribio, poco era real al 100%.

De todo lo que sacan, solo el MFG, el nuevo generador de frames que multiplica por 3 los frames y obtiene 8 veces más rendimiento falso es exclusivo de las RTX 50. Todo lo demas llega a las RTX 40 y luego incluso hay cosas como las mejoras del DLSS que llegan a las RTX 30 y 20.

La estafa de Nvidia, una vez más, es llamarlo DLSS4 cuando igual que el 3, cuando dicen DLSS+número es una unión de varias caracticas diferentes. El DLSS es una cosa, el FG otra. Pero ellos lo llaman asi para que la gente piense que gana más con las RTX 50.
Imagen

Van a tener que pagar a muchas compañias para que añadan el MFG y creo que mayoria de juegos de más de un año no lo haran.
Sicopro escribió:Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

Aquí todo sobre el Nvidia RTX Kit y lo que va a permitir.

https://developer.nvidia.com/rtx-kit/#iq771z

Resumen en español:

El conjunto NVIDIA RTX Kit tiene amplias aplicaciones, desde acelerar el trazado de rayos con IA hasta representar humanos digitales mucho más realistas y renderizar escenas que presentan enormes cantidades de geometría.

Empecemos con lo que posiblemente sea la mayor innovación. Con la arquitectura Blackwell, NVIDIA presenta los denominados RTX Neural Shaders. Se trata de pequeñas redes neuronales que se deben inyectar en sombreadores programables para lograr diversos efectos beneficiosos. Con el próximo SDK de RTX Neural Shaders, los desarrolladores de juegos pueden entrenar sus datos de juego y código de sombreador en una PC con IA RTX acelerada con NVIDIA Tensor Cores. Durante la fase de entrenamiento, los datos neuronales del juego se comparan con el resultado de los datos tradicionales y se refinan a lo largo de varios ciclos.

Imagen

RTX Neural Texture Compression es invaluable para comprimir fácilmente miles de texturas en menos de un minuto y, al mismo tiempo, ahorrar hasta 7 veces más VRAM en comparación con las texturas comprimidas en bloques tradicionales, sin ninguna desventaja aparente en la calidad. En la nueva demostración técnica, las texturas RTX NTC solo ocupan 80 MB, mientras que las texturas comprimidas en bloques regulares requieren 520 MB de VRAM.

Esto significa que se va ir logrando reducir el consumo de VRAM.

RTX Neural Materials utiliza IA para comprimir código de sombreado complejo que normalmente está reservado para materiales fuera de línea, lo que brinda un procesamiento de material hasta cinco veces más rápido y permite que haya activos de mayor calidad disponibles en los juegos.

Por último, la IA se utiliza en RTX Neural Radiance Cache para inferir una cantidad infinita de rebotes después de los uno o dos rebotes iniciales, lo que mejora la iluminación indirecta y el rendimiento de rebotes múltiples. NRC ya está disponible desde hace un tiempo como parte del RTX GI SDK y pronto se incorporará a RTX Remix y Portal con RTX.

Imagen

Los SDK de compresión de texturas neuronales y sombreadores neuronales RTX se agregarán al kit NVIDIA RTX a finales de este mes. Microsoft también anunció hoy que DirectX pronto agregará compatibilidad con vectores cooperativos, lo que brindará un rendimiento acelerado para las GPU GeForce RTX al usar sombreadores neuronales RTX.

El NVIDIA RTX Kit también incluye RTX Mega Geometry, que debutará en Alan Wake 2 de Remedy con una actualización gratuita a finales de este año. El video de demostración de CES 2025 proporcionó una vista previa de la tecnología, que tiene como objetivo mejorar la carga de trazado de rayos en escenas con grandes cantidades de geometría, como en los juegos impulsados ​​por Nanite de Unreal Engine 5. Según NVIDIA, RTX Mega Geometry acelera la construcción de BVH, lo que permite el trazado de rayos de hasta cien veces más triángulos que el estándar actual. Estará disponible a finales de este mes en el RTX Kit y pronto a través de la rama NVIDIA RTX Unreal Engine.


Pues parece que puedan aguantar los 12 VRAM de la 5070 con eso. Pinta bien. Tocará ver luego las pruebas qué tal.
Abel_NC escribió:Pues parece que puedan aguantar los 12 VRAM de la 5070 con eso. Pinta bien. Tocará ver luego las pruebas qué tal.

¿Como?

En las RTX 40, usar el FG a 1440p, te hace gastar 1GB, no es por otra cosa, es por el FG en si mismo. Sabemos que el MFG gasta menos y el FG nuevo tambien, pero puede que se quede en una rebaja de 500MB.

Luego tienes que si usas Full Raytracing, el llamado PT, tendras por si solo un consumo de 12900. Ahi es donde tendrian que mejorar pero no han dicho nada al respecto.

Asi que aunque actives el FG y este gaste menos, te vas a quedar corto y la caida de FPS sera terrorifica.

Eso sí, con el raytracing de siempre, no tendras tales consumos, ni usando el FG actual. En ese caso 12GB bastan.

Pero si quisieras jugar con una 5070 a 4K, irias mal. Peor claro esta, no es una grafica de 4K, ni la Ti. El error de algunos, es pensar que son graficas de esa resolución.

Es más, si usas la 5070 en 1080p, al igual que la 4070, te daras cuenta que es mejor que excelente. A parte que te duraria mucho.

Y todo lo que resumio sicopro, no es eso. Es del RTX kit para desarrolladores. Dice que gasta menos pero menos de cuanto jaja, me da la risa porque tambien que añade más calidad, no esta diciendo por ningun lado que esto haga que las cantidades de memoria actuales se aprovechen mejor. Y esto todo lo descrito ahi para PT. Espera que ya hemos como los desarrolladores no se mataran tanto para pulir las escenas y el consumo de vram, no me extraña, el rtx remix se parece mucho a eso, yo lo he usado y es un rollo. Tienes que toquetear cada objeto en una escena. Para pulir un juego entero, estaras un monton de tiempo incluso si tienes una IA que te lo haga. Por eso los juegos que añaden RT, PT, todos ellos dan una impresión de minimo pulido.
Torregassa escribió:La de memes que nos regaló la serie R9 290 y derivados



[carcajad] [carcajad] [carcajad]

Yo tuve una y eso era como tener un secador de pelo metido en la oreja.
abablat escribió:
kamy33 escribió:Parece que en Coolmod ya van apareciendo algunas, quitando las que se listan en 1000€, el resto de precios podría encajar en los finales:

Imagen

Edit: No, el botón del carrito no funciona, ya he probado XD


Para que el que tenga dudas con los precios, acabo de entrar en la web y ahora indican un precio de 99.999€ para todas

Seguramente alguien ha visto que la gente estaba dando por buenos los precios anteriores no solo aquí sino en muchos sitios y han decidido poner algo absurdamente obvio.

Lo hemos avisado eh? Pero la gente no escucha.

Tamagami escribió:Ya ya, si en el mensaje grande que me linkeas al final lo entendia.

Al final escupen el mismo calor, mas grados en menos volumen, o menos grados en mas volumen.

Me habia puesto cabezurro, de poco sirve la logica si tienes un dia tontorron.

@Lorena99 @adriano_99 @Kroxy (y si me dejo otro)

Perdon por la gilipollada, todos tenemos algun dia espeso no? [+risas]

Sin problema, a todos nos puede pasar [oki]
Nomada_Firefox escribió:La estafa de Nvidia, una vez más, es llamarlo DLSS4 cuando igual que el 3

Por lo que han enseñado lo de Digital Fountry, el escalado basado en transformers es una gran mejora respecto al CNN que usan en la versión 3.

DLSS4 es un conjunto de cosas, de las cuales MFG es exclusivo de la serie 5000, y ya están diciendo que todo DLSS4 menos MFG se podrá usar en tarjetas anteriores (GF solo 4000).

No veo yo estafa en DLSS4 la verdad.
[Alex] escribió:
Nvidiaenjoyer escribió:Nvidia tiene un 75% de cuota de mercado en GPUs y es la empresa más valiosa del mundo hoy día.


Según JPR la cuota de mercado de Nvidia es del ~88%

La empresa más valiosa del mundo es Apple según capitalización bursátil

Ni una has dado [+risas]

Pues será ahora. Hasta hace unos días lo era Nvidia y superó an Apple. Evidentemente por márgenes pequeños.
Nomada_Firefox escribió:
Van a tener que pagar a muchas compañias para que añadan el MFG y creo que mayoria de juegos de más de un año no lo haran.


Creo que vas a poder forzar el ratio de FG en el panel de Nvidia por juego (o global). De forma que con que el juego ya permita FG, tú puedes decirle que haga un x4 en el Panel de Nvidia, y listo, MFG activado.

Un saludo,
Nvidiaenjoyer escribió:
dunkam82 escribió:


RVNLOFT escribió:Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0

Me sé de alguno de cuyo nombre no quiero acordarme que últimamente entra a este hilo para decir paridas que le puede dar un patatús si ve eso [qmparto]

Nvidia tiene un 75% de cuota de mercado en GPUs y es la empresa más valiosa del mundo hoy día. Está claro que sus tecnologías van a ser implementas y los motores gráficos y las librerías se van a preparar para la llegada de estas. La IA es el desafío actual de la generación y creo que si se hace buen uso podríamos ver muy buenos videojuegos y sobretodo… tiempos de desarrollo reducidos en la creación de motores gráficos (ya que con IA podrás simular hasta texturas y caras).

Es el futuro si o si.


Que si que si psx22 2.0

Que tio más pesado
dunkam82 escribió:@SECHI Todo para que lleguen los iluminados de turno para criticar por la rasterización y para decir que la IA no tiene importancia y que es solo marketing.

Yo solo sé que el día 30 si no se van de madre los precios de las 5080 como los placeholders que hemos visto en las tiendas españolas aquí servidor se pillará una y la disfrutaré.

Seguís con lo de qu se pueden ir de precio?
Siempre pasa lo mismo.Hazme.caso.
Ponen peecios altos random antes de sacarlas a la venta.

Parece que no habéis comprado nada de salida en la vida [+risas]
5080 FE

iMAGEN ORIGINAL
Imagen

misma imagen pero le he subido brillo / contraste y tocado niveles
Imagen

El disipador es diferente al de la serie 4000 FE, ahora tenemos 2 ventiladores en el mismo lado, pero lo que hace especial al de la 5090 que es en la zona de las ranuras esa "concavidad" para ayudar en la disipación del aire (Está explicado en varios videos, darle una visual al de derbauer si no los habeis visto), parece que esta no la tiene y son laminas planas .

Edito: mas imagenes "filtradas" desde china

Imagen

Imagen

aqui se ve bien lo que apunto:
Imagen
ditifet escribió:
Nvidiaenjoyer escribió:
dunkam82 escribió:



Me sé de alguno de cuyo nombre no quiero acordarme que últimamente entra a este hilo para decir paridas que le puede dar un patatús si ve eso [qmparto]

Nvidia tiene un 75% de cuota de mercado en GPUs y es la empresa más valiosa del mundo hoy día. Está claro que sus tecnologías van a ser implementas y los motores gráficos y las librerías se van a preparar para la llegada de estas. La IA es el desafío actual de la generación y creo que si se hace buen uso podríamos ver muy buenos videojuegos y sobretodo… tiempos de desarrollo reducidos en la creación de motores gráficos (ya que con IA podrás simular hasta texturas y caras).

Es el futuro si o si.


Que si que si psx22 2.0

Que tio más pesado

¿Qué hay de malo en mi mensaje? ¿Pretendes silenciarme en un foro público?
Jezebeth escribió:@tonicab Lo del racaneo de Vram... hay que tener en cuenta que en principio (habrá que ver si es cierto) las tarjetas de Nvidia van a consumir mucha menos Vram ,ya en la actualidad consumen menos que en AMD pero es que ahora se supone que la diferencia va a ser aún mas notoria.



Ya he dicho que la reducción de VRAM que se esta exponiendo no llega ni al 5%. Esa reducción es residual.

Si me dices que un juego pase de 10gb a 6gb o así te lo compro, pero si la reducción es de 12gb a 11,5gb eso es menos del 5%. Residual.
Imagen

Bloqueado:
Si la MAC address (Media Access Control) o alguna IP coinciden con las que usaba PSX22, bien silenciado estas.

Por otro lado, todo son especulaciones, hasta que no salgan buenos análisis de las nuevas graficas con el rendimiento en los juegos.
Lo que está claro, es que el salto en FPS solo se dará en los juegos que implementen correctamente las tecnologías de NVIDIA. Así que la experiencia del usuario en juegos futuros dependerá de la cartera de NVIDIA y del buen hacer de los desarrolladores.
Tiene gracia, cuando anunciaron las 4000 las descarte por tamaño. Tengo un equipo ITX y me pillé una 4070 de dos slots unas semanas después. Ahora veo los nuevos modelos y me encuentro que las founders ocupan dos slots, pero tendría que montarlas verticalmente y dudo de que con la nueva disipación pueda planteármelo ya que la extracción del aire no sería del todo eficiente… y eso sin contar los 30.4cm de longitud…
Nomada_Firefox escribió:@the_aeon Mucho escribio, poco era real al 100%.

De todo lo que sacan, solo el MFG, el nuevo generador de frames que multiplica por 3 los frames y obtiene 8 veces más rendimiento falso es exclusivo de las RTX 50. Todo lo demas llega a las RTX 40 y luego incluso hay cosas como las mejoras del DLSS que llegan a las RTX 30 y 20.

La estafa de Nvidia, una vez más, es llamarlo DLSS4 cuando igual que el 3, cuando dicen DLSS+número es una unión de varias caracticas diferentes. El DLSS es una cosa, el FG otra. Pero ellos lo llaman asi para que la gente piense que gana más con las RTX 50.
Imagen

Van a tener que pagar a muchas compañias para que añadan el MFG y creo que mayoria de juegos de más de un año no lo haran.


No se yo si van a tener que pagar mucho, todo lo contrario, si crean una api con directX12, para las compañías va a ser una descarga de recursos increible. No van a tener que destinar recursos y recursos en optimizar, como ya pasa ahora mismo con el dlss, que se ahorran ese paso.

Si tienes una api que te da 200fps activando una simple opcion no tienen porqué estar meses y meses optimizando para que una 5060 pueda jugarlo a 2k-4k 60-120 o mas.

Encima si también se ahorran el tener que estar haciendo la iluminacion manualmente, mas que se ahorran.

Esto es un win win a las desarrolladoras y no lo contrario.
SnakeElegido escribió:Creo que vas a poder forzar el ratio de FG en el panel de Nvidia por juego (o global). De forma que con que el juego ya permita FG, tú puedes decirle que haga un x4 en el Panel de Nvidia, y listo, MFG activado.

Puede pero no hemos visto nada al respecto e incluso eso que parece tan sencillo, requiere editar juegos que ya estaban publicados. A parte que el FG requiere tanta interacción entre el juego y los drivers de Nvidia como ya sucedia antes con el DLSS. No es el añado la opción y a correr.

SECHI escribió:No se yo si van a tener que pagar mucho, todo lo contrario, si crean una api con directX12, para las compañías va a ser una descarga de recursos increible. No van a tener que destinar recursos y recursos en optimizar, como ya pasa ahora mismo con el dlss, que se ahorran ese paso.

Yo entiendo que creeis en la magia, en las cosas hechas en dos clicks. Pero nada funciona asi. Una api nisiquiera es eso, hay que aplicarla sobre el producto. Eso lleva tiempo.

La magia no existe. Algo del tipo que contais, fue el FG que usan las RX en modo generico ¿y como funciona? con muchos errores e incluso requirio ajustes para muchos juegos. Pero esto no es asi.
Nomada_Firefox escribió:
SnakeElegido escribió:Creo que vas a poder forzar el ratio de FG en el panel de Nvidia por juego (o global). De forma que con que el juego ya permita FG, tú puedes decirle que haga un x4 en el Panel de Nvidia, y listo, MFG activado.

Puede pero no hemos visto nada al respecto e incluso eso que parece tan sencillo, requiere editar juegos que ya estaban publicados. A parte que el FG requiere tanta interacción entre el juego y los drivers de Nvidia como ya sucedia antes con el DLSS. No es el añado la opción y a correr.


Hasta que no salgan las tarjetas no podemos decir nada, pero verse se ha visto

Imagen

Fijate en DLSS Override - Frame Generation. Me la juego a que coges un juego con FG x2 normal, le activas esto a x4, y te hace el x4 perfectamente. Pero habrá que esperar a testearlo en persona, está claro.

Un saludo,
DJ Deu_ escribió:Primera hostia a chino Juan.


Para que se considere una hostia habrá que comparar cada FG, y por el momento no se puede comprobar la calidad de la solución de Nvidia en su x3/x4. Esperemos a que salga y se analice y entonces ya veremos si se considera una hostia, no? Que por cierto, no sé si pasaste de la miniatura, pero ya solo viendo ese video en diagonal con casos con los del Harry Potter o el Starfield, concretamente en este último se ve una cantidad de artefactos muy exagerada en el contorno del pj (11:09 sin el FG, luego con FG y se ve la diferencia).

Algo lo que sí se pudo comparar hace unos meses es la solución del FG x2 tanto con Lossless Scaling como con el FG de AMD y Nvidia, cosa que en su momento se hizo y se puede ver la diferencia, pero esto no te deberá interesar porque deja en buen lugar a Nvidia: https://www.youtube.com/watch?v=69k7ZXLK1to&t=158s

Y explico el resto en spoiler, porque me parece que explicar de nuevo lo del Lossless Scaling sobra un poco en este hilo cuando se ha hablado varias veces (me decías que no llevabas 2 días en esto... vale, pues llevas 3 entonces [qmparto] ):
A fecha de hoy han mejorado las 2 soluciones, Lossless Scaling hace 5 días (si siguieras su hilo te hubieras enterado en su momento), y Nvidia lo hizo recientemente pero aún no es del todo público ni se puede analizar bien. Lo poco que vimos apunta bien, y eso que es reescalado performance. ¿Esto lo sabías o es que lo bueno de Nvidia no te interesa saberlo?

Que a todo esto, nada ha cambiado con el tema Lossless Scaling, cuando Nvidia sacó FG en exclusiva para las 4000 había gente que con el FG de Lossless Scaling (que aplica a casi todo, incluso emuladores antiguos, videos, etc.) le era suficiente, había gente que no porque veía muchos artefactos y prefería un FG de mayor calidad como los de AMD o Nvidia. Ahora tres cuartos de lo mismo, Nvidia saca la exclusiva FG x3/4 y Lossless tiene el mismo multiplicador e incluso mas (x20 creo)... ahora, la diferencia de calidad pues que cada cual lo pruebe y se quede con el que prefiera.


Viniste con la tontería de los 8 fps ridiculizando el porcentaje cuando es precisamente lo que se suele usar, ahora con la actualización del Lossless Scaling intentando ridiculizar a Nvidia cuando todavía no se puede comparar... y luego tendrás el morro de decir que los fanboys se mosquean por oir las realidades. Sí, realidades de tu mundo paralelo que te has inventado [oki]

Pero será que en lugar de estar interesado en el tema de FG estás mas centrado en echar mierda a Nvidia, no? Lo tuyo no es dar datos demostrando "problemas" de las soluciones de Nvidia, no, lo tuyo es DESEO de que le vaya mal como un buen troll hateando. Lástima para ti que no parece que le esté yendo mal a Nvidia. Ahora vuelve a decir que somos unos fanboys por llevarte la contraria cuando en realidad no haces mas que decir tonterías [buuuaaaa]

PD: corregido los multiplicadores de FG que les había restado 1 a todos (lo dice parh mas tarde), gracias por la corrección.
Nomada_Firefox escribió:
SnakeElegido escribió:Creo que vas a poder forzar el ratio de FG en el panel de Nvidia por juego (o global). De forma que con que el juego ya permita FG, tú puedes decirle que haga un x4 en el Panel de Nvidia, y listo, MFG activado.

Puede pero no hemos visto nada al respecto e incluso eso que parece tan sencillo, requiere editar juegos que ya estaban publicados. A parte que el FG requiere tanta interacción entre el juego y los drivers de Nvidia como ya sucedia antes con el DLSS. No es el añado la opción y a correr.

SECHI escribió:No se yo si van a tener que pagar mucho, todo lo contrario, si crean una api con directX12, para las compañías va a ser una descarga de recursos increible. No van a tener que destinar recursos y recursos en optimizar, como ya pasa ahora mismo con el dlss, que se ahorran ese paso.

Yo entiendo que creeis en la magia, en las cosas hechas en dos clicks. Pero nada funciona asi. Una api nisiquiera es eso, hay que aplicarla sobre el producto. Eso lleva tiempo.

La magia no existe. Algo del tipo que contais, fue el FG que usan las RX en modo generico ¿y como funciona? con muchos errores e incluso requirio ajustes para muchos juegos. Pero esto no es asi.


Nunca sera tanto trabajo que estar optimizando un juego que se pueda jugar desde una 5090 hasta una futura 5060.

También hay que ver que juego es y que motor usa, porque si lo meten nativamente en unreal 5 por poner un ejemplo, se puede hacer de forma relativamente facil, siempre será mucho mas facil que optimizar un juego.

Pero vamos, que esta discusión me parece un poco absurda ya que todo lo que digo ya llevamos años viendolo con el dlss, no es que haya descubierto nada, es el pan de cada dia, juegos que estan optimizados como el culo y que hay que usar reescalados y hasta fg incluso com tarjetas de 1500€.

No se porque ahora eso va a cambiar como dices. Las desarrolladoras todo lo que sea ahorrarse trabajo lo van a abrazar como a un hijo, no lo contrario.
Podriamos pasar página con el tema de fanboys/haters?

A unos no les gusta, a otros sí. Somos adultos.

Venga, va. Que es un hilo ahora mismo super interesante, vamos a protegerlo entre todos. Si leeis algo flame o trollero (de cualquier trinchera) ignoradlo y pista.
Rvilla87 escribió:
DJ Deu escribió:Primera hostia a chino Juan.


Para que se considere una hostia habrá que comparar cada FG, y por el momento no se puede comprobar la calidad de la solución de Nvidia en su x2/x3. Esperemos a que salga y se analice y entonces ya veremos si se considera una hostia, no? Que por cierto, no sé si pasaste de la miniatura, pero ya solo viendo ese video en diagonal con casos con los del Harry Potter o el Starfield, concretamente en este último se ve una cantidad de artefactos muy exagerada en el contorno del pj (11:09 sin el FG, luego con FG y se ve la diferencia).

Algo lo que sí se pudo comparar hace unos meses es la solución del FG x1 tanto con Lossless Scaling como con el FG de AMD y Nvidia, cosa que en su momento se hizo y se puede ver la diferencia, pero esto no te deberá interesar porque deja en buen lugar a Nvidia: https://www.youtube.com/watch?v=69k7ZXLK1to&t=158s

Y explico el resto en spoiler, porque me parece que explicar de nuevo lo del Lossless Scaling sobra un poco en este hilo cuando se ha hablado varias veces (me decías que no llevabas 2 días en esto... vale, pues llevas 3 entonces [qmparto] ):
A fecha de hoy han mejorado las 2 soluciones, Lossless Scaling hace 5 días (si siguieras su hilo te hubieras enterado en su momento), y Nvidia lo hizo recientemente pero aún no es del todo público ni se puede analizar bien. Lo poco que vimos apunta bien, y eso que es reescalado performance. ¿Esto lo sabías o es que lo bueno de Nvidia no te interesa saberlo?

Que a todo esto, nada ha cambiado con el tema Lossless Scaling, cuando Nvidia sacó FG en exclusiva para las 4000 había gente que con el FG de Lossless Scaling (que aplica a casi todo, incluso emuladores antiguos, videos, etc.) le era suficiente, había gente que no porque veía muchos artefactos y prefería un FG de mayor calidad como los de AMD o Nvidia. Ahora tres cuartos de lo mismo, Nvidia saca la exclusiva FG x2/3 y Lossless tiene el mismo multiplicador e incluso mas (x20 creo)... ahora, la diferencia de calidad pues que cada cual lo pruebe y se quede con el que prefiera.


Viniste con la tontería de los 8 fps ridiculizando el porcentaje cuando es precisamente lo que se suele usar, ahora con la actualización del Lossless Scaling intentando ridiculizar a Nvidia cuando todavía no se puede comparar... y luego tendrás el morro de decir que los fanboys se mosquean por oir las realidades. Sí, realidades de tu mundo paralelo que te has inventado [oki]

Pero será que en lugar de estar interesado en el tema de FG estás mas centrado en echar mierda a Nvidia, no? Lo tuyo no es dar datos demostrando "problemas" de las soluciones de Nvidia, no, lo tuyo es DESEO de que le vaya mal como un buen troll hateando. Lástima para ti que no parece que le esté yendo mal a Nvidia. Ahora vuelve a decir que somos unos fanboys por llevarte la contraria cuando en realidad no haces mas que decir tonterías [buuuaaaa]


Gracias por el spoller, aunque podrías haber puesto más cosas, así me hubieras ahorrado el trago de leerlas.

Repito, si a ti que te vendan una gráfica de 3000 euros con una mejora de rendimiento tan pobre y repleta de humo con tecnologías que de momento hay que poner la fe en que son funcionales, pues adelante, es que a mi tus opiniones me importan un pimiento.

Y voy a opinar lo que me de la gana que me he dejado el doble de dinero que tu en esa empresa, así que las lecciones a otro. Si te ofende, tienes un botón que pone ignore muy chulo.
the_aeon escribió:
Sicopro escribió:Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

Aquí todo sobre el Nvidia RTX Kit y lo que va a permitir.

https://developer.nvidia.com/rtx-kit/#iq771z

Resumen en español:

El conjunto NVIDIA RTX Kit tiene amplias aplicaciones, desde acelerar el trazado de rayos con IA hasta representar humanos digitales mucho más realistas y renderizar escenas que presentan enormes cantidades de geometría.

Empecemos con lo que posiblemente sea la mayor innovación. Con la arquitectura Blackwell, NVIDIA presenta los denominados RTX Neural Shaders. Se trata de pequeñas redes neuronales que se deben inyectar en sombreadores programables para lograr diversos efectos beneficiosos. Con el próximo SDK de RTX Neural Shaders, los desarrolladores de juegos pueden entrenar sus datos de juego y código de sombreador en una PC con IA RTX acelerada con NVIDIA Tensor Cores. Durante la fase de entrenamiento, los datos neuronales del juego se comparan con el resultado de los datos tradicionales y se refinan a lo largo de varios ciclos.

Imagen

RTX Neural Texture Compression es invaluable para comprimir fácilmente miles de texturas en menos de un minuto y, al mismo tiempo, ahorrar hasta 7 veces más VRAM en comparación con las texturas comprimidas en bloques tradicionales, sin ninguna desventaja aparente en la calidad. En la nueva demostración técnica, las texturas RTX NTC solo ocupan 80 MB, mientras que las texturas comprimidas en bloques regulares requieren 520 MB de VRAM.

Esto significa que se va ir logrando reducir el consumo de VRAM.

RTX Neural Materials utiliza IA para comprimir código de sombreado complejo que normalmente está reservado para materiales fuera de línea, lo que brinda un procesamiento de material hasta cinco veces más rápido y permite que haya activos de mayor calidad disponibles en los juegos.

Por último, la IA se utiliza en RTX Neural Radiance Cache para inferir una cantidad infinita de rebotes después de los uno o dos rebotes iniciales, lo que mejora la iluminación indirecta y el rendimiento de rebotes múltiples. NRC ya está disponible desde hace un tiempo como parte del RTX GI SDK y pronto se incorporará a RTX Remix y Portal con RTX.

Imagen

Los SDK de compresión de texturas neuronales y sombreadores neuronales RTX se agregarán al kit NVIDIA RTX a finales de este mes. Microsoft también anunció hoy que DirectX pronto agregará compatibilidad con vectores cooperativos, lo que brindará un rendimiento acelerado para las GPU GeForce RTX al usar sombreadores neuronales RTX.

El NVIDIA RTX Kit también incluye RTX Mega Geometry, que debutará en Alan Wake 2 de Remedy con una actualización gratuita a finales de este año. El video de demostración de CES 2025 proporcionó una vista previa de la tecnología, que tiene como objetivo mejorar la carga de trazado de rayos en escenas con grandes cantidades de geometría, como en los juegos impulsados ​​por Nanite de Unreal Engine 5. Según NVIDIA, RTX Mega Geometry acelera la construcción de BVH, lo que permite el trazado de rayos de hasta cien veces más triángulos que el estándar actual. Estará disponible a finales de este mes en el RTX Kit y pronto a través de la rama NVIDIA RTX Unreal Engine.

Te has pegado un curro de información.
Dicen que todas estas nuevas tecnologías llegan con las RTX 50, pero no veo que digan claro que son exclusivas de las RTX 50, me parece que también llegan a las RTX 40 como mínimo.

Dicen que todo esto libera el potencial de las RTX 50, pero me da la sensación que lo dicen porque estas RTX 50 duplican los TOPS respecto a las 40.

Esta claro que las 50 son el doble de potentes que las 40 en tema IA, pero la misma 4090 tiene casi los mismos TOPS que la 5070 Ti.

Pero esta clarísimo que en las RTX 50 rendirá mucho mejor que en las RTX 40.

Están vendiendo la IA de las 50 a bombo y platillo, que tampoco lo critico, para mi bienvenido sea todo lo que sea mejoras.

Otro tema es, cuando llegaran? porque pone que Alan wake 2 se actualizara a finales de año, y estamos en enero.

Y los juegos tardan años en desarrollarse, a lo mejor empezamos a ver algo de esto nuevo en 2026 y sinceramente para 2026 ya se estará hablando de las RTX 60.


Lo que ese usuario ha estado haciendo no se llama información, se llama publicidad, desde que se anuncio el humo de los Frames Inventados y que posiblemente las RTX 5000 serán refritos de las RTX 4000, el usuario al que citas le ha dado por seguirle el juego a Nvidia y vender marketing de la revoluciónaria IA, y lo hará gratis, porque dudo que Nvidia le pague algo XD.

Todo lo que sea implementación por desarrollador se quedará en unos juegos contados, ya vez la mega revolución de arquitectura que está intentando vender el usuario con la IA....los juegos se desarrollan en base a las consolas que son las que van marcando el ritmo tecnológico y las que marcarán las tecnologías que será el estandar, ningún desarrollador va trabajar en tecnologías exclusivas al menos que lo patrocines o pagues para implementar estás cosas , que es lo que hará Nvidia para que se implementen en unos cuantos juegos.

En fin me parece realmente ridículo hasta donde llegan los Fans de las marcas para defender saltos generaciones fallidos y hacer básicamente publicidad,para intentar hacer ver qué un producto es magnífico, es realmente impresionante, y todos esos fans se va agarrar al clavo ardiendo de la IA, y que todo lo demás ya no es importante.
tonicab escribió:
Jezebeth escribió:@tonicab Lo del racaneo de Vram... hay que tener en cuenta que en principio (habrá que ver si es cierto) las tarjetas de Nvidia van a consumir mucha menos Vram ,ya en la actualidad consumen menos que en AMD pero es que ahora se supone que la diferencia va a ser aún mas notoria.



Ya he dicho que la reducción de VRAM que se esta exponiendo no llega ni al 5%. Esa reducción es residual.

Si me dices que un juego pase de 10gb a 6gb o así te lo compro, pero si la reducción es de 12gb a 11,5gb eso es menos del 5%. Residual.


https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

" There are currently three main applications for RTX Neural Shaders, all of which we previously covered from NVIDIA's research papers: RTX Neural Texture Compression, RTX Neural Materials, and RTX Neural Radiance Cache. RTX Neural Texture Compression is invaluable for easily compressing thousands of textures in less than a minute while also saving up to 7x more VRAM compared to traditional block-compressed textures, with no purported downside to quality. In the new tech demo, RTX NTC textures only occupy 80MB, whereas regular block-compressed textures require 520MB VRAM. "

https://research.nvidia.com/labs/rtr/neural_texture_compression/

"The cutouts demonstrate quality using, from left to right, GPU-based texture formats (BC high) at 1024x1024 resolution, our neural texture compression (NTC), and high-quality reference textures. Note that NTC provides a 4x higher resolution (16X texels) compared to BC high, despite using 30% less memory. "
Sicopro escribió:PD: FSR 4 exclusivo de las RX 9000. Peor aún, exclusivo de las RX 9070 y 9070 XT. Es exclusivo de un modelo de la serie. [burla2]

No se sabe nada sobre eso.
HakiGold escribió:Y ya es el segundo juego que no mejora nada en Ray Tracing apesar que Nvidia reclama mejoras en los RT Cores y aquí había un usuario inventandose cosas de la IA que iba mejorar un montón el Ray Tracing.....

Decías eso, te he demostrado que es verdad y como no tienes argumentos, pues no te queda otra que el ad hominem. Que es lo que haces básicamente siempre que te quedas sin argumentos.

No merece la pena ni responderte a todo lo demás, mezclas cosas, tergiversas las palabras. Es puro hate y troleo lo que haces, no buscas ningún tipo de debate constructivo sobre la arquitectura, la tecnología, una crítica con sentido sobre puntos concretos. Todos los posts que haces son venir a echar mierda.

Es como meterse a un hilo de PS5 Pro o Apple a echar mierda continuamente, ese es todo el aporte que has hecho en el hilo. No das información, no aportas nada, más allá de decir que todo es humo y una mierda.

@jnderblue

Lo primero, eso era una coña para Duron600.

Lo segundo:

Imagen

Mira la letra pequeña en la imagen. [carcajad]
HakiGold escribió:
the_aeon escribió:
Sicopro escribió:Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

Aquí todo sobre el Nvidia RTX Kit y lo que va a permitir.

https://developer.nvidia.com/rtx-kit/#iq771z

Resumen en español:

El conjunto NVIDIA RTX Kit tiene amplias aplicaciones, desde acelerar el trazado de rayos con IA hasta representar humanos digitales mucho más realistas y renderizar escenas que presentan enormes cantidades de geometría.

Empecemos con lo que posiblemente sea la mayor innovación. Con la arquitectura Blackwell, NVIDIA presenta los denominados RTX Neural Shaders. Se trata de pequeñas redes neuronales que se deben inyectar en sombreadores programables para lograr diversos efectos beneficiosos. Con el próximo SDK de RTX Neural Shaders, los desarrolladores de juegos pueden entrenar sus datos de juego y código de sombreador en una PC con IA RTX acelerada con NVIDIA Tensor Cores. Durante la fase de entrenamiento, los datos neuronales del juego se comparan con el resultado de los datos tradicionales y se refinan a lo largo de varios ciclos.

Imagen

RTX Neural Texture Compression es invaluable para comprimir fácilmente miles de texturas en menos de un minuto y, al mismo tiempo, ahorrar hasta 7 veces más VRAM en comparación con las texturas comprimidas en bloques tradicionales, sin ninguna desventaja aparente en la calidad. En la nueva demostración técnica, las texturas RTX NTC solo ocupan 80 MB, mientras que las texturas comprimidas en bloques regulares requieren 520 MB de VRAM.

Esto significa que se va ir logrando reducir el consumo de VRAM.

RTX Neural Materials utiliza IA para comprimir código de sombreado complejo que normalmente está reservado para materiales fuera de línea, lo que brinda un procesamiento de material hasta cinco veces más rápido y permite que haya activos de mayor calidad disponibles en los juegos.

Por último, la IA se utiliza en RTX Neural Radiance Cache para inferir una cantidad infinita de rebotes después de los uno o dos rebotes iniciales, lo que mejora la iluminación indirecta y el rendimiento de rebotes múltiples. NRC ya está disponible desde hace un tiempo como parte del RTX GI SDK y pronto se incorporará a RTX Remix y Portal con RTX.

Imagen

Los SDK de compresión de texturas neuronales y sombreadores neuronales RTX se agregarán al kit NVIDIA RTX a finales de este mes. Microsoft también anunció hoy que DirectX pronto agregará compatibilidad con vectores cooperativos, lo que brindará un rendimiento acelerado para las GPU GeForce RTX al usar sombreadores neuronales RTX.

El NVIDIA RTX Kit también incluye RTX Mega Geometry, que debutará en Alan Wake 2 de Remedy con una actualización gratuita a finales de este año. El video de demostración de CES 2025 proporcionó una vista previa de la tecnología, que tiene como objetivo mejorar la carga de trazado de rayos en escenas con grandes cantidades de geometría, como en los juegos impulsados ​​por Nanite de Unreal Engine 5. Según NVIDIA, RTX Mega Geometry acelera la construcción de BVH, lo que permite el trazado de rayos de hasta cien veces más triángulos que el estándar actual. Estará disponible a finales de este mes en el RTX Kit y pronto a través de la rama NVIDIA RTX Unreal Engine.

Te has pegado un curro de información.
Dicen que todas estas nuevas tecnologías llegan con las RTX 50, pero no veo que digan claro que son exclusivas de las RTX 50, me parece que también llegan a las RTX 40 como mínimo.

Dicen que todo esto libera el potencial de las RTX 50, pero me da la sensación que lo dicen porque estas RTX 50 duplican los TOPS respecto a las 40.

Esta claro que las 50 son el doble de potentes que las 40 en tema IA, pero la misma 4090 tiene casi los mismos TOPS que la 5070 Ti.

Pero esta clarísimo que en las RTX 50 rendirá mucho mejor que en las RTX 40.

Están vendiendo la IA de las 50 a bombo y platillo, que tampoco lo critico, para mi bienvenido sea todo lo que sea mejoras.

Otro tema es, cuando llegaran? porque pone que Alan wake 2 se actualizara a finales de año, y estamos en enero.

Y los juegos tardan años en desarrollarse, a lo mejor empezamos a ver algo de esto nuevo en 2026 y sinceramente para 2026 ya se estará hablando de las RTX 60.


Lo que ese usuario ha estado haciendo no se llama información, se llama publicidad, desde que se anuncio el humo de los Frames Inventados y que posiblemente las RTX 5000 serán refritos de las RTX 4000, el usuario al que citas le ha dado por seguirle el juego a Nvidia y vender marketing de la revoluciónaria IA, y lo hará gratis, porque dudo que Nvidia le pague algo XD.

Todo lo que sea implementación por desarrollador se quedará en unos juegos contados, ya vez la mega revolución de arquitectura que está intentando vender el usuario con la IA....los juegos se desarrollan en base a las consolas que son las que van marcando el ritmo tecnológico y las que marcarán las tecnologías que será el estandar, ningún desarrollador va trabajar en tecnologías exclusivas al menos que lo patrocines o pagues para implementar estás cosas , que es lo que hará Nvidia para que se implementen en unos cuantos juegos.

En fin me parece realmente ridículo hasta donde llegan los Fans de las marcas para defender saltos generaciones fallidos y hacer básicamente publicidad,para intentar hacer ver qué un producto es magnífico, es realmente impresionante, y todos esos fans se va agarrar al clavo ardiendo de la IA, y que todo lo demás ya no es importante.


Confirmado que la 5090 de referencia lleva metal liquido, no creo que las custom lo lleven.
Editado por quimico2008. Razón: Faltas de respeto
Jezebeth escribió:
tonicab escribió:
Jezebeth escribió:@tonicab Lo del racaneo de Vram... hay que tener en cuenta que en principio (habrá que ver si es cierto) las tarjetas de Nvidia van a consumir mucha menos Vram ,ya en la actualidad consumen menos que en AMD pero es que ahora se supone que la diferencia va a ser aún mas notoria.



Ya he dicho que la reducción de VRAM que se esta exponiendo no llega ni al 5%. Esa reducción es residual.

Si me dices que un juego pase de 10gb a 6gb o así te lo compro, pero si la reducción es de 12gb a 11,5gb eso es menos del 5%. Residual.


https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

" There are currently three main applications for RTX Neural Shaders, all of which we previously covered from NVIDIA's research papers: RTX Neural Texture Compression, RTX Neural Materials, and RTX Neural Radiance Cache. RTX Neural Texture Compression is invaluable for easily compressing thousands of textures in less than a minute while also saving up to 7x more VRAM compared to traditional block-compressed textures, with no purported downside to quality. In the new tech demo, RTX NTC textures only occupy 80MB, whereas regular block-compressed textures require 520MB VRAM. "

https://research.nvidia.com/labs/rtr/neural_texture_compression/

"The cutouts demonstrate quality using, from left to right, GPU-based texture formats (BC high) at 1024x1024 resolution, our neural texture compression (NTC), and high-quality reference textures. Note that NTC provides a 4x higher resolution (16X texels) compared to BC high, despite using 30% less memory. "



Ya veremos si eso es verdad. Yo no me compraría una gráfica de 12gb por casi 700 euros.
@Lorena99

Pirados del hilo dices, mira lo que hace tu amiguito.

HakiGold escribió:Pasate por el hilo de la 5000, hay un usuario vendiendo que la rasterizacion y Frames reales son cosas del pasado y ya no importa, que lo importante son las 4 tecnologías de IA que implementara Nvidia en los 5 juegos patrocinados por ellos XD.


Esto lo acaba de escribir en el hilo de las RX 9000 para que vengan a meter mierda al hilo, ese es el nivel del andoba. Encima sigue manipulando. :Ð
Rvilla87 escribió:
DJ Deu escribió:Primera hostia a chino Juan.


Para que se considere una hostia habrá que comparar cada FG, y por el momento no se puede comprobar la calidad de la solución de Nvidia en su x2/x3. Esperemos a que salga y se analice y entonces ya veremos si se considera una hostia, no? Que por cierto, no sé si pasaste de la miniatura, pero ya solo viendo ese video en diagonal con casos con los del Harry Potter o el Starfield, concretamente en este último se ve una cantidad de artefactos muy exagerada en el contorno del pj (11:09 sin el FG, luego con FG y se ve la diferencia).

Algo lo que sí se pudo comparar hace unos meses es la solución del FG x1 tanto con Lossless Scaling como con el FG de AMD y Nvidia, cosa que en su momento se hizo y se puede ver la diferencia, pero esto no te deberá interesar porque deja en buen lugar a Nvidia: https://www.youtube.com/watch?v=69k7ZXLK1to&t=158s

Y explico el resto en spoiler, porque me parece que explicar de nuevo lo del Lossless Scaling sobra un poco en este hilo cuando se ha hablado varias veces (me decías que no llevabas 2 días en esto... vale, pues llevas 3 entonces [qmparto] ):
A fecha de hoy han mejorado las 2 soluciones, Lossless Scaling hace 5 días (si siguieras su hilo te hubieras enterado en su momento), y Nvidia lo hizo recientemente pero aún no es del todo público ni se puede analizar bien. Lo poco que vimos apunta bien, y eso que es reescalado performance. ¿Esto lo sabías o es que lo bueno de Nvidia no te interesa saberlo?

Que a todo esto, nada ha cambiado con el tema Lossless Scaling, cuando Nvidia sacó FG en exclusiva para las 4000 había gente que con el FG de Lossless Scaling (que aplica a casi todo, incluso emuladores antiguos, videos, etc.) le era suficiente, había gente que no porque veía muchos artefactos y prefería un FG de mayor calidad como los de AMD o Nvidia. Ahora tres cuartos de lo mismo, Nvidia saca la exclusiva FG x2/3 y Lossless tiene el mismo multiplicador e incluso mas (x20 creo)... ahora, la diferencia de calidad pues que cada cual lo pruebe y se quede con el que prefiera.


Viniste con la tontería de los 8 fps ridiculizando el porcentaje cuando es precisamente lo que se suele usar, ahora con la actualización del Lossless Scaling intentando ridiculizar a Nvidia cuando todavía no se puede comparar... y luego tendrás el morro de decir que los fanboys se mosquean por oir las realidades. Sí, realidades de tu mundo paralelo que te has inventado [oki]

Pero será que en lugar de estar interesado en el tema de FG estás mas centrado en echar mierda a Nvidia, no? Lo tuyo no es dar datos demostrando "problemas" de las soluciones de Nvidia, no, lo tuyo es DESEO de que le vaya mal como un buen troll hateando. Lástima para ti que no parece que le esté yendo mal a Nvidia. Ahora vuelve a decir que somos unos fanboys por llevarte la contraria cuando en realidad no haces mas que decir tonterías [buuuaaaa]

bastante de acuerdo con esta opinion. Solo un apunte, FGx1 seria nativo, vamos que habria 0 frames generados por IA, todos calculados.
@Duron600 hasta hiciste un logo del baneo? Madre mía. Tan mala gente era xd?. Si es que os va la marcha a más de uno. El internet y los foros tienen estas cosas. Luego mucha gente que por los foros son una cosa las conocieras en persona y seguro que eran tus mejores amigos. No hay que darle tanta importancia a muchas cosas en esta vida.
En los foros al final un poco de salseo no viene mal, sino se harían muy aburridos.
@Sicopro os va la party...
Pacorrr escribió:


confirmado por nvidia? me parece una ganancia ridicula. [mad]

Y con esto queda confirmado 4090 como grafica top 2
parh escribió:
Pacorrr escribió:


confirmado por nvidia? me parece una ganancia ridicula. [mad]

Y con esto queda confirmado 4090 como grafica top 2

Estaba todo escondido entre el humo de la IA, pero había que saber dónde mirar.
Imagen

Mas benchmarks, entre un 15-20% de mejora respecto a la serie anterior CON RAYTRACING, se empieza a ver la realidad, cuando enseñen raster puro es cuando de verdad nos vamos a reir

Tambien se empieza a confirmar lo que dije en la presentación, la 5070 podria ser inferior a la 4070 super, pero ojo que eso no es todo, es que tambien puede consumir mas xd

Estamos hablando de sacar una gpu inferior y con mas consumo que la gpu a la que sustituye, es surrealista totalmente, lo de esta generación es indefendible...
jopasaps escribió:@Duron600 hasta hiciste un logo del baneo? Madre mía. Tan mala gente era xd?. Si es que os va la marcha a más de uno. El internet y los foros tienen estas cosas. Luego mucha gente que por los foros son una cosa las conocieras en persona y seguro que eran tus mejores amigos. No hay que darle tanta importancia a muchas cosas en esta vida.
En los foros al final un poco de salseo no viene mal, sino se harían muy aburridos.
@Sicopro os va la party...


Esta es su despedida, saca tus propias conclusiones.
Ya no es que sea un Troll es que es muy pesado.
Imagen
Saludos [oki] [oki]
parh escribió:
Pacorrr escribió:


confirmado por nvidia? me parece una ganancia ridicula. [mad]

Y con esto queda confirmado 4090 como grafica top 2


Es lo que veníamos diciendo algunos, las RTX 5000 son refrito, son las RTX4000 con un poco de más Cudas y Ancho de banda, por ende más consumo.

Eso sí te intentarán vender todos las Frames Humo y demás cosas IA, para los 5 juegos patrocinados de Nvidia.
jopasaps escribió:@Duron600 hasta hiciste un logo del baneo? Madre mía. Tan mala gente era xd?.


Aquí muchos se rasgaban las vestiduras de que era el culpable de todos los males del hilo, pero ya hace días que no está y esto sigue igual [carcajad] o peor, porque se ha llenado de haters
SnakeElegido escribió:Fijate en DLSS Override - Frame Generation. Me la juego a que coges un juego con FG x2 normal, le activas esto a x4, y te hace el x4 perfectamente. Pero habrá que esperar a testearlo en persona, está claro.

Tal y como yo lo veo, eso parece una captura de la APP donde aparecen los settings del juego y donde seleccionar la configuración optima. Eso no es como el panel de control donde seleccionas el NIS por poner un ejemplo.

No es un generico. El FG nunca lo ha sido. Y si fuera para todos los juegos, cuando lo anunciaron, no hubieran dicho una serie de juegos que traen FG y que son pro-Nvidia.

Ahora que me acuerdo de una curiosidad, en los pro nvidia, el fsr3 con el fg de AMD funciona pero en los pro amd, el FG de Nvidia no rula. Supongo que a Nvidia no le viene mal que funcione lo de la competencia porque lo suyo funciona mejor. XD

@SECHI A ver si nos aclaramos porque vamos a lo mismo y nos liamos. Yo solamente dicho que meterlo a secas solo dara productos mal optimizado y montones de errores. Mucho de lo que sucede ahora.

Pero no creo que eso sea lo que quieran.
Nomada_Firefox escribió:
SnakeElegido escribió:Fijate en DLSS Override - Frame Generation. Me la juego a que coges un juego con FG x2 normal, le activas esto a x4, y te hace el x4 perfectamente. Pero habrá que esperar a testearlo en persona, está claro.

Tal y como yo lo veo, eso parece una captura de la APP donde aparecen los settings del juego y donde seleccionar la configuración optima. Eso no es como el panel de control donde seleccionas el NIS por poner un ejemplo.

No es un generico. El FG nunca lo ha sido. Y si fuera para todos los juegos, cuando lo anunciaron, no hubieran dicho una serie de juegos que traen FG y que son pro-Nvidia.

Ahora que me acuerdo de una curiosidad, en los pro nvidia, el fsr3 con el fg de AMD funciona pero en los pro amd, el FG de Nvidia no rula. Supongo que a Nvidia no le viene mal que funcione lo de la competencia porque lo suyo funciona mejor. XD

@SECHI A ver si nos aclaramos porque vamos a lo mismo y nos liamos. Yo solamente dicho que meterlo a secas solo dara productos mal optimizado y montones de errores. Mucho de lo que sucede ahora.

Pero no creo que eso sea lo que quieran.


No sé si es que no nos estamos entendiendo o qué. Pero esa captura es literalmente de la interfaz de la Nvidia App donde puedes cambiar ajustes por juego o a nivel global. Es lo que va a sustituir al panel de control de Nvidia de toda la vida.
Imagen

No es que con esto cualquier juego vaya a tener FG, lo que quiere decir es que cualquier juego que ya tenga FG podría ser forzado a tener MFG, o al menos yo lo veo así. Habrá que esperar 15 dias para saberlo.

Un saludo,
neox3 escribió:5080 FE

iMAGEN ORIGINAL
Imagen

misma imagen pero le he subido brillo / contraste y tocado niveles
Imagen

El disipador es diferente al de la serie 4000 FE, ahora tenemos 2 ventiladores en el mismo lado, pero lo que hace especial al de la 5090 que es en la zona de las ranuras esa "concavidad" para ayudar en la disipación del aire (Está explicado en varios videos, darle una visual al de derbauer si no los habeis visto), parece que esta no la tiene y son laminas planas .

Edito: mas imagenes "filtradas" desde china

Imagen

Imagen

aqui se ve bien lo que apunto:
Imagen


Gracias. Al menos se le ve mas largo. ¿30 cm? (me parece mucho pero si en unas fotos esta en paralelo y la grafica mide eso podria ser...)
FranciscoVG escribió:Imagen

Mas benchmarks, entre un 15-20% de mejora respecto a la serie anterior CON RAYTRACING, se empieza a ver la realidad, cuando enseñen raster puro es cuando de verdad nos vamos a reir

Ojo que el Horizon dicen que es sin RT, con DLSS pero sin (M)FG

La 5080 sale la mas malparada, como era de esperar. Y la 5070 tambien, si como dices la comparamos con la 4070 Super que es ya un 16% mas que la 4070
FranciscoVG escribió:Imagen

Mas benchmarks, entre un 15-20% de mejora respecto a la serie anterior CON RAYTRACING, se empieza a ver la realidad, cuando enseñen raster puro es cuando de verdad nos vamos a reir

Tambien se empieza a confirmar lo que dije en la presentación, la 5070 podria ser inferior a la 4070 super, pero ojo que eso no es todo, es que tambien puede consumir mas xd

Estamos hablando de sacar una gpu inferior y con mas consumo que la gpu a la que sustituye, es surrealista totalmente, lo de esta generación es indefendible...


RT es una tecnología de iluminación, y al no usar dlss, eso ya se considera rasterización, aunque como ya explico una persona más atrás, el termino se utiliza mal.

Que le meta una mejora del 33% la 5090 a la 4090 sin dlss en resident evil4 con iluminación por rt, ya empieza a decir cositas... Positivas.

Pero también las dice muy negativas la comparación 5080 vs 4080...

Y por cierto, se confirma que lleva metal líquido la gpu, ya teneis imagenes en videocardz
Sicopro escribió:
HakiGold escribió:Y ya es el segundo juego que no mejora nada en Ray Tracing apesar que Nvidia reclama mejoras en los RT Cores y aquí había un usuario inventandose cosas de la IA que iba mejorar un montón el Ray Tracing.....

Decías eso, te he demostrado que es verdad y como no tienes argumentos, pues no te queda otra que el ad hominem. Que es lo que haces básicamente siempre que te quedas sin argumentos.

No merece la pena ni responderte a todo lo demás, mezclas cosas, tergiversas las palabras. Es puro hate y troleo lo que haces, no buscas ningún tipo de debate constructivo sobre la arquitectura, la tecnología, una crítica con sentido sobre puntos concretos. Todos los posts que haces son venir a echar mierda.

Es como meterse a un hilo de PS5 Pro o Apple a echar mierda continuamente, ese es todo el aporte que has hecho en el hilo. No das información, no aportas nada, más allá de decir que todo es humo y una mierda.

@jnderblue

Lo primero, eso era una coña para Duron600.

Lo segundo:

Imagen

Mira la letra pequeña en la imagen. [carcajad]


Lo ultimo que dijeron era que FSR 4 era agnostico para el hardware.

Q de momento lo declaraban exclusivo de la 9070 por potencia, pero que hay otros modelos que podrían moverlo según su potencia, no según su arquitectura.

¿estoy equivocado? Xq no sé donde lo leí.
neox3 escribió:Que le meta una mejora del 33% la 5090 a la 4090 sin dlss en resident evil4 con iluminación por rt, ya empieza a decir cositas... Positivas.

La 5090 estaba claro que iba a ser un mostruo por los nucleos y la VRAM ... pero vamos, que la pagas !!!!!
Pacorrr escribió:

Tenía toda la pinta que era así cuantos más datos iban saliendo.
Pruebas de rendimiento (fotogramas y latencia) con la 5090 a 4k con todas las opciones posibles: (con y sin DLS4, con y sin MFG a los tres niveles, con y sin path tracing,...)



En resumen: MFG introduce entre 10 y 15ms más al tiempo base. De unos 35fps (con path tracing, escala por DLS4 en calidad) a 60-70 fps, a unos 50ms con los tres frames extras fake a 240fps. Según vas bajando el número de frames inventados va mejorando esa latencia y bajando la tasa de frames.

Por supuesto puedes hacer el escalado más agresivo en modo rendimiento + path tracing y hacer que la tasa de frames reales aumenten, mejorando la latencia a unos 25ms y con unos fps ya absurdos.

Básicamente está bien si consigues tasas de frames superiores a 60fps y metes el MFG para añadir suavidad a la imagen sin mucha pérdida de respuesta. Si con el escalador de DLS4 no logras superar los 60fps, no merece la pena el MFG porque no vas a tener una respuesta al mando tan óptima.

Dependiendo del juego y configurándolo bien es un buen añadido, aunque no es milagroso ya que ganas suavidad de movimiento y no vas a mejorar la respuesta en nada. Sigues necesitando que el juego de la talla en rasterizado. A partir de ahí mejoras la fluidez visual sin muchos inconvenientes. Pero no vas a conseguir que una GPU que se quede corta en rasterizado sea de repente una monstruosidad.
Yo tengo una MSi 3080 rtx Suprim X 10gb comprada cuando salio ; Actualice hace unos meses a un i714700k, placa MSI MAG tomahawk y 32GB Ddr5, juego en un 32:9 G9 Odyssey 49" 5120x1440 y la verdad me va muy muy bien pero tenia pensado cambiar en la serie 5000 ganar mas fps,usar mejor el rtx en algunos titulos...Pero ya veremos o si me espero a la 6000, prisa no tengo porque juego en perfectas condiciones a todo.
A ver esas reviews.
Saludos jugones [beer]
5783 respuestas