[HO] NVIDIA GeForce RTX 5000

ditifet escribió:
pinturito escribió:
ditifet escribió:

Cuantas 8000/9000/200 quieres juapo? [ayay]

Imagen

Imagen

Imagen


Ostras tienes toda la coleccion [amor] [amor]

que chulada.... por cierto, creo recordar que la 9800gtx era casi practicamente la misma grafica que la 8800gtx, para que luego vengan diciendo que antes entre generaciones habia el doble o el triple de rendimiento [plas]


Exacto y la GTX250 que sacaron después otro refrito de la 8800GTX, por cierto Pccomponentes malditos timadores, se me jodió una GTX250 y no quisieron cambiármela en garantía, Ni 1 maldito pendrive les he vuelto a comprar.

Para los que dicen que con el tiempo y la fama van a peor, fué su 1 o 2º año de apertura y ya la liaban.

Yo en eso no tengo queja con PcC... todos los RMA se han portado de 10 (hasta ahora....)
DJ Deu escribió:Antes con cada generación de gráficas se duplicaba o triplicaba la potencia de una a otra.

Que a ti te parece bien que se potencien tecnologías para engañarte y hacerte ver que ganas frames con ello? Me parece perfecto, pero a mi me parece una estafa.

Con la 1º frase una buena fumada que te has metido.

Con la 2º frase das por hecho cosas de mi que no he dicho (y menos en mi mensaje en el que te respondía), otra buena fumada. Es lo que pasa cuando viene un hater creyendo que todos los que le lleven la contraria son unos fanboys (y te estaba escribiendo esto antes de leer tu siguiente mensaje que demuestra a lo que has venido).

Del tema por el cual viniste al hilo, lo de los 8fps, no vas a decir nada de lo que te hemos dicho varios de hablar en términos relativos y no absolutos? Veo que ya lo habían explicado, por si necesitas otra explicación: hilo_ho-nvidia-geforce-rtx-5000_2507243_s5200#p1755599604

Para qué hablar de ese tema que sacaste, ya no importa, ahora te centras en llamar fanboys a los demás porque no te queda otra cosa que decir (bueno, sí, mas tonterías, a ver con qué sales ahora).

Pues nada, cuando se te pase la rabieta ya abandonarás el hilo hasta la próxima.
@DJ Deu

Estamos de coña, al menos yo lo estoy, no te mosques. Pero vamos que has entrado como un elefante en una cacharrería soltando mierda básicamente y encima llamando a la gente fanboy.

@ditifet

Una colección espectacular, de hecho veo que tienes el ensamble que tuve, es la de color verde y blanco de XFX, me acuerdo de la imagen. Aunque creo que esa es la GTS y me parece que la que tenía era la GTX, pero no me acuerdo ya.
@ditifet

Cómo molaban las GPU cuando traían esos diseños, se sentía todo muy gamer, más que las lucecitas RGB que les meten hoy.
@ditifet de aquella generación tengo vagos recuerdos pero al igual que con las consolas me suena que hubo problemas con el tema soldaduras por el tema del RoHS puede ser?

Si que recuerdo que un colega pilló por ebay una 8800 y la revivimos con una pasada por el horno [qmparto] , no se qué tiempo tendría pero un año y pico duró.
Sicopro escribió:@DJ Deu

Estamos de coña, al menos yo lo estoy, no te mosques. Pero vamos que has entrado como un elefante en una cacharrería soltando mierda básicamente y encima llamando a la gente fanboy.

@ditifet

Una colección espectacular, de hecho veo que tienes el ensamble que tuve, es la de color verde y blanco de XFX, me acuerdo de la imagen. Aunque creo que esa es la GTS y me parece que la que tenía era la GTX, pero no me acuerdo ya.


Y que es si no alguien que se ofende y empieza a atacar porque dice algo negativo de una empresa y además con razón?

Somos amigos? Yo no te conozco de nada y yo por lo menos si no conozco de nada a alguien ni se me ocurriría hacer mofas de el aquí abiertamente en un foro público y encima con el único argumentario de que no habla bien de mi empresa favorita, es que es jodidamente absurdo.

Que nivelazo.
@D_a_r_z_ ostia pues no lo recuerdo. Las GTX 295 eran duales, se calentaban bastante y consumian 300W, creo que te refieres a esas

Y su contrincante en ATI eran las Radeon 295x2, que consumian 500W, para los que se quejan ahora de las 4000/5000

@HakiGold , las de turbina son las molonas con la serigrafía, por eso la colección

@Sicopro exacto, esta es la GTS, me quedan muchas por conseguir, lo mejor de todo es que TODAS funcionan perfectamente :cool:
@ditifet

Estás mezclando GPU la contrincante de la GTX200 si la memoria no me falla fueron las HD4000 o HD5000, R9 200 salieron años después 2013 o 2014 creo.

Esa R9 295 x2 fue un caso especial de consumo, pero es que vamos esa GPU era una GPU doble pegada en el PCB, no se puede comparar con una 5090 que es una sola GPU que consume 600w, las GPU duales andaban en los 300-400w, y las de una sola GPU menos.

Y aun así 300w ya se consideraban un consumo altísimo.
ditifet escribió:
pinturito escribió:
Sicopro escribió:@pinturito

Por eso le decía lo de comentario pollavieja, habla del pleistoceno, de la época de las GeForce 8800 GTX y por ahí, de la cual por cierto tuve un ensamble de XFX.

Ahí si que fue del doble pero eso era el 2006, por eso lo de casi 20 años.


O una de 2, o es un troll y viene en busca de flame, o no ha tocado un PC en los ultimos 20 años como tu bien dices, hagan sus apuestas.

Por cierto yo tambien tuve una Geforce 8800 GTX de 512 megas con un intel core 2 quad Q6600 creo que fue el primer procesador de Intel con 4 nucleos despues de eso salieron los primero I3, I5, I7.....



Cuantas 8000/9000/200 quieres juapo? [ayay]

Imagen

Imagen

Imagen



Simplemente espectacular... Que maravilla de colección.

Zotac a confirmado hoy que sacará modelos de la 5090 con 600w de tdp (50w por encima de la FE), pero no nos asustemos, recordar que pueden ser 525w por el cable y si mal no recuerdo, 75w por el pci express. (En la 4090 ya hubo graficas de 600w y no se quemaron).
metallah escribió:
dunkam82 escribió:
joshicko escribió:@rusochan yo voy a hacer eso mismo que te comentan los compis, me sigo quedando con mi 5800x y voy a pillarme la 5070ti.

No merece el cambio de irse a una cpu un poco mejor cuando lo importante y lo mejor para jugar lo vas a conseguir con la gráfica.

Así a futuro tienes tiempo de ahorrar y cambiar a la siguiente plataforma am5 o quizás futurible am6.

Yo voy a ir a por la 5080 con el 5800X también y tan ricamente, 0 preocupaciones.

Pues yo tengo un 3800x y tenía pensado pasarme a AM5, pero puesto que todo está tan caro, no sé si pillarme un 5700x3d, que están tirados de precio y pillar la 5070ti o 5080 y tirar. Para jugar a 1440p y 120 fps (y VR), ¿cómo lo veis?

Saludos.

Yo es que ni me lo pensaba, iría de cabeza a por ese 5700X3D que es una pedazo de CPU y va a ir de fábula, puedes estirar aún ese equipo unos años más con esa combinación de CPU y gráfica.

La verdad es que me quito el sombrero con AMD y su AM4 que ha dado muy buena relación calidad/precio/longevidad, si no hubiera sido por un problema que tuve en la placa con una incompatibilidad rara que tenía con la 3080 de EVGA que compré y tuve que cambiarla yo a día de hoy seguiría con la ASUS PRIME X370 con la que me compré mi Ryzen 1700 en 2017

Así que yo si fuera tú me pillaba ese 5700X con la 5070Ti y vas a tener equipazo para un buen tiempo.
Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0


RVNLOFT escribió:Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0

Me sé de alguno de cuyo nombre no quiero acordarme que últimamente entra a este hilo para decir paridas que le puede dar un patatús si ve eso [qmparto]
dunkam82 escribió:


RVNLOFT escribió:Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0

Me sé de alguno de cuyo nombre no quiero acordarme que últimamente entra a este hilo para decir paridas que le puede dar un patatús si ve eso [qmparto]


Con esto gana enteros el rumor de que la proxima xbox, llevará grafica nvidia...
neox3 escribió:Con esto gana enteros el rumor de que la proxima xbox, llevará grafica nvidia...

Eso no va a pasar, en su día con la Xbox original Microsoft y NVIDIA acabaron malamente y a parte sería un problema para la retrocompatibilidad de Xbox Series, Xbox One, Xbox 360 y Xbox original que hay ahora mismo, sería mucho trabajo extra para llegar al mismo punto del que estarían sin tener que hacer nada si siguen con AMD.

Además al final del artículo pone:
Microsoft is working with partners such as AMD, Intel, NVIDIA, and Qualcomm to integrate cooperative vector support into the DirectX ecosystem, allowing AI-accelerated graphical computation to flow much more seamlessly.


HakiGold escribió:Al menos que Nvidia se tenga escondido algún aumentó de IPC que saldrá en las review.. efectivamente las RTX 5000 serian un refrito, serían las RTX4000 con Cudas y ancho de banda extra.

Ya lo de hablar del incremento de la potencia en IA, el Neural Rendering, la memoria GDDR 7 y demás si eso lo dejamos para otro día ¿no? [beer]

Como fanboy de AMD deberías de tener cuidado con eso de escupir hacia arriba que luego ya se sabe lo que pasa ... si la serie 5000 es un refrito entonces ya me dirás tú qué es la 9070XT que ni iguala ni supera a la 7900XTX y ni siquiera evolucionan con la VRAM que no solo no la igualan con los 24GB sino que ponen menos y siguen usando la misma memoria GDDR6 ... una generación nueva para ir hacia atrás como los cangrejos.

Yo puedo entender que no quieran/puedan competir contra la 5090 y 5080, pero joder ni siquiera superar tu propio tope de gama en la generación anterior es un poco triste. Ya que han racaneado con la VRAM que es más barata al menos podrían haber optado por seguir con los 24GB y por lo menos diferenciarse con algo favorable de las tarjetas de la misma gama de NVIDIA, pero bueno AMD haciendo de AMD.
RVNLOFT escribió:Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0


Llamarme ignorante, inocente, credulo o lo que querais pero es que absolutamente todos los periodistas o expertos especializados en el tema que han tenido acceso a mas material que nosotros y han hecho sus pruebas pertinentes (y que en teoria el 24 podran mostrarlo abiertamente) están literalmente flipando con todo el salto en IA que han pegado estas blackwell.

Y es gente que en teoría les gusta mas ver cifras concretas de rendimiento y comparaciones reales que no cosas mas subjetivas como puede ser la calidad de un reescalado o los frames inventados. Aun asi cada vez que veo alguna entrevista o hablando sobre el tema se les ve a todos con una ilusion que hacia años que no veia en el sector. Parecen niños con su juguete nuevo el dia de navidad. Se les ilumina la cara cuando empiezan a hablar de lo increible y acojonante resultados que ha conseguido Nvidia.

No se, llevo años en este mundillo y nunca habia visto este comportamiento en gente que les suele costar sorprenderse de esta manera. Es como si hubieran visto nacer algo unico, como si se les hubiera mostrado sin avisar el futuro de la industria. Estan todos flipando con los resultados que estan obtendiendo.

Yo soy bastante esceptico en estas cosas y prefiero ser cauto, pero joder, ves a gente asi flipando en colores y diciendo abiertamente sin tapujos que todo es increible, que a uno sin querer se le ponen los pelos de punta.

Realmente puede ser tan bestia este cambio de vision de la tecnología? Tan buenos resultados da el nuevo dlss (en modo rendimiento mejorando hasta el nativo) y duplicando frames por arte de magia con solo 60 milisegundos de latencia y sin notar cosas raras?

Tan increíble puede ser todo esto?

Me parece de locos que finalmente pueda ser asi. Ganas de que llegue el fin de los embargos.y muestren todo el material y los resultados obtenidos.
HakiGold escribió:Y ya es el segundo juego que no mejora nada en Ray Tracing apesar que Nvidia reclama mejoras en los RT Cores y aquí había un usuario inventandose cosas de la IA que iba mejorar un montón el Ray Tracing.....


Así que me invento cosas, ya veo, no te cansas de llevarte zascas. Supongo que después de ver esto empezarás a entender que es tontería mirar únicamente los TFLOPS FP32, ya que el renderizado neural es un cambio de paradigma a la hora de renderizar los juegos, y por tanto, ya no es tan simple extrapolar el rendimiento en videojuegos en base a la potencia bruta. Ahora la IA va a apoyar en todo el renderizado, tanto en rasterizado como en RT.

En cuanto los juegos empiecen a aprovechar estas capacidades, el rendimiento va a aumentar pese a no tener tanta potencia bruta para rasterizado, no necesitas tantos TFLOPS FP32, ya que liberas carga computacional mediante IA.

Te lo vuelvo a decir cabezón: TFLOPS FP32, RT TFLOPS y AI TOPS, es el conjunto de esos tres factores lo que te va a dar el rendimiento real en videojuegos. Las RTX 50 ahora manejan instrucciones de tipo FP4 y FP6, eso hace mucho más ágil el cálculo de IA y por tanto es un gran salto de optimización.

Todas esas tecnologías se van a ir incorporando en los juegos progresivamente y es el futuro.

https://wccftech.com/microsoft-directx-neural-rendering-ai-focused-graphics-nvidia-rtx-50-tensor-core-gpus/

https://x.com/wccftech/status/1878878539996422448?t=OO7VGe9YHfAGY13KsInzBQ&s=19



Explicación del impacto de todo esto:

Impacto en el Ray Tracing (RT):

Optimización del rendimiento:

Los nuevos Tensor Cores de quinta generación permitirán aplicar técnicas de IA para calcular y predecir reflejos, sombras y refracciones más rápido, complementando el cálculo tradicional del RT. Esto significa que, aunque el RT seguirá utilizando núcleos específicos para sus cálculos físicos, la IA podría suavizar y completar algunos de estos cálculos con una fracción del esfuerzo computacional.

Calidad visual mejorada:

La IA puede "rellenar" detalles en escenas con RT, generando iluminación global y efectos visuales complejos con menor costo en rendimiento. Esto podría hacer que el RT sea más accesible en tarjetas de gama media o incluso en portátiles, ya que se dependerá menos de la fuerza bruta del hardware.

Integración con DLSS 4:

DLSS 4 y su capacidad de Multi Frame Generation también tendrán un impacto en el RT. Al generar múltiples cuadros adicionales mediante IA, los juegos podrán mantener un RT fluido incluso en resoluciones altas como 4K.

Impacto en CUDA:

Optimización del pipeline de gráficos:

Al integrar más IA en el pipeline gráfico, CUDA permitirá una delegación más eficiente de tareas entre núcleos RT, Tensor Cores y los núcleos CUDA, optimizando el uso general de la GPU.

Los Tensor Cores están diseñados para acelerar operaciones matriciales y cálculos relacionados con la IA, como inferencias en redes neuronales. Con tecnologías como DLSS 4 y neural shaders, muchas de las tareas que antes requerían cálculos intensivos en FP32 pueden ser asumidas por los Tensor Cores.

Por ejemplo:

Upscaling de imágenes.
Generación de cuadros adicionales (frame generation).
Compresión y reconstrucción de texturas.
Predicción de trayectorias de luz para complementar el ray tracing.

Menor carga en núcleos CUDA:

Las tareas que históricamente dependían de núcleos CUDA, como la rasterización, sombreado y parte del ray tracing, ahora se dividen con los Tensor Cores. Esto libera a los núcleos CUDA para concentrarse en cálculos críticos de FP32.

Reducción de la dependencia de TFLOPS FP32:

Mayor rendimiento relativo:

Si los Tensor Cores y RT Cores asumen tareas específicas, el rendimiento general de la GPU ya no estará tan atado a la cantidad de TFLOPS FP32. Esto significa que una GPU con menos núcleos CUDA, pero con Tensor Cores más avanzados, podría ofrecer un rendimiento superior en gráficos y simulaciones optimizadas por IA.

Enfoque en rendimiento real:

El rendimiento ya no se medirá únicamente en TFLOPS FP32, sino en métricas más representativas como cuadros por segundo en juegos con RT+DLSS, capacidad de generar cuadros adicionales y procesamiento de efectos avanzados en tiempo real.


También afecta a la geometría.

https://nvidianews.nvidia.com/news/nvidia-blackwell-geforce-rtx-50-series-opens-new-world-of-ai-computer-graphics

Blackwell Brings AI to Shaders
Twenty-five years ago, NVIDIA introduced GeForce 3 and programmable shaders, which set the stage for two decades of graphics innovation, from pixel shading to compute shading to real-time ray tracing. Alongside GeForce RTX 50 Series GPUs, NVIDIA is introducing RTX Neural Shaders, which brings small AI networks into programmable shaders, unlocking film-quality materials, lighting and more in real-time games.

Rendering game characters is one of the most challenging tasks in real-time graphics, as people are prone to notice the smallest errors or artifacts in digital humans. RTX Neural Faces takes a simple rasterized face and 3D pose data as input, and uses generative AI to render a temporally stable, high-quality digital face in real time.

RTX Neural Faces is complemented by new RTX technologies for ray-traced hair and skin. Along with the new RTX Mega Geometry, which enables up to 100x more ray-traced triangles in a scene, these advancements are poised to deliver a massive leap in realism for game characters and environments.

The power of neural rendering, DLSS 4 and the new DLSS transformer model is showcased on GeForce RTX 50 Series GPUs with Zorah, a groundbreaking new technology demo from NVIDIA.


https://developer.nvidia.com/blog/nvidia-rtx-neural-rendering-introduces-next-era-of-ai-powered-graphics-innovation/

NVIDIA today unveiled next-generation hardware for gamers, creators, and developers—the GeForce RTX 50 Series desktop and laptop GPUs. Alongside these GPUs, NVIDIA introduced NVIDIA RTX Kit, a suite of neural rendering technologies to ray trace games with AI, render scenes with immense geometry, and create game characters with lifelike visuals. RTX Kit enhances geometry, textures, materials, and lighting, providing greater visual fidelity and performance for complex open worlds while reducing artifacts, instability, and VRAM usage. Developers can integrate individual—or all—RTX Kit SDKs directly into their rendering pipeline.


@HakiGold El meme de regalo:



@SECHI

Mira todo el tocho que he puesto y verás a que viene tanto hype con esa tecnología. El problema es que claro eso tiene que ir llegando a los juegos. No es venga compro una RTX 5000 y de golpe a tope quemando rueda.

El avance en IA es exponencial, en centros de datos es directamente absurdo.
HakiGold escribió:@ditifet

Estás mezclando GPU la contrincante de la GTX200 si la memoria no me falla fueron las HD4000 o HD5000, R9 200 salieron años después 2013 o 2014 creo.

Esa R9 295 x2 fue un caso especial de consumo, pero es que vamos esa GPU era una GPU doble pegada en el PCB, no se puede comparar con una 5090 que es una sola GPU que consume 600w, las GPU duales andaban en los 300-400w, y las de una sola GPU menos.

Y aun así 300w ya se consideraban un consumo altísimo.


Mas o menos si, las GTX 295 su contrincante en rojo eran las hd HD 4870 X2 , con un consumo de casi 300W

Después estaban las hd 6990 y su refrito hd 7990, que ambas eran duales también, de estas tuve una y tenia 2 fuentes al estilo rig de minería. Eran 375W, la tuve en una recreativa y duró muchos años.

Después estaban las Titan Z con sus 375W (doble gpu) y las Titan RTX que casi solo las compraban para trabajo con ya sus 24 GB en 2018 y casi 300W de consumo.

Etc..
@SECHI Todo para que lleguen los iluminados de turno para criticar por la rasterización y para decir que la IA no tiene importancia y que es solo marketing.

Yo solo sé que el día 30 si no se van de madre los precios de las 5080 como los placeholders que hemos visto en las tiendas españolas aquí servidor se pillará una y la disfrutaré.
@SECHI bueno, solo tienes que echar para atrás en el video y ver las demos, en especial la del dragòn, materiales neurales y nueva geometría y por supuesto, el black state, que no es un juego trampa como el “The Day Before”.
Yo estoy como tú, la sensación que transmiten de lo que viene parece ser brutal
Por cierto para los adoradores de las fuentes , que opinais de este vidrio?


Ver a los de DF suspirar cuando se ponen a hablar de Nvidia la verdad que impresiona, nunca los había visto así

La verdad que la cosa promete
joshicko escribió:@rusochan yo voy a hacer eso mismo que te comentan los compis, me sigo quedando con mi 5800x y voy a pillarme la 5070ti.

No merece el cambio de irse a una cpu un poco mejor cuando lo importante y lo mejor para jugar lo vas a conseguir con la gráfica.

Así a futuro tienes tiempo de ahorrar y cambiar a la siguiente plataforma am5 o quizás futurible am6.


Yo me quedo con mi 14900KS también. Dudo mucho que el cambio con otro mejor sea una diferencia abismal. Quizás el único que saca más FPS sea el 9800X3D pero es que cambiar placa y todo me da un perezoooooooon.
Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

Aquí todo sobre el Nvidia RTX Kit y lo que va a permitir.

https://developer.nvidia.com/rtx-kit/#iq771z

Resumen en español:

El conjunto NVIDIA RTX Kit tiene amplias aplicaciones, desde acelerar el trazado de rayos con IA hasta representar humanos digitales mucho más realistas y renderizar escenas que presentan enormes cantidades de geometría.

Empecemos con lo que posiblemente sea la mayor innovación. Con la arquitectura Blackwell, NVIDIA presenta los denominados RTX Neural Shaders. Se trata de pequeñas redes neuronales que se deben inyectar en sombreadores programables para lograr diversos efectos beneficiosos. Con el próximo SDK de RTX Neural Shaders, los desarrolladores de juegos pueden entrenar sus datos de juego y código de sombreador en una PC con IA RTX acelerada con NVIDIA Tensor Cores. Durante la fase de entrenamiento, los datos neuronales del juego se comparan con el resultado de los datos tradicionales y se refinan a lo largo de varios ciclos.

Imagen

RTX Neural Texture Compression es invaluable para comprimir fácilmente miles de texturas en menos de un minuto y, al mismo tiempo, ahorrar hasta 7 veces más VRAM en comparación con las texturas comprimidas en bloques tradicionales, sin ninguna desventaja aparente en la calidad. En la nueva demostración técnica, las texturas RTX NTC solo ocupan 80 MB, mientras que las texturas comprimidas en bloques regulares requieren 520 MB de VRAM.

Esto significa que se va ir logrando reducir el consumo de VRAM.

RTX Neural Materials utiliza IA para comprimir código de sombreado complejo que normalmente está reservado para materiales fuera de línea, lo que brinda un procesamiento de material hasta cinco veces más rápido y permite que haya activos de mayor calidad disponibles en los juegos.

Por último, la IA se utiliza en RTX Neural Radiance Cache para inferir una cantidad infinita de rebotes después de los uno o dos rebotes iniciales, lo que mejora la iluminación indirecta y el rendimiento de rebotes múltiples. NRC ya está disponible desde hace un tiempo como parte del RTX GI SDK y pronto se incorporará a RTX Remix y Portal con RTX.

Imagen

Los SDK de compresión de texturas neuronales y sombreadores neuronales RTX se agregarán al kit NVIDIA RTX a finales de este mes. Microsoft también anunció hoy que DirectX pronto agregará compatibilidad con vectores cooperativos, lo que brindará un rendimiento acelerado para las GPU GeForce RTX al usar sombreadores neuronales RTX.

El NVIDIA RTX Kit también incluye RTX Mega Geometry, que debutará en Alan Wake 2 de Remedy con una actualización gratuita a finales de este año. El video de demostración de CES 2025 proporcionó una vista previa de la tecnología, que tiene como objetivo mejorar la carga de trazado de rayos en escenas con grandes cantidades de geometría, como en los juegos impulsados ​​por Nanite de Unreal Engine 5. Según NVIDIA, RTX Mega Geometry acelera la construcción de BVH, lo que permite el trazado de rayos de hasta cien veces más triángulos que el estándar actual. Estará disponible a finales de este mes en el RTX Kit y pronto a través de la rama NVIDIA RTX Unreal Engine.
Aunque soy un poco ludita y siempre diré que a la larga la ia nos va a dar problemas grandes a los seres humanos, para esto en particular no hay un peligro inmediato y en el día a día lo uso porque también no queda más remedio.

El Black myth wukong por ejemplo se arrastra por el fango si desactivo dlss y fg pero dejo el rt activado. Y así ya hay no pocos juegos, está claro que esto ha venido para quedarse. Ya me gustaría que todo el mundo hiciera cosas al nivel de calidad gráfica de red dead redemption 2 solamente con raster o que optimizaran las cosas nivel doom eternal. Cuando llegó el chino juan en el 2018 al principio me flipó ver el raytracing en tiempo real y le tiré a una 2080 founders para verlo de primera mano, pero vaya, que ya llevamos más de 6 años y eso ya no sorprende.

Ahora todo el mundo se flipa con la prestidigitación, los que fueron la semana pasada al CES ese no paran de contar parabienes de lo que se viene, que a fin de cuentas no deja de ser el truco de la chistera y el conejo. Quiero decir, está claro que de aquí a un mes van a haber videojuegos que se van a ver todavía mejor de lo que se ven ahora mismo y hasta sin tener que cambiar de gráfica rtx. Pero el que quiera ver todos los trucos a la vez tiene que pasar por caja y además dejarse por lo menos 650 euros teniendo mucha suerte.

Más honesto es pagar la entrada a un teatro y ver en directo a Juan Tamariz hacer cartomagia, por lo menos este hombre no esconde lo que es. Los dos juanes cada uno a su manera son los mejores magos del mundo.

Y por qué me pongo así? Porque estoy seguro totalmente de que una rtx 2080ti y sus 11 GBs. de VRAM GDDR6 podría perfectamente hacer todos esos trucos igualito que una serie 5000, puede que no a 4k o le cueste en 1440p, pero en 1080p seguro que sí. Y no va a pasar porque al chino juan no le sale de los cojones habilitarlo.

Cuánto dinero perderían si lo hicieran? Seguro que no tanto como algunos puedan pensar. A estas alturas estoy ya muy cansado de la cerrazón estilo apple que hace el chino juan para no parar de vendernos cosas cada vez más caras.

Y además está claro que cada vez los que jugamos videojuegos menos le importamos porque la pasta gansa está en otro sitio. El gaming para este ya es un escaparate bonito para una tienda que en realidad es de maquinaria industrial.
Las 80 y 90 por precio quedan descartadas para mi, pero una 5070ti me cuadra bastante, con jugar a 1440p en ultra a 120fps y en 4K un minimo de 60 en cualquier juego me sobraria.

Y creo que con la 5070ti podria ir servido, opiniones? Vengo de una series X y despues de haber jugado toda la vida en consolas, me quiero aventurar en el mundo del PC
Yo tengo una pregunta al respecto, todo esto se hace en local, o el dlss y el fg necesita conexión a internet?
Goncatin escribió:Yo tengo una pregunta al respecto, todo esto se hace en local, o el dlss y el fg necesita conexión a internet?

Es todo local.
Consolero97 escribió:Las 80 y 90 por precio quedan descartadas para mi, pero una 5070ti me cuadra bastante, con jugar a 1440p en ultra a 120fps y en 4K un minimo de 60 en cualquier juego me sobraria.

Y creo que con la 5070ti podria ir servido, opiniones? Vengo de una series X y despues de haber jugado toda la vida en consolas, me quiero aventurar en el mundo del PC


Yo como no vea a la 9070xt a 600 euros me voy a la 5070ti siempre que no valga más de 850 euros.

Cuando vea las reviews veré si merece la pena el desembolso extra.

Lo que nunca compraría sería la 5080 salvo que le hubieran puesto 20-24gb. Como han racaneado en VRAM ni me la planteo salvo que bajara de 1000 euros.
@tonicab Lo del racaneo de Vram... hay que tener en cuenta que en principio (habrá que ver si es cierto) las tarjetas de Nvidia van a consumir mucha menos Vram ,ya en la actualidad consumen menos que en AMD pero es que ahora se supone que la diferencia va a ser aún mas notoria.
pakolo1977 escribió:Aunque soy un poco ludita y siempre diré que a la larga la ia nos va a dar problemas grandes a los seres humanos, para esto en particular no hay un peligro inmediato y en el día a día lo uso porque también no queda más remedio.

El Black myth wukong por ejemplo se arrastra por el fango si desactivo dlss y fg pero dejo el rt activado. Y así ya hay no pocos juegos, está claro que esto ha venido para quedarse. Ya me gustaría que todo el mundo hiciera cosas al nivel de calidad gráfica de red dead redemption 2 solamente con raster o que optimizaran las cosas nivel doom eternal. Cuando llegó el chino juan en el 2018 al principio me flipó ver el raytracing en tiempo real y le tiré a una 2080 founders para verlo de primera mano, pero vaya, que ya llevamos más de 6 años y eso ya no sorprende.

Ahora todo el mundo se flipa con la prestidigitación, los que fueron la semana pasada al CES ese no paran de contar parabienes de lo que se viene, que a fin de cuentas no deja de ser el truco de la chistera y el conejo. Quiero decir, está claro que de aquí a un mes van a haber videojuegos que se van a ver todavía mejor de lo que se ven ahora mismo y hasta sin tener que cambiar de gráfica rtx. Pero el que quiera ver todos los trucos a la vez tiene que pasar por caja y además dejarse por lo menos 650 euros teniendo mucha suerte.

Más honesto es pagar la entrada a un teatro y ver en directo a Juan Tamariz hacer cartomagia, por lo menos este hombre no esconde lo que es. Los dos juanes cada uno a su manera son los mejores magos del mundo.

Y por qué me pongo así? Porque estoy seguro totalmente de que una rtx 2080ti y sus 11 GBs. de VRAM GDDR6 podría perfectamente hacer todos esos trucos igualito que una serie 5000, puede que no a 4k o le cueste en 1440p, pero en 1080p seguro que sí. Y no va a pasar porque al chino juan no le sale de los cojones habilitarlo.

Cuánto dinero perderían si lo hicieran? Seguro que no tanto como algunos puedan pensar. A estas alturas estoy ya muy cansado de la cerrazón estilo apple que hace el chino juan para no parar de vendernos cosas cada vez más caras.

Y además está claro que cada vez los que jugamos videojuegos menos le importamos porque la pasta gansa está en otro sitio. El gaming para este ya es un escaparate bonito para una tienda que en realidad es de maquinaria industrial.


Primera hostia a chino Juan.

Anda que como en escritorio suceda algo parecido a los de servidores........ https://www.techpowerup.com/331105/nvid ... ing-issues

Como ya mucha gente va a flipar con los precios de las RTX 50.
Imagen
Y estas son baratas, el rango casi llega a los 2000€ para las 5080.

Asi que @tonicab tengo claro que las 5070Ti van a rondar los 1000 pavos.

Y luego los precios actuales de las RTX 40, van a hacer que los precios bajen muy lentamente. Va a ser un desinflado de un año o más hasta que saque las Super.

Goncatin escribió:Yo tengo una pregunta al respecto, todo esto se hace en local, o el dlss y el fg necesita conexión a internet?

Se hace en local, no necesitas internet. Ellos lo venden como la maravilla ultima, y cierto, funciona muy bien. Pero es más codigo que otra cosa. Codigo Cuda seguramente como casi todo lo de Nvidia.

Consolero97 escribió:Y creo que con la 5070ti podria ir servido, opiniones? Vengo de una series X y despues de haber jugado toda la vida en consolas, me quiero aventurar en el mundo del PC

¿Cuanto piensas durar con esa GPU? la vida por encima del 1080p, incluso a 1080p jugando a todo en calidad maxima, suele ser caro de mantener.

Yo a estas RTX 50, les veo un problema. Necesitan el MFG, sin el seran muy parecidas en rendimiento a las RTX 40. Para mover los juegos que hay, muy bien, para mover lo que habra, dependeras de que se incluya en más titulos. Aunque tengo la sospecha de que en multijugador no vale por más que el CEO diga eso de "tiene poco más lag que el FG", vamos con esas palabras, es lo mismo que decir que tiene más lag. Asi que para MP no valdra mayormente.

Yo conozco gente que jugaban en PC y pasaron a la consola. Dejando el PC solo para cosas no tan exigentes que no hay en consola.
Parece que en Coolmod ya van apareciendo algunas, quitando las que se listan en 1000€, el resto de precios podría encajar en los finales:

Imagen

Edit: No, el botón del carrito no funciona, ya he probado XD
No creo que esos precios sean los definitivos.

Ademas que ya se sabe que las tiendas antes de lanzar un producto crean las fichas y la pagina de compra y ponen precios porque tienen que poner algo pero después esos precios se ajustan al real el dia de lanzamiento.

Quizas alguna si pueda ser parecida pero no hay que coger esos precios como definitivos.

No creo que una 5080 valga 1000€ en casa comp pon ahi o que otras 5080 valgan 2000€ o mas por muy buen disipador que tenga.

Coger esos precios con pinzas.
kamy33 escribió:Parece que en Coolmod ya van apareciendo algunas, quitando las que se listan en 1000€, el resto de precios podría encajar en los finales:

Imagen

Edit: No, el botón del carrito no funciona, ya he probado XD


No tiene sentido que la misma grafica valga 1000 más depende del ensamblador. Espero que la gente que no se crea es que la calidad de una Asus lo valga porque es para mear y no echar gota.
Apostaría a que esas gráficas que aparecen a 1000€ es algo temporal, seguramente las han ido dando de alta para que no se les acumule la faena a última hora, y como seguramente los proveedores no les han facilitado todavía un precio, pues han puesto ese nº redondo por poner algo...

Saludos.
Ya se ha comentado varias veces, todos los precios que vayan poniendo ahora son falsos, orientativos, es más que nada para meter las Gráficas en la base de datos de la web

Es más cuando entras mira el precio xD

Imagen
***
Editado por quimico2008. Razón: Flame
HakiGold escribió:@ditifet

Estás mezclando GPU la contrincante de la GTX200 si la memoria no me falla fueron las HD4000 o HD5000, R9 200 salieron años después 2013 o 2014 creo.

Esa R9 295 x2 fue un caso especial de consumo, pero es que vamos esa GPU era una GPU doble pegada en el PCB, no se puede comparar con una 5090 que es una sola GPU que consume 600w, las GPU duales andaban en los 300-400w, y las de una sola GPU menos.

Y aun así 300w ya se consideraban un consumo altísimo.



La de memes que nos regaló la serie R9 290 y derivados

XTC908 escribió:No compréis el humo de Nvidia, esperad al humo de AMD que sabe mejor y contamina menos.


Para humo tu mensaje
dunkam82 escribió:




esto acerca mas la proxima xbox a equipar GPU Nvidia
parh escribió:
dunkam82 escribió:




esto acerca mas la proxima xbox a equipar GPU Nvidia



En la noticia nombran a todos los fabricantes eh...

"Microsoft is working with partners such as AMD, Intel, NVIDIA, and Qualcomm to integrate cooperative vector support into the DirectX ecosystem, allowing AI-accelerated graphical computation to flow much more seamlessly."
adriano_99 escribió:
Tamagami escribió:
Kroxy escribió:
Pffff mira, déjalo, ponte a estudiarlo tu solo y cuando lo aprendas vuelves. No voy a perder más el tiempo

Si a este punto entiendo lo que dices, pensandolo en frio entiendo que al final son los mismos watios es cierto XD
Te doy la razon en parte

Pero no se van a distribuir igual en el ensamble que te da 67 y en el ensamble que te da 77 no?

finalmente SI, me refiero, en los dos casos, cuando apagas el pc y este se enfria, los dos habran escupido el mismo calor. es cierto, es asi.

Pero ¿a diferente ritmo no?

En la realidad tiene que ser una diferencia minima en volumen de aire calentado y tiempo.

Y tambien peco de no tener la experiencia, he tenido CPUS calentorras, pero no se lo que es tener una 4090, si los que la teneis me decis que calienta la habitacion mucho y la 5090 seria demasiado, os hago caso.


Te cito aquí pero los he leído todos y la virgen, como antiguo profesor de mates y física me ha dolido el pecho de leerte.
Pero si juegas 1 hora, y la gpu está a 70 grados, la habitacion se va a calentar menos que si juegas una hora y la gpu esta a 80 grados.

Esta afirmación es la base de tu problema y el porque claramente no entiendes como funciona la termodinámica.
No, eso no es verdad para nada., y para entenderlo tienes que entender como funciona un radiador (sea de GPU, de coche o de lo que sea).
Un radiador lo que hace es aumentar la superficie de disipación del calor.
Tener una mayor superficie de disipación no cambia la cantidad de calor que disipas, cambia lo que se llama temperatura de equilibrio.
La temperatura de equilibrio es aquella temperatura a la cual toda la energía que está siendo absorbida está siendo disipada.
Mientras la temperatura esté aumentando una parte de ese calor se está dedicando a aumentar la temperatura del objeto.
Pero esto solo ocurre durante los primeros minutos de uso.
La primera tarjeta de tu ejemplo tiene una temperatura de equilibrio de 70 grados y la segunda de 80.
Esa es la razón por la que los componentes electrónicos no aumentan su temperatura hasta el infinito sino que se estancan.
Pero ambas graficas están absorbiendo 575W por lo que están emitiendo ambas al aire 575 W.

Ya ya, si en el mensaje grande que me linkeas al final lo entendia.

Al final escupen el mismo calor, mas grados en menos volumen, o menos grados en mas volumen.

Me habia puesto cabezurro, de poco sirve la logica si tienes un dia tontorron.

@Lorena99 @adriano_99 @Kroxy (y si me dejo otro)

Perdon por la gilipollada, todos tenemos algun dia espeso no? [+risas]
dunkam82 escribió:


RVNLOFT escribió:Echad un vistazo en el 1:44:28 a la pregunta y a la respuesta XD

https://youtu.be/HLxVskv2zs0

Me sé de alguno de cuyo nombre no quiero acordarme que últimamente entra a este hilo para decir paridas que le puede dar un patatús si ve eso [qmparto]

Nvidia tiene un 75% de cuota de mercado en GPUs y es la empresa más valiosa del mundo hoy día. Está claro que sus tecnologías van a ser implementas y los motores gráficos y las librerías se van a preparar para la llegada de estas. La IA es el desafío actual de la generación y creo que si se hace buen uso podríamos ver muy buenos videojuegos y sobretodo… tiempos de desarrollo reducidos en la creación de motores gráficos (ya que con IA podrás simular hasta texturas y caras).

Es el futuro si o si.
Viniendo de una generacion muy antigua (ni siquiera serie RTX), creeis mejor ir a por una 4080 o esperar a la 5070?

Me la pela el raster, quiero jugar a +60fps y ya, o a 120fps 1080p como muchisimo.

Lo unico que me preocupa es la VRAM, que son 16GB frente a 12GB de la nueva 5070. Para VR o utilizar software de IA...quiza 12 se queda corto? Como han dicho tambien que la nueva serie 50 va a estar mas optimizada en consumo de VRAM
Sicopro escribió:Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

Aquí todo sobre el Nvidia RTX Kit y lo que va a permitir.

https://developer.nvidia.com/rtx-kit/#iq771z

Resumen en español:

El conjunto NVIDIA RTX Kit tiene amplias aplicaciones, desde acelerar el trazado de rayos con IA hasta representar humanos digitales mucho más realistas y renderizar escenas que presentan enormes cantidades de geometría.

Empecemos con lo que posiblemente sea la mayor innovación. Con la arquitectura Blackwell, NVIDIA presenta los denominados RTX Neural Shaders. Se trata de pequeñas redes neuronales que se deben inyectar en sombreadores programables para lograr diversos efectos beneficiosos. Con el próximo SDK de RTX Neural Shaders, los desarrolladores de juegos pueden entrenar sus datos de juego y código de sombreador en una PC con IA RTX acelerada con NVIDIA Tensor Cores. Durante la fase de entrenamiento, los datos neuronales del juego se comparan con el resultado de los datos tradicionales y se refinan a lo largo de varios ciclos.

Imagen

RTX Neural Texture Compression es invaluable para comprimir fácilmente miles de texturas en menos de un minuto y, al mismo tiempo, ahorrar hasta 7 veces más VRAM en comparación con las texturas comprimidas en bloques tradicionales, sin ninguna desventaja aparente en la calidad. En la nueva demostración técnica, las texturas RTX NTC solo ocupan 80 MB, mientras que las texturas comprimidas en bloques regulares requieren 520 MB de VRAM.

Esto significa que se va ir logrando reducir el consumo de VRAM.

RTX Neural Materials utiliza IA para comprimir código de sombreado complejo que normalmente está reservado para materiales fuera de línea, lo que brinda un procesamiento de material hasta cinco veces más rápido y permite que haya activos de mayor calidad disponibles en los juegos.

Por último, la IA se utiliza en RTX Neural Radiance Cache para inferir una cantidad infinita de rebotes después de los uno o dos rebotes iniciales, lo que mejora la iluminación indirecta y el rendimiento de rebotes múltiples. NRC ya está disponible desde hace un tiempo como parte del RTX GI SDK y pronto se incorporará a RTX Remix y Portal con RTX.

Imagen

Los SDK de compresión de texturas neuronales y sombreadores neuronales RTX se agregarán al kit NVIDIA RTX a finales de este mes. Microsoft también anunció hoy que DirectX pronto agregará compatibilidad con vectores cooperativos, lo que brindará un rendimiento acelerado para las GPU GeForce RTX al usar sombreadores neuronales RTX.

El NVIDIA RTX Kit también incluye RTX Mega Geometry, que debutará en Alan Wake 2 de Remedy con una actualización gratuita a finales de este año. El video de demostración de CES 2025 proporcionó una vista previa de la tecnología, que tiene como objetivo mejorar la carga de trazado de rayos en escenas con grandes cantidades de geometría, como en los juegos impulsados ​​por Nanite de Unreal Engine 5. Según NVIDIA, RTX Mega Geometry acelera la construcción de BVH, lo que permite el trazado de rayos de hasta cien veces más triángulos que el estándar actual. Estará disponible a finales de este mes en el RTX Kit y pronto a través de la rama NVIDIA RTX Unreal Engine.

Te has pegado un curro de información.
Dicen que todas estas nuevas tecnologías llegan con las RTX 50, pero no veo que digan claro que son exclusivas de las RTX 50, me parece que también llegan a las RTX 40 como mínimo.

Dicen que todo esto libera el potencial de las RTX 50, pero me da la sensación que lo dicen porque estas RTX 50 duplican los TOPS respecto a las 40.

Esta claro que las 50 son el doble de potentes que las 40 en tema IA, pero la misma 4090 tiene casi los mismos TOPS que la 5070 Ti.

Pero esta clarísimo que en las RTX 50 rendirá mucho mejor que en las RTX 40.

Están vendiendo la IA de las 50 a bombo y platillo, que tampoco lo critico, para mi bienvenido sea todo lo que sea mejoras.

Otro tema es, cuando llegaran? porque pone que Alan wake 2 se actualizara a finales de año, y estamos en enero.

Y los juegos tardan años en desarrollarse, a lo mejor empezamos a ver algo de esto nuevo en 2026 y sinceramente para 2026 ya se estará hablando de las RTX 60.
dunkam82 escribió:

Imagino que lo harán exclusivo de W11 para obligar a la gente a pasarse desde W10 ...
Franmy98 escribió:Viniendo de una generacion muy antigua (ni siquiera serie RTX), creeis mejor ir a por una 4080 o esperar a la 5070?

Me la pela el raster, quiero jugar a +60fps y ya, o a 120fps 1080p como muchisimo.

Lo unico que me preocupa es la VRAM, que son 16GB frente a 12GB de la nueva 5070. Para VR o utilizar software de IA...quiza 12 se queda corto? Como han dicho tambien que la nueva serie 50 va a estar mas optimizada en consumo de VRAM

IMO no hay razón para ir para cualquier cosa que no sea la ultima generación. Ni por precio ni nada, te estarías dando obsolescencia a ti mismo.

Yo apuntaria a las 5070Ti en todo caso, no a la normal.
Sicopro escribió:Todo esto es posible gracias al gran salto en AI TOPS con los Tensor Cores de quinta generación. Por eso mostraba tanto Jensen Huang el salto en AI TOPS, la chicha de la arquitectura y tecnología se encuentra aquí. Todo esto va a ir llegando progresivamente a los juegos, no va a estar de golpe en un mes.

- Neural Texture Compression
- Neural Radiance Cache
- RTX Mega Geometry
- RTX Neural Faces
- RTX Neural Materials

Todo explicando en el link adjunto:

https://wccftech.com/nvidia-rtx-kit-shows-how-neural-rendering-will-power-the-next-visual-leap-in-gaming/

La cosa promete, pero tardará en llegar, hace falta primero que Unreal y Unity le den soporte, que haya una buena base de gente con equipos que lo soportan ...

RTX IO que yo sepa no se usa y va para 5 años ya !!!!
Franmy98 escribió:Viniendo de una generacion muy antigua (ni siquiera serie RTX), creeis mejor ir a por una 4080 o esperar a la 5070?

Me la pela el raster, quiero jugar a +60fps y ya, o a 120fps 1080p como muchisimo.

Lo unico que me preocupa es la VRAM, que son 16GB frente a 12GB de la nueva 5070. Para VR o utilizar software de IA...quiza 12 se queda corto? Como han dicho tambien que la nueva serie 50 va a estar mas optimizada en consumo de VRAM


un esfuero por la 5070ti sin ninguna duda seria la mejor opcion
5809 respuestas