[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@BennBeckman yo apuesto por unos 2300 USD de precio recomendado en USA
BennBeckman escribió:Parece que empieza a sonar la 4090 ti.
Deseando estoy ver el precio [qmparto]

Así estaba viendo, menuda suerte, me acabo de pillar la 4090 y ya nos va a llegar la 4090ti

Puta vida [qmparto]
_anVic_ está baneado por "clon de usuario baneado"
Solo rendirá entre un 10 y un 15% > que la 4090 pero costará mil euros más.

Como le metan 48 gb de vram finalmente en módulos de 2gb por ambas caras del pcb como hicieron con la 3090 engendro ( que llevaba 24 de 1gb ) van a tener un Tj memory del averno.

A mi no me llama pero no descarto pillar una para probarla.
parh escribió:@BennBeckman yo apuesto por unos 2300 USD de precio recomendado en USA

Casi na' para el cuerpo. La primera moto que tuve me costó menos [qmparto]
parh escribió:
_revan_ escribió:Gente una pregunta

Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?

Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay

Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?

Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos

Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla


En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.

Mu bonito en CP 2077 pero el juego es una jodida castaña .

Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.

No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...

Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.

Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos

Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.

Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.

Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.

Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.

Menudo marketing han metido ahí.

@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.

Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.
@hh1 me da a mí que tienes un problema de visión compañero, y de configuración en tu pc, pk a mi los juegos no me crashean ni una vez.
El RT se ve que flipas, es una tecnología muy top.
El que quiera RT que lo paque, que valga la pena o no ya es cosa de cada uno.

Y si, lo de tw3 es de risa.
@hh1 el RT se nota y mucho, es cierto que impacta en el rendimiento, pero para eso esta DLSS + FG. De momento, el juego que me ha crasheado ha sido en Hogwarts Legacy, pero es mas debido a la nefasta gestion de consumo de vram, el resto que he jugado, perfecto (aunque se ha reportado que el jedi survivor tambien crashea por rt)
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
parh escribió:
_revan_ escribió:Gente una pregunta

Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?

Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay

Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?

Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos

Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla


En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.

Mu bonito en CP 2077 pero el juego es una jodida castaña .

Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.

No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...

Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.

Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos

Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.

Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.

Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.

Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.

Menudo marketing han metido ahí.

@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.

Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.


En el TW3, el cual implementa un hdr cojonudo que soporta el system level calibration del SO, con RT al máximo ( y no usa path tracing como Cyberpunk) ya se nota bastante.

Imágenes en SDR ( con hdr más rt es aún mejor )
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen

Te podrá gustar más o menos el Ray tracing pero decir que no se nota opino que es un error.
hh1 escribió:
parh escribió:
_revan_ escribió:Gente una pregunta

Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?

Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay

Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?

Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos

Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla


En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.

Mu bonito en CP 2077 pero el juego es una jodida castaña .

Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.

No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...

Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.

Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos

Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.

Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.

Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.

Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.

Menudo marketing han metido ahí.

@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.

Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.


Para mi, tampoco merece la pena.
El rendimiento que se suele perder, me es más importante que el que se vea el brillo brilli. Es como el nvidia hairworks del TW3 cuando salió. Se nota pero el rendimiento que se perdía lo hacía inútil. Son tecnologías muy bonitas que sirven para venderte la gpu más cara y que luego la inmensa mayoría no usa.
buenas

alguna opinión sobre esta grafica para sustituir mi 2080 super

https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3

si alguien me puede decir algo de PNY, experiencias y tal [rtfm]

gracias

[chiu]
_anVic_ está baneado por "clon de usuario baneado"
rankatana escribió:buenas

alguna opinión sobre esta grafica para sustituir mi 2080 super

https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3

si alguien me puede decir algo de PNY, experiencias y tal [rtfm]

gracias

[chiu]


Recientemente adquirí una 4090 palit gamerock por sólo 1649€ para probarla y rendía muy bien a rasgos generales.

Yendo capado con la bios de 450W de serie, te paso resultados con gpuz en segindo plano:

Imagen

La PNY aún no la he probado pero imagino que andará más o menos a la par que la gamerock.

Si encuentras la misma oferta que yo de la palit por 1649€ con juego de regalo ni te lo pienses, pasa de la 4080 y vete directo a la 4090 .
_anVic_ escribió:
hh1 escribió:
parh escribió:
En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.

Mu bonito en CP 2077 pero el juego es una jodida castaña .

Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.

No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...

Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.

Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos

Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.

Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.

Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.

Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.

Menudo marketing han metido ahí.

@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.

Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.


En el TW3, el cual implementa un hdr cojonudo que soporta el system level calibration del SO, con RT al máximo ( y no usa path tracing como Cyberpunk) ya se nota bastante.

Imágenes en SDR ( con hdr más rt es aún mejor )
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen
RT on
Imagen
RT off
Imagen

Te podrá gustar más o menos el Ray tracing pero decir que no se nota opino que es un error.


importante tambien tener correctamente configurada la TV en modo HDR, se disfruta aun más

@_revan_ otro juego donde podras observar las bondades de RT es Hitman 3, especial atencion a los mapas de Dubai, Berlin y China [babas]
Chaquetero está baneado por "troll"


Esta es la realidad, lo otro es fanboyismo ciego.

Y si al activar el RT en ciertos juegos hay una gran diferencia con el juego sin, es obviamente porque Nvidia ha pagado 50 millones a los 4Agames(metro exodus), o a cdprojeckt, para que se pasen dos años reconstruyendo el sistema de iluminación a posta para vender sus gráficas.
yosu888 escribió:@hh1 me da a mí que tienes un problema de visión compañero, y de configuración en tu pc, pk a mi los juegos no me crashean ni una vez.
El RT se ve que flipas, es una tecnología muy top.

rT??
Casi ningún juego de los que he jugado lo lleva...
Me baso en todos los juegos que salen y que hablan de RT roto ,por ejemplo.

Cada vez que pillo un juego, prometen RT y nunca llega o lleva muy muy tarde.

@parh
¿Y cuánto tiempo tiene Hitman 3???
Pues eso ..

En los nuevos ,o no viene ,o se nota poco, impacto brutal de rendimiento o da problema.

@_anVic_
Creo que no me habéis entendido.
He dicho que no se nota en bastantes juegos,no que no haya juegos en los que sí se nota.
Y volvemos a lo mismo.The Witcherv3...¡Cuánto tiempo tiene?
Pues eso...

Ya solo falta en el Super Mario Bros de NES.

Yo quiero un RT notorio en juegos de ahora, en lo que sale ya ...y que funcione bien.

@rankatana
Yo tengo la 4090 PNY y es suficiente.
Obviamente es de las más básicas, pero estas tarjetas van bien ya de refrigeración.
Están más limitadas a la hora de meterles OC ,pero en general, están decentes.

@yosu888
Mi Pc no tiene ningún problema de configuración.
Solo tienes que pasarte por los hilos de últimos juegos con problemas con el RT.
El resto ,juegos antiguos o de hace años.

@Chaquetero
Se nota en ciertos juegos...
Cuántos juegos?

Y de salida ,cuales llevan buen RT y el juego funciona perfectamente?

Menuda moto nos están vendiendo para 4 juegos en los que se nota y encima ,básicamente ,ninguno actual.
En general los juegos ya vienen rotos de salida, no es solo el RT [carcajad] . Pero yo tampoco he llegado a jugar un juego al completo con RT, ni de salida ni esperando, en cyberpunk con la 3080, al final preferí quitarlo porque no iba lo fluido que esperaba, cuando ya tenía la 4080 y sí podía jugar con buen rendimiento ya me quedaba poco para acabarlo. Por estas fechas tampoco está saliendo nada... el DLC de cyberpunk sí que es posible que sea el primero y con la 4080 debe ir bastante bien, así que lo espero con ganas.

El RT en sí es que tuvo una salida muy mala... con las 2000 tendrían que haberlo enseñado con solo pequeños detalles que no comieran mucho el rendimiento porque al final nadie lo usaba. Hasta las 3000 o las 4000 no tenía sentido eso efectos.

El DLSS sí ha tenido mejor salida, aunque al principio se veía borroso, una vez mejorado, funciona en todas las gamas y si tienes una 2000 le viene de maravilla.
¿Sera verdad esto? https://videocardz.com/newz/nvidia-to-l ... d-for-july

Imagen

Las 4070 van a quedar muy perjudicadas si sale un modelo de esta grafica con 16GB. Aunque lo peor puede ser el precio.

@eric_14 Me parece que depende mucho de la resolución. A más subes, más traga el RT.

@hh1 No sabia que habias comprado una 4090 ¿te entro en la torre bien?¿y la fuente?

A mi por usar RT no me hacen aguas los juegos. Pero ya lo digo, a más resolución peor. Tambien repito lo que he dicho muchas veces, solo se nota mucho en el agua cuando llueve, en los reflejos de charcos. En todo lo demas es dificil verlo muchas veces. En juegos con motores de Unreal, es de lo más complicado, a mi me cuesta ver la diferencia, ni con agua.

DLSS, depende del juego pero sobretodo de la calidad que uses. A más rendimiento quieras, peor es.
Nomada_Firefox escribió:¿Sera verdad esto? https://videocardz.com/newz/nvidia-to-l ... d-for-july

Imagen

Las 4070 van a quedar muy perjudicadas si sale un modelo de esta grafica con 16GB. Aunque lo peor puede ser el precio.

@eric_14 Me parece que depende mucho de la resolución. A más subes, más traga el RT.


vaya palo para los recientes compradores de una 4070 y 4070ti

nividia se ha visto obligada a improvisar este movimiento, sabe que AMD poniendo 16gb en su gama media los barre del mapa. Lo que no se entiendo es la lentitud de AMD a lanzar dichas graficas
BennBeckman escribió:Parece que empieza a sonar la 4090 ti.
Deseando estoy ver el precio [qmparto]

2400€ seguro
4060 TI CON 16 GIGAS?
nvidia quien te ha visto? wtf? costara mas que una 4070?
Sería un tiro en el pie, nadie va a querer comprar una 4070 si sacas una tarjeta de gama inferior a un precio menor pero con más GB...y si la sacas más cara que la 4070, te estás cagando encima de tus clientes que han confiado en tu marca y se han comprado ya la 4070, por no hablar de la confusión en la nomenclatura que conlleva y que alejará a potenciales clientes. Dudo mucho que la 4060ti tenga más de 10 GB.
Nomada_Firefox escribió:
DLSS, depende del juego pero sobretodo de la calidad que uses. A más rendimiento quieras, peor es.


pero es que el DLSS em modo calidad, que visualmente tiene un impacto minimo, de hecho a mi me gusta porque aplica un AA fantastico, ya te entrega una un 60% mas de rendimiento. De "peor", nada
parh escribió:nividia se ha visto obligada a improvisar este movimiento, sabe que AMD poniendo 16gb en su gama media los barre del mapa. Lo que no se entiendo es la lentitud de AMD a lanzar dichas graficas

Simplemente liquidar stock de algo que se sigue vendiendo bien. Mucha gente ha comprado 6700XT/6800/XT/6900XT/6950XT. Cada dia aparece más gente por estos lares con esas graficas.

El DLSS en modo calidad esta bien, la ganancia es buena. Y sí es cierto aplica un antialising por defecto muy bueno. No es la unica caracteristica que hace eso de Nvidia, el DSR que ahora llaman quizas DLDSR tambien mete un antialising buenisimo con cero coste.

Pero se sigue viendo peor que el original, es un hecho consumado.
Nomada_Firefox escribió:
parh escribió:nividia se ha visto obligada a improvisar este movimiento, sabe que AMD poniendo 16gb en su gama media los barre del mapa. Lo que no se entiendo es la lentitud de AMD a lanzar dichas graficas

Simplemente liquidar stock de algo que se sigue vendiendo bien. Mucha gente ha comprado 6700XT/6800/XT/6900XT/6950XT. Cada dia aparece más gente por estos lares con esas graficas.

El DLSS en modo calidad esta bien, la ganancia es buena. Y sí es cierto aplica un antialising por defecto muy bueno. No es la unica caracteristica que hace eso de Nvidia, el DSR que ahora llaman quizas DLDSR tambien mete un antialising buenisimo con cero coste.

Pero se sigue viendo peor que el original, es un hecho consumado.

El DLDSR tiene coste ya que es una técnica de "upscaling", en cambio DLSS es de "downscaling". Lo bueno del DLDSR es que se puede combinar con DLSS.
De lo que se habla poco es del DLAA, que básicamente es como el DLSS pero trabajando a tu resolución nativa.
¿4060ti con 16Gb? No se en NVIDIA quien decide la cantidad de VRAM pero parece que son los mismos que los de la serie 3000. Lo mismo me equivoco pero ¿Cuanto le cuesta a NVIDIA poner 8Gb mas? ¿20$, 30$? ¿menos?
Nomada_Firefox escribió:¿Sera verdad esto? https://videocardz.com/newz/nvidia-to-l ... d-for-july

Imagen

Las 4070 van a quedar muy perjudicadas si sale un modelo de esta grafica con 16GB. Aunque lo peor puede ser el precio.

@eric_14 Me parece que depende mucho de la resolución. A más subes, más traga el RT.

@hh1 No sabia que habias comprado una 4090 ¿te entro en la torre bien?¿y la fuente?

A mi por usar RT no me hacen aguas los juegos. Pero ya lo digo, a más resolución peor. Tambien repito lo que he dicho muchas veces, solo se nota mucho en el agua cuando llueve, en los reflejos de charcos. En todo lo demas es dificil verlo muchas veces. En juegos con motores de Unreal, es de lo más complicado, a mi me cuesta ver la diferencia, ni con agua.

DLSS, depende del juego pero sobretodo de la calidad que uses. A más rendimiento quieras, peor es.

Sí, la pillé en Enero.
Aproveché la devolución del dinero de la 4080 y ya me fui a la 4090.

Tengo una torre Lian li Lancool Mesh II.Entra super sobrada en esta caja.

Fuente tengo una Corsair RM850X y también es suficiente con todo 450w de GPU.

Yo si tuviese que basar mi elección de gráfica en el RT ...me daría igual visto lo visto.

Ya he dado mi opinión.Muy muy muy decepcionado con tanto bombo de RT estos años.
Me animé a Nvidia y más gráfica ,entre otras cosas ,porque oarecía que le estaban dando caña de verdad al RT y que lo que iba saliendo lo iba a llevar a buen nivel y tal.
Y la realidad es que en varios juegos da problemas,en otros no se nota nada ,y en unos pocos se nota y son juegos de hace años.
Lamentable en mi opinión.

Yo quiero que si sale Atomic Heart, salga con RT de salida y un buen RT con un buen rendimiento.

Quiero que si ahora me sale otro juego que me apetece jugar, salga con RT y ni crashee o tenga problemas ,y que por dios ,se note

Una decepción total.

A mí que metan RT en la bazofia de CO2077 que además ,ya tiene algunos años , o que lo metan en The Witcher 3 super alucinante ,cuando es un juego de hace años , pues qué quieres que te diga,es mejor que nada ,pero no es lo que espero del RT.
Cómo dije ,a este paso me lo sacan en Super Mario Bros de NES y en el F-Zeto de SNES,no me jodas.

Juegos actuales Nvidia ...

Yo ya he llegado a ver las AMD de otra forma zhadta el punto, que viendo lo del RT ,creo que la ejor opción es una 7900 XTX sin duda alguna,en cuanto aclaudad/precio.
@hh1 Tampoco me habia dado cuenta que hubieras comprado una 4080. :)

Yo no creo haber comprado nunca una grafica por tener RT o DLSS. Pero si puedo usar lo primero, lo uso, es una opción como otra cualquiera.

El problema que teneis vos y muchos más, es que jugais a los juegos segun van saliendo, como si fuera un degustador de series de Netflix. Yo no hago eso, conozco más gente que tampoco lo hace. Y me parece que con ese uso vas a tragar mucha mierda. [fiu]

@Baktor Cierto que el DLDSR tiene coste, pero mucho menos que el anterior DSR. Ademas es un coste nimio. La gracia es usar resoluciones mayores en monitores que de por si no las permitirian. Y si se puede usar con el DLSS. Lo que nunca he probado es si en AMD se puede usar la super resolucion virtual con el FSR.
Nomada_Firefox escribió:@hh1 Tampoco me habia dado cuenta que hubieras comprado una 4080. :)

Yo no creo haber comprado nunca una grafica por tener RT o DLSS. Pero si puedo usar lo primero, lo uso, es una opción como otra cualquiera.

El problema que teneis vos y muchos más, es que jugais a los juegos segun van saliendo, como si fuera un degustador de series de Netflix. Yo no hago eso, conozco más gente que tampoco lo hace. Y me parece que con ese uso vas a tragar mucha mierda. [fiu]

@Baktor Cierto que el DLDSR tiene coste, pero mucho menos que el anterior DSR. Ademas es un coste nimio. La gracia es usar resoluciones mayores en monitores que de por si no las permitirian. Y si se puede usar con el DLSS. Lo que nunca he probado es si en AMD se puede usar la super resolucion virtual con el FSR.

No no...no suelo pillar juegos de salida y espero siempre a que bajen precios

No espero un año o dos ,pero dí meses.
Por ejemplo,ayer me oillé Desde Space Remake...de salida no compro nada

Los que juego de salida son por Gamepass.

Sí,envontré en Enero una 4089 de segunda mano pero a estrenar ,sin abrir por 1100€ y no aguabté.
Por unas cosas y otras ,me pareció que estaba defectuosa (al final creo que no,era cosa de la RAM).
La devolví, y me devolvieron los 1459€ de la factura .Por lo que con la ganancia ,me fui a una 4090.
@hh1 joder, te salió redondo para la 4090 [carcajad] .

Yo también suelo esperar un poco, si no es algún caso especial que sea algún juego online que me interese, me espero. Tal como salen los juegos, no vale la pena, si te esperas lo compras sin bugs y más barato aún.

La semana pasada compré un portátil con la 4070 de 8gb [rtfm] , veremos como acaba la cosa, aunque es para jugar singles y a la resolución de la pantalla (1080p), supongo que no quedará tan obsoleto como si jugara a 2k o más y aguantará bien unos años.
Ashenbach escribió:Sería un tiro en el pie, nadie va a querer comprar una 4070 si sacas una tarjeta de gama inferior a un precio menor pero con más GB...y si la sacas más cara que la 4070, te estás cagando encima de tus clientes que han confiado en tu marca y se han comprado ya la 4070, por no hablar de la confusión en la nomenclatura que conlleva y que alejará a potenciales clientes. Dudo mucho que la 4060ti tenga más de 10 GB.


Aunque la 60Ti lleve 16GB el caso es que cuando realmente vayas a jugar con esa tarjeta a un título que requiera dicho buffer de 12+ GB te vas a pegar de frente con un bus de 128bits que te va a limitar igualmente, es decir vale podrás cargar las texturas a máxima calidad y el trazado de rayos pero el framerate se te va a quedar muy cortito y bajarás las opciones gráficas con lo que también bajará el consumo de VRAM y al final te ha dado igual que la tarjeta tuviera dichos 16GB de VRAM... salvo contadas excepciones y otro tipo de aplicaciones claro está.

Normalmente para realmente aprovechar esos 16GB necesitarías en principio una 4080 o una remodelación (recorte) del PCB de la 4080, al igual que para sacar todo el partido a 24GB debes acudir a la 4090.

Extrañas decisiones las de Nvidia sin duda.
Una pregunta ........tengo una 2080ti. Hay alguna forma de activar el vsync de forma permanente?
No me refiero ya a los juegos, sino a Windows y las aplicaciones. El monitor es de 60hz pero no es G-sync. No se si habrá alguna manera en el panel de control de Nvidia o algo así.
¿Alguien que pueda arrojar luz sobre el asunto?
Hola, a @hh1 le paso mas o menos lo mismo que a mi, que la 4080 le salio rana y por olvidarse de historias se estiro un poco mas y de perdidos al rio. Graficote para 5 años minimo. Y lo que no rule que lo optimicen, que tenemos casi 100Teraflops de potencia, que son un porron de PS5's en Crossfire [carcajad]
Nomada_Firefox escribió:@hh1 Tampoco me habia dado cuenta que hubieras comprado una 4080. :)

Yo no creo haber comprado nunca una grafica por tener RT o DLSS. Pero si puedo usar lo primero, lo uso, es una opción como otra cualquiera.

El problema que teneis vos y muchos más, es que jugais a los juegos segun van saliendo, como si fuera un degustador de series de Netflix. Yo no hago eso, conozco más gente que tampoco lo hace. Y me parece que con ese uso vas a tragar mucha mierda. [fiu]

@Baktor Cierto que el DLDSR tiene coste, pero mucho menos que el anterior DSR. Ademas es un coste nimio. La gracia es usar resoluciones mayores en monitores que de por si no las permitirian. Y si se puede usar con el DLSS. Lo que nunca he probado es si en AMD se puede usar la super resolucion virtual con el FSR.

Hombre, eso de que el coste es "nimio".. Yo por ejemplo tengo un monitor 1440p, si pongo el DLDSR a 1.78x o 2.25x (3413x1920 o 3840x2160) el coste obviamente se nota, y bastate. Al final estas renderizando el juego a 4k.
rammestino escribió:Una pregunta ........tengo una 2080ti. Hay alguna forma de activar el vsync de forma permanente?
No me refiero ya a los juegos, sino a Windows y las aplicaciones. El monitor es de 60hz pero no es G-sync. No se si habrá alguna manera en el panel de control de Nvidia o algo así.
¿Alguien que pueda arrojar luz sobre el asunto?


En el panel de control de NVIDIA si, allí si lo activas es para todo
Baktor escribió:De lo que se habla poco es del DLAA, que básicamente es como el DLSS pero trabajando a tu resolución nativa.

Recuerdo que alguien lo comentó (en otro hilo supongo, porque en este hilo solo encuentro un mensaje de calloudiano que no habla propiamente de él) y al buscar en google me llevó a un artículo de profesionalreview que leyendo en diagonal casi que decía que no funcionaba en juegos, parecía indicar que para los que hacen streaming sí que vale y no sé qué rollos y pasé de esa tecnología.

Ahora he vuelto a buscar y a encontrar el mismo artículo pero he buscado cosas mas recientes y tiene buena pinta:

Esto del DLAA para el que quiera dedicar tiempo a probar y comparar puede estar bien.

Yo personalmente no tengo tiempo para dedicar a cosas "no oficiales" y que encima pueden dar problemas (el propio github de DLSSTweaks dice: "NOT RECOMMENDED FOR ONLINE GAMES") para una cambio de calidad que a saber hasta qué punto a simple vista y sin aplicar un zoom lo notaría.

Aunque si en algún juego en particular te sobran los fps el DLAA puede estar bien, pero con la poca compatibilidad que tiene (de momento, al menos de forma nativa), quizás es mas seguro haciéndolo con DLSS + DLDSR.
Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.

¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?
@francisco94 yo me fabricaría uno temporal aunque fuera con piezas de LEGO, la 80 y la 90 son mínimo un par de kilos largos bajo la fuerza de la gravedad en el slot PCIe.
Lince_SPAIN escribió:@francisco94 yo me fabricaría uno temporal aunque fuera con piezas de LEGO, la 80 y la 90 son mínimo un par de kilos largos bajo la fuerza de la gravedad en el slot PCIe.


Buf... no tengo nada así ahora mismo, ¿Y si a las malas dejo el ordenador tumbado?

Edit: He improvisado algo con un rollo de papel higiénico vacío, no es muy estético, pero funciona xD
Ashenbach escribió:Sería un tiro en el pie, nadie va a querer comprar una 4070 si sacas una tarjeta de gama inferior a un precio menor pero con más GB...y si la sacas más cara que la 4070, te estás cagando encima de tus clientes que han confiado en tu marca y se han comprado ya la 4070, por no hablar de la confusión en la nomenclatura que conlleva y que alejará a potenciales clientes. Dudo mucho que la 4060ti tenga más de 10 GB.


Suena estupido, pero Nvidia ya lo hizo la generacion pasada con la 3060... :-?
francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.

¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?



Puedes poner una foto para ver cómo no puedes poner el soporte de la propia ventus?viendo el soporte que viene es extraño que no lo puedas colocar. A no ser que sea una mini itx o algo.
KindapearHD escribió:
francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.

¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?



Puedes poner una foto para ver cómo no puedes poner el soporte de la propia ventus?viendo el soporte que viene es extraño que no lo puedas colocar. A no ser que sea una mini itx o algo.


Básicamente tropieza con el cable de alimentación: https://postimg.cc/sMGjjX4b
@Baktor Estoy seguro que menos que si lo hicieras con un monitor de 4k sin eso. Y no estas renderizando a 4k, esta haciendo un escalado.
He probado el RT en cyberpunk y es que se me han caído los cojones al suelo, menuda barbaridad, tanto el RT "normal" como el Path tracing y menuda maravilla, es el juego en el que mas luce en mi opinión (de los pocos que he probado), intente darle al portal RTX y por alguna razón que no entiendo me crashea, luego intentare con el quake 2 RTX

me imagino que dependerá bastante del juego, por que -por ejemplo- en el miles morales prácticamente no se nota salvo en el reflejo de los cristales y encima no todos los cristales reflejan, así que [qmparto]

Me he pillado los shaders de ray tracing de Marty McFly's y también estaré haciendo pruebas, entiendo que es una suerte de Ray Tracing simulado, pero en según que juegos, la diferencia es bastante notoria



Colegas a ver si me podéis ayudar, compre una rtx 4070 el día 4 y la recibí el 5, hoy día 9 se pone en promoción recibir código de Diablo4 con la compra de la rtx4070 en adelante. He pedido mi código en este caso a la tienda donde la compre (coolmod) espero respuesta mañana. En caso de no darme código procedo a devolución no? Volver a pillarla para que me lo den. Es un juego que pensaba comprar. Que pensáis vosotros que me dirán??
@Noliko Yo creo que te va a tocar devolverla, yo la devolveria si o si, el juego si lo vas a comprar igual van a ser 70€ de ahorro
@maikel_eol

Esta hasta sin abrir la gráfica, me pondrán algún pega? Tengo entendido que se pueden hacer devoluciones sin ninguna explicación antes de 14 días no?
@Noliko Claro la puedes devolver sin problema, ya depende de la tienda, como mucho podrian reclamar los gastos de envio.
Pues vaya, yo tenía pensado comprar la 4070 a finales de junio, y ahora se supone que van a sacar otro modelo mejor? E incluso con más ram?

Llevo esperando un año entero para cambiar y ahora.... me va a tocar esperar otros 3-4 meses para este otro modelo? Joder nvidia me tienes agotado ¬_¬
dinamita4922 escribió:
rammestino escribió:Una pregunta ........tengo una 2080ti. Hay alguna forma de activar el vsync de forma permanente?
No me refiero ya a los juegos, sino a Windows y las aplicaciones. El monitor es de 60hz pero no es G-sync. No se si habrá alguna manera en el panel de control de Nvidia o algo así.
¿Alguien que pueda arrojar luz sobre el asunto?


En el panel de control de NVIDIA si, allí si lo activas es para todo


Conviene tenerlo activado desde el oanel de control o mejor activarlo dentro de cada juego? Vosotros que pensáis??
francisco94 escribió:
KindapearHD escribió:
francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.

¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?



Puedes poner una foto para ver cómo no puedes poner el soporte de la propia ventus?viendo el soporte que viene es extraño que no lo puedas colocar. A no ser que sea una mini itx o algo.


Básicamente tropieza con el cable de alimentación: https://postimg.cc/sMGjjX4b


Pero no puedes sacar un poco más de cable y que no quede tan tenso?
Vamos, es que estoy seguro que podrías. Y te ahorras un gasto extra y el esperar hasta que te llegue. Me sorprende que desde la tienda te dijeran que no se puede. Apuesto a que hicieron el ordenado de cables y por no soltarlos para quitarle tensión al cable, te dijeron eso.
14371 respuestas