BennBeckman escribió:Parece que empieza a sonar la 4090 ti.
Deseando estoy ver el precio
parh escribió:@BennBeckman yo apuesto por unos 2300 USD de precio recomendado en USA
parh escribió:_revan_ escribió:Gente una pregunta
Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?
Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay
Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?
Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos
Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla
En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.
hh1 escribió:parh escribió:_revan_ escribió:Gente una pregunta
Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?
Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay
Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?
Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos
Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla
En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.
Mu bonito en CP 2077 pero el juego es una jodida castaña .
Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.
No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...
Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.
Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos
Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.
Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.
Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.
Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.
Menudo marketing han metido ahí.
@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.
Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.
hh1 escribió:parh escribió:_revan_ escribió:Gente una pregunta
Al final con mi nueva 4090, he estado probando algunos juegos con el trazado de rayos (una tecnología que hasta el momento me había perdido por seguir en la gama GTX) y...¿no es para tanto no?
Tampoco he probado en tantos juegos, pero en los pocos que he probado, pues siento que ni siquiera se nota, de momento en The witcher 3 y Miles Morales, de hecho en este último, lo he terminado quitando por qué sentía que no aportaba absolutamente nada cuando estás en pleno gameplay
Había leído comentarios mixtos respecto a esto, gente que dice que es un completo timo y otros que dicen que es una tremenda evolución, ¿Ustedes que opinan?
Igual tengo que probar más juegos para hacerme una opinión, aún tengo pendiente probar cyberpunk, portal, quake 2 rtx y algún juego más, según entiendo, hay juegos donde si se nota y es un cambio drástico y otros dónde apenas se aprecia, también me gustaría probar los mods que añaden trazado de rayos (los cuales son de pago) y he visto cambios muy bestia en algunos juegos
Por cierto, el rendimiento es una puta maravilla, le estoy dando con todo y mantiene 60 frames como rocas en 4k y ni sé inmuta, menuda maravilla
En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.
Mu bonito en CP 2077 pero el juego es una jodida castaña .
Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.
No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...
Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.
Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos
Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.
Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.
Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.
Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.
Menudo marketing han metido ahí.
@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.
Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.
rankatana escribió:buenas
alguna opinión sobre esta grafica para sustituir mi 2080 super
https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3
si alguien me puede decir algo de PNY, experiencias y tal
gracias
_anVic_ escribió:hh1 escribió:parh escribió:
En the witcher 3 se nota mucho, mira comparativas en youtube. Miles Morales, al ser un juego de consolas, no te esperes mucho mas alla de los reflejos chulos. Cuando pongas cp2077 vas a flipar.
Mu bonito en CP 2077 pero el juego es una jodida castaña .
Yo cada vez tengo más claro que lo del RT es una estafa .Y llevo poniendo RT y teniendo gráfica con RTX desde la salida de la 3070.
No sé...no paro de leer que si RT iesto y lo otro Que si en tal juego nosequé y nosecuabtos...
Me juego el Atomic Heart ,que decían que iba a llevar RT y aún lo estoy esperando.
Resulta que un buen RT es en CP 2077,que es un bochorno de juego abrumador ,con una IA lamentable de NPCs y una ciudad que parece mucho y luego es un mierdolo.
No he visto juego más sobrevalorado en mi vida.Y eso que ni hablo de los bugs ,que es casi lo de menos
Resulta que en The Witcher 3 ,por fin un juego bueno lo lleva de la hostia ,y se come todo el rendimiento de la GPU...encima ,chorrociebtis años después de su salida.
Y otros juegos ,sacan RT y ni se nota comiéndose el rendimiento
Otros tantos salen con RT roto que da craseheos o lo hacen injugable.
Lo del RT es lamentable.
A mí no me venden ya una gráfica por el RT ,eso lo tengo claro.
Si para otra gen AMD me saca una gráfica rindiendo similar o más que una Nvidia pero es peor en RT ,a un precio similar o menor, le pueden dar por culete a Nvidia y su RT.
Menudo marketing han metido ahí.
@KindapearHD
Es que es tal cual.No vale ni para tomar por culo el RT.
Yo estoy bastante cansado de leer bondades del RT y que si este juego y el de más alláslo llevará...y luego, la realidad ,es que no lo llevan ,o no se nota ,o funciona mal o se come todo el rendimiento.
En el TW3, el cual implementa un hdr cojonudo que soporta el system level calibration del SO, con RT al máximo ( y no usa path tracing como Cyberpunk) ya se nota bastante.
Imágenes en SDR ( con hdr más rt es aún mejor )
RT on
RT off
RT on
RT off
RT on
RT off
RT on
RT off
RT on
RT off
Te podrá gustar más o menos el Ray tracing pero decir que no se nota opino que es un error.
yosu888 escribió:@hh1 me da a mí que tienes un problema de visión compañero, y de configuración en tu pc, pk a mi los juegos no me crashean ni una vez.
El RT se ve que flipas, es una tecnología muy top.
Nomada_Firefox escribió:¿Sera verdad esto? https://videocardz.com/newz/nvidia-to-l ... d-for-july
Las 4070 van a quedar muy perjudicadas si sale un modelo de esta grafica con 16GB. Aunque lo peor puede ser el precio.
@eric_14 Me parece que depende mucho de la resolución. A más subes, más traga el RT.
BennBeckman escribió:Parece que empieza a sonar la 4090 ti.
Deseando estoy ver el precio
Nomada_Firefox escribió:
DLSS, depende del juego pero sobretodo de la calidad que uses. A más rendimiento quieras, peor es.
parh escribió:nividia se ha visto obligada a improvisar este movimiento, sabe que AMD poniendo 16gb en su gama media los barre del mapa. Lo que no se entiendo es la lentitud de AMD a lanzar dichas graficas
Nomada_Firefox escribió:parh escribió:nividia se ha visto obligada a improvisar este movimiento, sabe que AMD poniendo 16gb en su gama media los barre del mapa. Lo que no se entiendo es la lentitud de AMD a lanzar dichas graficas
Simplemente liquidar stock de algo que se sigue vendiendo bien. Mucha gente ha comprado 6700XT/6800/XT/6900XT/6950XT. Cada dia aparece más gente por estos lares con esas graficas.
El DLSS en modo calidad esta bien, la ganancia es buena. Y sí es cierto aplica un antialising por defecto muy bueno. No es la unica caracteristica que hace eso de Nvidia, el DSR que ahora llaman quizas DLDSR tambien mete un antialising buenisimo con cero coste.
Pero se sigue viendo peor que el original, es un hecho consumado.
Nomada_Firefox escribió:¿Sera verdad esto? https://videocardz.com/newz/nvidia-to-l ... d-for-july
Las 4070 van a quedar muy perjudicadas si sale un modelo de esta grafica con 16GB. Aunque lo peor puede ser el precio.
@eric_14 Me parece que depende mucho de la resolución. A más subes, más traga el RT.
@hh1 No sabia que habias comprado una 4090 ¿te entro en la torre bien?¿y la fuente?
A mi por usar RT no me hacen aguas los juegos. Pero ya lo digo, a más resolución peor. Tambien repito lo que he dicho muchas veces, solo se nota mucho en el agua cuando llueve, en los reflejos de charcos. En todo lo demas es dificil verlo muchas veces. En juegos con motores de Unreal, es de lo más complicado, a mi me cuesta ver la diferencia, ni con agua.
DLSS, depende del juego pero sobretodo de la calidad que uses. A más rendimiento quieras, peor es.
Nomada_Firefox escribió:@hh1 Tampoco me habia dado cuenta que hubieras comprado una 4080.
Yo no creo haber comprado nunca una grafica por tener RT o DLSS. Pero si puedo usar lo primero, lo uso, es una opción como otra cualquiera.
El problema que teneis vos y muchos más, es que jugais a los juegos segun van saliendo, como si fuera un degustador de series de Netflix. Yo no hago eso, conozco más gente que tampoco lo hace. Y me parece que con ese uso vas a tragar mucha mierda.
@Baktor Cierto que el DLDSR tiene coste, pero mucho menos que el anterior DSR. Ademas es un coste nimio. La gracia es usar resoluciones mayores en monitores que de por si no las permitirian. Y si se puede usar con el DLSS. Lo que nunca he probado es si en AMD se puede usar la super resolucion virtual con el FSR.
Ashenbach escribió:Sería un tiro en el pie, nadie va a querer comprar una 4070 si sacas una tarjeta de gama inferior a un precio menor pero con más GB...y si la sacas más cara que la 4070, te estás cagando encima de tus clientes que han confiado en tu marca y se han comprado ya la 4070, por no hablar de la confusión en la nomenclatura que conlleva y que alejará a potenciales clientes. Dudo mucho que la 4060ti tenga más de 10 GB.
Nomada_Firefox escribió:@hh1 Tampoco me habia dado cuenta que hubieras comprado una 4080.
Yo no creo haber comprado nunca una grafica por tener RT o DLSS. Pero si puedo usar lo primero, lo uso, es una opción como otra cualquiera.
El problema que teneis vos y muchos más, es que jugais a los juegos segun van saliendo, como si fuera un degustador de series de Netflix. Yo no hago eso, conozco más gente que tampoco lo hace. Y me parece que con ese uso vas a tragar mucha mierda.
@Baktor Cierto que el DLDSR tiene coste, pero mucho menos que el anterior DSR. Ademas es un coste nimio. La gracia es usar resoluciones mayores en monitores que de por si no las permitirian. Y si se puede usar con el DLSS. Lo que nunca he probado es si en AMD se puede usar la super resolucion virtual con el FSR.
rammestino escribió:Una pregunta ........tengo una 2080ti. Hay alguna forma de activar el vsync de forma permanente?
No me refiero ya a los juegos, sino a Windows y las aplicaciones. El monitor es de 60hz pero no es G-sync. No se si habrá alguna manera en el panel de control de Nvidia o algo así.
¿Alguien que pueda arrojar luz sobre el asunto?
Baktor escribió:De lo que se habla poco es del DLAA, que básicamente es como el DLSS pero trabajando a tu resolución nativa.
Lince_SPAIN escribió:@francisco94 yo me fabricaría uno temporal aunque fuera con piezas de LEGO, la 80 y la 90 son mínimo un par de kilos largos bajo la fuerza de la gravedad en el slot PCIe.
Ashenbach escribió:Sería un tiro en el pie, nadie va a querer comprar una 4070 si sacas una tarjeta de gama inferior a un precio menor pero con más GB...y si la sacas más cara que la 4070, te estás cagando encima de tus clientes que han confiado en tu marca y se han comprado ya la 4070, por no hablar de la confusión en la nomenclatura que conlleva y que alejará a potenciales clientes. Dudo mucho que la 4060ti tenga más de 10 GB.
francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.
¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?
KindapearHD escribió:francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.
¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?
Puedes poner una foto para ver cómo no puedes poner el soporte de la propia ventus?viendo el soporte que viene es extraño que no lo puedas colocar. A no ser que sea una mini itx o algo.
dinamita4922 escribió:rammestino escribió:Una pregunta ........tengo una 2080ti. Hay alguna forma de activar el vsync de forma permanente?
No me refiero ya a los juegos, sino a Windows y las aplicaciones. El monitor es de 60hz pero no es G-sync. No se si habrá alguna manera en el panel de control de Nvidia o algo así.
¿Alguien que pueda arrojar luz sobre el asunto?
En el panel de control de NVIDIA si, allí si lo activas es para todo
francisco94 escribió:KindapearHD escribió:francisco94 escribió:Buenas tardes, acabo de pedir por aliexpress un soporte para la MSI RTX 4080 Ventus 3X OC. Ya que el soporte que viene con la gráfica no lo puedo poner porque tropieza con el cable de alimentación de la gráfica.
¿Pasará algo por que esté una o dos semanas la gráfica sin soporte mientras me llega a casa?
Puedes poner una foto para ver cómo no puedes poner el soporte de la propia ventus?viendo el soporte que viene es extraño que no lo puedas colocar. A no ser que sea una mini itx o algo.
Básicamente tropieza con el cable de alimentación: https://postimg.cc/sMGjjX4b