KindapearHD escribió:LorK escribió:[Alex] escribió:
Sí.
Yo ahora estoy con la integrada de un 5600G, con eso te lo digo todo.
Aunque es cierto que porque hasta septiembre no voy a tener tiempo.
Si para entonces está todo como ahora, a por una 6700XT y pista.
La que me acabo de pillar yo, ya cansado de esperar una RTX a precio decente. Y te puedo asegurar que no me arrepiento de haberla comprado.
Ahora "falla" el micro, así que próximo cambio placa, micro ram para navidades como muy tarde
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.
hh1 escribió:KindapearHD escribió:LorK escribió:
La que me acabo de pillar yo, ya cansado de esperar una RTX a precio decente. Y te puedo asegurar que no me arrepiento de haberla comprado.
Ahora "falla" el micro, así que próximo cambio placa, micro ram para navidades como muy tarde
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.
Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.
Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.
Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.
-Re4 Remake:
-Sin FG y RT roto.
-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.
Vaya vendida de moto nos meten
pakolo1977 escribió:Bueno, pues ya está la 4060ti de 16 gigas en la calle. 500 y pico o 600 por una serie 50 es demasiado caro para lo que lleva.
_anVic_ escribió:hh1 escribió:KindapearHD escribió:
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.
Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.
Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.
Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.
-Re4 Remake:
-Sin FG y RT roto.
-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.
Vaya vendida de moto nos meten
Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.
Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.
En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.
Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.
matimiri escribió:hadoken escribió:yo me pille una 4070 en amazon por 500e xq tenia cupones pero vamos super contento que vengo de una rx570 y esto es otro mundo y encima super fresquita y consume muy poco, pero si nvidia se pasa con los precios.
Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.
Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.
Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...
Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.
KindapearHD escribió:_anVic_ escribió:hh1 escribió:Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.
Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.
Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.
-Re4 Remake:
-Sin FG y RT roto.
-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.
Vaya vendida de moto nos meten
Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.
Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.
En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.
Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.
Yo tambien la tuve y coincido contigo en cuanto a drivers, por eso la devolví yo. Afinarla no lo vi diferente a una RTX de nvidia. Y en cuanto a temperaturas, la mía la verdad es que no lo era. En cuanto a rendimiento…pues es superior a la 4080 costando 200€ menos, así que para mí el rendimiento no era un problema, pero si la comparas con una que vale, como mínimo 600€ más, es normal.
FG y RT van bien en ciertos juegos, pero no debe de ser un motivo de compra de una gpu, porque habrá muchísima gente que no lo llegue a usar nunca. Lo que pasa es que Nvidia tiene el mercado de su lado, de momento.
CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.
_anVic_ escribió:CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.
Si si lo vi en un análisis de Der8auer posteriormente, pero yo me la comí con patatas. En fin la tuve solo 1 semana por cacharreo para compararla con la 4080 y la 4090.
adriano_99 escribió:pakolo1977 escribió:Bueno, pues ya está la 4060ti de 16 gigas en la calle. 500 y pico o 600 por una serie 50 es demasiado caro para lo que lleva.
Fixed xD
CuCu1982 escribió:_anVic_ escribió:CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.
Si si lo vi en un análisis de Der8auer posteriormente, pero yo me la comí con patatas. En fin la tuve solo 1 semana por cacharreo para compararla con la 4080 y la 4090.
En ese caso es normal. Eran una ruina. Es normal que tuvieras una muy mala experiencia . Hubo un compañero con una de esas en el hilo de las 7000, y no había manera de bajarlas. A mi las 4090 me encantan, pero se me iban mucho de presupuesto.
Un saludo!!!
_anVic_ escribió:hh1 escribió:KindapearHD escribió:
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.
Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.
Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.
Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.
-Re4 Remake:
-Sin FG y RT roto.
-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.
Vaya vendida de moto nos meten
Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.
Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.
En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.
Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.
elcapoprods escribió:Compraros una 4000 asi podeis jugar a la demo tecnica llamada Cyberpunk.
elcapoprods escribió:@rethen Es una demo tecnica desde el momento que la desarrolladora se centró más en meter 30 mejoras graficas en lugar de arreglar bugs y finalizar el juego, se dieron más prisa en meter estas cosas que en hacer lo otro, sumado a que es el juego por excelencia para hacer benchmark y el juego donde vende el FG.
CuCu1982 escribió:matimiri escribió:hadoken escribió:yo me pille una 4070 en amazon por 500e xq tenia cupones pero vamos super contento que vengo de una rx570 y esto es otro mundo y encima super fresquita y consume muy poco, pero si nvidia se pasa con los precios.
Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.
Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.
Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...
Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.
Eso no es cierto. Y te puedo poner capturas pasandole Furmark o lo que quieras, que con una curva máxima de ventilador al 56%... no supera los 80º en su punto más caliente. Jugando está entre 50º y 60º. De hecho subí una captura creo recordar a su hilo en cuestión .
*El test en su máxima duración, y poniéndola a tope de "power". ¿Ves que sea un horno?
**Y las memorias estaban a 52º. Cada PC es un mundo... Si tu vecino tiene un Ferrari y no esta bien cuidado o lo que sea, y te lo presta... luego no puedes pensar que todos los "Cavallinos Rampantes" sean mediocres. Y encima con la que está cayendo aquí de calor, eh. Habría que ver cómo está ventilada esa "torre" , o que tamaño tiene.
También puede que fuese una de las tarjetas afectadas, que eran hornos. Entonces si.
matimiri escribió:CuCu1982 escribió:matimiri escribió:Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.
Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.
Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...
Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.
Eso no es cierto. Y te puedo poner capturas pasandole Furmark o lo que quieras, que con una curva máxima de ventilador al 56%... no supera los 80º en su punto más caliente. Jugando está entre 50º y 60º. De hecho subí una captura creo recordar a su hilo en cuestión .
*El test en su máxima duración, y poniéndola a tope de "power". ¿Ves que sea un horno?
**Y las memorias estaban a 52º. Cada PC es un mundo... Si tu vecino tiene un Ferrari y no esta bien cuidado o lo que sea, y te lo presta... luego no puedes pensar que todos los "Cavallinos Rampantes" sean mediocres. Y encima con la que está cayendo aquí de calor, eh. Habría que ver cómo está ventilada esa "torre" , o que tamaño tiene.
También puede que fuese una de las tarjetas afectadas, que eran hornos. Entonces si.
No voy a discurtite porque nunca tuve AMD, y es solo un ejemplo de alguien que la tiene y me dijo como le iba. Pero lo que sí es cierto es que no tengo que cacharrear con la 4070ti porque jugando a 4k no me es necesario tocar nada.
Dicho esto, no niego que el precio y el rendimiento que ofrece es sublime, aquí no cuestiono esto, simplemente que ya anduve cacharreando y quería algo que no tuviese que volver a hacerlo, aquí ya la opinión es personal y se basa en la experiencia de uno, esta claro.
rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5
Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR)
albertoooooooooo escribió:rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5
Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR)
Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.
PD: La compresión de Youtube sigue siendo una mierda.
rethen escribió:albertoooooooooo escribió:rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5
Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR)
Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.
PD: La compresión de Youtube sigue siendo una mierda.
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo
No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir)
albertoooooooooo escribió:rethen escribió:albertoooooooooo escribió:
Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.
PD: La compresión de Youtube sigue siendo una mierda.
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo
No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir)
Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso
PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo puestos a inventar, podría ir a 2000 fps
rethen escribió:albertoooooooooo escribió:rethen escribió:
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo
No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir)
Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso
PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo puestos a inventar, podría ir a 2000 fps
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal
Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.
En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto
rethen escribió:albertoooooooooo escribió:rethen escribió:
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo
No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir)
Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso
PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo puestos a inventar, podría ir a 2000 fps
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal
Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.
En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto
albertoooooooooo escribió:rethen escribió:albertoooooooooo escribió:
Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso
PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo puestos a inventar, podría ir a 2000 fps
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal
Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.
En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto
Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!
rethen escribió:albertoooooooooo escribió:rethen escribió:
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal
Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.
En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto
Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!
Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT
rethen escribió:albertoooooooooo escribió:rethen escribió:
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal
Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.
En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto
Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!
Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT
_anVic_ escribió:rethen escribió:albertoooooooooo escribió:
Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!
Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT
Pero no solo porque ira a 10fps con todo a tope si llega, singo que en esencia ese panel que tiene es un auténtico ñarro, como he dicho antes, hay que priorizar primero el panel que uno se compra para disfrutar al máximo de una experiencia visual como dios manda y luego te montas el hard en torno a ese panel para sacarle el partido.
Parece que él lo hiciera o lo hizo al revés, se pillo primero una gpu tope de gama en aquel tiempo priorizando potencia gráfica ante todo y luego se pillo un monitor de saldo con un panel malo... así nunca va a poder tener buenas experiencias visuales, pero ni en cyberpunk ni en ningún otro juego, tenga o no tenga ray trcing, e independientemente de los fps o hz, los colores y contraste de ese panel de su firma son muy precarios como para poder tener una experiencia visual decente a día de hoy con los paneles que tenemos a la venta, yo en su caso no me pondría a discutir tonterías y renovaría ya mismo el monitor por algo decente.
Y luego ya si eso se retoma la discusión.
rethen escribió:_anVic_ escribió:rethen escribió:
Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT
Pero no solo porque ira a 10fps con todo a tope si llega, singo que en esencia ese panel que tiene es un auténtico ñarro, como he dicho antes, hay que priorizar primero el panel que uno se compra para disfrutar al máximo de una experiencia visual como dios manda y luego te montas el hard en torno a ese panel para sacarle el partido.
Parece que él lo hiciera o lo hizo al revés, se pillo primero una gpu tope de gama en aquel tiempo priorizando potencia gráfica ante todo y luego se pillo un monitor de saldo con un panel malo... así nunca va a poder tener buenas experiencias visuales, pero ni en cyberpunk ni en ningún otro juego, tenga o no tenga ray trcing, e independientemente de los fps o hz, los colores y contraste de ese panel de su firma son muy precarios como para poder tener una experiencia visual decente a día de hoy con los paneles que tenemos a la venta, yo en su caso no me pondría a discutir tonterías y renovaría ya mismo el monitor por algo decente.
Y luego ya si eso se retoma la discusión.
Ya, es que lo mejor es que venía diciendo que RT no vale nada y que él lo habría probado en condiciones con su 2080Ti, cuando con eso te da para Quake II RTX
elcapoprods escribió:Compraros una 4000 asi podeis jugar a la demo tecnica llamada Cyberpunk.
rethen escribió:Si no estás interesado en RT, VR o DLSS3 ahora mismo las AMD pintan mejor en calidad precio, pero el problema es que como quieras una de esas tres... te toca pasar por Nvidia sí o sí
Ojalá se acercaran más, aunque mucho me temo que la estrategia de AMD ahora mismo es pagar para que los juegos solo salgan con FSR, y eso no mola nada de nada (ok si haces tu FSR exclusivo, pero pagar para que no implementen una solución para jugadores de otras tarjetas... pues no va a sentar bien a nadie, lo haga AMD, Nvidia, Intel o quien sea)
matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.
matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.
matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.
Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".
Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.
Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".
Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.
hh1 escribió:matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.
Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".
Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.
@rethen
Si no digo que no.
Pero tuve el pc enganchando a un LG C7 55" 4k, cambiaba entre 1440p y 4k en varios juegos ,y en algunos no notaba absolutamente diferencia ,y en otros ,poca.
Desde luego nada que me hace pasarme al 4K.
Y no era por distancia ,porque pegaba la cara y todo a posta para poder ver diferencias, y que no.
O no las veía ,o si las veía en algún juego, eran mínimas.
Lo mismo en 75" o algo así lo noto más.
Pero en un monitor de por ejemplo, 32"?
Yo no tendría 4K porque yo no voy a notar diferencia.
rethen escribió:hh1 escribió:matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.
Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".
Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.
@rethen
Si no digo que no.
Pero tuve el pc enganchando a un LG C7 55" 4k, cambiaba entre 1440p y 4k en varios juegos ,y en algunos no notaba absolutamente diferencia ,y en otros ,poca.
Desde luego nada que me hace pasarme al 4K.
Y no era por distancia ,porque pegaba la cara y todo a posta para poder ver diferencias, y que no.
O no las veía ,o si las veía en algún juego, eran mínimas.
Lo mismo en 75" o algo así lo noto más.
Pero en un monitor de por ejemplo, 32"?
Yo no tendría 4K porque yo no voy a notar diferencia.
A ver, no hay que irse siquiera a juegos... en el propio texto se nota la diferencia entre 1440p y 4K, de nuevo según tamaño de monitor y distancia. A 50cm que estoy de mi monitor, los 1440p se me quedan cortos para 34" (ultrawide) y notaría la subida a 4K (sobre todo para currar)
A los 3m que estoy de mi TV de 65", apenas noto diferencia entre 1440p y 4K, pero sí que la noto si me acerco a 2.5m (para otros será a 2m de distancia, algunos la notarán incluso a 3.5m).
Pero vamos, que cada uno juegue como quiera