[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

KindapearHD escribió:
LorK escribió:
[Alex] escribió:
Sí.

Yo ahora estoy con la integrada de un 5600G, con eso te lo digo todo.

Aunque es cierto que porque hasta septiembre no voy a tener tiempo.

Si para entonces está todo como ahora, a por una 6700XT y pista.


La que me acabo de pillar yo, ya cansado de esperar una RTX a precio decente. Y te puedo asegurar que no me arrepiento de haberla comprado.

Ahora "falla" el micro, así que próximo cambio placa, micro ram para navidades como muy tarde :P


Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.

Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.

Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.

Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.

-Re4 Remake:
-Sin FG y RT roto.

-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.

Vaya vendida de moto nos meten
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
KindapearHD escribió:
LorK escribió:
La que me acabo de pillar yo, ya cansado de esperar una RTX a precio decente. Y te puedo asegurar que no me arrepiento de haberla comprado.

Ahora "falla" el micro, así que próximo cambio placa, micro ram para navidades como muy tarde :P


Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.

Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.

Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.

Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.

-Re4 Remake:
-Sin FG y RT roto.

-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.

Vaya vendida de moto nos meten


Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.

Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.

En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.

Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.
Bueno, pues ya está la 4060ti de 16 gigas en la calle. 500 y pico o 600 por una serie 60 es demasiado caro para lo que lleva.

Reviews que yo sepa solamente he visto la de Torotocho y estoy de acuerdo con lo que dice. Esta generación me parece que va a pasar con más pena que gloria a la historia de la chinojuancompany. Hay demasiado contraste entre las dos gráficas de la parte de arriba y el resto, aunque después se defiendan más o menos todas ellas con los juegos que hay en la calle. Sea como sea, esto deja a las ampere en buena posición y están envejeciendo muy bien viendo como se han desarrollado las de ahora. Con respecto a las Turing estoy seguro de que cualquiera de ellas también todavía puede defenderse si uno no quiere jugar a resoluciones más altas del 1080p. Al menos un par de años más todavía supongo que podrán servir para jugar sin demasiado problema.

Tiene toda la pinta de que sacarán unas super para finales de año o primeros del año que viene y si el chino juan está copiando a apple para algunas cosas y a xiaomi para otras, con tantos modelos diferentes en la calle, eso lo que hará será que haya todavía más lío para la gente a la hora de renovar equipos o cambiar la gráfica.

Lo que yo no tengo tan claro es si vendiendo los chips de memoria tan carísimos es la misma Nvidia la que se beneficia de eso, puede que en realidad lo que esté pasando sea que los que fabrican las gráficas y las comercializan gracias a eso sacan el beneficio suficiente como para seguir en el negocio. Todo ello con el beneplácito y a pesar de las exigencias que imponen los del chino juan para seguir enviando sus chips a quienes terminan fabricando.

Estos días tengo que cuidar de mis padres, sobre todo mi padre está bastante pachucho y hay que estar alrededor de él todo el día. No tengo absolutamente nada de tiempo para jugar, pero al menos los ratillos que me dejan mantengo viva la llama con lo poco que hay en youtube y articulillos por aquí y por allá. Los que podéis disfrutad de la vida y los juegos, hasta por los que no podemos.
pakolo1977 escribió:Bueno, pues ya está la 4060ti de 16 gigas en la calle. 500 y pico o 600 por una serie 50 es demasiado caro para lo que lleva.


Fixed xD
@pakolo1977 pues si sacan las super es que no se acaban de enterar… a menos rebajen con ellas el precio que es el problema no el rendimiento.
_anVic_ escribió:
hh1 escribió:
KindapearHD escribió:
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.

Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.

Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.

Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.

-Re4 Remake:
-Sin FG y RT roto.

-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.

Vaya vendida de moto nos meten


Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.

Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.

En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.

Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.


Yo tambien la tuve y coincido contigo en cuanto a drivers, por eso la devolví yo. Afinarla no lo vi diferente a una RTX de nvidia. Y en cuanto a temperaturas, la mía la verdad es que no lo era. En cuanto a rendimiento…pues es superior a la 4080 costando 200€ menos, así que para mí el rendimiento no era un problema, pero si la comparas con una que vale, como mínimo 600€ más, es normal.


FG y RT van bien en ciertos juegos, pero no debe de ser un motivo de compra de una gpu, porque habrá muchísima gente que no lo llegue a usar nunca. Lo que pasa es que Nvidia tiene el mercado de su lado, de momento.
matimiri escribió:
hadoken escribió:yo me pille una 4070 en amazon por 500e xq tenia cupones pero vamos super contento que vengo de una rx570 y esto es otro mundo y encima super fresquita y consume muy poco, pero si nvidia se pasa con los precios.

Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.

Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.

Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...

Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.

Eso no es habitual. Y te puedo poner capturas pasandole Furmark o lo que quieras, que con una curva máxima de ventilador al 56%... no supera los 80º en su punto más caliente. Jugando está entre 50º y 60º. De hecho subí una captura creo recordar a su hilo en cuestión [oki] .

*El test en su máxima duración, y poniéndola a tope de "power". ¿Ves que sea un horno? [oki]

Imagen

**Y las memorias estaban a 52º. Cada PC es un mundo... Si tu vecino tiene un Ferrari y no esta bien cuidado o lo que sea, y te lo presta... luego no puedes pensar que todos los "Cavallinos Rampantes" sean mediocres. Y encima con la que está cayendo aquí de calor, eh. Habría que ver cómo está ventilada esa "torre" , o que tamaño tiene.

También puede que fuese una de las tarjetas afectadas, que eran hornos. Entonces si.
_anVic_ está baneado por "clon de usuario baneado"
KindapearHD escribió:
_anVic_ escribió:
hh1 escribió:Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.

Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.

Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.

-Re4 Remake:
-Sin FG y RT roto.

-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.

Vaya vendida de moto nos meten


Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.

Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.

En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.

Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.


Yo tambien la tuve y coincido contigo en cuanto a drivers, por eso la devolví yo. Afinarla no lo vi diferente a una RTX de nvidia. Y en cuanto a temperaturas, la mía la verdad es que no lo era. En cuanto a rendimiento…pues es superior a la 4080 costando 200€ menos, así que para mí el rendimiento no era un problema, pero si la comparas con una que vale, como mínimo 600€ más, es normal.


FG y RT van bien en ciertos juegos, pero no debe de ser un motivo de compra de una gpu, porque habrá muchísima gente que no lo llegue a usar nunca. Lo que pasa es que Nvidia tiene el mercado de su lado, de momento.


Debiste tener un ensamble custom porque el modelo de referencia no hay por donde cogerlo ( que es el que yo probé ) en cambio puedes pillarte una 4090 FE de referencia que va rendir igual o mejor que algunos ensambles customs en todos los sentidos, temperaturas incluidas, no siendo así en el modelo de la 7900xtx.

Imagen


Respecto al rendimiento medio a 4k en 60 juegos la media es del 1% para la 7900xtx quitando de la ecuación RT y FG si lo metemos sale perdiendo por goleada además de ser mucho menos eficiente y mas calentorra.

Sobre precios, se pueden encontrar 4080 a día de hoy por debajo de los 1200 sin problema , recortando las diferencias por debajo de 200€ .

Hacer undervolt/overclock bien afinado a un modelo de referencia en la 7900xtx al menos con los drivers que había cuando yo la tuve y lo capada que iba era una odisea. No se como será en una custom y con los drivers actuales a día de hoy.
@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.
_anVic_ está baneado por "clon de usuario baneado"
CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.



Si si lo vi en un análisis de Der8auer posteriormente, pero yo me la comí con patatas. En fin la tuve solo 1 semana por cacharreo para compararla con la 4080 y la 4090.
_anVic_ escribió:
CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.



Si si lo vi en un análisis de Der8auer posteriormente, pero yo me la comí con patatas. En fin la tuve solo 1 semana por cacharreo para compararla con la 4080 y la 4090.

En ese caso es normal. Eran una ruina. Es normal que tuvieras una muy mala experiencia :( . Hubo un compañero con una de esas en el hilo de las 7000, y no había manera de bajarlas. A mi las 4090 me encantan, pero se me iban mucho de presupuesto.


Un saludo!!!
adriano_99 escribió:
pakolo1977 escribió:Bueno, pues ya está la 4060ti de 16 gigas en la calle. 500 y pico o 600 por una serie 50 es demasiado caro para lo que lleva.


Fixed xD


Hombre, las venden como 60 aunque nadie esté de acuerdo. Efectivamente algunas specs son de gama baja como el ancho de banda del bus de memoria aunque no ocurre así en la totalidad del producto.

Si una serie 50 sin ningún lugar a dudas estuviera vendiéndose a estos precios, entonces lo mejor es directamente no comprar y que arda la chinojuancompany.

Después los hechos hablarán por si mismos, van a venderse muy poco y muy mal tal y como están planteadas ahora mismo. Seguro que con una rebaja de 100 o 150 euros todavía seguiría estando mal y en realidad debieran venderse a menos de la mitad de lo que se venden. Al final es lo de siempre, más allá del valor que tengan, ellos le ponen un precio y si hay alguien que esté dispuesto a pagar ese precio, la transacción se realiza. Quizás sea por eso la mención de Torotocho en su review a que innecesariamente están sacando demasiados modelos de gráficas, para así liar al personal y que haya gente que las compre por despiste pensando que son mejores de lo que son.

Los caminos del señor que inventó el marketín son inescrutables.
_anVic_ está baneado por "clon de usuario baneado"
CuCu1982 escribió:
_anVic_ escribió:
CuCu1982 escribió:@_anVic_ Yo añado más... hubo problemas de temperaturas en los modelos de referencia ( lo admitió AMD) que tuvieron que cambiar. Eran tarjetas que se ponían a 100º o más... Pero era por un fallo de los enfriadores ( aunque intentaron "colarlas") al final las descambiaron. Creo que te tocó una de esas tarjetas. Esas no había manera de bajarles la temperaturas de ningún modo. Ni con UV ni con curva de ventiladores agresivas.



Si si lo vi en un análisis de Der8auer posteriormente, pero yo me la comí con patatas. En fin la tuve solo 1 semana por cacharreo para compararla con la 4080 y la 4090.

En ese caso es normal. Eran una ruina. Es normal que tuvieras una muy mala experiencia :( . Hubo un compañero con una de esas en el hilo de las 7000, y no había manera de bajarlas. A mi las 4090 me encantan, pero se me iban mucho de presupuesto.


Un saludo!!!



Pues me quede con las ganas de ver donde llegaba con overclock, pero como estaba ultra capada y tenia pésimas temps no puede ver el margen de mejora.

Ya que tu modelo parece ser custom y tienes las temps controladas, podrías pasar algun bench sintético ( o de algún juego ) como superposition a 1080p extreme, 4k optimized o el port royal, time spy extreme o alguno similar a tope de oc a ver si se acerca a una 4090 de serie?
_anVic_ escribió:
hh1 escribió:
KindapearHD escribió:
Aquí otro que se ha pasado a amd, con la 6950 XT. No me arrepiento lo más mínimo. Cansado de pagar los pastizales que pide Nvidia. Ya me he plantado.

Yo tengo muy claro, que si ahora tuviese que comprar grafica, me iba a la 7900XTX.

Que estoy encantado con la 4090 y ya no la canbiaría, pero con los precios actuales , no veo esa diferencia de 600€ justificada para nada.
Mucho menos con la vendida de humo del RT y que el FG está en "4 juegos " contados.

Mis últimos juegos :
-Dead Space Remake:
Sin FG y con RT casi imperceptible.

-Re4 Remake:
-Sin FG y RT roto.

-Aliens: Dark descent:
Sin RT ,sin FG y sin DLSS.

Vaya vendida de moto nos meten


Puedes pillarte la 7900xtx y probarla 30 días para tener una opinión más objetiva vs la 4090.

Yo la tuve por cacharreo y ni lo he mencionado en el foro. Rendimiento paupérrimo, calentorra y tragona a más no poder para los fps que escupe. Por no hablar de los drivers o el afinarla como toca que es casi una odisea comparado con la 4090 que lo hice en 5 minutos.

En fin creo que antes de opinar tan a la ligera hay que probar las cosas uno mismo para tener un criterio más acertado y riguroso.

Sobre FG y RT sería un tema para debatir porque también hay juegos donde si va estupendamente bien y tampoco los citas. Puedes ser que ni los hayas probado.

Obvio que hay otros juegos donde FG y RT van bien,pero no son tantos.
Y yo hablo de lo que yo juego,el resto me da igual.

Que una 7900xtx es peor gráfica que la 4090 por todos lados ,es algo que ya sé.No me hace falta ni probarla para eso
El tema es que yo tengo muchas dudas de que haya 600€ de diferencia real entre ambas a día de hoy.

Cuando salieron estaban muy mal de temperaturas.Era un fallo endémico.
@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5



Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR) [beer]
***
Editado por quimico2008. Razón: Flame
elcapoprods escribió:Compraros una 4000 asi podeis jugar a la demo tecnica llamada Cyberpunk.


Yo en concreto me la compré para jugar a juegos de UnrealVR, pero Cyberpunk no me parece para nada una demo técnica, y creo que a muchos otros usuarios tampoco

Imagen

Imagen

Otra cosa es que lo que salió inicialmente estuviera plagado de bugs y cosas así, pero ahora mismo está en un estado bastante bueno y se nota. Vaya si se nota [beer]
Si te basas en las estadísticas de steam probablemente la mayoría lo ha jugado sin RT.
@rethen Es una demo tecnica desde el momento que la desarrolladora se centró más en meter 30 mejoras graficas en lugar de arreglar bugs y finalizar el juego, se dieron más prisa en meter estas cosas que en hacer lo otro, sumado a que es el juego por excelencia para hacer benchmark y el juego donde vende el FG.
elcapoprods escribió:@rethen Es una demo tecnica desde el momento que la desarrolladora se centró más en meter 30 mejoras graficas en lugar de arreglar bugs y finalizar el juego, se dieron más prisa en meter estas cosas que en hacer lo otro, sumado a que es el juego por excelencia para hacer benchmark y el juego donde vende el FG.


Si fuera así no tendría esas opiniones positivas. Yo creo que ha dado una vuelta bastante fuerte, probablemente acercándose a la altura del cambio de No Man Sky. Está claro que para ello han metido esfuerzo, y no solo en mejorar gráficamente el juego.

Si lo que dices fuera cierto creo que tampoco vendría una expansión (que también habrá que ver cómo sale claro)

Pero vamos, tienes razón en que he usado el juego como ejemplo de RT extremo, que el compañero decía que una 4090 no puede con 4K 60fps RT, y claramente puede a poco que metas DLSS2 Calidad o incluso más de 100fps si vas a DLSS3 [sonrisa]
CuCu1982 escribió:
matimiri escribió:
hadoken escribió:yo me pille una 4070 en amazon por 500e xq tenia cupones pero vamos super contento que vengo de una rx570 y esto es otro mundo y encima super fresquita y consume muy poco, pero si nvidia se pasa con los precios.

Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.

Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.

Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...

Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.

Eso no es cierto. Y te puedo poner capturas pasandole Furmark o lo que quieras, que con una curva máxima de ventilador al 56%... no supera los 80º en su punto más caliente. Jugando está entre 50º y 60º. De hecho subí una captura creo recordar a su hilo en cuestión [oki] .

*El test en su máxima duración, y poniéndola a tope de "power". ¿Ves que sea un horno? [oki]

Imagen

**Y las memorias estaban a 52º. Cada PC es un mundo... Si tu vecino tiene un Ferrari y no esta bien cuidado o lo que sea, y te lo presta... luego no puedes pensar que todos los "Cavallinos Rampantes" sean mediocres. Y encima con la que está cayendo aquí de calor, eh. Habría que ver cómo está ventilada esa "torre" , o que tamaño tiene.

También puede que fuese una de las tarjetas afectadas, que eran hornos. Entonces si.

No voy a discurtite porque nunca tuve AMD, y es solo un ejemplo de alguien que la tiene y me dijo como le iba. Pero lo que sí es cierto es que no tengo que cacharrear con la 4070ti porque jugando a 4k no me es necesario tocar nada.

Dicho esto, no niego que el precio y el rendimiento que ofrece es sublime, aquí no cuestiono esto, simplemente que ya anduve cacharreando y quería algo que no tuviese que volver a hacerlo, aquí ya la opinión es personal y se basa en la experiencia de uno, esta claro.
matimiri escribió:
CuCu1982 escribió:
matimiri escribió:Yo cambié mi 3080 por la 4070ti Aero de Gigabyte y no puedo estar mas contento. Súper fresca a tal punto que ni se oye.

Lo que más me ha gustado es el tema de que no es necesario undervolt ni mierdas, si me dices una 4080 para arriba y jugando a 4k vale, pero en esta es innecesario.

Y por cierto, puedo jugar tranquilamente a 4k (vale que el dlss hace maravillas) pero de pasar a 78º con mi 3080 a a penas pasar los 60º con ésta...

Otra cuestión...estaba dudando entre esta y la 7900xtx, pero un colega la tiene y dice que es un horno, y viniendo de una gráfica que ademas del ruido de los ventiladores, el tener que trastear para tener un consumo y temperaturas óptimas, preferí pasar por el aro con Nvidia a tener que padecer lo mismo de antes y alli sinceramente por más vram que tengan las AMD, el cambio no me compensaba en absoluto.

Eso no es cierto. Y te puedo poner capturas pasandole Furmark o lo que quieras, que con una curva máxima de ventilador al 56%... no supera los 80º en su punto más caliente. Jugando está entre 50º y 60º. De hecho subí una captura creo recordar a su hilo en cuestión [oki] .

*El test en su máxima duración, y poniéndola a tope de "power". ¿Ves que sea un horno? [oki]

Imagen

**Y las memorias estaban a 52º. Cada PC es un mundo... Si tu vecino tiene un Ferrari y no esta bien cuidado o lo que sea, y te lo presta... luego no puedes pensar que todos los "Cavallinos Rampantes" sean mediocres. Y encima con la que está cayendo aquí de calor, eh. Habría que ver cómo está ventilada esa "torre" , o que tamaño tiene.

También puede que fuese una de las tarjetas afectadas, que eran hornos. Entonces si.

No voy a discurtite porque nunca tuve AMD, y es solo un ejemplo de alguien que la tiene y me dijo como le iba. Pero lo que sí es cierto es que no tengo que cacharrear con la 4070ti porque jugando a 4k no me es necesario tocar nada.

Dicho esto, no niego que el precio y el rendimiento que ofrece es sublime, aquí no cuestiono esto, simplemente que ya anduve cacharreando y quería algo que no tuviese que volver a hacerlo, aquí ya la opinión es personal y se basa en la experiencia de uno, esta claro.

No hay problema. Todo bien contigo :) . Posiblemente fuese una unidad defectuosa... hubo casos. De Power Color, la Red Devil... y de los modelos de referencia también. Más que "No es cierto" quise decir " No es habitual". No hay que ser tan tajante. Perdón [oki] .
@CuCu1982 Faltaría más compañero, aquí todo lo que se aporte es beneficioso para quien esté pensando en una u otra, personalmente creo que todas las opiniones son muy válidas porque van fundamentadas con experiencias propias y no pensamientos o fumadas que vemos o leemos por ahí.

Saludo!!!.
Pues ya no se que pensar porque por poco mas de 400 euros tienes una 3070...
Si no estás interesado en RT, VR o DLSS3 ahora mismo las AMD pintan mejor en calidad precio, pero el problema es que como quieras una de esas tres... te toca pasar por Nvidia sí o sí [decaio]

Ojalá se acercaran más, aunque mucho me temo que la estrategia de AMD ahora mismo es pagar para que los juegos solo salgan con FSR, y eso no mola nada de nada (ok si haces tu FSR exclusivo, pero pagar para que no implementen una solución para jugadores de otras tarjetas... pues no va a sentar bien a nadie, lo haga AMD, Nvidia, Intel o quien sea)
rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5



Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR) [beer]


Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.

PD: La compresión de Youtube sigue siendo una mierda.
albertoooooooooo escribió:
rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5



Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR) [beer]


Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.

PD: La compresión de Youtube sigue siendo una mierda.


Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo [beer]

No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir) [+risas]
rethen escribió:
albertoooooooooo escribió:
rethen escribió:@albertoooooooooo te cito por aquí porque no puedo dejar el vídeo en la sección de PS5



Como sé que no te van los vídeos, cuando quieras te pasas por mi casa y te enseño cómo va con DLSS quality y DLSS 3 y nativo sin RT me dices si crees que merece la pena dejar RT o no (y de paso también lo ves en VR) [beer]


Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.

PD: La compresión de Youtube sigue siendo una mierda.


Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo [beer]

No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir) [+risas]


Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución XD tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso

PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo XD puestos a inventar, podría ir a 2000 fps
_anVic_ está baneado por "clon de usuario baneado"
La 2080ti es equivalente a una 3070 más o menos y con esa grafica no puedes disfrutar en absoluto del cyberpunk con path tracing que es donde realmente se nota la diferencia visual vs el ray tracing que tenia antes del parche.

Básicamente porque no lo puede mover decentemente esa gráfica ni a 1080p con dlss a todo trapo.
Si has de basar tu experiencia visual por tu "limitadita" 2080ti ( a día de hoy ) en un juego tan demandante usando el monitor de tu firma en un juego como es cyberpunk 2077 con RT overdrive, estas apañado compañero... normal que pienses que es una mierda y lo compares a una play 5 [+risas]

Yo tengo un a 4090 para jugar en una oled de 48" 4k a 120hz y el cambio es muy significativo visualmente en este juego, ya no comparado con tu panel 1440p movido por una 2080ti, pero es que con RT en demencial vs RT overdrive ya hay una diferencia muy notable.

Aun poniendo esas calidades en mi monitor secundario de 900 plomos, que vale casi el triple que el tuyo, se ve como el ojete por mucho rt overdrive que pongas si lo comparo a la oled .

Lo mas importante es el panel y luego selecciona uno el hardware para mover dicho panel.

En tu caso parece que pillaste una gpu tope de gama en su día con un monitor de mierda, lo que se traducirá en una experiencia visual nefasta a toda luces.
albertoooooooooo escribió:
rethen escribió:
albertoooooooooo escribió:
Gracias por la comparativa, pero ya lo he jugado con RTX. Me encanta sobretodo los primeros segundos, con Cyberpunk a 40 fps en pleno 2023 y una gráfica de 1800€. No se que tiene que ver esto con el raytracing en PS5. Venga, cierra la puerta al salir.

PD: La compresión de Youtube sigue siendo una mierda.


Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo [beer]

No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir) [+risas]


Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución XD tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso

PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo XD puestos a inventar, podría ir a 2000 fps


Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]
rethen escribió:
albertoooooooooo escribió:
rethen escribió:
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo [beer]

No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir) [+risas]


Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución XD tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso

PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo XD puestos a inventar, podría ir a 2000 fps


Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]


Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!
_anVic_ está baneado por "clon de usuario baneado"
rethen escribió:
albertoooooooooo escribió:
rethen escribió:
Lo dicho, cuando quieras te vienes a casa lo ves en vivo y en directo con DLSS2 y 3 y me dices si notas la diferencia con nativo [beer]

No tiene nada que ver con PS5, por eso este subforo. Porque con una 2080ti no has visto RT más que en pintura (dada la velocidad a la que te ha tenido que ir) [+risas]


Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución XD tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso

PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo XD puestos a inventar, podría ir a 2000 fps


Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]


No pierdas el tiempo, además viendo el monitor que tiene en su firma, si se ha de basar en él para una buena experiencia visual vamos apañaos [+risas] Ese monitor me lo regalas mañana y ni lo enciendo. Es que directamente se lo regalo a mi peor enemigo. [qmparto]
albertoooooooooo escribió:
rethen escribió:
albertoooooooooo escribió:
Para mi monitor 2K me sobra y me basta. Que eres tu el que no veía diferencia de resolución XD tanto invitar a tu casa voy a pensarme algo raro, ya roza el acoso

PD: Yo también tengo DLSS2 y he conseguido hacer funcionar DLSS3. Y gastarse 2000€ en una gráfica para que se invente frames es lo más triste del mundo XD puestos a inventar, podría ir a 2000 fps


Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]


Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!


Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT [qmparto]
rethen escribió:
albertoooooooooo escribió:
rethen escribió:
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]


Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!


Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT [qmparto]


Que si, que la tuya es mejor. Y tu PS5 también XD y tu TV, tu monitor... Etc... Ale ale!
_anVic_ está baneado por "clon de usuario baneado"
rethen escribió:
albertoooooooooo escribió:
rethen escribió:
Si te invito es porque no te valen ni imágenes ni vídeos, empiezo a pensar que eres tú el que quiere verlo en persona, y es bastante normal [beer]

Y no, no te sobra (quizás sí te basta, que tampoco te queda otra), porque como tú mismo dices, tienes que quitar RT para llegar a rendimiento aceptable.

En cuanto a la diferencia de resolución, decía que en mi TV de 65" a 3.05m del sofá no percibo la diferencia entre 1440p y 4K a un nivel que justifique el coste de rendimiento de mover más del doble de píxeles. Sí lo haría con una TV de 77" o más (la próxima que compraré [jaja] ) y sí lo hago en PC, que los 3440x1440 se quedan cortos muchas veces, porque estoy a 50cm de la pantalla. A ver si sacan un buen monitor Ultrawide 5160x2160 y doy el salto [carcajad]


Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!


Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT [qmparto]


Pero no solo porque ira a 10fps con todo a tope si llega, sino que en esencia ese panel que tiene es un auténtico ñarro, como he dicho antes, hay que priorizar primero el panel que uno se compra para disfrutar al máximo de una experiencia visual como dios manda y luego te montas el hard en torno a ese panel para sacarle el partido.

Parece que él lo hiciera o lo hizo al revés, se pillo primero una gpu tope de gama en aquel tiempo priorizando potencia gráfica ante todo y luego se pillo un monitor de saldo con un panel malo... así nunca va a poder tener buenas experiencias visuales, pero ni en cyberpunk ni en ningún otro juego, tenga o no tenga ray trcing, e independientemente de los fps o hz, los colores y contraste de ese panel de su firma son muy precarios como para poder tener una experiencia visual decente a día de hoy con los paneles que tenemos a la venta, yo en su caso no me pondría a discutir tonterías y renovaría ya mismo el monitor por algo decente.

Y luego ya si eso se retoma la discusión.
_anVic_ escribió:
rethen escribió:
albertoooooooooo escribió:
Nada como verlo en vivo, es verdad, por eso no me ah convencido, no vas a hacerlo tu ahora. ¡Disfrutalo mucho!


Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT [qmparto]


Pero no solo porque ira a 10fps con todo a tope si llega, singo que en esencia ese panel que tiene es un auténtico ñarro, como he dicho antes, hay que priorizar primero el panel que uno se compra para disfrutar al máximo de una experiencia visual como dios manda y luego te montas el hard en torno a ese panel para sacarle el partido.

Parece que él lo hiciera o lo hizo al revés, se pillo primero una gpu tope de gama en aquel tiempo priorizando potencia gráfica ante todo y luego se pillo un monitor de saldo con un panel malo... así nunca va a poder tener buenas experiencias visuales, pero ni en cyberpunk ni en ningún otro juego, tenga o no tenga ray trcing, e independientemente de los fps o hz, los colores y contraste de ese panel de su firma son muy precarios como para poder tener una experiencia visual decente a día de hoy con los paneles que tenemos a la venta, yo en su caso no me pondría a discutir tonterías y renovaría ya mismo el monitor por algo decente.

Y luego ya si eso se retoma la discusión.


Ya, es que lo mejor es que venía diciendo que RT no vale nada y que él lo habría probado en condiciones con su 2080Ti, cuando con eso te da para Quake II RTX [qmparto]
_anVic_ está baneado por "clon de usuario baneado"
rethen escribió:
_anVic_ escribió:
rethen escribió:
Es que como digo, lo has visto en pintura. Estaba tu gráfica ahí corriendo para dar otro frame y no llegaba, así es normal que te parezca poca cosa el RT [qmparto]


Pero no solo porque ira a 10fps con todo a tope si llega, singo que en esencia ese panel que tiene es un auténtico ñarro, como he dicho antes, hay que priorizar primero el panel que uno se compra para disfrutar al máximo de una experiencia visual como dios manda y luego te montas el hard en torno a ese panel para sacarle el partido.

Parece que él lo hiciera o lo hizo al revés, se pillo primero una gpu tope de gama en aquel tiempo priorizando potencia gráfica ante todo y luego se pillo un monitor de saldo con un panel malo... así nunca va a poder tener buenas experiencias visuales, pero ni en cyberpunk ni en ningún otro juego, tenga o no tenga ray trcing, e independientemente de los fps o hz, los colores y contraste de ese panel de su firma son muy precarios como para poder tener una experiencia visual decente a día de hoy con los paneles que tenemos a la venta, yo en su caso no me pondría a discutir tonterías y renovaría ya mismo el monitor por algo decente.

Y luego ya si eso se retoma la discusión.


Ya, es que lo mejor es que venía diciendo que RT no vale nada y que él lo habría probado en condiciones con su 2080Ti, cuando con eso te da para Quake II RTX [qmparto]


Yo tuve una 2080ti tope de gama en su día, pero jugaba en un monitor semidecente de 900 euros ( en aquella época era de lo mejorcito que había en monitores ) y en otra TV sony de 49" que tuve antes de la oled y mi experiencia fue "buena" porque básicamente no había paneles significativamente mejores que los que yo tenia en aquella época.

Ahora bien si coges tu una 2080ti a día de hoy y la pones en una monitor o tv oled pues su experiencia visual mejoraría de calle respecto a jugar en ese panel HP Omen 27 2K@165Hz Gsync con un contraste ratio de entre 1000 y 3000:1 dependiendo de si es ips o VA VS el contraste infinito de un panel oled por no mencionar en modo HDR .

HP Omen 27 2K@165Hz Gsync

https://www.mediamarkt.es/es/product/_m ... lsrc=aw.ds

Tipo de panel
IPS (Conmutación en el plano)Contraste 1000:1


VA (Alineación Vertical) 3000:1


VA (Alineación Vertical) 2.500:1

Para el que entienda un mínimo de paneles se dará cuanta rápido que con esos ratios de contraste se esta muy lejos de poder obtener una experiencia visual en condiciones en pleno 2023.
En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.
elcapoprods escribió:Compraros una 4000 asi podeis jugar a la demo tecnica llamada Cyberpunk.


Pienso lo mismo. Como pasaba con Control. Se les mencionaba mucho mas por ser anuncios de Nvidia y de sus tecnologías, que por el juego en si. No se como estará cyberpunk hoy en día, pero aparte de su pésimo lanzamiento, el juego en si era malo y falto de muchas cosas prometidas.
Si no llevara toda la parafernalia de Nvidia, ni se mencionaría.

rethen escribió:Si no estás interesado en RT, VR o DLSS3 ahora mismo las AMD pintan mejor en calidad precio, pero el problema es que como quieras una de esas tres... te toca pasar por Nvidia sí o sí [decaio]

Ojalá se acercaran más, aunque mucho me temo que la estrategia de AMD ahora mismo es pagar para que los juegos solo salgan con FSR, y eso no mola nada de nada (ok si haces tu FSR exclusivo, pero pagar para que no implementen una solución para jugadores de otras tarjetas... pues no va a sentar bien a nadie, lo haga AMD, Nvidia, Intel o quien sea)


Con AMD tambien tienes Raytracing(la 7900 XTX está al nivel de la 4070Ti, si no me equivoco)


matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.


Una Oled de 65 estoy buscando yo..
matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.


Depende muchísimo de la distancia de visionado. A 50cm noto mucho más los píxeles en mi monitor de 34" a 3440x1440 que en mi TV de 65" 4K a 3m. Pero muchísimo muchísimo más, y es obvio el por qué [+risas]

Si me pongo a 2.5m sí que noto la diferencia de forma clara, pero a 3m no lo suficiente como para que me compense la pérdida de rendimiento, al menos hasta que suba a 77"
matimiri escribió:En una tv de 65 notas aún más la diferencia entre resoluciones. El tema de pixel x pulgada algunos no lo tienen muy claro. Y lo digo yo que juego en una Oled de 55 y el cambio entre 2k y 4k es significativo.

Pues yo fui incapaz de verlo en un Oled 55"...

@KindapearHD
Que se puede ver cómo quedan CP2077 con RT , peor es que da igual.Es un ñordaco descomunal de juego.Qué IA más lamentable por favor....
Cómo tiré el dinero.... [facepalm]

Y ya puede verse como la vida misma.
Creo que CP77 prometieron arreglarlo con el siguiente DLC.
@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.

Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".

Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.

Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".

Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.


Pero... la distancia de visionado influye muy muy directamente en esa percepción, por subjetiva que luego sea.

No puedes comparar 32" con 55" sin incluir distancia de visionado. Joer, prueba a ponerte a 3m de la TV y me dices si lo notas, y luego te pones a 50cm y verás que hasta necesitarías 8K para acercarte a la famosa "resolución retina", porque notarías los píxeles [+risas]

En los móviles se comparan solo píxeles por pulgada porque uno normalmente usa el móvil a más o menos la misma distancia, así que puedes fijarte solo en ese dato, pero si intentas mirar el móvil a más de los 20-30cm habituales (por ejemplo a 50-60cm) podrías tener "resolución retina" con mucho menos ppi (ahí está la ROG Ally)

Luego ya está el tema de que una persona normal no apreciaría claras ganancias de 1440p a 4K en 65" a más de 3m de distancia (igual alguno con ojo de halcón sí [+risas] ) mientras que con 77" y 3m las diferencias serian claramente perceptibles para cualquier persona normal.
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.

Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".

Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.

@rethen
Si no digo que no.
Pero tuve el pc enganchando a un LG C7 55" 4k, cambiaba entre 1440p y 4k en varios juegos ,y en algunos no notaba absolutamente diferencia ,y en otros ,poca.

Desde luego nada que me hace pasarme al 4K.

Y no era por distancia ,porque pegaba la cara y todo a posta para poder ver diferencias, y que no.
O no las veía ,o si las veía en algún juego, eran mínimas.

Lo mismo en 75" o algo así lo noto más.
Pero en un monitor de por ejemplo, 32"?
Yo no tendría 4K porque yo no voy a notar diferencia.
hh1 escribió:
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.

Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".

Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.

@rethen
Si no digo que no.
Pero tuve el pc enganchando a un LG C7 55" 4k, cambiaba entre 1440p y 4k en varios juegos ,y en algunos no notaba absolutamente diferencia ,y en otros ,poca.

Desde luego nada que me hace pasarme al 4K.

Y no era por distancia ,porque pegaba la cara y todo a posta para poder ver diferencias, y que no.
O no las veía ,o si las veía en algún juego, eran mínimas.

Lo mismo en 75" o algo así lo noto más.
Pero en un monitor de por ejemplo, 32"?
Yo no tendría 4K porque yo no voy a notar diferencia.


A ver, no hay que irse siquiera a juegos... en el propio texto se nota la diferencia entre 1440p y 4K, de nuevo según tamaño de monitor y distancia. A 50cm que estoy de mi monitor, los 1440p se me quedan cortos para 34" (ultrawide) y notaría la subida a 4K (sobre todo para currar)

A los 3m que estoy de mi TV de 65", apenas noto diferencia entre 1440p y 4K, pero sí que la noto si me acerco a 2.5m (para otros será a 2m de distancia, algunos la notarán incluso a 3.5m).

Pero vamos, que cada uno juegue como quiera [beer]
Vaya mojon la 4060 ti.....

Pues no se que hacer, porque me interesa VRAM extra, (No ya por juegos, por cacharreo con IA) pero semejante mojon de grafica es que me niego... Una cosa es pagar un sobreprecio por vram, pero ya la 8GB tenia precio bastante malo, y le han metido un +100...

Lo de las Super tiene alguna credibilidad? Me habia parecido entender que no, pero veo que sigue comentandose a veces...
rethen escribió:
hh1 escribió:
matimiri escribió:@hh1 es simple, juega a 4k en un monitor de 32 y luego en la tv de 55. La diferencia entre el 2k y el 4k es similar. Cierto es que algunos quizás no lo noten, pero se nota.

Si nos guiamos por algún dato sobre ésto, tengo entendido que cada resolución es óptima a x pulgada y el 4k realmente es idóneo en una pantalla de 42".

Pero vamos, para jugar realmente lo que necesitamos son ganas y no toda esta parafernalia, solo son datos subjetivos que no todos los experimentamos de la misma manera o le damos la misma importancia.

@rethen
Si no digo que no.
Pero tuve el pc enganchando a un LG C7 55" 4k, cambiaba entre 1440p y 4k en varios juegos ,y en algunos no notaba absolutamente diferencia ,y en otros ,poca.

Desde luego nada que me hace pasarme al 4K.

Y no era por distancia ,porque pegaba la cara y todo a posta para poder ver diferencias, y que no.
O no las veía ,o si las veía en algún juego, eran mínimas.

Lo mismo en 75" o algo así lo noto más.
Pero en un monitor de por ejemplo, 32"?
Yo no tendría 4K porque yo no voy a notar diferencia.


A ver, no hay que irse siquiera a juegos... en el propio texto se nota la diferencia entre 1440p y 4K, de nuevo según tamaño de monitor y distancia. A 50cm que estoy de mi monitor, los 1440p se me quedan cortos para 34" (ultrawide) y notaría la subida a 4K (sobre todo para currar)

A los 3m que estoy de mi TV de 65", apenas noto diferencia entre 1440p y 4K, pero sí que la noto si me acerco a 2.5m (para otros será a 2m de distancia, algunos la notarán incluso a 3.5m).

Pero vamos, que cada uno juegue como quiera [beer]

Texto sí se notaba ,pero yo en juegos...poco o nada.
También hay resoluciones intermedias como 3200x1800 que creo es un 44% menor a 4K y se ve muy bien siendo muy difícil distinguir de 4K estando a la misma distancia, ya como complemento lo escalas y tienes que andar revisando con zoom.
14352 respuestas