[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:
hh1 escribió:Es que creo que pasáis del blanco al negro, y por en medio hay grises.

Que se note en el Spiderman a 4k altos fps ,no lo niego.
Hasta ahí, vale.
-Pero... cuánto se nota?
-Tan mal va con un 9900k o un 5800X?
-En cuantos juegos pasa como el Spiderman?

Es que ,según lo cuentas ,prace que pasa aen todos los juegos y lo hace injugable con un 5800X y un 9900K,y eso ,no es verdad .


Y de un 9900k ,aún ya es un caso más "boderline" poruqé ya cuenta con 4 años ,pero un 5800X ...

Esto es un poco como la VRAM.
Cuando se habla de que va justa y tal, parece que si no llega ,es que la gráfica ya es un pisapapeles que no vale para jugar.

Y la cuestión es...merece la pena ,teniendo estas CPUs ,realizar esa inversión para CPUs top?

Pues yo creo ,que depende de las circunstancias,y que,si no te sobra la pasta,no.

Dais por hecho, que quien tiene una 4090, tiene presupuesto ilimitado.No siempre es así.
Hay gente que hace un esfuerzo por llegar a ella ,y luego no le da para más.

O gente ,como es mi caso, que no le gusta despilfarrar por un 4-7-10% más de rendimiento y netrwle para ello 300-400-500€ extras ,porque lo veo ilógico.

O mi caso actual.A caso juego mal y me rinde mal la 4090 con u un 12600?No.
Que jugaría mejor con un 13600K?Sí.
Pero ...merece la pena ganarle 5-10% de rendimiento en 1440p (en algunos juegos ni eso),teniendo que poner 200€?Yo creo que no

Y otras veces ,dentro de eso ,hay cosas como que se pillan un 13900k y una 4080.No pillan una 4080 porque ya no les da para ello .
Y yo pregunto...No es mejor un 13500+4090 que un 13900K +4080?Pues claro que sí..
En ese caso ,la diferencia de rendimiento entre CPUs es baja ,pero la diferencia entra GPUs es notoria.

Pues hay gente ,que por miedo a ese cuello de botella ,se pilla la cpu top y se deja de una gráfica mejor ,pensando que a menos cuello de botella ,más rendimiento, cuando eso ,es falso.


Es que va perfectamente el spiderman remasatered a 4k con el 9900k tanto capado a 120fps con v-sync como por encima de 120 fps con fast sync



Minuto 2:44 activo RT
Minuto 5:14 a 8K

Que quieres más de 120fps fps no hay problema tampoco.



Es muy fácil criticar y decir tal micro es una mierda , te hace cuello por todos lados, etc...que si es injugable en tal y tal juego..., Pues ahí tienes una muestra de que para nada es así. Es perfectamente jugable y fluido. a 4k ultra .

Yo te diría que a día de hoy el sweet spot en cuanto a combo para acompañar una 4090 en relación calidad/precio/ rendimiento/eficiencia es el ryzen 7700, que lo tienes por 350 eruos, con una placa de entre 240 y 280 eruos, acompañado de 32 gb de ram cl 36 a 6000mhz por 158 euros .

Por un total de 750 Euros aprox. te montas un pepino que se queda solo a un 4 % a 1080p de un 13900k con memos más dopadas, que vale un pastizal , consume una barbaridad y te vas a comer con patatas la placa cuando salga meteor lake. Por contra la placa del 7700 te valdrá para la serie 8000.

Imagen

Y yo iría más allá...Con un 7600X vas perfecto y en bicicleta.Más barato y casi igual que el 7700X.

¿Tienes por ahí ese misma comparatiiva de cpus con la 4090 ,a 1440p y 4K?
Es para ver la realidad "real" ,ya que no creo que nadie juegue a 1080p con una 4090.
Es que nos puede dar la risa con las diferencias que hay entre cpus top con otras que valen el triple o la mitad...



Solo la hicieron a 1080p y 1440p. Te paso a 1440p los datos:

Imagen

El 7700x Menos del 3% respecto al 13900k

A 4k la diferencia seria nula.

Pues también, ya que por 250 € tienes el 7600x con 6/12. Yo decía el 7700 porque tiene 8/16 por 90 euros más y tampoco es que sea nada caro. Además porque es el que más se acerca al 13900k por un módico precio, consumiendo menos de la tercera parte. Pues tiene un tdp de 65 W [+risas]
el 7600x ya se encuentra por 225-230 euros en algunas tiendas. Personalmente, si me estirase hasta los 340-350 del 7700x casi que mejor estirarse del todo y por 75 pavos mas (420) dar el salto al 7900x con sus pedazo de 12 cores
_anVic_ está baneado por "clon de usuario baneado"
parh escribió:el 7600x ya se encuentra por 225-230 euros en algunas tiendas. Personalmente, si me estirase hasta los 340-350 del 7700x casi que mejor estirarse del todo y por 75 pavos mas (420) dar el salto al 7900x con sus pedazo de 12 cores



Pues también, es muy eficiente. Aunque como ves, si sólo le vas a dar uso básicamente para jugar vas sobrado con el 7600x, otra cosa es que lo necesites para otros menesteres.
parh escribió:el 7600x ya se encuentra por 225-230 euros en algunas tiendas. Personalmente, si me estirase hasta los 340-350 del 7700x casi que mejor estirarse del todo y por 75 pavos mas (420) dar el salto al 7900x con sus pedazo de 12 cores

@_anVic_
Pero es que ,volvemos a la raíz del Caso....¿para qué un 7900X en juegos?Los 12 cores no loes aprvechas y vas a jugar básicamente igual que con un 7600X,netamente más barato.
Es que esas son las compras que yo no entiendo,salvo que te sobre la pasta.

Luego paso aló que pasa.Que se venden los 1700x,2700x,3700x,5800x o 10700k,11700k,12700k,13700k...antes de aprovechar realmente el extra de núcleos que has pagado y han jugado exactamente igual que como jugarían con CPUs de 6 cores y más baratas.

Tenemos casos así a patadas por aquí.

Es lo que no comprendo Ojo,háblanos solo de jugar.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
parh escribió:el 7600x ya se encuentra por 225-230 euros en algunas tiendas. Personalmente, si me estirase hasta los 340-350 del 7700x casi que mejor estirarse del todo y por 75 pavos mas (420) dar el salto al 7900x con sus pedazo de 12 cores

@_anVic_
Pero es que ,volvemos a la raíz del Caso....¿para qué un 7900X en juegos?Los 12 cores no loes aprvechas y vas a jugar básicamente igual que con un 7600X,netamente más barato.
Es que esas son las compras que yo no entiendo,salvo que te sobre la pasta.

Luego paso aló que pasa.Que se venden los 1700x,2700x,3700x,5800x o 10700k,11700k,12700k,13700k...antes de aprovechar realmente el extra de núcleos que has pagado y han jugado exactamente igual que como jugarían con CPUs de 6 cores y más baratas.

Tenemos casos así a patadas por aquí.

Es lo que no comprendo Ojo,háblanos solo de jugar.


Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen
despues de ver este video, y visto el panorama que se avecina, yo creo que cualquiera en su sano juicio que desee que la grafica le dure al menos 2 años (y que en ese momento aun tenga valor para revenderla y no esté obsoleta), deberia solo considerar la 4080 o 4090 como unicas opciones viables...

_anVic_ escribió:
hh1 escribió:
parh escribió:el 7600x ya se encuentra por 225-230 euros en algunas tiendas. Personalmente, si me estirase hasta los 340-350 del 7700x casi que mejor estirarse del todo y por 75 pavos mas (420) dar el salto al 7900x con sus pedazo de 12 cores

@_anVic_
Pero es que ,volvemos a la raíz del Caso....¿para qué un 7900X en juegos?Los 12 cores no loes aprvechas y vas a jugar básicamente igual que con un 7600X,netamente más barato.
Es que esas son las compras que yo no entiendo,salvo que te sobre la pasta.

Luego paso aló que pasa.Que se venden los 1700x,2700x,3700x,5800x o 10700k,11700k,12700k,13700k...antes de aprovechar realmente el extra de núcleos que has pagado y han jugado exactamente igual que como jugarían con CPUs de 6 cores y más baratas.

Tenemos casos así a patadas por aquí.

Es lo que no comprendo Ojo,háblanos solo de jugar.


Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:
hh1 escribió:@_anVic_
Pero es que ,volvemos a la raíz del Caso....¿para qué un 7900X en juegos?Los 12 cores no loes aprvechas y vas a jugar básicamente igual que con un 7600X,netamente más barato.
Es que esas son las compras que yo no entiendo,salvo que te sobre la pasta.

Luego paso aló que pasa.Que se venden los 1700x,2700x,3700x,5800x o 10700k,11700k,12700k,13700k...antes de aprovechar realmente el extra de núcleos que has pagado y han jugado exactamente igual que como jugarían con CPUs de 6 cores y más baratas.

Tenemos casos así a patadas por aquí.

Es lo que no comprendo Ojo,háblanos solo de jugar.


Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.


En la 14 de intel creo que se viene refrito siendo raptor lake refresh y luego el 2024 si ya vendría meteor lake donde se vera un buen salto en eficiencia. Pero este mismo año creo que ya tendremos los ryzen 8000 así que intel lo lleva crudo.

@parh Bueno tampoco hay que llevarse las manos a la cabeza por uno o dos juegos aislados mal optimizados. En 4k opciones medias insulso sin dlss no tienen ningún problema gpus con 8gb en cuanto al frametime mínimo.
Imagen

Ahora bien si te entra la ultritis entonces estas jodido.

Véase en los mínimos de las de 8Gb vs las de 12Gb

Imagen
hh1 escribió:
_anVic_ escribió:
hh1 escribió:@_anVic_
Pero es que ,volvemos a la raíz del Caso....¿para qué un 7900X en juegos?Los 12 cores no loes aprvechas y vas a jugar básicamente igual que con un 7600X,netamente más barato.
Es que esas son las compras que yo no entiendo,salvo que te sobre la pasta.

Luego paso aló que pasa.Que se venden los 1700x,2700x,3700x,5800x o 10700k,11700k,12700k,13700k...antes de aprovechar realmente el extra de núcleos que has pagado y han jugado exactamente igual que como jugarían con CPUs de 6 cores y más baratas.

Tenemos casos así a patadas por aquí.

Es lo que no comprendo Ojo,háblanos solo de jugar.


Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.

La gen 14 dicen que será un refrito de la 13.

Igualmente, entiendo lo que dices que no hace falta un pepino de cpu para jugar, con un 6 cores es suficiente.

Pero también te diría que para 1440p no hace falta una 4090, con una 4080 vas a jugar igual y te ahorras una pasta.
_anVic_ está baneado por "clon de usuario baneado"
the_aeon escribió:
hh1 escribió:
_anVic_ escribió:
Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.

La gen 14 dicen que será un refrito de la 13.

Igualmente, entiendo lo que dices que no hace falta un pepino de cpu para jugar, con un 6 cores es suficiente.

Pero también te diría que para 1440p no hace fata una 4090, con una 4080 vas a jugar igual y te ahorras una pasta.


Tampoco te hace falta irte a una 4080 para 1440p, con una 6950Xt vas mas que servido por casi la mitad de lo que vale una 4080

https://www.coolmod.com/sapphire-nitro- ... =propelbon

Imagen

Le saca el 24% la 4080 a la 6950XT pero vale casi el doble.

Interesante paliza le da el 7800X3D al 13900k en el far cry 6 a 1080p. Y de media casi el 10% en 25 juegos avg

Imagen

Incluso a 4k le saca el 23% en el far cry 6. Parece que en ese juego los 13900k van como el ojete.

Imagen

_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:
Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.


En la 14 de intel creo que se viene refrito siendo raptor lake refresh y luego el 2024 si ya vendría meteor lake donde se vera un buen salto en eficiencia. Pero este mismo año creo que ya tendremos los ryzen 8000 así que intel lo lleva crudo.

@parh Bueno tampoco hay que llevarse las manos a la cabeza por uno o dos juegos aislados mal optimizados. En 4k opciones medias insulso sin dlss no tienen ningún problema gpus con 8gb en cuanto al frametime mínimo.
Imagen

Ahora bien si te entra la ultritis entonces estas jodido.

Véase en los mínimos de las de 8Gb vs las de 12Gb

Imagen

Me refiero a Meteor Lake,no al refresh.
_anVic_ está baneado por "clon de usuario baneado"
Tienen trabajo que hacer por delante para mejorar la eficiencia, en ese aspecto los ryzen barren a intel.
_anVic_ escribió:Tienen trabajo que hacer por delante para mejorar la eficiencia, en ese aspecto los ryzen barren a intel.

Cierto, pero nunca se sabe.
Yo si son más potentes y no se van en consumos ,seguiría apostando por Intel.
Si son similares y palman en consumos ,pues por qué no AMD?

Los consumos de cpu tampoco es que me preocupen mucho ,teniendo en cuenta de que no compro más de un i5 gama media o posible Ryzen 5.
Ayer mientras escribía mi diatriba no sabía que hoy se levantaba el embargo para las reviews del 7800x3d. Aunque al bicho lo mencioné no recordaba que estaba tan a la vuelta de la esquina.

Parece que hay bastante unanimidad sobre ese micro en particular, que no destaca en nada menos en juegos, que parece que puede hasta con el i9 más nuevo que hay hasta ahora, consumiendo bastante menos y calentándose también bastante poco.

¿Sabeís qué? Pues que a ese tampoco le voy a tirar. Si dentro de un par de años no hay nada mejor que esto, entonces a esperar que salga algo que le gane. De todas formas ahora entre comprar el bicho, más placa más memorias, para que se me quede el pc como yo lo quiero voy a tener que gastarme bastante pasta, calculo que poco menos de 1000 euros. Debería notarle alguna mejoría más o menos a todo en el día a día, pero sé que no voy a notar que mejore tanto como para gastarme todo ese dinero. La plataforma AM5 todavía está cara.

Cuando me gasté los 2300 y pico a finales de Octubre para la gráfica y la fuente de alimentación, la mejoría fue sustancial en los juegos. Pasé de poder jugar al cyberpunk 2077 en ultra a 1440p dldsr a 35 cuadros por segundo, a más de 100 cuadros jugando en 2880x1620 dldsr. También pasó que la 2080 no llegaba en los juegos nuevos a sacar cuadros como para llegar a los 144 hz del monitor, a llegar sobradamente excepto como acabo de decir con el cyberpunk. Cuando llegó el parche con el frame generator, ahí también ya llegó.

El día 11 de Abril ya pondré como se porta este jueguecito a 2880x1620 con todo en ultra, supongo que el frame generator será obligatorio para que no se arrastre, ya veremos.
_anVic_ está baneado por "clon de usuario baneado"
Sip, sin duda habrá que tirar de FG más dlss para moverlo bien. No sé si habrás probado portal Rtx con path tracing. Ahí tienes un claro ejemplo de lo que se nos avecina con Cyberpunk .
@_anVic_ Sí, lo probé cuando salió y para qué decir otra cosa, a mi me fue muy bien. Idem de lo mismo con el quake2 rtx.

Portal es un juego muy corto, cuando le di un par de vueltas e investigué lo que me vino en gana, terminé desinstalándolo.
_anVic_ está baneado por "clon de usuario baneado"
pakolo1977 escribió:@_anVic_ Sí, lo probé cuando salió y para qué decir otra cosa, a mi me fue muy bien. Idem de lo mismo con el quake2 rtx.

Portal es un juego muy corto, cuando le di un par de vueltas e investigué lo que me vino en gana, terminé desinstalándolo.


Si ir va muy bien pero a 4k todo ultra con path tracing sin dlss ni FG se arrastra. Por debajo de los 40fps. Una vez activas FG y dlss equilibrado pasas los 100fps.

Lo mismo pasará en Cyberpunk.
Buenas....

Creeis que puede ser buen momento para dar el salto de la 3080 10gb, a una 4070ti.????

voy cambiando cada 2-3 años de grafica por capricho.... y aunque esta vez no me cuende tanto cambiar...
No quiero dejar mucho mas bajar la 3080 de precio...
Estara ya por los 500-550 euros no?

Pero no se si soltar 1000 euros por la 4070ti es la opcion....o que hacer...

como lo veis?
Hace tiempo que no veo le mercado.
@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...
_anVic_ está baneado por "clon de usuario baneado"
Exacto no vas a notar mucho de la 3080 a la 4070ti, yo me iría directo a la 4080. Y si tienes presupuesto y vas a darle a 4k 120hz pilla la 4090 que le saca del 30 al 35% a la 4080.

Imagen

Ahí tienes para que te hagas una idea en una media de 16 juegos a 4k
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...


y sobre todo, 16 gb de vram
parh escribió:despues de ver este video, y visto el panorama que se avecina, yo creo que cualquiera en su sano juicio que desee que la grafica le dure al menos 2 años (y que en ese momento aun tenga valor para revenderla y no esté obsoleta), deberia solo considerar la 4080 o 4090 como unicas opciones viables...



Vamos que este estudio ha hecho una optimización de pena.

(Y no estoy defendiendo a Nvida y la cantidad de VRAM de la serie 3000 que decidió poner que lo mismo acertaron porque solo les interesó el mercado de mineros y estos con 8Gb iban sobrados [+risas] )
tengo ganas de ver cuando salgan, 4070/4060/4050 todo el trash talkin del hilo. Yo estoy a la espera del dia 13 a ver si me pillo una 4070, no soy tan entusiasta como algunos o no tengo tanto dineros (o mas bien no estoy dispuesto a gastar tanto dineros) la gama media es lo mio.
esami escribió:
parh escribió:despues de ver este video, y visto el panorama que se avecina, yo creo que cualquiera en su sano juicio que desee que la grafica le dure al menos 2 años (y que en ese momento aun tenga valor para revenderla y no esté obsoleta), deberia solo considerar la 4080 o 4090 como unicas opciones viables...



Vamos que este estudio ha hecho una optimización de pena.

(Y no estoy defendiendo a Nvida y la cantidad de VRAM de la serie 3000 que decidió poner que lo mismo acertaron porque solo les interesó el mercado de mineros y estos con 8Gb iban sobrados [+risas] )


El otro día comento en una entrevista un desarrollador de Unreal engine que los 12gb de vram será lo mínimo recomendable.

Iros acostumbrando a necesitar grandes cantidades de vram.

No creo que esto sea un caso aislado si no más bien el principio de lo que se viene.
PepeC12 escribió:
esami escribió:
parh escribió:despues de ver este video, y visto el panorama que se avecina, yo creo que cualquiera en su sano juicio que desee que la grafica le dure al menos 2 años (y que en ese momento aun tenga valor para revenderla y no esté obsoleta), deberia solo considerar la 4080 o 4090 como unicas opciones viables...



Vamos que este estudio ha hecho una optimización de pena.

(Y no estoy defendiendo a Nvida y la cantidad de VRAM de la serie 3000 que decidió poner que lo mismo acertaron porque solo les interesó el mercado de mineros y estos con 8Gb iban sobrados [+risas] )


El otro día comento en una entrevista un desarrollador de Unreal engine que los 12gb de vram será lo mínimo recomendable.

Iros acostumbrando a necesitar grandes cantidades de vram.

No creo que esto sea un caso aislado si no más bien el principio de lo que se viene.


asi es, y comprar ahora lo que se considera "minimo" quiere decir que en 2 años estara ya por debajo del minimo (tal y como avanza esto), Y para remate esta la salida de PS5 PRO con unos 24gb de vram (el modelo actual tiene 16 gb vram compartido con el SO), que sera el estandar de desarrollo para los juegos venideros.

@PLK1, puedes comprar lo que te apetezca, esta claro.
Chaquetero está baneado por "troll"
parh escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...


y sobre todo, 16 gb de vram


De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.
Gama baja la 4070ti….claro claro
Es gama media, el que no lo quieta ver es ciego, otra cosa que te lo vendan a gama alta por el precio.

Y no vengas con que rinde como una 3090, porque es lo normal, se llama evolucion.

La Intel iris rinde mejor que una 7800GTX y no es gama alta.
elcapoprods escribió:Es gama media, el que no lo quieta ver es ciego, otra cosa que te lo vendan a gama alta por el precio.

Y no vengas con que rinde como una 3090, porque es lo normal, se llama evolucion.

La Intel iris rinde mejor que una 7800GTX y no es gama alta.


Es que si rinde como la 3090, la top hasta hace poco más de 1 año, no puede pasar a ser gama baja. Es más, será media o media alta mínimo. Otra cosa es que tenga carencias y que puede que la hagan envejecer peor que esa 3090, (no se sabe si realmente muchos juegos tirarán de más de 12GB de VRAM, que es cuando podría sufrir)
Y la 4070, si sale a 599$ y se cumplen más o menos las conversiones de las otras, aquí serán 690 - 700 €. Lo que es una subida con respecto a las 3070, pero que es más cercano al usuario medio.
@Charlyred @elcapoprods Es gama media, yo la tenía (la tengo de hecho pero esta tarde la vendo) y la gráfica en Ultrawide es justita, temas consumo y silencio sí, están muy bien comparado con la generación anterior pero vamos, no hay que engañarse, sigue siendo gama media. Ahora tengo la 4080 y encantadísimo.
Que buena decisión pillar la 4090 con sus 24 GB.:)
Es ley de vida que los juegos vayan pidiendo cada vez mas VRAM ya sea por necesidad o por mala optimizacion. También a que target, ya que no es mismo jugar a 1080p@60 que a 4K@120.

De todos modos, yo creo que el proceso será lento. La mayoría de la gente tiene tarjetas de 6/8 de VRAM y las empresas quieren ganar dinero y vender mas por lo que no se pueden permitir olvidar a la gran mayoria de usuarios.

Aun asi yo creo que quien marca el ritmo es el hardware consolas, no lo último en PC así que el punto dulce será los 12GB para los proximos años y ademas como cita el compañero pepeC12.
Pues nada, como parece que cada uno cataloga las ganas como le da la gana, pues aceptamos también la 4080 como gama media, solo la 4090 queda como gama alta; la gama entusiasta me la paso por los huevos y todos contentos 😂
@Charlyred impaciente que estoy por ver como catalogan a la 4080ti [carcajad]
esami escribió:Es ley de vida que los juegos vayan pidiendo cada vez mas VRAM ya sea por necesidad o por mala optimizacion. También a que target, ya que no es mismo jugar a 1080p@60 que a 4K@120.

De todos modos, yo creo que el proceso será lento. La mayoría de la gente tiene tarjetas de 6/8 de VRAM y las empresas quieren ganar dinero y vender mas por lo que no se pueden permitir olvidar a la gran mayoria de usuarios.

Aun asi yo creo que quien marca el ritmo es el hardware consolas, no lo último en PC así que el punto dulce será los 12GB para los proximos años y ademas como cita el compañero pepeC12.



En mi opinión 12Gb hoy en día es una cantidad justa de VRAM, cómo en su día los 10GB de la 3080.

De todas formas tampoco es un drama si no se tiene la cantidad suficiente pues bajar las texturas de calidad ultra a alto, o desactivar el RT.
DaNi_0389 escribió:
De todas formas tampoco es un drama si no se tiene la cantidad suficiente pues bajar las texturas de calidad ultra a alto, o desactivar el RT.


Nooooooooo, que dices, si no juegas en ultra a todo no eres nadie.
Yo ahora estoy con probando un monitor de 4k 144hz, mi 3080ti se queda corta para los ultimos triple a, si, pero optimizando los ajustes graficos, llego a 4k 120fps sin perder practicamente calidad apreciable.
Me tienta mucho comprar la 4090, pero prefiero saltarme la gen como ya hice con la 2000 y aprovechar para cambiar caja y alguna cosilla mas. Aunque si tarda mas de un año en salir las 5000...
colado escribió:
DaNi_0389 escribió:
De todas formas tampoco es un drama si no se tiene la cantidad suficiente pues bajar las texturas de calidad ultra a alto, o desactivar el RT.


Nooooooooo, que dices, si no juegas en ultra a todo no eres nadie.
Yo ahora estoy con probando un monitor de 4k 144hz, mi 3080ti se queda corta para los ultimos triple a, si, pero optimizando los ajustes graficos, llego a 4k 120fps sin perder practicamente calidad apreciable.
Me tienta mucho comprar la 4090, pero prefiero saltarme la gen como ya hice con la 2000 y aprovechar para cambiar caja y alguna cosilla mas. Aunque si tarda mas de un año en salir las 5000...


Hasta ahora nvidia ha estado lanzado cada 2 años una nueva generacion, asi que el estreno de las 5000 seria alla por septiembre de 2024

la pregunta es, cuan ambiciosos seran? habra un salto igual de grande como ha habido de la serie 3000 a la 4000? yo creo que la respuesta ira en funcion de como este el mercado. Si la mineria vuelve a reflotar, no seran tan ambiciosos, no les hara falta, saben que venderan por toneladas.
the_aeon escribió:
hh1 escribió:
_anVic_ escribió:
Además que los E-cores de los Raptor y Alder lake no te sirven para un carajo mientras juegas.

Una de las particularidades de los E-Cores es que añaden una cantidad de hilos de ejecución adicionales a la CPU, por lo que de cara a los videojuegos si estos ven un Intel Core 12/13 con una cantidad concreta de hilos de ejecución lo van a tratar como un procesador simétrico con igualdad de threads. Si tenemos suerte y los procesos no requieren mucha potencia entonces no habrá recorte en el rendimiento, pero si no es así entonces sí que lo tendremos.

Los videojuegos de PC para su optimización se adaptan a la cantidad de hilos por hardware disponibles para repartir sus tareas. El problema es que muchos de estos hilos son síncronos entre núcleos, ya que asumen que todos los núcleos de la CPU que los ejecutan funcionan a la misma velocidad o al menos una buena parte de ellos. Cuando requieres sincronizar un proceso que funciona en paralelo entonces será tan rápido como la parte que sea más lenta.

De ahí la paradoja que desactivar los E-Cores se gane rendimiento en algunos juegos o no se vea afectado, aunque Intel no lo ha pensado para eso, sino para quien quiera más velocidad de reloj en los P-Cores de su Intel Core 12./13

Pero oye a muchos les va eso de burro grande ande o no ande. ratataaaa

El rey del gaming ha caido, El 13900k barrido por el 7800X3D en eficiencia, 120W menos rindiendo más. [+risas]

Imagen

Imagen

Yo hasta que no haya un buen cambio en rendimiento,no cambiaré.
A ver la gen 14 de Intel que según dicen ,pinta fuerte.

Esos 7XXX3D pinta muy bien, pero no son baratos precisamente.

La gen 14 dicen que será un refrito de la 13.

Igualmente, entiendo lo que dices que no hace falta un pepino de cpu para jugar, con un 6 cores es suficiente.

Pero también te diría que para 1440p no hace falta una 4090, con una 4080 vas a jugar igual y te ahorras una pasta.

Sí y no.
1440p 240fps ,mejor una 4090.
Que con una 4080 es suficiente?Sí.
Pero una 4090 rinde más ,también.

Yo lo de la 4090 es más por futuro que otra cosa.
Una cpu no me garantiza ese futuro.

Tambi3n te digo,o que si no llego a devolver la 4080 ,no hubiese pasado nada.Es un graficón también .
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
parh escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...


y sobre todo, 16 gb de vram


De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?
Daicon escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
parh escribió:
y sobre todo, 16 gb de vram


De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


la mejor inversion, como ya se ha dicho, es que te estires hasta la 4080, mas potencia y mas ram. Y en general, mete en la ecuacion tambien que con la serie 4000 ganaras FG, que sí, que son frames inventados, pero molan porque te permiten activar RT full y jugar fluido.
Daicon escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
parh escribió:
y sobre todo, 16 gb de vram


De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


El consejo es que no te dejes llevar por las venas consumistas que reinan a día de hoy y dejes de tirar el dinero por el wc.

El mundo del pc es increíble. Teniendo una 3080 pensando en meter otros 500 o 1000€ para ganar unos pocos fps y vram.

El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Saludos!
parh escribió:
Daicon escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


la mejor inversion, como ya se ha dicho, es que te estires hasta la 4080, mas potencia y mas ram. Y en general, mete en la ecuacion tambien que con la serie 4000 ganaras FG, que sí, que son frames inventados, pero molan porque te permiten activar RT full y jugar fluido.

Bueno BF esta en toda la serie 4000.... es decir, que no es un "punto mas" para decidirme.
Quiero decir, que se, que si cambio seria a nvidia....y lo de el FG es un factor... pero no tan importante, ya que lo tendria en la 4070ti tambien...
pero no se...soltar 800 plomos para pasar de la 3080 a la 4080.... no es buen negocio creo yo. xDD


dan-88 escribió:
Daicon escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


El consejo es que no te dejes llevar por las venas consumistas que reinan a día de hoy y dejes de tirar el dinero por el wc.

El mundo del pc es increíble. Teniendo una 3080 pensando en meter otros 500 o 1000€ para ganar unos pocos fps y vram.

El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Saludos!


Entiendo tu vision y la comparto en cierta manera, pero no es mi caso...
El pc es puor hobby y cacharreo no necesidad.
Tengo la ps5, el ultimate en el pc..., si no se trata de juegos en si xDD
Es un poco ver una opcion buena dentro de lo que es un capricho y hacerla... y si no, lo mas posible es que me queda en la 3080 hasta que valga 50 euros... y ver por donde esta ese dia el mundo del pc gaming...
por que si para entonces estamos en la serie 6 y la gama "media" (baja como algunos le decis aqui a la 4070) esta en 2500 euros.... que no seria raro con la escala de precios que llevamos...pues me da a mi que habra que buscarse otro hobby xDD
Daicon escribió:
parh escribió:
Daicon escribió:


pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


la mejor inversion, como ya se ha dicho, es que te estires hasta la 4080, mas potencia y mas ram. Y en general, mete en la ecuacion tambien que con la serie 4000 ganaras FG, que sí, que son frames inventados, pero molan porque te permiten activar RT full y jugar fluido.

Bueno BF esta en toda la serie 4000.... es decir, que no es un "punto mas" para decidirme.
Quiero decir, que se, que si cambio seria a nvidia....y lo de el FG es un factor... pero no tan importante, ya que lo tendria en la 4070ti tambien...
pero no se...soltar 800 plomos para pasar de la 3080 a la 4080.... no es buen negocio creo yo. xDD


dan-88 escribió:
Daicon escribió:


pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?


El consejo es que no te dejes llevar por las venas consumistas que reinan a día de hoy y dejes de tirar el dinero por el wc.

El mundo del pc es increíble. Teniendo una 3080 pensando en meter otros 500 o 1000€ para ganar unos pocos fps y vram.

El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Saludos!


Entiendo tu vision y la comparto en cierta manera, pero no es mi caso...
El pc es puor hobby y cacharreo no necesidad.
Tengo la ps5, el ultimate en el pc..., si no se trata de juegos en si xDD
Es un poco ver una opcion buena dentro de lo que es un capricho y hacerla... y si no, lo mas posible es que me queda en la 3080 hasta que valga 50 euros... y ver por donde esta ese dia el mundo del pc gaming...
por que si para entonces estamos en la serie 6 y la gama "media" (baja como algunos le decis aqui a la 4070) esta en 2500 euros.... que no seria raro con la escala de precios que llevamos...pues me da a mi que habra que buscarse otro hobby xDD


baja a 700 plomos la inversion con la 4080, en amazon fr está la zotac oc a 1200...
parh escribió:
Daicon escribió:
parh escribió:
la mejor inversion, como ya se ha dicho, es que te estires hasta la 4080, mas potencia y mas ram. Y en general, mete en la ecuacion tambien que con la serie 4000 ganaras FG, que sí, que son frames inventados, pero molan porque te permiten activar RT full y jugar fluido.

Bueno BF esta en toda la serie 4000.... es decir, que no es un "punto mas" para decidirme.
Quiero decir, que se, que si cambio seria a nvidia....y lo de el FG es un factor... pero no tan importante, ya que lo tendria en la 4070ti tambien...
pero no se...soltar 800 plomos para pasar de la 3080 a la 4080.... no es buen negocio creo yo. xDD


dan-88 escribió:
El consejo es que no te dejes llevar por las venas consumistas que reinan a día de hoy y dejes de tirar el dinero por el wc.

El mundo del pc es increíble. Teniendo una 3080 pensando en meter otros 500 o 1000€ para ganar unos pocos fps y vram.

El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Saludos!


Entiendo tu vision y la comparto en cierta manera, pero no es mi caso...
El pc es puor hobby y cacharreo no necesidad.
Tengo la ps5, el ultimate en el pc..., si no se trata de juegos en si xDD
Es un poco ver una opcion buena dentro de lo que es un capricho y hacerla... y si no, lo mas posible es que me queda en la 3080 hasta que valga 50 euros... y ver por donde esta ese dia el mundo del pc gaming...
por que si para entonces estamos en la serie 6 y la gama "media" (baja como algunos le decis aqui a la 4070) esta en 2500 euros.... que no seria raro con la escala de precios que llevamos...pues me da a mi que habra que buscarse otro hobby xDD


baja a 700 plomos la inversion con la 4080, en amazon fr está la zotac oc a 1200...

Mmmm

Nunca he usado lo de Amazon fr.
Es fiable?
Hombre llegados a ese punto , lo mismo puede merecer la pena.

Hay enlace de eso?
Chaquetero está baneado por "troll"
Joder con Nvidia, acaban de publicar una chorrigrafica dando a entender el rendimiento de la 4070 no ti y le saca como mucho un 35% a la 3060...

Imagen

Espero que sea el movimiento shenanigan de despiste que tanto le gusta hacer últimamente de dar un mal precio, un mal consumo, o un mal rendimiento primero para luego que entre mejor entre los consumidores, porque por las especificaciones no debería tener el rendimiento de una 3070ti, sino de una 3080.
dan-88 escribió:El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Con un PC se puede jugar desde el sofá con una TV 4k a +120fps, sin historia de configuraciones (tienes el preset bajo, medio, alto en el 99% de los juegos, no?) a todos los juegos de xbox series x, a (casi) todos los multiplataforma, a exclusivos de PC (que hay bastantes), a los exclusivos de Sony de PS4/PS5 que también saca para PC (y sin sufrir el mierda de VRR de PS5 que tiene que a menos de 40hz "no tira"). Lo he dicho varias veces, esto en el hilo de consolas donde no suelen tener mucha idea de PCs puede tener cabida (entre ignorantes a nivel PC ya se entienden), en el subforo de PC me parece pecar de ignorante.

La cantidad de ventajas que aporta un PC puede verse empañada, y mucho, si la actitud de ese jugador es la de jugar a los juegos de salida (que muchas veces no están optimizados) y se encuentra con problemas de rendimiento y de todo tipo.

Pero vamos, creo que no hay que darle mucho al coco para darse cuenta que si eso pasa sistemáticamente casi siempre lo que hay que hacer es esperar a jugar unas semanas/meses mas tarde, no? [idea]

También hay inconvenientes, aunque creo que lo mejor es que cada uno valores los pros/contras y decida qué prefiere. Pero desde el momento que se suelta la absurda excusa de no poder jugar desde el sofá con un PC... 2023, me lo dicen hace 5 años y no me lo creo [facepalm]
Daicon escribió:
BladeRunner escribió:@Daicon

Están diciendo por ahí q la 4070 rinde como una 3080, y q sería como un 19-20% peor q la 4070ti... pues esa es la mejora q vendrías a obtener. No sé si te compensa echando cuentas. Yo en tu caso tal vez me estiraría algo más hasta la 4080 por 1300€ para notar algo más de diferencia, pero depende de tus requisitos a la hora de jugar, resolución, fps, títulos concretos q no demanden demasiado...

Chaquetero escribió:
parh escribió:
y sobre todo, 16 gb de vram


De 12 GB a 16 GB tampoco hay mucha diferencia.

Y de 600 euros a 1400 sí que la hay. En esta gama de gráficas el frame generation si puede ser un gran invento, y el dlss también. Para una 4090 NO.

@PLK1 No hagas ni puñetero caso y sobretodo no te acomplejes, una buena gráfica es una buena gráfica da igual la gama de la que hablemos, y esta 4070 si la puedes conseguir por 600 euros va a ser mucho mejor gráfica que la 4070ti, y puede que hasta mejor que la 4080. No esque eso signifique mucho pero algo es con el panorama que hay.

No sólo hay que contar con el rendimiento, hay otros factores como el consumo, o el tamaño que también hay que considerar, y se rumorea que esta 4070 puede consumir alrededor de 180w, lo que la dejaría muy por encima de rendimiento/w de la 4070ti, que es la gráfica más absurda de la historia al ser una gama baja con un consumo de 300w.



pufff
la verdad que no se que hacer...
vaya mierda de situacion hay con las graficas.


Menudo chollo pille yo en su dia con la 3080 a 700 euros de salida....antes me parecia caro... ahora lo ves... y te da la risa...

Pero claro... con el capricho de querer cambiar cada x años para poder seguir a full en todo.... puff... si me espero mas... es que dentro de un año estan dando 300 o 200 euros por la 3080... y ni me quiero imaginar el precio de las 5000... nos vamos a la mierda.

Estoy que siento que o doy el salto uuna vez mas.... o le dan por la X al pc gaming...

pero claro, lo unico que veo interesante desde mi 3080 es la 4070ti o la 4080.......
si vendo muy mal ahora la 3080 imagino que 500 euros saco limpios... pero es que me tocaria palmar 500 mas para las 4070ti....
la 4080 son 800 euros mas... puff es que no termino de verlo...no me salen las cuentas...
500 euros los asumo por un 20% mas de potencia... pero los 12gb por otra parte...pufff... no se..

vaya situacion....

algun consejo?

Es que ahí está el tema.
En mi opinión ,o renuevas gráficas cada 1-2 años ,o te la quedas muchos años.

O sacas partido a la "mínima" depreciación o la amortizas en tiempo.
Pero a medias ....es palmar por todos lados.

Piensa aque la que compres nueva, por ejemplo, la 4080 por 800€, no son 800€ en sí.Son 800€ + su revaloración en comparación con la 3080.
Pagas 800€, pero es que n la siguiente venta ,ponte en dos años ,le ganas 600-700€.

Por lo que no todo es pasta palmada.
Razón por la cual, tras tramitar un RMA de una 4080, decidí ya pasarme a la 4090.
Ese dinero de más ,está en el futuro casi amortizado.

Yo en tu caso ,si juegas bien, amortizaba mucho tiempo.
Si no,vende ya porque dar el salto luego va a ser más caro.
Rvilla87 escribió:
dan-88 escribió:El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Con un PC se puede jugar desde el sofá con una TV 4k a +120fps, sin historia de configuraciones (tienes el preset bajo, medio, alto en el 99% de los juegos, no?) a todos los juegos de xbox series x, a (casi) todos los multiplataforma, a exclusivos de PC (que hay bastantes), a los exclusivos de Sony de PS4/PS5 que también saca para PC (y sin sufrir el mierda de VRR de PS5 que tiene que a menos de 40hz "no tira"). Lo he dicho varias veces, esto en el hilo de consolas donde no suelen tener mucha idea de PCs puede tener cabida (entre ignorantes a nivel PC ya se entienden), en el subforo de PC me parece pecar de ignorante.

La cantidad de ventajas que aporta un PC puede verse empañada, y mucho, si la actitud de ese jugador es la de jugar a los juegos de salida (que muchas veces no están optimizados) y se encuentra con problemas de rendimiento y de todo tipo.

Pero vamos, creo que no hay que darle mucho al coco para darse cuenta que si eso pasa sistemáticamente casi siempre lo que hay que hacer es esperar a jugar unas semanas/meses mas tarde, no? [idea]

También hay inconvenientes, aunque creo que lo mejor es que cada uno valores los pros/contras y decida qué prefiere. Pero desde el momento que se suelta la absurda excusa de no poder jugar desde el sofá con un PC... 2023, me lo dicen hace 5 años y no me lo creo [facepalm]


Jajaja en el sofá, encender y listo... tú y yo tenemos el pc donde el 95% de los jugadores de pc!
dan-88 escribió:Jajaja en el sofá, encender y listo... tú y yo tenemos el pc donde el 95% de los jugadores de pc!

¿De dónde sacas eso? Después de lo que dijiste me cuesta creer que tú y yo podamos estar en un mismo grupo, estás muy equivocado conmigo.

Y aunque la mayoría de jugadores de PC (me lo invento) jugara en habitaciones de 2x2m donde no le cabe un sofá ni sillón y solo puedan tener un monitor de 21" no haría verdad el hecho de que con PC no se pueda jugar desde el sofá y con una TV 4k. Si en lugar de explicarnos las limitaciones de un PC lo que nos querías explicar eran tus limitaciones logísticas tan solo tenías que haberlo dicho.

En fin, ya suponía que eran unos lloros de impotencia mas que otra cosa. A disfrutar en consolas.
dan-88 escribió:
Rvilla87 escribió:
dan-88 escribió:El año pasado me monté un pc para currar y de paso para jugar. Y tengo clarísimo que me quedo de calle con las consolas.

En cada lanzamiento en pc no se habla de otra cosa que de fsr, dlss, fps, resolución, oclusión ambiental y mil historias por el estilo. Hay que tirarse 3 putas horas para dejar fino un juego. Qué pereza. Aunque entiendo que esto también es un hobby, como pasarles test y bechs. No lo digo a malas. Hay gente que disfruta con esto, yo no.

Por poco más de lo que cuesta una 4070ti te compras una ps5, una xbox series x, 3 años de ultimate y otros tantos de ps plus extra. Con ochocientos juegos top por jugar, encender y listo, desde el sofá en tv 4k, sin historias de configuraciones y con la posibilidad de vender de segunda mano algún juego comprado de lanzamiento sin perder apenas dinero.

Con un PC se puede jugar desde el sofá con una TV 4k a +120fps, sin historia de configuraciones (tienes el preset bajo, medio, alto en el 99% de los juegos, no?) a todos los juegos de xbox series x, a (casi) todos los multiplataforma, a exclusivos de PC (que hay bastantes), a los exclusivos de Sony de PS4/PS5 que también saca para PC (y sin sufrir el mierda de VRR de PS5 que tiene que a menos de 40hz "no tira"). Lo he dicho varias veces, esto en el hilo de consolas donde no suelen tener mucha idea de PCs puede tener cabida (entre ignorantes a nivel PC ya se entienden), en el subforo de PC me parece pecar de ignorante.

La cantidad de ventajas que aporta un PC puede verse empañada, y mucho, si la actitud de ese jugador es la de jugar a los juegos de salida (que muchas veces no están optimizados) y se encuentra con problemas de rendimiento y de todo tipo.

Pero vamos, creo que no hay que darle mucho al coco para darse cuenta que si eso pasa sistemáticamente casi siempre lo que hay que hacer es esperar a jugar unas semanas/meses mas tarde, no? [idea]

También hay inconvenientes, aunque creo que lo mejor es que cada uno valores los pros/contras y decida qué prefiere. Pero desde el momento que se suelta la absurda excusa de no poder jugar desde el sofá con un PC... 2023, me lo dicen hace 5 años y no me lo creo [facepalm]


Jajaja en el sofá, encender y listo... tú y yo tenemos el pc donde el 95% de los jugadores de pc!

Yo he tenido pc bastante tiempo alternado entre TV y monitor ,sofá y silla...

Y una consola no hace lo que hace un pc.No hay nada que una consola haga que no lo pueda hacer un pc

Otra cosa ,es que te quitas mucho rollo de problemas.Prro fuera de eso...
Se juega peor poruqé los juegos salen peores en dos ,en gráficos ...
Quitando algunos porta mal optimizados de pc

Y ojo, que yo siempre tengo consola también
Pero es que ,no hay color.

Ya solo,sin ir muy lejos ,te pones Atomic Heart en Series X y luego lo pones en Pc, y la diferencia es notoria.
Es notoria gráficamente ,es notoria en fluidez y es notoria en el control.
Y como ese ,muchos juegos.

La única ventaja de la consola ,es esa ,su simplicidad.
14371 respuestas