[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

boarone escribió:
PSX22 escribió:
Todopc-WII escribió:@PSX22 Esa se irá 2025 y vete a saber si mediados o finales... no puedo aguantar tanto, a ver si a finales de año puedo pillar una 4080 a buen precio.


ya que te pones la 4080 super es mas barata de pvp. desde luego si tu fuente lo soporta es de lo mejor que hay, pero claro la 5080 ya la tienes por esas fechas o principios 25

El problema es que dudo mucho que baje más de precio la 4080 Super, y me temo que la 5080 va a partir de 1200€ la FE, cuánto va a suponer de mejora una 4080 Super con una 5080 a secas? Lo mismo un 15-20% más rápida? ya veremos los análisis cuando toque o haya alguna filtración.

Un 20% a 4K es bastante ,donde no sobran precisamente los fps

A esto suma ,estoy seguro de ello, que le meterán alguna recnolog8a nueva que reescale mejor ,que de más fps o lo que sea ,que no pueden usar las 4000.
Y ya no es el 20% a secas ,es que ,con RT , seguramente sea más del 20% de diferencia con la 4080S.

@neox3
Puede pasar lo que dices , pero yo sigo viendo una 5080 en unos 1200€.
Si quieren vender ,no hag otra.
A 1400-1500€ ya vieron la puta mierda de 4080 que vendieron.No me extrañaría que fuese una de las peores vendidas de todos los tiempos.

Yo no creo que vayan a coexistir.Simplememte coexistirán hasta que se agoten las 4080S.

Las 4080 no las rebajaron una mierda , pero sin embargo, la 4080S salió a un precio similar al que estaban las 4080 en ese momento.

Que tiene lógica lo que dices ,y sabiendo cómo piensan ,pues puede pasar que digan eso...
Modelo nuevo, tiene que ser más caro.
Funcionan así.
Pero yo ,al no habré vendió una mierda las 4000 en general , en concreto la 4080, y que quiero creer que los accionistas quieren más beneficios del Gaming ,no sólo de la IA ,y que está vez ,no cambian de nodo,que no van a rendir mucho más ...por lo que hay poca razón para encarecerlas ,pues que no van a ser tan suname te caras ,excoectuando la 5090.

Te iba a decir que ya queda menos para saberlo, pero me da que se van a 2025.
boarone escribió:
PSX22 escribió:
Todopc-WII escribió:@PSX22 Esa se irá 2025 y vete a saber si mediados o finales... no puedo aguantar tanto, a ver si a finales de año puedo pillar una 4080 a buen precio.


ya que te pones la 4080 super es mas barata de pvp. desde luego si tu fuente lo soporta es de lo mejor que hay, pero claro la 5080 ya la tienes por esas fechas o principios 25

El problema es que dudo mucho que baje más de precio la 4080 Super, y me temo que la 5080 va a partir de 1200€ la FE, cuánto va a suponer de mejora una 4080 Super con una 5080 a secas? Lo mismo un 15-20% más rápida? ya veremos los análisis cuando toque o haya alguna filtración.



se supone que la 5080 seria como la 4090 o un pelin menos, eso es bastante mas
Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade

La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz

Adjuntos

NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade

La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz



Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.

Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.

Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.
neox3 escribió:
NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade

La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz



Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.

Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.

Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.


si, por eso, cuando hacemos UV manteniendo frecuencias, a veces sacamos 1-2-3 fps mas, porque al estar mas fresco, no hay thermal y las temperaturas permiten que el turbo se mantenga mas tiempo

Entiendo que es por esto por lo que la gente usa RL sin realmente ser necesario
neox3 escribió:
NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade

La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz



Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.

Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.

Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.



no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.
NewsOld escribió:
neox3 escribió:
NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade

La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz



Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.

Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.

Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.



no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.


El aumento de la temperatura en las memorias es instantaneo, y por lo que sea, esos 2 juegos puede que llenen más vram y por eso pasa, monitoriza la temperatura de la ram... pero vamos, es totalmente normal, no le des vueltas.
neox3 escribió:
NewsOld escribió:
neox3 escribió:

Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.

Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.

Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.



no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.


El aumento de la temperatura en las memorias es instantaneo, y por lo que sea, esos 2 juegos puede que llenen más vram y por eso pasa, monitoriza la temperatura de la ram... pero vamos, es totalmente normal, no le des vueltas.



Con el gpu-z las temperaturas de la vram y Hot spot no pasan de 60°C
Aunque si dices que es normal, me quedo un poco más tranquilo
NewsOld escribió:
neox3 escribió:
NewsOld escribió:

no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.


El aumento de la temperatura en las memorias es instantaneo, y por lo que sea, esos 2 juegos puede que llenen más vram y por eso pasa, monitoriza la temperatura de la ram... pero vamos, es totalmente normal, no le des vueltas.



Con el gpu-z las temperaturas de la vram y Hot spot no pasan de 60°C
Aunque si dices que es normal, me quedo un poco más tranquilo


si, yo tengo una serie 4000 tb y la velocidad de la vram, no siempre es la misma.

Por cierto, no se si está comentado pero parece ser que está teniendo Nvidia problemas para hacer todo el stock preventa de Blackwell (vamos, la serie 5000 digamos para profesionales, que esta gama pro sale antes que las de escritorio, habitualmente).

Han tenido un fallo de diseño y tienen que poner de nuevo en producción todos los chips centrales de estas gpu y que ya avisan que se va ir su puesta de largo a primer cuarto de 2025, es más, han avisado ya de ello a uno de sus socios prioritarios, que es Microsoft.

Por lo que mucho me temo que las de escritorio no van a ser ni presentadas este año, si conservan esta tradición se pueden ir fácil, a segundo cuarto de 2025...

Además, a Nvidia se le acumulan los problemas y acaban de abrirles una demanda antimonopolio, en el mercado de la IA (donde acaparan el 80% del mercado de chips).
Mangaverse está baneado por "Troll"
Saludos. Qué gráfica calidad / precio a día de hoy que me permita con un monitor 2K jugar lo mejor posible me podéis recomendar? El dinero no es problema (aunque no soy Elon Musk, claro) pero veo una chorrada por ejemplo comprarme una 4090 con el consumo que tiene respecto a comprar a lo mejor algún modelo previo, que irá también como un rayo y sin tener un gasto de luz del copón.

El PC donde la quiero poner es el siguiente (por si sirve para lo que me podáis recomendar):

Procesador --> i9 12900K
RAM --> Corsair DOMINATOR PLATINUM RGB DDR5 32 GB (2 x 16 GB) 5200MHz
HD --> Samsung 980 Pro SSD 1TB PCIe NVMe M.2

gracias por adelantado
@Mangaverse Te falta un dato bastante importante, qué fuente de alimentación tienes, y a qué tasa de refresco vas a jugar, o el monitor exacto que tienes. Si juegas a títulos competitivos o los últimos AAA.
Mangaverse está baneado por "Troll"
boarone escribió:@Mangaverse Te falta un dato bastante importante, qué fuente de alimentación tienes, y a qué tasa de refresco vas a jugar, o el monitor exacto que tienes. Si juegas a títulos competitivos o los últimos AAA.


Vale ahí va:

Monitor 165Hz
Fuente Corsair H850
Vale te doy mi opinión, en tu caso compraría 4070ti Super o si te quieres estirar la 4080 Super. Pero pienso que con la 70Ti Super irá muy fina. Yo también juego en esaa resolución con los mismos HZ y he estado tanteando ambas gráficas.
RTX 4070 TI Super, RTX 4080 ó RTX 4080 Super dependiendo de tu nivel de exigencia y/o bolsillo.

Saludos.
Mangaverse está baneado por "Troll"
boarone escribió:Vale te doy mi opinión, en tu caso compraría 4070ti Super o si te quieres estirar la 4080 Super. Pero pienso que con la 70Ti Super irá muy fina. Yo también juego en esaa resolución con los mismos HZ y he estado tanteando ambas gráficas.


Gracias, miraré precios

javier español escribió:RTX 4070 TI Super, RTX 4080 ó RTX 4080 Super dependiendo de tu nivel de exigencia y/o bolsillo.

Saludos.


Tomo nota también. Gracias, Saludos

La 4080 Super más barata que veo en PcComponentes ronda 1129Eur. Es precio normal eso?

Por ejemplo: https://www.pccomponentes.com/gigabyte- ... dr6x-dlss3
@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...
Mangaverse está baneado por "Troll"
boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...


Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.

https://ibericavip.com/blog/pc-workstat ... ndimiento/

EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:

"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."

Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...

Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener
Mangaverse escribió:
boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...


Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.

https://ibericavip.com/blog/pc-workstat ... ndimiento/

EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:

"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."

Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...

Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener

Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.

Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD
Mangaverse escribió:Saludos. Qué gráfica calidad / precio a día de hoy que me permita con un monitor 2K jugar lo mejor posible me podéis recomendar? El dinero no es problema (aunque no soy Elon Musk, claro) pero veo una chorrada por ejemplo comprarme una 4090 con el consumo que tiene respecto a comprar a lo mejor algún modelo previo, que irá también como un rayo y sin tener un gasto de luz del copón.

¿Qué gasto de luz del copón? :-? No sé cómo nadie te ha dicho nada al respecto, si es algo que se ha hablado mucho en este hilo. Fíjate, eficiencia energética comparando con la 4080 Super: https://www.techpowerup.com/review/msi- ... rt/42.html

El precio por frame de la 4090 está en 4º posición (se repite 2 veces esa 4080 super por lo de expert) y está muy igualada con la 1º.

Y todo eso de base sin tocarla ni nada, porque si aplicas powerlimit o undervolt (son 2 cosas diferentes) puedes tener una mejora de consumo sin apenas afectar al rendimiento, con lo cual aún mejoras mas ese gráfico anterior (aunque todas se pueden optimizar mas, no sé si tanto como la 4090 por eso), esto es algo que se ha puesto muchas veces:

Por otra parte me extraña que el dinero no sea problema y te ¿preocupe/moleste? pagar un poco mas con la diferencia de gráfica, no sé si tienes claro la diferencia de consumos (o quizás tienes una tarifa eléctrica muy cara... y ni con esas lo entiendo). Incluso en el caso de una diferencia de 100W de base sin tocar nada y teniendo en cuenta un precio de la electricidad de unos 15 centimos el kwh (y ha habido ofertas mejores en el pasado reciente), hablamos de un consumo de 1,5 céntimos a la hora o 1,8€ al mes si la usas 4h al día (120h en total). Aún en el peor de los casos, porque en realidad puede ser mejor, ¿ves importante esos 2€ por 120h de uso con una tarjeta mas potente?

Y quizás no lo sabías, pero jugando a juegos nada exigentes puede estar la gráfica a 50W o así (si no recuerdo mal) aplicando undervolt (y/o powerlimit supongo), no es que siempre esté a 450W.

Te preguntaron si vas a jugar a juegos exigentes y no veo que respondieras, es muy importante saber eso porque por ejemplo a 1440p con Ray Tracing ni siquiera la 4090 llega a los 165hz de tu monitor en muchos juegos (Alan Wake 2 por ejemplo 78 FPS con 4090 y 61 FPS con 4080 Super): https://www.techpowerup.com/review/msi- ... rt/35.html

¿Quieres lo mejor para tu monitor a 1440p? Ni la 4090 llega al límite como para bajar de nivel cuando el dinero no es problema, la verdad no entiendo el razonamiento.


Vamos, que muy en resumidas cuentas, con una 4090 puedes ir sobrado en muchos casos y NO consumir mas (no mucho mas al menos) y en cambio te da la posibilidad de extrujarla al máximo (aún limitando su consumo como ya puse) en los casos necesarios, cosa que la 4080 no te permitirá.
Mangaverse está baneado por "Troll"
adriano_99 escribió:
Mangaverse escribió:
boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...


Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.

https://ibericavip.com/blog/pc-workstat ... ndimiento/

EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:

"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."

Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...

Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener

Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.

Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD


Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.

@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.
@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD
Mangaverse está baneado por "Troll"
adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD


Me parece muy bien que les tengas el hate que sea contra ellos, pero ya te digo yo que la mayoría de ellos entiende de HW como tú o más, al final es gente que lleva años dedicándose a ello y que se configuran sus propios PCs (aunque obviamente habrá también el típico que paga por lo más "TOP" a priori y se lo dan, pero son los menos).

Pues eso, desde siempre = 2010. Tampoco por "desde siempre" vamos a pensar en los años 90, obviamente. Pero que ya han pasado bastantes años desde que se dice lo del "2K".

ChatGPT:

En el contexto de los videojuegos, la resolución que comúnmente se conoce como "2K" es 2560x1440 píxeles. Esta resolución también es conocida como QHD (Quad HD) y a veces 1440p. La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles.

Detalles sobre 2K en videojuegos
Resolución exacta: 2560x1440 píxeles.
Aspect ratio: 16:9, que es el mismo que el de las resoluciones más comunes como 1080p (1920x1080) y 4K (3840x2160).
Ventajas: La resolución 2K ofrece una notable mejora en la calidad de imagen comparada con 1080p, proporcionando detalles más nítidos y mayor claridad sin la exigencia de hardware tan alta como la que requiere el 4K.
Popularidad: Se ha vuelto muy popular entre los jugadores y entusiastas de los videojuegos, especialmente aquellos con PCs de gama media a alta, ya que ofrece un buen equilibrio entre calidad visual y rendimiento.

Terminología Comparativa
1080p (Full HD): 1920x1080 píxeles.
1440p (2K/QHD): 2560x1440 píxeles.
4K (UHD): 3840x2160 píxeles.

Pues eso.
Mangaverse escribió:
adriano_99 escribió:
Mangaverse escribió:
Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.

https://ibericavip.com/blog/pc-workstat ... ndimiento/

EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:

"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."

Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...

Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener

Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.

Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD


Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.

@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.

La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.

Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .

Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie

Es cara ,sí pero es que es la mejor en todo ,con diferencia

En cuanto a lo del mal llamado 3k, es un mal ya muy extendido [beer]
Mangaverse está baneado por "Troll"
hh1 escribió:
Mangaverse escribió:
adriano_99 escribió:Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.

Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD


Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.

@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.

La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.

Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .

Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie

Es cara ,sí pero es que es la mejor en todo ,con diferencia

En cuanto a lo del mal llamado 3k, es un mal ya muy extendido [beer]


Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca [toctoc]
Mangaverse escribió:
adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD


Me parece muy bien que les tengas el hate que sea contra ellos, pero ya te digo yo que la mayoría de ellos entiende de HW como tú o más, al final es gente que lleva años dedicándose a ello y que se configuran sus propios PCs (aunque obviamente habrá también el típico que paga por lo más "TOP" a priori y se lo dan, pero son los menos).

Pues eso, desde siempre = 2010. Tampoco por "desde siempre" vamos a pensar en los años 90, obviamente. Pero que ya han pasado bastantes años desde que se dice lo del "2K".

ChatGPT:

En el contexto de los videojuegos, la resolución que comúnmente se conoce como "2K" es 2560x1440 píxeles. Esta resolución también es conocida como QHD (Quad HD) y a veces 1440p. La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles.

Detalles sobre 2K en videojuegos
Resolución exacta: 2560x1440 píxeles.
Aspect ratio: 16:9, que es el mismo que el de las resoluciones más comunes como 1080p (1920x1080) y 4K (3840x2160).
Ventajas: La resolución 2K ofrece una notable mejora en la calidad de imagen comparada con 1080p, proporcionando detalles más nítidos y mayor claridad sin la exigencia de hardware tan alta como la que requiere el 4K.
Popularidad: Se ha vuelto muy popular entre los jugadores y entusiastas de los videojuegos, especialmente aquellos con PCs de gama media a alta, ya que ofrece un buen equilibrio entre calidad visual y rendimiento.

Terminología Comparativa
1080p (Full HD): 1920x1080 píxeles.
1440p (2K/QHD): 2560x1440 píxeles.
4K (UHD): 3840x2160 píxeles.

Pues eso.

Como va a ser 2560 una mejor aproximación a 2000 que 1920?
1440p en todo caso podría aproximarse a 2,5k.
2k es una aproximación de 1920*1080 porque si multiplicas por 2 obtienes 3840*2160.
Vaya, es casi como si multiplicar 2k por 2 te debiera de dar 4k.
Sin embargo si multiplicas 2560*1440 por dos obtienes 5120*2880.
Bastante lejos de ser 4k, más bien 5k.
Hazte un favor a ti mismo y no uses chatgpt para informarte, que se inventa la mitad de cosas que dice.
Mangaverse está baneado por "Troll"
adriano_99 escribió:
Mangaverse escribió:
adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD


Me parece muy bien que les tengas el hate que sea contra ellos, pero ya te digo yo que la mayoría de ellos entiende de HW como tú o más, al final es gente que lleva años dedicándose a ello y que se configuran sus propios PCs (aunque obviamente habrá también el típico que paga por lo más "TOP" a priori y se lo dan, pero son los menos).

Pues eso, desde siempre = 2010. Tampoco por "desde siempre" vamos a pensar en los años 90, obviamente. Pero que ya han pasado bastantes años desde que se dice lo del "2K".

ChatGPT:

En el contexto de los videojuegos, la resolución que comúnmente se conoce como "2K" es 2560x1440 píxeles. Esta resolución también es conocida como QHD (Quad HD) y a veces 1440p. La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles.

Detalles sobre 2K en videojuegos
Resolución exacta: 2560x1440 píxeles.
Aspect ratio: 16:9, que es el mismo que el de las resoluciones más comunes como 1080p (1920x1080) y 4K (3840x2160).
Ventajas: La resolución 2K ofrece una notable mejora en la calidad de imagen comparada con 1080p, proporcionando detalles más nítidos y mayor claridad sin la exigencia de hardware tan alta como la que requiere el 4K.
Popularidad: Se ha vuelto muy popular entre los jugadores y entusiastas de los videojuegos, especialmente aquellos con PCs de gama media a alta, ya que ofrece un buen equilibrio entre calidad visual y rendimiento.

Terminología Comparativa
1080p (Full HD): 1920x1080 píxeles.
1440p (2K/QHD): 2560x1440 píxeles.
4K (UHD): 3840x2160 píxeles.

Pues eso.

Como va a ser 2560 una mejor aproximación a 2000 que 1920?
1440p en todo caso podría aproximarse a 2,5k.
2k es una aproximación de 1920*1080 porque si multiplicas por 2 obtienes 3840*2160.
Vaya, es casi como si multiplicar 2k por 2 te debiera de dar 4k.
Sin embargo si multiplicas 2560*1440 por dos obtienes 5120*2880.
Bastante lejos de ser 4k, más bien 5k.
Hazte un favor a ti mismo y no uses chatgpt para informarte, que se inventa la mitad de cosas que dice.


Que si, que muy bien, pero eso no quita que comúnmente desde hace muchos años, en la práctica, el 2K se asocie a dicha resolución de 2560x1440 aunque no sea técnicamente precisa.

Pon en Google: "comprar monitor 2K" y a ver en los primeros resultados (que son de PcComponentes), lo que aparece:

Imagen

de nuevo, que no es 2K como tal, de acuerdo, pero es lo que está aceptado por defecto cuando hablamos de 2K y cualquier persona lo asocia a dicha resolución.
Mangaverse escribió:
hh1 escribió:
Mangaverse escribió:
Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.

@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.

La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.

Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .

Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie

Es cara ,sí pero es que es la mejor en todo ,con diferencia

En cuanto a lo del mal llamado 3k, es un mal ya muy extendido [beer]


Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca [toctoc]

La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.

Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.

Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.

A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.

La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.

También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.
Mangaverse está baneado por "Troll"
hh1 escribió:
Mangaverse escribió:
hh1 escribió:La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.

Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .

Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie

Es cara ,sí pero es que es la mejor en todo ,con diferencia

En cuanto a lo del mal llamado 3k, es un mal ya muy extendido [beer]


Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca [toctoc]

La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.

Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.

Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.

A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.

La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.

También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.


Lo puse por arriba, pero el monitor es de 165Hz. Que al final eso pues claro, va acorde a los FPS. Entonces ves mejor para esos Hz la 4080Super? Ok gracias, lo tendré en cuenta.

La "cercanía" de la 5090 es que la anuncien si acaso en Diciembre 2024 y luego vete a saber cuando sale... pero mínimo 2025 y habría que ver el stock, posibles fallos iniciales... etc

Mirando tu firma por ejemplo, me sorprende que con la 4090 tengas un I5 12600. No te hace cuello de botella? No lo piensas upgradear? O te va bien así? Es que se me hace en plan el procesador que está muy por detrás del pepino de gráfica que llevas. Igual que quizás ir con solamente 16 de RAM.
Mangaverse escribió:
hh1 escribió:
Mangaverse escribió:
Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca [toctoc]

La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.

Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.

Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.

A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.

La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.

También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.


Lo puse por arriba, pero el monitor es de 165Hz. Que al final eso pues claro, va acorde a los FPS. Entonces ves mejor para esos Hz la 4080Super? Ok gracias, lo tendré en cuenta.

La "cercanía" de la 5090 es que la anuncien si acaso en Diciembre 2024 y luego vete a saber cuando sale... pero mínimo 2025 y habría que ver el stock, posibles fallos iniciales... etc

Para mí, 165hz están en el límite.

Viendo la proximidad de las 5000 ,la 4090 se te va a devaluar una barbaridad en unos meses.
Y en muchos juegos los 165hz se quedan cortos.
En otros no, claro.
Pero ten en cuenta ,que según que juegos ,vas a llevar limitada la 4090 por los Hz del monitor.
Con la 4080S te ocurriría menos y se te va a devaluar menos porque vale ,bastante menos
Mangaverse está baneado por "Troll"
hh1 escribió:
Mangaverse escribió:
hh1 escribió:La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.

Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.

Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.

A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.

La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.

También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.


Lo puse por arriba, pero el monitor es de 165Hz. Que al final eso pues claro, va acorde a los FPS. Entonces ves mejor para esos Hz la 4080Super? Ok gracias, lo tendré en cuenta.

La "cercanía" de la 5090 es que la anuncien si acaso en Diciembre 2024 y luego vete a saber cuando sale... pero mínimo 2025 y habría que ver el stock, posibles fallos iniciales... etc

Para mí, 165hz están en el límite.

Viendo la proximidad de las 5000 ,la 4090 se te va a devaluar una barbaridad en unos meses.
Y en muchos juegos los 165hz se quedan cortos.
En otros no, claro.
Pero ten en cuenta ,que según que juegos ,vas a llevar limitada la 4090 por los Hz del monitor.
Con la 4080S te ocurriría menos y se te va a devaluar menos porque vale ,bastante menos


Vale, pues valoraré todo. Quizás por 4-5 meses merezca la pena esperar a la 5090 e incluso comprar un monitor con más Hz. Gracias
@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.

De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440 :Ð


Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error... XD
Mangaverse escribió:
Que si, que muy bien, pero eso no quita que comúnmente desde hace muchos años, en la práctica, el 2K se asocie a dicha resolución de 2560x1440 aunque no sea técnicamente precisa.

Pon en Google: "comprar monitor 2K" y a ver en los primeros resultados (que son de PcComponentes), lo que aparece:

Imagen

de nuevo, que no es 2K como tal, de acuerdo, pero es lo que está aceptado por defecto cuando hablamos de 2K y cualquier persona lo asocia a dicha resolución.

Sabes que precisamente google está diseñado para saber detectar lo que buscas aunque escribas las palabras mal verdad?
Primero chatGPT y ahora esto, tus argumentos están al nivel de "no puede ser mentira porque lo dice mi cuñado".
Como ya te han dicho sabes que tengo razón y sabes que es incorrecto, que famosos y empresas se agarren a un término incorrecto no hace que deje de ser incorrecto.

@Rvilla87 Hace como un mes estuve tratando de usar chatGPT para encontrar el nombre de una pelicula que vi hace años.
Se la describí con muchos detalles pero ninguna que me decía era la correcta.
Después de unos 10-15 intentos se puso en modo full alucinación y empezó a decirme nombres de peliculas de miedo al azar cambiando su sinopsis verdadera por una sinopsis falsa reordenando y cambiando por sinónimos todo lo que yo le había puesto como la descripción de la pelicula que buscaba.
Imagina que yo te digo: busco una pelicula en que un elefante se hace patinador hasta que tiene una lesión en la rodilla y se ve obligado a abrir una tienda de patinetes.
Después de varios intentos fallidos tu empiezas a decirme:
La pelicula que tu buscas es pocahontas! Una pelicula sobre un elefante que se ve obligado a abandonar su deporte pero encuentra su felicidad vendiendo patinetes
La pelicula que tu buscas es Jumanji! Una pelicula sobre un patinador elefante que cambia de oficio para empezar a vender patinetes.
Pues ese es el nivel de chatGPT y la gente coge lo que dice como si fuese la palabra de un catedrático.
Mangaverse está baneado por "Troll"
Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.

De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440 :Ð


Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error... XD


Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:

https://www.macnificos.com/monitores-2k

https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032

en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K" [sonrisa]

Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.

@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.

Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.

Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.

Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc [sonrisa]
Mangaverse escribió:
Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.

De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440 :Ð


Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error... XD


Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:

https://www.macnificos.com/monitores-2k

https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032

en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K" [sonrisa]

Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.

@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.

Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.

Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.

Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc [sonrisa]

Y dale.
Google funciona con tags.
PCcomponentes ha puesto el tag 2k en su web porque sabe que hay mucha gente que lo usa de manera equivocada pero lo único que les importa es ganar dinero.
Ni las búsquedas de google ni lo que hacen las tiendas para aparecer en ellas demuestran nada porque con que supiesen que una sola persona de mas al año va a entrar en su tienda si ponen eso ya lo harían.
Está aceptado por gente que se informa sobre el tema a nivel muy superficial,ningún canal de youtube ni revista ni medio especializado lo usa porque está mal.
Sabes que tambien puedes encontrar muchisima gente que dice?
Que la tierra es plana.
Que las vacunas dan autismo.
Que la raza blanca es superior a las demás.

Yo solo te he pedido que hables correctamente ya que estamos en un foro y en un hilo especializado y se agradece que al menos la gente de aqui llame a las cosas por su nombre.
No quieres? Estupendo.
Pero deja de darle vueltas con demostraciones absurdas de google y chat gpt.
El argumento de "pero mucha gente lo hace!" no es, nunca ha sido y nunca será valido para nada.
@Mangaverse la RAE tambien acepto "Toballa" por que la gente es tonta y no sabe decir Toalla, tambien acepto "Asin" por que la gente no sabe decir asi....

Podriamos ir a temas deportivos, como lo de Franco dando Copas de Europa al Real Madrid, un DICTADOR que no tenia buena relacion con Europa, regalaba la maxima competicion del Continente por que si, eso dicen muchos......

Hay quien dice que de jugar en FHD a UHD solo se multiplica por dos la resolucion, cuando en realidad es por cuatro......

¿Tengo que continuar poniendo ejemplos de algo que esta mal y por tanto decirlo se asume como que es cierto o puedo parar?

Algunos de tanto escuchar el 1 + 1 son 7 de los Serrano lo mismo pensais que es cierto🤣
adriano_99 escribió:Imagina que yo te digo: busco una pelicula en que un elefante se hace patinador hasta que tiene una lesión en la rodilla y se ve obligado a abrir una tienda de patinetes.
Después de varios intentos fallidos tu empiezas a decirme:
La pelicula que tu buscas es pocahontas! Una pelicula sobre un elefante que se ve obligado a abandonar su deporte pero encuentra su felicidad vendiendo patinetes
La pelicula que tu buscas es Jumanji! Una pelicula sobre un patinador elefante que cambia de oficio para empezar a vender patinetes.
Pues ese es el nivel de chatGPT y la gente coge lo que dice como si fuese la palabra de un catedrático.

Hostia, sabía que era una mierda, pero no tan mierda [qmparto]

@Mangaverse lo de que sea aceptada es un decir, lo ha aceptado la población (ignorante que no sabe de lo que habla) y los comercios/fabricantes por un tema de marketing, no significa que sea correcto. Tú sabes que es incorrecto, así que pudiendo llamar 1440p que es lo correcto, ¿prefieres llamarlo incorrectamente 2k? Justo te iba a decir lo que dicen de la RAE, que ya te lo han dicho: Almóndiga, Asín, Toballa, Vagamundo, Otubre... por decir unas cuantas.

Google tampoco sirve de validador, se basa en las búsquedas de la gente (y otras cosas). Si por ejemplo ahora mismo millones de personas buscamos la palabra manzana en google y la mayoría hacemos link a la 5º página de resultados que habla de limones (una relación aislada de un artículo que habla de frutas en general), sabes qué pasará dentro de unas horas/días/semanas? Que cuando la gente busque manzana como 1º link le aparecerá esa página que habla de limones. ¿Es correcto? Claro que no, pero así funciona y así ha quedado "porque lo dice la gente".

Por ejemplos, unos especialistas en el tema de análisis de monitores/TVs (Rtings), fíjate dónde nombran los 2k, en el marketing (que se basa en engañar a ignorantes): https://www.rtings.com/monitor/learn/10 ... 440p-vs-4k
hh1 escribió:Para mí, 165hz están en el límite.

Ya se que has dicho que no en todos ¿pero en cuales 165Hz estan al limite? ya se que es con la 4090.

Supongo que el limite sera sin usar RT. Entonces sí ¿pero para que quieres otra grafica mejor?
Hola compañeros, se me ha muerto una 2080 ti y estoy pensando en comprar una 4070 super, pero igual mis componentes se quedan cortos para esta gráfica, estos son
Placa Asus tuf b450 plus
Ryzen 7 3700x
32 gigas de RAM corsair 3200 MHz
Bitfenix formula 650w

Un saludo compañeros
pepelardilla escribió:Hola compañeros, se me ha muerto una 2080 ti y estoy pensando en comprar una 4070 super, pero igual mis componentes se quedan cortos para esta gráfica, estos son
Placa Asus tuf b450 plus
Ryzen 7 3700x
32 gigas de RAM corsair 3200 MHz
Bitfenix formula 650w

Un saludo compañeros

Pues depende de la resolución y hercios a los que juegues.
4k/60 fps? Te va a limitar prácticamente siempre la gráfica.
1440p o incluso 1080p a altos fps? Probablemente te limite la cpu en muchos juegos o casi todos.
Hola!

Pues la 4080 super por 1000e que la compre, ha salido muy buena, eh.

Esta claro que no rinde como una 4090, pero no necestio mas de 2k a 144.
Nomada_Firefox escribió:
hh1 escribió:Para mí, 165hz están en el límite.

Ya se que has dicho que no en todos ¿pero en cuales 165Hz estan al limite? ya se que es con la 4090.

Supongo que el limite sera sin usar RT. Entonces sí ¿pero para que quieres otra grafica mejor?

Porque según él tipo de juegos que juegues ,estás desperdiciando gráfica.
Por ejemplo, juegos competitivos.
También ju gos indies.
Juegos que no sean triples A ,muchos también.
Se pasa holgadamente de esos 165fps.
Luego, en otros más pesados o con RT ,obviamente ,no.

Tú fíjate ,que incluso que juegos vanal optimizados y que no me tiran bien de GPU, ya pasó esos 165 fps.Y ni siquiera van como deberían ir.Que va la gráfica al 60% ,por poner un ejemplo.

Pero si juegas de todo ,tienes una gráfica que en la mitad de los j gis que suss o más ,van limitados por el.monitor...
No sé.
Tal vez con una 4080S puede tirar también.
Por eso lo digo.

Que ojo, 165fps son suficientes ,pero es que hablamos de una gráfica de 1800 napos que es ncima ,en 4-5 meses ha valdrá bastante menos

No sé ,no termino de verlo,salvo necesidad imperiosa ya.

@pepelardilla
Como te dicen ,según tú resolución y Hz de la pantalla.
Pero de primeras ,no me parece tan mala cpu para esa gráfica.
Si no tienes un monitor con fps altísimos, en 1440p te va a limitar más la gráfica que la cpu

En 4K te va a limitar la gráfica sí o sí.

Y en 1080p dí te puede limitar algo más la cpu ,p a o tampoco lo veo tan grave
Además ,de que muy fácilmente solucionable con una 5700X3D o un 5600X si quieres gastar menos
Pero no creo que sea para tanto
Yo lo veo bien.

@Mangaverse
Yo no gastaría en cambiar monitor por pasar de 165 a 240hz.
Otra cosa es que cambies a 240hz ,cambiando también a un monitor con mejor tecnología y calidad.
Eso es otro tema
@adriano_99 @hh1
Gracias a los 2 por contestar compañeros, la verdad es que suelo jugar a 1440p a 60 FPS, con eso me conformo y lo del procesador ya lo tenía pensado en pillar un 5700x, es más compre uno en wallapop hace un par de meses y lo tuve que devolver porque me vino con 3 o pines doblados y ya se me quitaron las ganas de comprar otro, un saludo
@hh1 Sí es cierto, no necesitas una 4090 para el 99% de los titulos que no son lanzados en consola funcionan con bastante menos necesidad de hardware.

Yo tengo un monitor de 1440p y 165hz pero como son 165 con OC, lo uso a 144 y simplemente pongo 145fps en el limitador de fps del panel de control de nvidia para que el Gsync coja absolutamente todo el rango.

Asi que sí, a mi me sobra y a ti muchisimo más. Pero mira el lado bueno, gastas menos corriente y el PC se calienta menos.

Por supuesto, ese tipo de juegos explica que en Steam aparezca la RTX 3060 y CPUs no tan modernas como lo más usado. Yo ahora mismo escribo desde el otro PC, una Ryzen 7 5700X con una 3060 y mueve sin problemas muchas cosas, incluido la verdad, juegos actuales.

Pero si juegas ports de consola, la situación no es asi. Aunque todos sabemos que son una estafa por más que nos gusten porque simplemente estan capados y absolutamente mal optimizados para PC.

@pepelardilla Ah ya viste la virtud de las CPUs del socket AM4, los pins estan en la CPU, asi que es facil que se doblen. Sobretodo si la gente lo desmonta sin tener ni idea. Hay que sacarlo siempre en caliente para que el disipador salga bien y tirar de la CPU en vertical con cuidado, por supuesto no tocar los pins. Pero siempre hay brutos en el mundo.

La verdad, el 5700X, esta super regalado ahora. Tambien vender el 5700X3D en Aliexpress por menos de 200€. Yo lo valoraria siempre que no uses el disipador de serie, es más fresco que el 5700X3D pero tampoco super fresco. El 5700X a secas es fresco pero aún asi, pinchandolos con disipadores sencillos y en verano.......se calientan, sobretodo se notaria en reposo. Yo lo tengo con un Deepcool AK620, un monstruo pero antes lo tuve con un Cooler Master Hyper 212 Black Edition y no me gusto lo que vi en pleno julio.

No obstante con un Ryzen 7 3700X, puedes perfectamente poner una RTX 4070 Super. Hay que tener en cuenta que esa grafica es lo que tendria que haber sido la RTX 4060Ti. Es una gama media. La gama no se mide por la numeración, se mide por el rendimiento. Y el 3700X, no es mala CPU. Y si juegas a 1440p, que podras, lo notaras menos, a 1080p, veras titulos que aceleran la CPU, vamos que esta hace cuello de botella pero para eso limitas los fps y a correr. No tiene ningun sentido dejar que la CPU este a todo trapo.

Luego como dice hh1, hay titulos, que con RT, en ultra, no van a correr tanto.
pepelardilla escribió:@adriano_99 @hh1
Gracias a los 2 por contestar compañeros, la verdad es que suelo jugar a 1440p a 60 FPS, con eso me conformo y lo del procesador ya lo tenía pensado en pillar un 5700x, es más compre uno en wallapop hace un par de meses y lo tuve que devolver porque me vino con 3 o pones doblados y ya se me quitaron las ganas de comprar otro, un saludo

No te recomiendo que des el cambio por cualquier cosa que no sea un 5700x3d o un 5800x3d.
En juegos barren a absolutamente todo lo demás en tu plataforma.
Hasta el punto de que en algunos juegos rinden más que los ryzen 7000 que no son 3D.
Jugando a 1080p, si, pero en cuento subes de 1080p, la diferencia de un X3D con otra CPU disminuye.

Ademas poner un X3D, requiere tener buena disipación. El 5700X3D, se calienta más que un 5800X. Resulta muy llamativo que la mayoria de reviews, pasan de poner temperaturas de ese micro, alguna los consumos. Tambien hay que fijarse mucho que ponen todo analisis a 1080p.
Nomada_Firefox escribió:@hh1 Sí es cierto, no necesitas una 4090 para el 99% de los titulos que no son lanzados en consola funcionan con bastante menos necesidad de hardware.

Yo tengo un monitor de 1440p y 165hz pero como son 165 con OC, lo uso a 144 y simplemente pongo 145fps en el limitador de fps del panel de control de nvidia para que el Gsync coja absolutamente todo el rango.

Asi que sí, a mi me sobra y a ti muchisimo más. Pero mira el lado bueno, gastas menos corriente y el PC se calienta menos.

Por supuesto, ese tipo de juegos explica que en Steam aparezca la RTX 3060 y CPUs no tan modernas como lo más usado. Yo ahora mismo escribo desde el otro PC, una Ryzen 7 5700X con una 3060 y mueve sin problemas muchas cosas, incluido la verdad, juegos actuales.

Pero si juegas ports de consola, la situación no es asi. Aunque todos sabemos que son una estafa por más que nos gusten porque simplemente estan capados y absolutamente mal optimizados para PC.

@pepelardilla Ah ya viste la virtud de las CPUs del socket AM4, los pins estan en la CPU, asi que es facil que se doblen. Sobretodo si la gente lo desmonta sin tener ni idea. Hay que sacarlo siempre en caliente para que el disipador salga bien y tirar de la CPU en vertical con cuidado, por supuesto no tocar los pins. Pero siempre hay brutos en el mundo.

La verdad, el 5700X, esta super regalado ahora. Tambien vender el 5700X3D en Aliexpress por menos de 200€. Yo lo valoraria siempre que no uses el disipador de serie, es más fresco que el 5700X3D pero tampoco super fresco. El 5700X a secas es fresco pero aún asi, pinchandolos con disipadores sencillos y en verano.......se calientan, sobretodo se notaria en reposo. Yo lo tengo con un Deepcool AK620, un monstruo pero antes lo tuve con un Cooler Master Hyper 212 Black Edition y no me gusto lo que vi en pleno julio.

No obstante con un Ryzen 7 3700X, puedes perfectamente poner una RTX 4070 Super. Hay que tener en cuenta que esa grafica es lo que tendria que haber sido la RTX 4060Ti. Es una gama media. La gama no se mide por la numeración, se mide por el rendimiento. Y el 3700X, no es mala CPU. Y si juegas a 1440p, que podras, lo notaras menos, a 1080p, veras titulos que aceleran la CPU, vamos que esta hace cuello de botella pero para eso limitas los fps y a correr. No tiene ningun sentido dejar que la CPU este a todo trapo.

Luego como dice hh1, hay titulos, que con RT, en ultra, no van a correr tanto.

Sí, es ridículo ver como una 4090 tiene que tirar en algunos juegos de DLSS para estar en 90-100 Fps en 1440p, pero es lo que hay.
Algunos ,como dices ,como metes RT ,si tiras a 70-90 fps ...

Los competitivos son otra cosa ,van vais en cualquier gráfica.Otra cosa es alcanzar los 240fos o más.
El The Finals ,que es al que más juego pero ,está muy mal optimizado.
El juego no va mal de rendimiento para como se ve de bien, pero tiene cosas raras.

Es cpu dependiente, pero es que encima ,hasta eso está mal, porque tiene una limitación evidente.
La cpi va a +80% mientras la gráfica va al 60-70%.
Si activas FG , sí sobre a 220-240fps ,pepe según mapa y según las settings que tengas ,pero ya ves la gráfica al 97%.

El problema viene cuando a gente con un 7800X3D ,les va igual .Da igual la cpu que pongas ,que mientras tengas un mínimo de IPC ,te va a ir igual

Es muy extraño este juego.
Luego, pones TAUU o Dllss.,y va igual.No te cambia nada de fps.
Dentro del DLSS pones cálidad o rendimiento, y otra vez mismos fps.Una diferencia mínima.

Juego super raramente optimizado.vamis ,que a uno que vaya con una 4070 o así, seguro que le va igual que a mí.
Igual que uno que vaya con un 7800X3D, le va a ir como a mí con el 12600.

Para 144fps ,es que una 4090 es tirar el dinero ,sinceramente.
Y como digo, 165 Hz están en elinite ,y yo creo que no .e haría con una 4090 para esos Hz en 1440p.

De todas formas ,es una época que hay tantas variantes y juegos de diferente tipo y optimización , que es imposible muchas veces aseverar tajantemente algo.
Que si con o sin reescalado ,que si con RT o sin RT ,que si con sseetongs bajos /medios/altos ,que si RT o PT...
Luego resolución ,Hz de la pantalla , optimización...

Es que te encuentras juegos donde sudas con todo en ultra y activadi para estar en 80-90 fps reescalando ,y otros con todo activos te montas por encima de 200fps con la minga.

Eso sí, como dices ,a veces las temperaturas y el consumo de la 4090, son de puta locura.
Juegos a 39°C y consumiendo 150w o menos... [+risas]
Acabo de meter una 4080 super en el pc que monte hace meses ( mi primer pc montado en siglos) y he puesto un juego que me regalaban con la grafica ( avatar ) y la verdad que me parece una pasada como se ve, viniendo de PS5 y usando un Odissey Oled G9 en ultra. Me temo que como siga probando juegos me va a parecer una mierda PS5 XD

Por otro lado los conectores, de la fuente tenia varios cables, he usado 1 de 6+2 x2 y otro suelto. Creo que recomiendan 1 para cada conector, pero segun lei tampoco habria gran problema de usarlo como la tengo puesta ( de momento solo queria probarla )
Sevilla FC escribió:Acabo de meter una 4080 super en el pc que monte hace meses ( mi primer pc montado en siglos) y he puesto un juego que me regalaban con la grafica ( avatar ) y la verdad que me parece una pasada como se ve, viniendo de PS5 y usando un Odissey Oled G9 en ultra. Me temo que como siga probando juegos me va a parecer una mierda PS5 XD

Por otro lado los conectores, de la fuente tenia varios cables, he usado 1 de 6+2 x2 y otro suelto. Creo que recomiendan 1 para cada conector, pero segun lei tampoco habria gran problema de usarlo como la tengo puesta ( de momento solo queria probarla )

Es que no tiene nada que ver una consola

El 4K del kc es real ,el de la consola ,no.
Suele ser por debajo o variable .
Los settings del ic los puedes poner altos o ultra/épocos ,en consola suelen ser medios o bajos.
El RT del kc es mil veces mejor que el de consola ,que o no tiene ,o es muy liviano.

Y luego, está la fluidez con los dos ,donde el pc es básicamente te lo que te dé , y en la consola va capaado ,normalmente a 60fps o a 30fps en "4K".

Es que ,es otro mundo.Tqmbuen, el pc es más caro.
Mangaverse está baneado por "Troll"
adriano_99 escribió:
Mangaverse escribió:
Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.

De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440 :Ð


Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error... XD


Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:

https://www.macnificos.com/monitores-2k

https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032

en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K" [sonrisa]

Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.

@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.

Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.

Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.

Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc [sonrisa]

Y dale.
Google funciona con tags.
PCcomponentes ha puesto el tag 2k en su web porque sabe que hay mucha gente que lo usa de manera equivocada pero lo único que les importa es ganar dinero.
Ni las búsquedas de google ni lo que hacen las tiendas para aparecer en ellas demuestran nada porque con que supiesen que una sola persona de mas al año va a entrar en su tienda si ponen eso ya lo harían.
Está aceptado por gente que se informa sobre el tema a nivel muy superficial,ningún canal de youtube ni revista ni medio especializado lo usa porque está mal.
Sabes que tambien puedes encontrar muchisima gente que dice?
Que la tierra es plana.
Que las vacunas dan autismo.
Que la raza blanca es superior a las demás.

Yo solo te he pedido que hables correctamente ya que estamos en un foro y en un hilo especializado y se agradece que al menos la gente de aqui llame a las cosas por su nombre.
No quieres? Estupendo.
Pero deja de darle vueltas con demostraciones absurdas de google y chat gpt.
El argumento de "pero mucha gente lo hace!" no es, nunca ha sido y nunca será valido para nada.


Que si, que me parece muy bien, pero al final todo se resume en que a día de hoy y desde hace muchos años (2010), lo que todo el mundo tiene aceptado salvo "4 tiquismiquis", es:

1440p is technically not 2k.

1440p should be considered more 2.5k than 2k, but the naming standards are weird, which is why 3840x2160 is considered 4k, but actually it is just UHD.

Basically, 2k, 2.5k, 4k etc means that the width (the first number in the resolution) is 2000, 2500, 4000 pixels (roughly).
Hence, true 4k is 4096×2160 and ‘Television standard’ 4k is 3840×2160 UHD

By the logic above, 2560×1440 (1440p at 16:9 aspect ratio) is 2.5k but naming schemes are weird and many people will still call it 2k. 1080p (1920×1080) is way closer to 2k than 1440p (2560×1440).

I prefer to not say 2k 2.5k etc. I just say 4k because it can be widely agreed that 4k = 3840x2160


Por lo que sea menos o más correcto, alguien que diga voy a comprar un monitor "2K", juego a resolución "2K", siempre irá ligado a lo aceptado por la mayoría que es lo que te encontrarás en cualquier juego en las opciones de resolución, 1440p = 2560x1440. La gente quitando el 4K, juega el "99%" a 1080p ó 1440p.

No tiene sentido seguir con la "discusión" del 2K, ya te dije que te entiendo, pero es lo aceptado. No tiene nada que ver luego con lo de la tierra es plana que dices, pues eso no es algo aceptado en su mayoría por la gente como con el 2K / 1440 / 2560x1440p.

@pepelardilla Nvidia + Intel siempre, el mejor combo [amor]

@hh1 La verdad que por mucho que compre la 4090, luego realmente juegos que puedan dar más de 165FPS que sean online... no es que haya demasiados, hablando de juegos decentes, no de un "fortnite".

Para single player incluso igual, que salen muchos juegazos, pero optimizados con el culo. Luego comprarme un monitor para que vaya a más de 165Hz como el que tengo actualmente que es (pongo varias comillas) """"2K"""" pues... complicado.

Tampoco me urge obviamente comprar YA MISMO una 4090, no me voy a morir por esperar al anuncio de la 5090, por saber su precio y además no espero que por mucho que salga la 5090 vayan a rebajar la 4090 más allá de 100eur o similar, por lo que salvo que la rebajasen "500eur", que lo dudo... pues siempre será mejor ir con el último modelo.
14371 respuestas