boarone escribió:PSX22 escribió:Todopc-WII escribió:@PSX22 Esa se irá 2025 y vete a saber si mediados o finales... no puedo aguantar tanto, a ver si a finales de año puedo pillar una 4080 a buen precio.
ya que te pones la 4080 super es mas barata de pvp. desde luego si tu fuente lo soporta es de lo mejor que hay, pero claro la 5080 ya la tienes por esas fechas o principios 25
El problema es que dudo mucho que baje más de precio la 4080 Super, y me temo que la 5080 va a partir de 1200€ la FE, cuánto va a suponer de mejora una 4080 Super con una 5080 a secas? Lo mismo un 15-20% más rápida? ya veremos los análisis cuando toque o haya alguna filtración.
boarone escribió:PSX22 escribió:Todopc-WII escribió:@PSX22 Esa se irá 2025 y vete a saber si mediados o finales... no puedo aguantar tanto, a ver si a finales de año puedo pillar una 4080 a buen precio.
ya que te pones la 4080 super es mas barata de pvp. desde luego si tu fuente lo soporta es de lo mejor que hay, pero claro la 5080 ya la tienes por esas fechas o principios 25
El problema es que dudo mucho que baje más de precio la 4080 Super, y me temo que la 5080 va a partir de 1200€ la FE, cuánto va a suponer de mejora una 4080 Super con una 5080 a secas? Lo mismo un 15-20% más rápida? ya veremos los análisis cuando toque o haya alguna filtración.
NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade
La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz
neox3 escribió:NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade
La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz
Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.
Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.
Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.
neox3 escribió:NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade
La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz
Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.
Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.
Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.
NewsOld escribió:neox3 escribió:NewsOld escribió:Hola, es normal este uso de memoria con los juegos de unreal? esto solo me pasa con el f1 manager y el hellblade
La memoria de la gpu se me queda en 12.252mhz cuando deberia ser 12.500mhz
Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.
Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.
Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.
no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.
neox3 escribió:NewsOld escribió:neox3 escribió:
Cuanta más memoria se use, más temperatura en la ram y por lo tanto Thermal Throttling que hace que baje un poco la velocidad.
Exactamente lo mismo que pasa en el core de la gpu, que cuanta más temperatura, menos velocidad máxima. Seguramente aunque en las capturas veas la misma en gpu, cuando la cosa empiece a subir de los 60 o 65 grados, los mhz de la gpu, también empezarán a bajar.
Es totalmente normal. Activa monitorizar también la temperatura de la ram de la gpu, para comprobar lo que comento.
no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.
El aumento de la temperatura en las memorias es instantaneo, y por lo que sea, esos 2 juegos puede que llenen más vram y por eso pasa, monitoriza la temperatura de la ram... pero vamos, es totalmente normal, no le des vueltas.
NewsOld escribió:neox3 escribió:NewsOld escribió:
no es por tema de temperatura, ya que me pasa nada más arrancar esos 2 juegos, con otros no me pasa.
El aumento de la temperatura en las memorias es instantaneo, y por lo que sea, esos 2 juegos puede que llenen más vram y por eso pasa, monitoriza la temperatura de la ram... pero vamos, es totalmente normal, no le des vueltas.
Con el gpu-z las temperaturas de la vram y Hot spot no pasan de 60°C
Aunque si dices que es normal, me quedo un poco más tranquilo
boarone escribió:@Mangaverse Te falta un dato bastante importante, qué fuente de alimentación tienes, y a qué tasa de refresco vas a jugar, o el monitor exacto que tienes. Si juegas a títulos competitivos o los últimos AAA.
boarone escribió:Vale te doy mi opinión, en tu caso compraría 4070ti Super o si te quieres estirar la 4080 Super. Pero pienso que con la 70Ti Super irá muy fina. Yo también juego en esaa resolución con los mismos HZ y he estado tanteando ambas gráficas.
javier español escribió:RTX 4070 TI Super, RTX 4080 ó RTX 4080 Super dependiendo de tu nivel de exigencia y/o bolsillo.
Saludos.
boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...
Mangaverse escribió:boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...
Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.
https://ibericavip.com/blog/pc-workstat ... ndimiento/
EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:
"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."
Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...
Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener
Mangaverse escribió:Saludos. Qué gráfica calidad / precio a día de hoy que me permita con un monitor 2K jugar lo mejor posible me podéis recomendar? El dinero no es problema (aunque no soy Elon Musk, claro) pero veo una chorrada por ejemplo comprarme una 4090 con el consumo que tiene respecto a comprar a lo mejor algún modelo previo, que irá también como un rayo y sin tener un gasto de luz del copón.
adriano_99 escribió:Mangaverse escribió:boarone escribió:@Mangaverse El precio normal de esa GPU hace 1 semana era de 1050€. Han vuelto a inflar los precios...
Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.
https://ibericavip.com/blog/pc-workstat ... ndimiento/
EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:
"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."
Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...
Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener
Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.
Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD
adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD
Mangaverse escribió:adriano_99 escribió:Mangaverse escribió:
Ya, no estoy puesto en precios, pero pensaba que rondaría 800-900. La verdad que baratas no son, aunque en esta tabla que vi de rendimiento está la 4080 (imagino que la Super será algo más) por debajo de la 4090, por lo que entiendo que bastante buena será sin ser la locura de la 4090.
https://ibericavip.com/blog/pc-workstat ... ndimiento/
EDITO: Aunque a las alturas que estamos de 2024, no sería mejor esperar a final de año?:
"Fecha de lanzamiento de RTX 5000
El mismo 21 de diciembre 2024 comunicó en su último vídeo que Blackwell está preparada para finales de 2024, pero todo depende de 2 cosas: Las ventas de las NVIDIA RTX 4000. Lo competitivo que sean respecto a RDNA 4 (RX 8000) en las vacaciones de Navidad."
Ni idea a qué precio saldrán esas RTX 5000 y si supondrá una mejoría notable respecto a la 4080 Super por ejemplo o no, pero aunque sea con ese lanzamiento, seguro que la serie 4000 baja algo de precio, "imagino"...
Pero sería esperar 4 meses, claro y lo mismo hasta enero 2025 o cuando sea no la podría tener
Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.
Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD
Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.
@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.
hh1 escribió:Mangaverse escribió:adriano_99 escribió:Las gráficas no suelen bajar de precio cuando salen nuevas salvo en la segunda mano y alguna oferta muy puntual de segunda mano.
Respecto a dichas gráficas los últimos rumores dicen que se han retrasado a enero.
Monetariamente esperar es lo mejor pero faltan entre 5 y 6 meses.
Y por cierto lo siento pero si no lo digo exploto: 2560*1440 no son 2K xD
Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.
@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.
La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.
Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .
Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie
Es cara ,sí pero es que es la mejor en todo ,con diferencia
En cuanto a lo del mal llamado 3k, es un mal ya muy extendido
Mangaverse escribió:adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD
Me parece muy bien que les tengas el hate que sea contra ellos, pero ya te digo yo que la mayoría de ellos entiende de HW como tú o más, al final es gente que lleva años dedicándose a ello y que se configuran sus propios PCs (aunque obviamente habrá también el típico que paga por lo más "TOP" a priori y se lo dan, pero son los menos).
Pues eso, desde siempre = 2010. Tampoco por "desde siempre" vamos a pensar en los años 90, obviamente. Pero que ya han pasado bastantes años desde que se dice lo del "2K".
ChatGPT:
En el contexto de los videojuegos, la resolución que comúnmente se conoce como "2K" es 2560x1440 píxeles. Esta resolución también es conocida como QHD (Quad HD) y a veces 1440p. La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles.
Detalles sobre 2K en videojuegos
Resolución exacta: 2560x1440 píxeles.
Aspect ratio: 16:9, que es el mismo que el de las resoluciones más comunes como 1080p (1920x1080) y 4K (3840x2160).
Ventajas: La resolución 2K ofrece una notable mejora en la calidad de imagen comparada con 1080p, proporcionando detalles más nítidos y mayor claridad sin la exigencia de hardware tan alta como la que requiere el 4K.
Popularidad: Se ha vuelto muy popular entre los jugadores y entusiastas de los videojuegos, especialmente aquellos con PCs de gama media a alta, ya que ofrece un buen equilibrio entre calidad visual y rendimiento.
Terminología Comparativa
1080p (Full HD): 1920x1080 píxeles.
1440p (2K/QHD): 2560x1440 píxeles.
4K (UHD): 3840x2160 píxeles.
Pues eso.
adriano_99 escribió:Mangaverse escribió:adriano_99 escribió:@Mangaverse No, nada de "desde siempre", se empezó a usar poco después de que las marcas de teles empezarán a sustituir el UHD de las teles por el 4K
Y lo que digan streamers "famosos" me importa 2 pepinos porque la inmensa mayoría saben de hardware lo que yo de aviación xD
Me parece muy bien que les tengas el hate que sea contra ellos, pero ya te digo yo que la mayoría de ellos entiende de HW como tú o más, al final es gente que lleva años dedicándose a ello y que se configuran sus propios PCs (aunque obviamente habrá también el típico que paga por lo más "TOP" a priori y se lo dan, pero son los menos).
Pues eso, desde siempre = 2010. Tampoco por "desde siempre" vamos a pensar en los años 90, obviamente. Pero que ya han pasado bastantes años desde que se dice lo del "2K".
ChatGPT:
En el contexto de los videojuegos, la resolución que comúnmente se conoce como "2K" es 2560x1440 píxeles. Esta resolución también es conocida como QHD (Quad HD) y a veces 1440p. La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles.
Detalles sobre 2K en videojuegos
Resolución exacta: 2560x1440 píxeles.
Aspect ratio: 16:9, que es el mismo que el de las resoluciones más comunes como 1080p (1920x1080) y 4K (3840x2160).
Ventajas: La resolución 2K ofrece una notable mejora en la calidad de imagen comparada con 1080p, proporcionando detalles más nítidos y mayor claridad sin la exigencia de hardware tan alta como la que requiere el 4K.
Popularidad: Se ha vuelto muy popular entre los jugadores y entusiastas de los videojuegos, especialmente aquellos con PCs de gama media a alta, ya que ofrece un buen equilibrio entre calidad visual y rendimiento.
Terminología Comparativa
1080p (Full HD): 1920x1080 píxeles.
1440p (2K/QHD): 2560x1440 píxeles.
4K (UHD): 3840x2160 píxeles.
Pues eso.
Como va a ser 2560 una mejor aproximación a 2000 que 1920?
1440p en todo caso podría aproximarse a 2,5k.
2k es una aproximación de 1920*1080 porque si multiplicas por 2 obtienes 3840*2160.
Vaya, es casi como si multiplicar 2k por 2 te debiera de dar 4k.
Sin embargo si multiplicas 2560*1440 por dos obtienes 5120*2880.
Bastante lejos de ser 4k, más bien 5k.
Hazte un favor a ti mismo y no uses chatgpt para informarte, que se inventa la mitad de cosas que dice.
Mangaverse escribió:hh1 escribió:Mangaverse escribió:
Ya, ya sé que eso no son 2K, pero es a lo que desde siempre se le llama 2K. Cualquier "streamer" que veas que ponga (y te hablo de famosos) que juega en 2K, juega a esa resolución en los juegos.
@Rvilla87 Vale, lo dije porque pensaba que la 4090 era una locura en cuanto al consumo por lo que leí en su día (que entonces no sería cierto, ni idea). Ya vi que al final son 400eur más o así la 4090. Juegos pues cualquier FPS que me diera por jugar al máximo posible o juegos AAA que puedan salir de mundo abierto, según... sobre todo juegos online de guerra, o mmorpg. De simulación de conducción o similares, de eso no.
La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.
Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .
Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie
Es cara ,sí pero es que es la mejor en todo ,con diferencia
En cuanto a lo del mal llamado 3k, es un mal ya muy extendido
Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca
hh1 escribió:Mangaverse escribió:hh1 escribió:La diferencia que vas a notar al final de año en la factura de la luz entre una 4090 y una 4070 , por ejemplo, no es ni de 50€.
Eso ,como te dicen ,sin tocarla..
Que si la tocas , la 4090 es la mejor gráfica ,con mhchisima.difetencis en eficiencia .
Te hablo de estar jugando a todos los juegos con rendimiento por encima de la 4080S entre 100w y 200w.
Te hablo de jugar siendo más potente que de stock , gastando 300-350w .
Te hablo de jugar a 200-250w ridniendo prácticamente igual que de serie
Es cara ,sí pero es que es la mejor en todo ,con diferencia
En cuanto a lo del mal llamado 3k, es un mal ya muy extendido
Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca
La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.
Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.
Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.
A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.
La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.
También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.
Mangaverse escribió:hh1 escribió:Mangaverse escribió:
Pues entonces del tirón a por la 4090... tenía en mente pues eso, que la iba a conectar y la factura de la luz se iba a volver loca
La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.
Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.
Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.
A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.
La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.
También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.
Lo puse por arriba, pero el monitor es de 165Hz. Que al final eso pues claro, va acorde a los FPS. Entonces ves mejor para esos Hz la 4080Super? Ok gracias, lo tendré en cuenta.
La "cercanía" de la 5090 es que la anuncien si acaso en Diciembre 2024 y luego vete a saber cuando sale... pero mínimo 2025 y habría que ver el stock, posibles fallos iniciales... etc
hh1 escribió:Mangaverse escribió:hh1 escribió:La 4090 consume de serie ,450w de máxima.
Eso no quiere decir que esté constantemente consumiendo 450w.
Eso son picos.
Y aunque así fuese ,en una factura anual de luz ,la diferencia no es tanta con otras gráficas.
Y ya ves que a poco que hagas un UV ,los consumos bajan una barbaridad.
A mí me preocupa más el consumo, por el calor generado, que eso hay que disiparlo.
Y en las 4090, Tampoco es problema.
La único por la que te diría que no compraría una 4090, es por la cercanía de la salida de la 5090.
También ,has dicho que juegas a 1440p pero ..cuantos HZ tiene tu pantalla?
Yo si no es kara algo tipo 240hz ,no la compraría.
Para menos ,iría a una 4080S.
Lo puse por arriba, pero el monitor es de 165Hz. Que al final eso pues claro, va acorde a los FPS. Entonces ves mejor para esos Hz la 4080Super? Ok gracias, lo tendré en cuenta.
La "cercanía" de la 5090 es que la anuncien si acaso en Diciembre 2024 y luego vete a saber cuando sale... pero mínimo 2025 y habría que ver el stock, posibles fallos iniciales... etc
Para mí, 165hz están en el límite.
Viendo la proximidad de las 5000 ,la 4090 se te va a devaluar una barbaridad en unos meses.
Y en muchos juegos los 165hz se quedan cortos.
En otros no, claro.
Pero ten en cuenta ,que según que juegos ,vas a llevar limitada la 4090 por los Hz del monitor.
Con la 4080S te ocurriría menos y se te va a devaluar menos porque vale ,bastante menos
Mangaverse escribió:
Que si, que muy bien, pero eso no quita que comúnmente desde hace muchos años, en la práctica, el 2K se asocie a dicha resolución de 2560x1440 aunque no sea técnicamente precisa.
Pon en Google: "comprar monitor 2K" y a ver en los primeros resultados (que son de PcComponentes), lo que aparece:
de nuevo, que no es 2K como tal, de acuerdo, pero es lo que está aceptado por defecto cuando hablamos de 2K y cualquier persona lo asocia a dicha resolución.
Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.
De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440
Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error...
Mangaverse escribió:Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.
De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440
Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error...
Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:
https://www.macnificos.com/monitores-2k
https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032
en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K"
Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.
@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.
Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.
Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.
Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc
adriano_99 escribió:Imagina que yo te digo: busco una pelicula en que un elefante se hace patinador hasta que tiene una lesión en la rodilla y se ve obligado a abrir una tienda de patinetes.
Después de varios intentos fallidos tu empiezas a decirme:
La pelicula que tu buscas es pocahontas! Una pelicula sobre un elefante que se ve obligado a abandonar su deporte pero encuentra su felicidad vendiendo patinetes
La pelicula que tu buscas es Jumanji! Una pelicula sobre un patinador elefante que cambia de oficio para empezar a vender patinetes.
Pues ese es el nivel de chatGPT y la gente coge lo que dice como si fuese la palabra de un catedrático.
hh1 escribió:Para mí, 165hz están en el límite.
pepelardilla escribió:Hola compañeros, se me ha muerto una 2080 ti y estoy pensando en comprar una 4070 super, pero igual mis componentes se quedan cortos para esta gráfica, estos son
Placa Asus tuf b450 plus
Ryzen 7 3700x
32 gigas de RAM corsair 3200 MHz
Bitfenix formula 650w
Un saludo compañeros
Nomada_Firefox escribió:hh1 escribió:Para mí, 165hz están en el límite.
Ya se que has dicho que no en todos ¿pero en cuales 165Hz estan al limite? ya se que es con la 4090.
Supongo que el limite sera sin usar RT. Entonces sí ¿pero para que quieres otra grafica mejor?
pepelardilla escribió:@adriano_99 @hh1
Gracias a los 2 por contestar compañeros, la verdad es que suelo jugar a 1440p a 60 FPS, con eso me conformo y lo del procesador ya lo tenía pensado en pillar un 5700x, es más compre uno en wallapop hace un par de meses y lo tuve que devolver porque me vino con 3 o pones doblados y ya se me quitaron las ganas de comprar otro, un saludo
Nomada_Firefox escribió:@hh1 Sí es cierto, no necesitas una 4090 para el 99% de los titulos que no son lanzados en consola funcionan con bastante menos necesidad de hardware.
Yo tengo un monitor de 1440p y 165hz pero como son 165 con OC, lo uso a 144 y simplemente pongo 145fps en el limitador de fps del panel de control de nvidia para que el Gsync coja absolutamente todo el rango.
Asi que sí, a mi me sobra y a ti muchisimo más. Pero mira el lado bueno, gastas menos corriente y el PC se calienta menos.
Por supuesto, ese tipo de juegos explica que en Steam aparezca la RTX 3060 y CPUs no tan modernas como lo más usado. Yo ahora mismo escribo desde el otro PC, una Ryzen 7 5700X con una 3060 y mueve sin problemas muchas cosas, incluido la verdad, juegos actuales.
Pero si juegas ports de consola, la situación no es asi. Aunque todos sabemos que son una estafa por más que nos gusten porque simplemente estan capados y absolutamente mal optimizados para PC.
@pepelardilla Ah ya viste la virtud de las CPUs del socket AM4, los pins estan en la CPU, asi que es facil que se doblen. Sobretodo si la gente lo desmonta sin tener ni idea. Hay que sacarlo siempre en caliente para que el disipador salga bien y tirar de la CPU en vertical con cuidado, por supuesto no tocar los pins. Pero siempre hay brutos en el mundo.
La verdad, el 5700X, esta super regalado ahora. Tambien vender el 5700X3D en Aliexpress por menos de 200€. Yo lo valoraria siempre que no uses el disipador de serie, es más fresco que el 5700X3D pero tampoco super fresco. El 5700X a secas es fresco pero aún asi, pinchandolos con disipadores sencillos y en verano.......se calientan, sobretodo se notaria en reposo. Yo lo tengo con un Deepcool AK620, un monstruo pero antes lo tuve con un Cooler Master Hyper 212 Black Edition y no me gusto lo que vi en pleno julio.
No obstante con un Ryzen 7 3700X, puedes perfectamente poner una RTX 4070 Super. Hay que tener en cuenta que esa grafica es lo que tendria que haber sido la RTX 4060Ti. Es una gama media. La gama no se mide por la numeración, se mide por el rendimiento. Y el 3700X, no es mala CPU. Y si juegas a 1440p, que podras, lo notaras menos, a 1080p, veras titulos que aceleran la CPU, vamos que esta hace cuello de botella pero para eso limitas los fps y a correr. No tiene ningun sentido dejar que la CPU este a todo trapo.
Luego como dice hh1, hay titulos, que con RT, en ultra, no van a correr tanto.
Sevilla FC escribió:Acabo de meter una 4080 super en el pc que monte hace meses ( mi primer pc montado en siglos) y he puesto un juego que me regalaban con la grafica ( avatar ) y la verdad que me parece una pasada como se ve, viniendo de PS5 y usando un Odissey Oled G9 en ultra. Me temo que como siga probando juegos me va a parecer una mierda PS5
Por otro lado los conectores, de la fuente tenia varios cables, he usado 1 de 6+2 x2 y otro suelto. Creo que recomiendan 1 para cada conector, pero segun lei tampoco habria gran problema de usarlo como la tengo puesta ( de momento solo queria probarla )
adriano_99 escribió:Mangaverse escribió:Rvilla87 escribió:@Mangaverse espero que no tomes como fuente contrastada a chatgpt (más allá de esto del 2k que no va a hacer daño a nadie). Chatgpt a nivel de fiabilidad de información es una mierda, dice las cosas muy convencido pero la cantidad de falsedades que puede decir es impresionante, para nada se debe de tomar como algo fiable.
De hecho la justificación que hace chatgpt de por qué se llama 2k no tiene sentido, suelta una tabla donde se ve claramente los píxeles y luego se queda tan pancho con la mierda de justificación "La denominación "2K" en este caso se refiere a la cantidad de píxeles horizontales, que es aproximadamente 2000 píxeles" cuando 1920x1080 cumple mucho mas con la definición de 2k que está explicando que los 2560x1440
Y en cuanto al debate propiamente, si ya sabes que está mal dicho lo de 2k a los 1440p no veo el debate (si es que reconoces que está mal, que es lo que te han dicho). Justificarlo porque lo dice chatgpt, fabricantes (con su marketing lleno de humo y mentiras), famosos o quien sea no le veo sentido, sigue estando mal dicho aunque el 99% de la población diga que 1440p es 2k. Sabemos que no es así y que está mal. Lo raro es que no se haya extendido lo de 1k para 1080p, puestos a seguir con el error...
Claro, pero me refiero... la gente a qué suele jugar en cuanto a resolución? (sin hablar de 4K de 3840). Pues o a 1080p o a 1440p. Que es el "extendido" 2K (ó "2K"). El ejemplo está con la búsqueda de Google si quieres buscar un monitor "2K" lo que te sale filtrando en diferentes webs:
https://www.macnificos.com/monitores-2k
https://www.macnificos.com/benq-bl2420p ... ku-BNQ0032
en resumen, que es algo que desde 2010 pues está "aceptado" como tal. Por eso que no hay debate, supongo que todo el mundo sabe que no es "2K" per se, pero se acepta como "2K"
Y lo de chatGpt sí, ya lo sé. Tengo la versión pro y también copilot, pero vamos que a modo de info rápida al fin y al cabo sirve para ver cosas generales.
@adriano_99 Espero que al menos estés ganando 100K en tu trabajo.
Si en Google pongo algo, me encuentra obviamente ese algo en base a lo que yo ponga para establecer el filtro, pero por eso precisamente... porque es algo extendido y no se inventa en "PcComponentes" por ejemplo que "x" monitores son "2K", ya que también lo pone en la descripción de dichos monitores.
Ya pongas "comprar monitor 2K reales", te seguirá saliendo lo mismo. Que si hago upgrade para gráfica nueva y me compensa más un monitor "4K" por ejemplo pues haré el cambio, pero en su día igualmente cuando compré este Asus que tengo ahora, pues salía lo de 2K en la web del fabricante etc, nos guste más o menos.
Pero vamos que no entiendo la "obsesión" con lo del "2K", que no es cosa mía, es algo aceptado a nivel "mundial". Recrimínaselo a las empresas etc
Y dale.
Google funciona con tags.
PCcomponentes ha puesto el tag 2k en su web porque sabe que hay mucha gente que lo usa de manera equivocada pero lo único que les importa es ganar dinero.
Ni las búsquedas de google ni lo que hacen las tiendas para aparecer en ellas demuestran nada porque con que supiesen que una sola persona de mas al año va a entrar en su tienda si ponen eso ya lo harían.
Está aceptado por gente que se informa sobre el tema a nivel muy superficial,ningún canal de youtube ni revista ni medio especializado lo usa porque está mal.
Sabes que tambien puedes encontrar muchisima gente que dice?
Que la tierra es plana.
Que las vacunas dan autismo.
Que la raza blanca es superior a las demás.
Yo solo te he pedido que hables correctamente ya que estamos en un foro y en un hilo especializado y se agradece que al menos la gente de aqui llame a las cosas por su nombre.
No quieres? Estupendo.
Pero deja de darle vueltas con demostraciones absurdas de google y chat gpt.
El argumento de "pero mucha gente lo hace!" no es, nunca ha sido y nunca será valido para nada.
1440p is technically not 2k.
1440p should be considered more 2.5k than 2k, but the naming standards are weird, which is why 3840x2160 is considered 4k, but actually it is just UHD.
Basically, 2k, 2.5k, 4k etc means that the width (the first number in the resolution) is 2000, 2500, 4000 pixels (roughly).
Hence, true 4k is 4096×2160 and ‘Television standard’ 4k is 3840×2160 UHD
By the logic above, 2560×1440 (1440p at 16:9 aspect ratio) is 2.5k but naming schemes are weird and many people will still call it 2k. 1080p (1920×1080) is way closer to 2k than 1440p (2560×1440).
I prefer to not say 2k 2.5k etc. I just say 4k because it can be widely agreed that 4k = 3840x2160