gabicrack escribió:Una 4060? No jodas.. se están flipando a niveles impresionantes, pero la 4060 no creo que cueste más de 450-500€, no? Aunque no deje de estar a un nivel similar de una 3060 ti o 3070
LorK escribió:
Bueno bueno, no sé como hemos podido jugar a 60hz hasta hoy en día... Espera que 60 hz es desde "hace poco" y era lo más de lo más, bueno no lo más de lo más era 120hz, bueno no lo más de lo más era 144hz, bueno no lo más de lo más es 240hz, bueno no...........
Pues nada, nuevo objetivo del marketing, vendernos monitores de 100000hz porque si no no se ve bien el juego y claro, el clic no va a ir como debe, fíjate que hasta latencia en el desplazamiento de objetos meten... Lo dicho, ¿cómo hemos podido jugar hasta hoy? en fin...
Cuando lleguen a los 1200hz que me avisen, que si no "no me va bien y lo noto a simple vista".
Ya está la maquinaria en marcha para colarnos monitores de 3000€ como si nada .
PD: Menuda MIERDA (y mentira) los monitores de 144hz y 240hz que han usado para que tenga semejante ghosting, que ni el mío de 75hz lo tiene tan exagerado
pakolo1977 escribió:@Lince_SPAIN Todavía es pronto para decir con seguridad lo que voy a decir, pero a lo mejor se cumple.
Hoy tú en lugar de comprarte una 4080 te compras una 3080ti por alrededor de 1000 euros nueva porque es mucho más barata y se ajusta mucho más al monitor que tienes y terminas con un pc equilibrado y todo está magnífico, puedes jugar ahora mismo a 1440p con todo en ultra con una alta tasa de cuadros y no consume demasiada electricidad. Una muy buena compra.
Con esto te acostumbras en los juegos a que vayan todos en ultra porque es algo muy cómodo tenerlos así y muy fardón, y no te importa tanto que el juego que sea vaya a 100 cuadros o a 60, o incluso a veces si se queda siempre por encima de 50 cuadros pues tampoco pasa nada porque se ve de escándalo y no llegas a notar (o no importa) que los cuadros vayan alrededor de los 60 mientras no bajen mucho. La gráfica siempre va por encima del 90% y nadie va a atreverse a decirte que ahí tienes un cuello de botella porque lo que más importa es que la gráfica vaya a todo lo que pueda dar en un pc gamer.
Ahora con estas en cosa de dos años (lo que tarda Nvidia y AMD en sacar arquitectura nueva) pues ves que eso del ultra ya no se sostiene porque hayan sacado mientras juegos con el unreal engine 5 o algún otro motor ultramoderno, o los juegos del año 2024 tengan unas texturas en 8k ultrarresolución con los que los 12 GB de la 3080ti no sean suficientes (o las dos cosas, motores nuevos con ultratexturas). En Octubre de 2024 sacan la 5080 con 20 GB de memoria por un "superprecio" de 1200 euros en España y para volver al punto de partida te la compras, porque por dentro te tiene mosqueado que esa 3080ti del 2022 ya no es la 3080ti del 2024. El resto del pc lo dejas igual, porque consideras que no hace falta todavía cambiar nada excepto la gráfica y te gusta como se ve tu monitor.
Pues nada, 1000 euros ahora + 1200 euros dentro de 2 años es lo que te puede costar una 4090 ahora mismo. Supongo que unos 600 euros más de lo que te has gastado ahora en tu 4080. Y bueno, hay razones para hacerlo así desde luego ya que es como trocear en dos pagos el comprar una 4090 de ahora, minimizas el riesgo de que a la 4090 de ahora le pase algo, pierda la garantía por lo que sea, etc...
Yo estoy segurísimo de que la 4080 que tienes ahora dentro de 2 años va a seguir siendo una campeona, puede que hasta vaya mejor de lo que va ahora. El software tiene que dar un salto demasiado enorme en calidad gráfica para que en 2 años una 4080 o superior no sean suficientes para jugar en ultra a 1440p por lo menos a 60 cuadros.
En estas cosas pienso yo cuando creo que podré aguantar sin problema mi 4090 6 años. En mi caso con la salvedad de que poco a poco iré bajando la resolución según los juegos sean más tragones. Probablemente jubilaré la 4090 cuando vea que ni a 1080p puedo poner juegos en ultra, porque lo que puse en el segundo* párrafo es a lo que me he acostumbrado en estos 4 años pasados.
PD.: *Segundo no, tercer párrafo, ustedes perdonen.
pakolo1977 escribió:La cosa es que hoy me he puesto una vez más a ver la película "la gran apuesta", creo que ha sido coincidencia aunque yo soy de esos que creen en el subconsciente (el muy cabrón estaría ahí agazapado esperando la oportunidad de decidir por mi lo que íbamos a ver hoy por la noche). En amazon prime video está por si alguien por aquí que no la haya visto le pique la curiosidad. No es la típica película hollywoodiense aunque salen actores famosos, por salir sale hasta Brad Pitt.
Para el que no lo sepa, esta película hila una historia sobre unos cuantos inversores que allá por el 2005 apostaron contra el mercado inmobiliario eeuuiense y se forraron de mala manera cuando Lehman Brothers cayó. Los guionistas son lo suficientemente sagaces como para saber que si no lo dan mascadito lo suficiente la gran mayoría del público va a entender un carajo y no vería esa película (porque la industria del cine allí está para ganar dinero). En fin, que la cosa está entretenida y habla de manera superficial sobre como los mercados pueden convertirse en estafas a lo grande.
Una de las cosas que se ven que hacen en la película es como varios de esos inversores como no se fían de quien les quiere vender el seguro que apuesta contra el mercado, se dedican a investigar in situ a los diferentes actores que participaban en ese mercado: Gente que compraba inmuebles, los que se los vendían, la gente de las agencias de calificación de riesgos, la gente de los bancos que daban esas hipotecas subprime...
Ya me estoy enrollando, lo importante aquí es que si uno tiene dudas sobre si un producto es una estafa o no, lo mejor que puede hacer es al menos una vez probarlo con mentalidad crítica. Puede que después de eso uno se reafirme o se desdiga, pero puede que el prejuicio desaparezca con esa primera prueba.
Mi opinión sobre los monitores de más de 144 hz es que son innecesarios para mi y reconozco que con esto tengo un prejuicio hecho ya que todavía no he probado ningún monitor con más herzios que el que tengo. Podría pasar que uno de 165 hz. me convenza de que sí hay una diferencia sensible, y si ese no, pues uno de 240 o de 360 o de 500, yo qué sé.
Lo que sí tengo claro es que a partir de unos 90 cuadros para mi es casi imposible saber a cuantos cuadros irá mi monitor en ese momento si no tengo nada en la pantalla que me diga la cantidad de cuadros que hay ahí. A 60 o menos sí lo noto desde luego. Y hay 50 cuadros de diferencia entre los 90 y los 140, que no es poco.
Como no tengo con que probar ni tampoco muchas ganas, termino suponiendo que si probara un monitor de 240 hz con algún juego que pudiera dar toda esa cantidad de cuadros, puede que lo notara al haber tantísima diferencia, pero también supongo que me daría bastante igual ver eso. Muy difícil veo que eso me creara la necesidad como para terminar comprando un monitor así.
Cuando habláis de pantallas oled, eso sí que me llama algo más la atención porque también estoy de acuerdo en que ahí la imagen se ve sensiblemente mejor que con otros paneles. Con total seguridad si pusiera una pantalla oled 144 hz al lado de mi monitor ahí la imagen se verá tan buena que me tiraría a esa piscina sin pensarlo más. Si se me estropea el monitor que tengo, el siguiente será oled y si no lo fuera será porque habrá salido algo que se vea mejor todavía y no sea excesivamente caro.
pakolo1977 escribió:@Lince_SPAIN Todavía es pronto para decir con seguridad lo que voy a decir, pero a lo mejor se cumple.
Hoy tú en lugar de comprarte una 4080 te compras una 3080ti por alrededor de 1000 euros nueva porque es mucho más barata y se ajusta mucho más al monitor que tienes y terminas con un pc equilibrado y todo está magnífico, puedes jugar ahora mismo a 1440p con todo en ultra con una alta tasa de cuadros y no consume demasiada electricidad. Una muy buena compra.
Con esto te acostumbras en los juegos a que vayan todos en ultra porque es algo muy cómodo tenerlos así y muy fardón, y no te importa tanto que el juego que sea vaya a 100 cuadros o a 60, o incluso a veces si se queda siempre por encima de 50 cuadros pues tampoco pasa nada porque se ve de escándalo y no llegas a notar (o no importa) que los cuadros vayan alrededor de los 60 mientras no bajen mucho. La gráfica siempre va por encima del 90% y nadie va a atreverse a decirte que ahí tienes un cuello de botella porque lo que más importa es que la gráfica vaya a todo lo que pueda dar en un pc gamer.
Ahora con estas en cosa de dos años (lo que tarda Nvidia y AMD en sacar arquitectura nueva) pues ves que eso del ultra ya no se sostiene porque hayan sacado mientras juegos con el unreal engine 5 o algún otro motor ultramoderno, o los juegos del año 2024 tengan unas texturas en 8k ultrarresolución con los que los 12 GB de la 3080ti no sean suficientes (o las dos cosas, motores nuevos con ultratexturas). En Octubre de 2024 sacan la 5080 con 20 GB de memoria por un "superprecio" de 1200 euros en España y para volver al punto de partida te la compras, porque por dentro te tiene mosqueado que esa 3080ti del 2022 ya no es la 3080ti del 2024. El resto del pc lo dejas igual, porque consideras que no hace falta todavía cambiar nada excepto la gráfica y te gusta como se ve tu monitor.
Pues nada, 1000 euros ahora + 1200 euros dentro de 2 años es lo que te puede costar una 4090 ahora mismo. Supongo que unos 600 euros más de lo que te has gastado ahora en tu 4080. Y bueno, hay razones para hacerlo así desde luego ya que es como trocear en dos pagos el comprar una 4090 de ahora, minimizas el riesgo de que a la 4090 de ahora le pase algo, pierda la garantía por lo que sea, etc...
Yo estoy segurísimo de que la 4080 que tienes ahora dentro de 2 años va a seguir siendo una campeona, puede que hasta vaya mejor de lo que va ahora. El software tiene que dar un salto demasiado enorme en calidad gráfica para que en 2 años una 4080 o superior no sean suficientes para jugar en ultra a 1440p por lo menos a 60 cuadros.
En estas cosas pienso yo cuando creo que podré aguantar sin problema mi 4090 6 años. En mi caso con la salvedad de que poco a poco iré bajando la resolución según los juegos sean más tragones. Probablemente jubilaré la 4090 cuando vea que ni a 1080p puedo poner juegos en ultra, porque lo que puse en el segundo* párrafo es a lo que me he acostumbrado en estos 4 años pasados.
PD.: *Segundo no, tercer párrafo, ustedes perdonen.
For some PSU manufacturers, they have the CPU 4+4 pin connector and the PCIE 8 pin (6+2 pin) connector use the same port on the PSU. For others, they have dedicated ports for the CPU connectors and PCIE connectors. The difference between the CPU 4+4 pin connector and the PCIE 8-pin connector is that the CPU 4+4 pin connector uses 4 +12v lines to 4 ground lines, while the PCIE 8 pin connector has 3 +12v lines, 4 ground lines, and 1 (2) sense line. The (2 sense lines) is a part of the difference between PCIE 6 pin and 8 pin.
Corsair likes to have the 8-pin ports work for both the CPU 4+4 pin connector and PCIE 6+2 pin connector. We can consider that the missing pins are the 4th +12v line, which are not used for a PCIE 8-pin connector.
How Corsair is able to get away with supplying a 600W 12VHPWR connector with 2 PCIE 8-pin connectors is that the specs for the 8-pin connectors have each of the +12v lines supply 4.166 amps each (grants 150W total) but the connector and wires can support around 8.5 to 9 amps range (300+W really available). This allows 2 PCIE 8-pin connectors usable per port on the PSU. The adapter just allows the 12VHPWR connector to use the 8.33 amps per pin to reach 600W, which is still in spec.
Why didn't Nvidia use this trick instead of the 4x 8-pin to 12VHPWR adapter? This 2x 8-pin to 12VHPWR adapter is an adapter that only the specific PSU manufacturer can supply because PSUs can be different. Nvidia has to adhere to the PCIE 8-pin connector's basic spec of 150W limit, which creates the mess we see. Really, the 4x 8-pin adapter setup should be merging 2x 8-pin connectors into 3 +12V wires and 3 ground wires into half of the 12VHPWR connector, but that costs more money to manufacture. The idiot prize of Nvidia making a 2x 8-pin to 12VHPWR is some people might plug the 2 connectors from a single line into both of the 8-pin sockets on the adapter, which will cause each +12v wire from the PSU to the adapter to draw 16.66 amps, well over the 9 amp limit, and can melt the insulation on the wires and start fires. Back to the PSU manufacturer making these connectors, they ensure no other outputs are available along the cable run.
colado escribió:
No es que quieran vender monitores de 500hz, algo asi ya lo vi hace tiempo. Lo que quieren vender es que en un monitor de, ponte, 144hz, se vera mejor si va a 500fps que a 144fps porque reduce el ghosting y mejora la precision. Que aunque el monitor no ofrezca mas fps al recibir mas fotogramas, en teoria, va mejor.
First, latency improves your score regardless of aiming skill. If we compare the percentile markers at 85ms, 55ms, and 25ms, each percentile shifts to the right as latency decreases. This shows that everyone’s scores improved with lower latency.
At COMPUTEX 2022, we’re introducing the newest member of the NVIDIA G-SYNC family - the ASUS ROG Swift 500Hz Gaming Monitor. This 500Hz display has been designed from the ground up for esports, using a brand new E-TN (Esports TN) panel for maximum motion clarity. It also boasts NVIDIA G-SYNC Esports Mode with adjustable esports vibrance and of course, complete NVIDIA Reflex Analyzer support, allowing users to measure end-to-end system latency when using a NVIDIA Reflex mouse and GeForce GPU.
adriano_99 escribió:
"Cancelamos la 4080 12GB por que tener dos productos diferentes con el mismo nombre es lioso para el consumidor"
elcapoprods escribió:adriano_99 escribió:
"Cancelamos la 4080 12GB por que tener dos productos diferentes con el mismo nombre es lioso para el consumidor"
Acto seguido sacan otra 3060 con menos cores, menos vram y menor bus a mismo precio de la 3060 normal.
elcapoprods escribió:adriano_99 escribió:
"Cancelamos la 4080 12GB por que tener dos productos diferentes con el mismo nombre es lioso para el consumidor"
Acto seguido sacan otra 3060 con menos cores, menos vram y menor bus a mismo precio de la 3060 normal.
chrispro escribió:Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.
Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?
Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia
Rvilla87 escribió:elcapoprods escribió:adriano_99 escribió:"Cancelamos la 4080 12GB por que tener dos productos diferentes con el mismo nombre es lioso para el consumidor"
Acto seguido sacan otra 3060 con menos cores, menos vram y menor bus a mismo precio de la 3060 normal.
Lo del precio no se si se ha confirmado (de ser así lo veo muy mal), pero lo que dice adriano_99 junto con lo cutre que me parece sacar un nuevo "modelo" con menos RAM (y peor rendimiento) y no ponerle un nombre del modelo como "3060 S/lite" o algo similar me parece una tomadura de pelo importante.
KailKatarn escribió:uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.
Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.
4K
1440p mal llamado 2K
1080p
Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.
LorK escribió:
Bueno bueno, no sé como hemos podido jugar a 60hz hasta hoy en día... Espera que 60 hz es desde "hace poco" y era lo más de lo más, bueno no lo más de lo más era 120hz, bueno no lo más de lo más era 144hz, bueno no lo más de lo más es 240hz, bueno no...........
Pues nada, nuevo objetivo del marketing, vendernos monitores de 100000hz porque si no no se ve bien el juego y claro, el clic no va a ir como debe, fíjate que hasta latencia en el desplazamiento de objetos meten... Lo dicho, ¿cómo hemos podido jugar hasta hoy? en fin...
Cuando lleguen a los 1200hz que me avisen, que si no "no me va bien y lo noto a simple vista".
Ya está la maquinaria en marcha para colarnos monitores de 3000€ como si nada .
PD: Menuda MIERDA (y mentira) los monitores de 144hz y 240hz que han usado para que tenga semejante ghosting, que ni el mío de 75hz lo tiene tan exagerado
KKnot escribió:Tras mucho pensar cuál pillar, me he lanzado a por la 4090 Windforce de Gigabyte en PcComponentes.
Viendo la poca diferencia que hay entre modelos, siempre me han tirado mas Asus o Gigabyte. Espero no haberme equivocado...supongo que siempre puedo devolverla si no me convence.
Yo creo que en estas 4090 se está viendo que vale cualquiera, ya que las pocas diferencias entre ellas dependen más de la lotería del silicio casi que del modelo.KKnot escribió:Tras mucho pensar cuál pillar, me he lanzado a por la 4090 Windforce de Gigabyte en PcComponentes.
Viendo la poca diferencia que hay entre modelos, siempre me han tirado mas Asus o Gigabyte. Espero no haberme equivocado...supongo que siempre puedo devolverla si no me convence.
Kanijo1 escribió:LorK escribió:
Bueno bueno, no sé como hemos podido jugar a 60hz hasta hoy en día... Espera que 60 hz es desde "hace poco" y era lo más de lo más, bueno no lo más de lo más era 120hz, bueno no lo más de lo más era 144hz, bueno no lo más de lo más es 240hz, bueno no...........
Pues nada, nuevo objetivo del marketing, vendernos monitores de 100000hz porque si no no se ve bien el juego y claro, el clic no va a ir como debe, fíjate que hasta latencia en el desplazamiento de objetos meten... Lo dicho, ¿cómo hemos podido jugar hasta hoy? en fin...
Cuando lleguen a los 1200hz que me avisen, que si no "no me va bien y lo noto a simple vista".
Ya está la maquinaria en marcha para colarnos monitores de 3000€ como si nada .
PD: Menuda MIERDA (y mentira) los monitores de 144hz y 240hz que han usado para que tenga semejante ghosting, que ni el mío de 75hz lo tiene tan exagerado
A ver, llevo muchísimos años jugando en un monitor de más hz de los 60, me compré un acer de 120hz (el que parecía un optimus prime, no recuerdo el nombre, tenía nvidia 3D) y todos los de aquí decían que el ojo humano no era capaz de ver a más de 60fps (Para los que sigan con este argumento, el ojo humano es analógico, no es comparable a hacer una medida en fps), a dia de hoy tengo un asus de 144hz y, literalmente, no puedo volver a jugar en un monitor de 60hz, como me cuesta jugar a 60fps acostumbrado a jugar normalmente a más de 100, eso sí, para mi, a partir de 80fps es bastante jugable un título si no requiere ser rápido (Si no es un shooter o jugar al lol). Hace unos años veíamos unos graficazos en la psx, a dia de hoy es dificil de jugar en ellas.
La historia era que, en los monitores de 60hz, tener deshabilitado el vsync para reducir ese imput lag aunque el juego tenga tearing (al menos yo prefiero el tearing al imput que te mete el vsync a 60fps, hablo de hace años jugando jugaba en 60hz)
La tecnología avanza, y conforme avanza, adquirimos esos productos y nos acostumbramos a ese extra de calidad, y una vez te acostumbras no quieres volver "atrás". A mi sinceramente me gusta el hecho de que actualmente se pueda jugar a más de 144fps en la mayoría de títulos con gráficas actuales en WQHD, incluso en 4K con gráficas nuevas (y caras) puedes llegar a tener esos frames, cosa que no era posible hace años evidentemente. Lo si que me gustaría es que mejoraran, en general, las físicas y las partículas interactivas, pero bueh..
Con respecto al ghosting, depende del monitor, pero los monitores decentes actualmente no tienen un ghosting, al menos, apreciable a simple vista. Te recomiendo que grabes a cámara lenta tu monitor de 75hz en un paneo de pantalla en un shooter, a ver si tiene o no ghosting. y si quieres grabo el mio y vemos (el cual no está exento de ghosting, pero no se aprecia a simple vista.
PD: Me pillé una 4080 inno3D y le metí un bloque alphacool aurora, tengo que meterle al pc unas barras led, ya pasaré fotillos que está quedando curioso.
Subo una echa rápidamente:
A la barra led de arriba le tengo que hacer un soporte para que quede bien, y tengo que cambiar el líquido y limpiar todo el circuito, que me tiene que llegar el limpiador de EK y al ver que tardaba más he montado la gráfica
También quiero pillarme un nuevo adaptador para la alimentación de la GPU que ese es un poco pocho.
Chaquetero escribió:Kanijo1 escribió:LorK escribió:
Bueno bueno, no sé como hemos podido jugar a 60hz hasta hoy en día... Espera que 60 hz es desde "hace poco" y era lo más de lo más, bueno no lo más de lo más era 120hz, bueno no lo más de lo más era 144hz, bueno no lo más de lo más es 240hz, bueno no...........
Pues nada, nuevo objetivo del marketing, vendernos monitores de 100000hz porque si no no se ve bien el juego y claro, el clic no va a ir como debe, fíjate que hasta latencia en el desplazamiento de objetos meten... Lo dicho, ¿cómo hemos podido jugar hasta hoy? en fin...
Cuando lleguen a los 1200hz que me avisen, que si no "no me va bien y lo noto a simple vista".
Ya está la maquinaria en marcha para colarnos monitores de 3000€ como si nada .
PD: Menuda MIERDA (y mentira) los monitores de 144hz y 240hz que han usado para que tenga semejante ghosting, que ni el mío de 75hz lo tiene tan exagerado
A ver, llevo muchísimos años jugando en un monitor de más hz de los 60, me compré un acer de 120hz (el que parecía un optimus prime, no recuerdo el nombre, tenía nvidia 3D) y todos los de aquí decían que el ojo humano no era capaz de ver a más de 60fps (Para los que sigan con este argumento, el ojo humano es analógico, no es comparable a hacer una medida en fps), a dia de hoy tengo un asus de 144hz y, literalmente, no puedo volver a jugar en un monitor de 60hz, como me cuesta jugar a 60fps acostumbrado a jugar normalmente a más de 100, eso sí, para mi, a partir de 80fps es bastante jugable un título si no requiere ser rápido (Si no es un shooter o jugar al lol). Hace unos años veíamos unos graficazos en la psx, a dia de hoy es dificil de jugar en ellas.
La historia era que, en los monitores de 60hz, tener deshabilitado el vsync para reducir ese imput lag aunque el juego tenga tearing (al menos yo prefiero el tearing al imput que te mete el vsync a 60fps, hablo de hace años jugando jugaba en 60hz)
La tecnología avanza, y conforme avanza, adquirimos esos productos y nos acostumbramos a ese extra de calidad, y una vez te acostumbras no quieres volver "atrás". A mi sinceramente me gusta el hecho de que actualmente se pueda jugar a más de 144fps en la mayoría de títulos con gráficas actuales en WQHD, incluso en 4K con gráficas nuevas (y caras) puedes llegar a tener esos frames, cosa que no era posible hace años evidentemente. Lo si que me gustaría es que mejoraran, en general, las físicas y las partículas interactivas, pero bueh..
Con respecto al ghosting, depende del monitor, pero los monitores decentes actualmente no tienen un ghosting, al menos, apreciable a simple vista. Te recomiendo que grabes a cámara lenta tu monitor de 75hz en un paneo de pantalla en un shooter, a ver si tiene o no ghosting. y si quieres grabo el mio y vemos (el cual no está exento de ghosting, pero no se aprecia a simple vista.
PD: Me pillé una 4080 inno3D y le metí un bloque alphacool aurora, tengo que meterle al pc unas barras led, ya pasaré fotillos que está quedando curioso.
Subo una echa rápidamente:
A la barra led de arriba le tengo que hacer un soporte para que quede bien, y tengo que cambiar el líquido y limpiar todo el circuito, que me tiene que llegar el limpiador de EK y al ver que tardaba más he montado la gráfica
También quiero pillarme un nuevo adaptador para la alimentación de la GPU que ese es un poco pocho.
Pero al Elden ring que está diseñado para jugar a 60 FPS y no se puede jugar a más también lo juegas a 144 FPS porque ya te has acostumbrado al caviar y los 60fps son de pobres?
Esque no se puede generalizar de manera tan burda, no es lo mismo un fortnite, o un cod multijugador donde necesitas 200-300 FPS para ser el niño rata con el ping más rápido, que un single player donde jugar a más de 60 FPS en la mayoría de los casos ni se puede, ni se debe para jugar bien.
Esque hasta en juegos de coches donde debería importar más tampoco lo hace, yo el Horizon cuando lo jugaba lo limitaba a 60 FPS porque a 120 lo sentía raro.
Esto es como el tema de la resolución, si juegas en una pantalla de 15" no vas a notar diferencia de 1080p a 1440p, o si juegas en un monitor de 27" no vas a notar el 4k, pero si juegas en una tele de 50" más te vale jugar a 4k porque hasta con los 1440p vas a notar los pixeles.
LorK escribió:
Bueno bueno, no sé como hemos podido jugar a 60hz hasta hoy en día... Espera que 60 hz es desde "hace poco" y era lo más de lo más, bueno no lo más de lo más era 120hz, bueno no lo más de lo más era 144hz, bueno no lo más de lo más es 240hz, bueno no...........
Pues nada, nuevo objetivo del marketing, vendernos monitores de 100000hz porque si no no se ve bien el juego y claro, el clic no va a ir como debe, fíjate que hasta latencia en el desplazamiento de objetos meten... Lo dicho, ¿cómo hemos podido jugar hasta hoy? en fin...
Cuando lleguen a los 1200hz que me avisen, que si no "no me va bien y lo noto a simple vista".
Ya está la maquinaria en marcha para colarnos monitores de 3000€ como si nada .
PD: Menuda MIERDA (y mentira) los monitores de 144hz y 240hz que han usado para que tenga semejante ghosting, que ni el mío de 75hz lo tiene tan exagerado
GF3 escribió:Parece que Nvida ha rebajado el precio de su Founders 4080, aun así sigue siendo exagerado.