Estando de acuerdo y habiendo confirmado desde el principio que consume mucha pero que mucha CPU y GPU, creo que mucha gente ha saltado a 4K antes de tiempo. Un usuario de una 4090 pues se lo puede plantear/usar, pero muchísima gente, con hardware bastante comedido e inclusive con CPUs que van a ahogar a sus GPU se han permitido el salto sin tener en cuenta el hardware necesario para ello y que 4K es mucho 4K.
Mientras la mayoría de juegos han sido juegos de XBOX One o PS4 dopados todo el mundo se creía sobrado. Ojo! con esto no quiero justificar los últimos lanzamientos, pero con optimización o sin ella, y más sabiendo desde tiempos inmemoriales como se la gastan en PC a la hora de los lanzamientos, mucho me temo que la gente va a empezar a descubrir que jamás de los jamases se deberían haber permitido un monitor/TV 4K sin tener una billetera muy muy suelta.
Y eso que estamos hablando de los primeros juegos que no salen en las pasadas generaciones. Cuando llevemos un tiempo más, y sigan saliendo títulos con motores como el Unreal 5, etc ... entonces si que se va a empezar a entender que 4K está cojonudo, pero que más te vale que te sobre la pasta porque una 4090 puede sufrir y las que le sigan también.
Personalmente creo que la inmensa mayoría debería haberse quedado en 2K como mucho, porque siempre más vale que te sobre a que te falte, sin descontar que el grueso general debería de seguir en 1080p. Sé que me va a caer la de Dios por decir esto, pero es que al final te tienes que adaptar a lo que hay, y de aquí a nada, como ya ha comentado alguien, los usuarios de consolas acabarán jugando a 720p con caídas a 5fps. Pero esto ha sido así en el pasado y va a seguir siendo así siempre, porque por desgracia no todos los estudios pueden permitirse tener un grueso de la plantilla con 140 de CI o más y acaban moviendo todo por la fuerza bruta.
Insisto, nunca ha sido bueno sobrarse con la resolución a no ser que te sobre una cantidad de potencia de hardware absolutamente bestial. Ahora abro el paraguas