[HO] The Last of Us Part I

por favor dejad de alimentar al elfo de los cojones porque ya da pereza
katatsumuri escribió:Lo he ajustado todo a mi VR ram, el resultado:

Imagen

Parece una película de Tim Burton.


Espero que al reiniciar se arregle, ya que antes puse todo a tope ultra y se veía el juego lo que iba a tirones.


Ese es Ramón Salazar , creo que me he equivocado de hilo, a no, que Ramón se ve mucho mejor xD

En serio todo aquel que justifique aunque sea un poquito este port de mierda a ignorados que se va, os ahorrareis bastante tiempo de lectura.

Lo seguiré jugando en ps5 pese a tener un equipo que le da 5 patadas 3080, i9 12th, 32 gb ddr4 3600 paso de ports asquerosos.
Además tiene un hilo criticando los ports: hilo_estamos-rozando-un-grado-de-ports-realmente-bochornoso_2152116

Ya no sabría decir si es un troll, o realmente tiene alguna obsesión, o naughty dog le paga dinero, o trabaja en Iron Galaxy Studios
_anVic_ está baneado por "clon de usuario baneado"
En este "juego" por llamarlo de alguna manera, está roto hasta el HDR. Si no lo afinas con tone map dinámico que no es lo suyo o apagándolo limitando el Mastering peak brightness a 10000 y Max CLL también a 10000 tiene un hard clipping de cojones usando Tone map en HGIG que seria el mas correcto por los más purista entendidos que usen HDR como es debido. Además de como no, algo de black level raised.

Imagen

Imagen

En cuanto a la calidad gráfica general que presenta y mi opinión se basa despues de llevar unas cuantas horas en una oled C1 de 48" con HDR a 4k nativo, lo veo bastante normalito. Nada del otro jueves. Podría sacarle fallos por doquier.
Pues yo al juego no le veo ese salto tecnológico que abogan algunos, es el mismo juego que el de ps5 con más opciones gráficas para pc y sufre de fallos de falta de tiempo de optimizacion como la gran mayoría de juegos que nos comemos últimamente.
Un salto gordo es el resident Evil remake que se nota la implementación de las últimas tecnologías de la industria.
Pero bueno hay que respetar las opiniones de todos faltaría más.
El mejor ejemplo es atomic heard, un estudio nuevo, ruso, que se nota que les han dado todo el tiempo del mundo para desarrollar su juego y lanzarlo como se debe.
Ahora me viene el miedo cuando saquen starfield que saldrá como cuando salió ciberpunk y luego al año ya será un juego optimizado que podremos disfrutar.
Solo hay que ver lo que son capaces de hacer con las consolas, imaginaros que una desarrolladora sacase un portento gráfico optimizado solo pensado para pc, creo que los estándares de ps5 y Xbox serie x quedarían en una obsolescencia que la peña fliparia.
Pero vivimos en una época donde poco importa la calidad del producto final, mientras te meta. El hype vía publicidad ,lo que importa es sacarlo en fecha y luego ya veremos.
@KailKatarn con lo de irse por los cerros de Úbeda con los argumentos me refiero por ejemplo a lo del Resident Evil 4 Remake. Estamos hablando de The Last of Us Part I. Si a mí me preguntas por el RE te diré que creo que el juego tiene un problema que debe ser solucionado cuando se excede VRAM y se activa el RT. Podría hablarte de más cosas de ese juego, buenas y malas, pero ¿para qué? Que RE esté peor o mejor optimizado no cambia los problemas de este juego.

Kalakatita escribió:
zero2006xl escribió:
Kalakatita escribió:Veo mucho comentario debatiendo por el tema de vram y otras cosas pero poca gente escribiendo sobre su experiencia jugando..
A ver si esta tarde lo compro/pruebo. Le tengo ganas.


¿Has jugado al original? Yo tuve el Remastered y me lo pasé casi entero. Mis impresiones:

- Gran mejora en animaciones faciales y en el movimiento en general.
- Iluminación menos oscura. Se pierde un poco de la atmósfera original pero se gana un aspecto más realista y luminoso que yo personalmente agradezco.
- Muchas opciones de configuración, ya no sólo gráficas si no de accesibilidad y controles. Llega a abrumar un poco, incluso. Pero así seguro que nadie echa nada en falta.

Sólo he jugado dos horas, por lo que no podría decirte mucho más. Pero en general, mejoras visuales y de accesibilidad a parte, es el mismo juego que el Remastered. Si no lo jugaste en su día o no lo terminaste como es mi caso, te lo recomiendo mucho. Acción, algo de sigilo si eliges ir suave y una historia emocionalmente interesante.


Nunca he jugado a esta saga, pese a estar al tanto de bastantes cosas y sus bondades, pero nunca tuve ps4 ni ps5 asi que me pilla completamente de nuevas..


Pues si te mola el tipo de juegos que comento, lo vas a gozar :)
Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.
the_aeon escribió:Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.


Efectivamente, he vivido lo mismo en los juegos que comentas con mi 5800X3D. Está claro que nos quedamos cortos de CPU ya. Ni con todo el OC que puedas meterle le salvas.
Yo voy a tirar mi 5800X3D y me compro una PS5.
KindapearHD escribió:Yo voy a tirar mi 5800X3D y me compro una PS5.

Yo tengo un 7950x y una 4090 (encima no tiene el PCB bueno es una inno ichill x3) ¿ya no me sirve? Solo tengo 32 gb de RAM
the_aeon escribió:Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.


¿Como va a hacer cuello de botella a 4K un 13900k? los usos de esa CPU en juegos es baja de cojones, ahora bien, si solo habláis de un solo núcleo ok, pero en su conjunto el usage no lo he visto en mi 12900k que tengo en por ejemplo resident evil 4 remake a 4k ni al 40%

Yo creo que el problema es mas bien de opti que de maquina
VíctorXD está baneado por "clon de usuario baneado"
KailKatarn escribió:
katatsumuri escribió:Me parece que no te has mirado la configuración de TLOU P1 y que consume cada apartado visual, lo mismo deberías ver que consume cada cosa porque no lo tienes muy claro, aunque hay cosas como las físicas, la IA y el posicionamiento, que si las calcula de CPU y que no suelen modificarse, pero hay muchas otras que si, incluso que el raytracing esté activado afecta directamente al rendimiento de la CPU de una forma bastante severa y se supone que el raytracing trabaja en los RT cores de las GPUs de nvidia, por lo que si lo desactivas alivias a la CPU de carga.

Pienso que llevas bastante cacao diciendo eso, pero bueno, con eso que has dicho si es mejor dejarlo aquí.


Sí, yo tengo mucho cacao porque soy nuevo en PC sin lugar a dudas, tú que hablas de carga en CPU por el RT en un juego que no tiene RT estás mucho más informado que yo sin lugar a dudas. Lo dicho aquí acaba el tema.


xineloeol escribió:Insinuar siquiera que el problema de que la gente llore es que no tiene un procesador de 600€ me parece cuanto menos atrevido, por no decir muy alejado de la realidad.


600€? tienes Ryzen 5700X por 200€ que mueven el juego muy decentemente. Otra cosa es que pretendas 120fps o más, que ahí ni con OC y ya tienes que tirar de CPUs top como Dios manda.


El juego tiene problemas de uso de CPU, el problema no está en el hardware hasta un 13900k se satura a 90% y crea stuttering y cuello de botella, no es normal, ya que visualmente no hay un efecto que amerite tanto cálculo de CPU.

Debe ser problema del motor en Uncharted 4 ya pasaba algo similar pero en mucha menor manera.
¿En serio hay que estar 2 horas con el juego en el menú principal y la cpu al 100% para que cree los sombreadores? ¿Qué se han fumado?
Ricardo_ escribió:
KindapearHD escribió:Yo voy a tirar mi 5800X3D y me compro una PS5.

Yo tengo un 7950x y una 4090 (encima no tiene el PCB bueno es una inno ichill x3) ¿ya no me sirve? Solo tengo 32 gb de RAM



Pfff....no se yo, quizás para este primer semestre de año, aún te sirva. Mas allá de verano, lo veo complicado. Vete mirando otras cosas ya.
VíctorXD escribió:El juego tiene problemas de uso de CPU, el problema no está en el hardware hasta un 13900k se satura a 90% y crea stuttering y cuello de botella, no es normal, ya que visualmente no hay un efecto que amerite tanto cálculo de CPU.

Debe ser problema del motor en Uncharted 4 ya pasaba algo similar pero en mucha menor manera.


Yo no tuve ese problema en el Unchartred, pude jugarlo a 165Hz/165fps como rocas. En este en cambio llego en algunos momentos al 90/92% uso TOTAL de CPU y me cae la carga gráfica hasta el 60% hundiéndome los FPS a 90 aproximadamente. Perfectamente jugable, claro está, pero no es el primer juego que me satura la CPU, ya he tenido problemas en el Dead Space Remake y en puntos muy especificos del Resident Evil 4, estos lo hacían en hilos en concreto, no en el total de la CPU.

No obstante yo soy un usuario exigente y esta CPU ya se me está quedando corta. Mi intención es jugar a 165Hz/165fps a todo lo posible, si no la 7900XTX se me queda dormida. Pero vamos, que no es la primera CPU que tengo que cambiar por lo mismo, por ser exigente, a otros les valdrá de sobra, pero si tienes una 4090 o 7900XTX quieres exprimirles hasta el último fps.

Ah! y en este caso no me genera stuttering, simplemente me frena la gráfica y saltar de 160/165fps a 90 a plomo, pues lo notas en la suavidad. Luego al rato vuelves a rendimientos aceptables (+120fps) pero esos puntos CPU dependientes te tocan la moral y te rompen la experiencia.
@katatsumuri la ostia ha sonado hasta en marte [beer]
Senegio escribió:Imagen



Este es el osito amoroso que sale en la serie? [+risas] [+risas]
katatsumuri escribió:[facepalm] [facepalm] [facepalm]


Esto se ha tornado ya surrealista. Se está quedando un hilo cojonudo.


Cuando se optimice el juego en condiciones las risas las van a escuchar hasta en Júpiter. Un juego que usa prácticamente todos los assets de TLOU 2 (un juego diseñado para PS4) y que a casi nadie le sorprendía gráficamente, ni siquiera DF lo destacó en el top 10 del año pasado, es que ni siquiera los propios sonyers les parecía muy allá y decían que se parecía demasiado al 2 gráficamente (jugandolo en PS5), nos lo ponen aquí como el nuevo Crysis. Es un putísimo despolle.
KindapearHD escribió:
Senegio escribió:Imagen



Este es el osito amoroso que sale en la serie? [+risas] [+risas]


Por suerte el del videojuego no es el de la mierda de serie que ha parido la HBO en consonancia con Neil Drugman o Drunkman, porque ya hay que estar muy puesto de mierda para desprestigiar a tu propia obra y crear semejante ponzoña de adaptación.
Estamos ya con el hilo calentito, se diga lo que se diga alguien ha amenazado con bloquearte por decirlo. No está mal para las 24h de vida, pero podemos mejorar.

Yo creo que deberiamos calmarnos todos un poco. Lanzamientos buenos en su día 1 son casos contados, lo normal es esto. No lo veo un lanzamiento disparatado.

Lo cierto es que un buen port nos tendría que dejar jugar con gráficos mejores que la versión de PS3 con hardware gama baja actual. Eso estaría de puta madre. El escalado hacia abajo es el que tiene más mérito. Debería haber algún preset que la Deck lo mueva a 60 fps. Y yo creo que lo habrá.

Para mi lo que pida el juego con todo al máximo no es indicativo de nada. Sólo vale para ver su techo gráfico, no su optimización.
El juego lo habrán testeado exclusivamente en 60 fps, es subir de esa tasa de frames y la CPU se vuelve loca.

No es normal que para una escena sin carga justificable de uso de CPU, como dije en post anteriores, la inicial de Tess en la calle con 2 monigotes al fondo en un callejón cerrado, el consumo de CPU se vaya por encima de 120w en el 5800x, y gires la cámara y vuelva a consumir 50w.

Capando el juego a 60fps el consumo de CPU no pasa de esos 50w, de momento optaré por jugarlo así hasta que arreglen la mierda que han sacado, o esperarme.
elamos escribió:
the_aeon escribió:Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.


¿Como va a hacer cuello de botella a 4K un 13900k? los usos de esa CPU en juegos es baja de cojones, ahora bien, si solo habláis de un solo núcleo ok, pero en su conjunto el usage no lo he visto en mi 12900k que tengo en por ejemplo resident evil 4 remake a 4k ni al 40%

Yo creo que el problema es mas bien de opti que de maquina

https://www.youtube.com/watch?v=duqkMYAN9zk

Mira este video a partir del minuto 7, cuando activa DLSS, veras que la 4090 baja al 80% 90% de uso, el 13900k le esta haciendo cuello.

Que un cpu este haciendo cuello a la gpu, da igual que el cuello sea de 1 solo núcleo o de todos los núcleos, es cuello igualmente.

El Resident 4 me hace cuello en un solo núcleo, comprobado, y ves el uso general del cpu y lo ves al 30-40%

Pero ese núcleo no da mas de si y le esta haciendo cuello a la gpu.

En el The last of us son todos los nucleos al 80-90%, en este caso el cpu no da mas de si en general.

Siempre pongo Afterburner para que me enseñe el uso de todos los núcleos, no solo del general, así sabes si hay algún núcleo saturado o 2,3 o todos.

Hay personas que piensan que porque el uso general del cpu este al 30-40% no esta haciendo cuello y no siempre es cierto.

Y repito, si me planteo el cambio del 5800X3D no es por necesidad, es por no perder mucha pasta al venderlo, de aqui 2 o 3 años cualquier i5 normalito dará los mismos fps que el 5800x3D
KindapearHD escribió:
Senegio escribió:Imagen



Este es el osito amoroso que sale en la serie? [+risas] [+risas]


Sí, pero este mola más jajaja
Fleishmann escribió:Lo cierto es que un buen port nos tendría que dejar jugar con gráficos mejores que la versión de PS3 con hardware gama baja actual. Eso estaría de puta madre. El escalado hacia abajo es el que tiene más mérito. Debería haber algún preset que la Deck lo mueva a 60 fps. Y yo creo que lo habrá.


Para eso tendrían que habernos dado el The Last of Us original de PS3, ni el remasterd de PS4 ni el remake de PS5. Al final estamos hablando de un juego de Septiembre del 2022 en PlayStation 5 únicamente, no de uno lanzado originalmente en el 2013. Además, capando gráficos, y resolución por parte de los usuarios, puedes hacer escalar bien en GPU, pero en CPU ya no es tan sencilla la cosa.
VíctorXD está baneado por "clon de usuario baneado"
KailKatarn escribió:
VíctorXD escribió:El juego tiene problemas de uso de CPU, el problema no está en el hardware hasta un 13900k se satura a 90% y crea stuttering y cuello de botella, no es normal, ya que visualmente no hay un efecto que amerite tanto cálculo de CPU.

Debe ser problema del motor en Uncharted 4 ya pasaba algo similar pero en mucha menor manera.


Yo no tuve ese problema en el Unchartred, pude jugarlo a 165Hz/165fps como rocas. En este en cambio llego en algunos momentos al 90/92% uso TOTAL de CPU y me cae la carga gráfica hasta el 60% hundiéndome los FPS a 90 aproximadamente. Perfectamente jugable, claro está, pero no es el primer juego que me satura la CPU, ya he tenido problemas en el Dead Space Remake y en puntos muy especificos del Resident Evil 4, estos lo hacían en hilos en concreto, no en el total de la CPU.

No obstante yo soy un usuario exigente y esta CPU ya se me está quedando corta. Mi intención es jugar a 165Hz/165fps a todo lo posible, si no la 7900XTX se me queda dormida. Pero vamos, que no es la primera CPU que tengo que cambiar por lo mismo, por ser exigente, a otros les valdrá de sobra, pero si tienes una 4090 o 7900XTX quieres exprimirles hasta el último fps.

Ah! y en este caso no me genera stuttering, simplemente me frena la gráfica y saltar de 160/165fps a 90 a plomo, pues lo notas en la suavidad. Luego al rato vuelves a rendimientos aceptables (+120fps) pero esos puntos CPU dependientes te tocan la moral y te rompen la experiencia.


El juego tiene stuttering, pon el MSI AF y bloquea los FPS a 60 sólidos por ejemplo, el baile en el frametime es bestial cuando en un escenario normal el Frametime debería estar 16ms solidos tambien.

Pero el stuttering es debido a que satura cualquier CPU. El uso de CPU tan alto no es normal o es problema de motor o la compilación de shaders no funciona, y compila mientras juegas.
VíctorXD escribió:El juego tiene stuttering, pon el MSI AF y bloquea los FPS a 60 sólidos por ejemplos el baile en el frametime es bestial cuando en un escenario normal el Frametime debería estar 16ms solidos tambien.

Pero el stuttering es debido a que satura cualquier CPU. El uso de CPU tan alto no es normal o es problema de motor o la compilación de shaders no funciona, y compila mientras juegas.


Yo no he tenido stuttering hasta el momento, y hablo de 4 horas de juego. Que más adelante pueda encontrármelo, pues no lo sé, pero de momento 0. Ni en los momentos del 92% de uso de CPU, que mira que me extrañó, y más porque se comenta mucho el tema del stuttering, pero de momento no lo he sufrido.
VíctorXD está baneado por "clon de usuario baneado"
KailKatarn escribió:
VíctorXD escribió:El juego tiene stuttering, pon el MSI AF y bloquea los FPS a 60 sólidos por ejemplos el baile en el frametime es bestial cuando en un escenario normal el Frametime debería estar 16ms solidos tambien.

Pero el stuttering es debido a que satura cualquier CPU. El uso de CPU tan alto no es normal o es problema de motor o la compilación de shaders no funciona, y compila mientras juegas.


Yo no he tenido stuttering hasta el momento, y hablo de 4 horas de juego. Que más adelante pueda encontrármelo, pues no lo sé, pero de momento 0. Ni en los momentos del 92% de uso de CPU, que mira que me extrañó, y más porque se comenta mucho el tema del stuttering, pero de momento no lo he sufrido.


Que no lo persibas es cosa tuya, pero si pones el MSI AF, hay un claro problema de Frametime (Stuttering).
VíctorXD escribió:Que no lo persibas es cosa tuya, pero si pones el MSI AF, hay un claro problema de Frametime (Stuttering).


Créeme, con los años que llevo en PC cazo el stuttering a la primera, si necesitas un vídeo te lo grabo. No tengo stuttering y el frametime se me mantiene a lo que tiene que dar tanto cuando voy a 165Hz/165fps como rocas como cuando caigo a 90fps. También se mencionó mucho esto en el lanzamiento del Hogwarts Legacy, y otros muchos usuarios confirmamos que no lo sufrimos ni hasta con la versión de lanzamiento.
the_aeon escribió:
elamos escribió:
the_aeon escribió:Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.


¿Como va a hacer cuello de botella a 4K un 13900k? los usos de esa CPU en juegos es baja de cojones, ahora bien, si solo habláis de un solo núcleo ok, pero en su conjunto el usage no lo he visto en mi 12900k que tengo en por ejemplo resident evil 4 remake a 4k ni al 40%

Yo creo que el problema es mas bien de opti que de maquina

https://www.youtube.com/watch?v=duqkMYAN9zk

Mira este video a partir del minuto 7, cuando activa DLSS, veras que la 4090 baja al 80% 90% de uso, el 13900k le esta haciendo cuello.

Que un cpu este haciendo cuello a la gpu, da igual que el cuello sea de 1 solo núcleo o de todos los núcleos, es cuello igualmente.

El Resident 4 me hace cuello en un solo núcleo, comprobado, y ves el uso general del cpu y lo ves al 30-40%

Pero ese núcleo no da mas de si y le esta haciendo cuello a la gpu.

En el The last of us son todos los nucleos al 80-90%, en este caso el cpu no da mas de si en general.

Siempre pongo Afterburner para que me enseñe el uso de todos los núcleos, no solo del general, así sabes si hay algún núcleo saturado o 2,3 o todos.

Hay personas que piensan que porque el uso general del cpu este al 30-40% no esta haciendo cuello y no siempre es cierto.

Y repito, si me planteo el cambio del 5800X3D no es por necesidad, es por no perder mucha pasta al venderlo, de aqui 2 o 3 años cualquier i5 normalito dará los mismos fps que el 5800x3D


Estáis confundiendo mala programación/limitaciones de la API/motor con limitaciones de hardware.

Si sois felices comprando una CPU nueva cada pocos años porque se os pone la gpu al 90% de uso en 100fps pues no voy a ser yo quien lo impida, pero mi concepto de cuello de botella es diferente.

Si un juego te satura un hilo y te provoca stuttering pero todos los demás hilos estan rascándose los huevos no hay más vuelta de hoja. El juego está mal programado. Por supuesto dentro de 7 años solamente por la enorme mejora en mononucleo el juego dará menos tirones. El Crysis no se puede jugar a 60fps rocosos a día de hoy.

Es increíble el poco valor que se le da a lo más importante, el software, todo lo referente a la optimización, motores gráficos, herramientas de desarrollo... es mucho mejor gastarse miles de euros en fuerza bruta para encima seguir teniendo problemas similares.

En fin, yo personalmente si fuera vosotros me lo replantearia, ya no solo por el tema de dinero, si no por vuestros propio disfrute. Cada uno puede hacer lo que quiera, por supuesto, y más con su dinero, pero hay una línea entre ser exigente y otra en que te guste quemar dinero. Está clarísimo que esto es un caso de mala optimización, igual que ha pasado con muchos juegos en 2022 y fueron arreglados. Puedo poner ejemplos a patadas. Estáis quemando dinero por un concepto de cuello de botella completamente erróneo. Es más, también podríamos decir que si la gpu está al 100% pero la CPU ni cerca, estáis infrautilizando la CPU y la gpu estaría provocando cuello de botella. El concepto y la lógica es exactamente la misma.


Lo dicho, que Gotham Knight aumentase 30-40fps por el uso de CPU fue magia; que A Plague Tale Requiem pasase de ~40fps (provocando una bajada masiva del uso de la gpu) a más de 60fps en las mismas zonas y con la gpu utilizándose al máximo fue magia, Callisto, Dead Space, The Witcher 3 DX12 que ha pasado de rascar como un loco en Novigrado a ir como la seda, y todos los que se pueden jugar perfectamente a 60fps con CPUs de gama media de 2020 y antes no se podía, según el que se está luciendo en el hilo es porque son más exigentes, que salieran mal programados y luego funcionen como debería... Bueno, lo hizo un mago.


Este TLOU Remake es el nuevo Crysis hasta que se arregle y vaya bien con equipos más modestos, entonces pasaremos al siguiente juego y a hablar de cuellos de botella a 100fps con un uso de la gpu del 90%.


En conclusión, que todos los que tengáis/tengamos menos de un 5800x3d hay que ir tirando los PC a la basura. Que la generación PS5/XSX, que llevan un Ryzen 3600 que te cuesta 80€ en Wallapop, no la tiramos señores.
VíctorXD está baneado por "clon de usuario baneado"
KailKatarn escribió:
VíctorXD escribió:Que no lo persibas es cosa tuya, pero si pones el MSI AF, hay un claro problema de Frametime (Stuttering).


Créeme, con los años que llevo en PC cazo el stuttering a la primera, si necesitas un vídeo te lo grabo. No tengo stuttering y el frametime se me mantiene a lo que tiene que dar tanto cuando voy a 165Hz/165fps como rocas como cuando caigo a 90fps. También se mencionó mucho esto en el lanzamiento del Hogwarts Legacy, y otros muchos usuarios confirmamos que no lo sufrimos ni hasta con la versión de lanzamiento.


Pon video bloqueado los FPS para que se mantengan sólido y vemos el Frametime.
VíctorXD escribió:Pon video bloqueado los FPS para que se mantengan sólido y vemos el Frametime.


OK, en cuanto tenga un rato te lo grabo a 60fps locked y con los FPS y frametime mostrado.
Fleishmann escribió:Estamos ya con el hilo calentito, se diga lo que se diga alguien ha amenazado con bloquearte por decirlo. No está mal para las 24h de vida, pero podemos mejorar.

Yo creo que deberiamos calmarnos todos un poco. Lanzamientos buenos en su día 1 son casos contados, lo normal es esto. No lo veo un lanzamiento disparatado.

Lo cierto es que un buen port nos tendría que dejar jugar con gráficos mejores que la versión de PS3 con hardware gama baja actual. Eso estaría de puta madre. El escalado hacia abajo es el que tiene más mérito. Debería haber algún preset que la Deck lo mueva a 60 fps. Y yo creo que lo habrá.

Para mi lo que pida el juego con todo al máximo no es indicativo de nada. Sólo vale para ver su techo gráfico, no su optimización.


Algo muy bueno del juego es su excelente gama de opciones. El menú gráfico es extensísimo y no hay que dejar de alabarlo. Muchas opciones, bien agrupadas, con imágenes que representan cómo afectan a la calidad visual del juego y una leyenda del hardware al que más carga dicha opción. Esto debería ser un estándar. Chapó en este sentido.

En cuanto a la calidad visual creo que sí permite mejorar los ajustes de PS5 un puntito por encima. Por los vídeos que he visto -dado que no tengo el juego en PS5- parece que la consola tira a la configuración en Alto, al menos en texturas, sombras y reflejos. No sé la PS5 tendrá algún ajuste equivalente a Medio, supongo que lo veremos en el análisis de Digital Foundry. Todo apunta a que el ajuste Épico es ese plus por encima de la versión original.
Estuve probando un poco, y la 4090 a 4k, baja casi hasta un 60% de uso con un 7950x 32gb de RAM A 6000MHZ CL 36 quedándose a 90 fps mas o menos.(Todo en ultra y DLSS en calidad)
Cyborg_Ninja escribió:Estáis confundiendo mala programación/limitaciones de la API/motor con limitaciones de hardware.

Si sois felices comprando una CPU nueva cada pocos años porque se os pone la gpu al 90% de uso en 100fps pues no voy a ser yo quien lo impida, pero mi concepto de cuello de botella es diferente.

Si un juego te satura un hilo y te provoca stuttering pero todos los demás hilos estan rascándose los huevos no hay más vuelta de hoja. El juego está mal programado. Por supuesto dentro de 7 años solamente por la enorme mejora en mononucleo el juego dará menos tirones. El Crysis no se puede jugar a 60fps rocosos a día de hoy.

Es increíble el poco valor que se le da a lo más importante, el software, todo lo referente a la optimización, motores gráficos, herramientas de desarrollo... es mucho mejor gastarse miles de euros en fuerza bruta para encima seguir teniendo problemas similares.

En fin, yo personalmente si fuera vosotros me lo replantearia, ya no solo por el tema de dinero, si no por vuestros propio disfrute. Cada uno puede hacer lo que quiera, por supuesto, y más con su dinero, pero hay una línea entre ser exigente y otra en que te guste quemar dinero. Está clarísimo que esto es un caso de mala optimización, igual que ha pasado con muchos juegos en 2022 y fueron arreglados. Puedo poner ejemplos a patadas.

Lo que comunmente se denomina como matar moscas a cañonazos, máxime cuando es tu bolsillo el que está de por medio en cada cañonazo...

La tendencia este año es nefasta, salvo excepciones como Atomic Heart, no hay juego que salga en condiciones en PC. Todos vienen con taras importantes de optimización, algunos casos se parchean rápido, otros casos da para meses, y en otros ni siquiera se terminan de solucionar.
Este juego está portado de la forma más vaga y deficiente posible, con fallos de bulto como el que se ha comentado de la librería bugueada en la compilación de shaders, o el movimiento desastroso del ratón que ya ocurría en el Uncharted 4 tirando del mismo motor.

Luego, viene con decenas de opciones gráficas, pero te pones a indagar y cambiar entre presets y apenas ves diferencia en la excesiva carga, tanto de VRAM, RAM y CPU, incluso en el modo bajo, que se ve como un juego de PSX, pura fachada.

Que se pongan las pilas y arreglen la porquería que han sacado, trabajo tienen por delante.
the_aeon escribió:
elamos escribió:
the_aeon escribió:Tercer juego que veo que mi 5800X3D le hace cuello a mi 4090, Dead Space, Resident evil 4 y ahora este.

Cuando salgan los Ryzen 8000, o como se llamen, me planteo el cambio, no es que sea por mucha necesidad porque los juegos no suelen bajar de 120-130 fps, es mas bien para no perder mucha pasta al vender el 5800X3D.

Ayer vi un video que el 13900k también le hace cuello a la 4090 a 4k.


¿Como va a hacer cuello de botella a 4K un 13900k? los usos de esa CPU en juegos es baja de cojones, ahora bien, si solo habláis de un solo núcleo ok, pero en su conjunto el usage no lo he visto en mi 12900k que tengo en por ejemplo resident evil 4 remake a 4k ni al 40%

Yo creo que el problema es mas bien de opti que de maquina

https://www.youtube.com/watch?v=duqkMYAN9zk

Mira este video a partir del minuto 7, cuando activa DLSS, veras que la 4090 baja al 80% 90% de uso, el 13900k le esta haciendo cuello.

Que un cpu este haciendo cuello a la gpu, da igual que el cuello sea de 1 solo núcleo o de todos los núcleos, es cuello igualmente.

El Resident 4 me hace cuello en un solo núcleo, comprobado, y ves el uso general del cpu y lo ves al 30-40%

Pero ese núcleo no da mas de si y le esta haciendo cuello a la gpu.

En el The last of us son todos los nucleos al 80-90%, en este caso el cpu no da mas de si en general.

Siempre pongo Afterburner para que me enseñe el uso de todos los núcleos, no solo del general, así sabes si hay algún núcleo saturado o 2,3 o todos.

Hay personas que piensan que porque el uso general del cpu este al 30-40% no esta haciendo cuello y no siempre es cierto.

Y repito, si me planteo el cambio del 5800X3D no es por necesidad, es por no perder mucha pasta al venderlo, de aqui 2 o 3 años cualquier i5 normalito dará los mismos fps que el 5800x3D


Pero estamos de acuerdo en que el problema no es de la cpu verdad? el problema es que el juego/juegos los ha porteado un mono y están mal optimizados.

Es de verguenza ajena que los juegos de pc hoy en dia no repartan el uso en todos los nucleos de la cpu para evitar estos problemas, basicamente porque estas tirando dinero a la basura si lo utilizas únicamente para jugar o no le sacas el provecho en otras tareas.
Cyborg_Ninja escribió:
the_aeon escribió:
elamos escribió:
¿Como va a hacer cuello de botella a 4K un 13900k? los usos de esa CPU en juegos es baja de cojones, ahora bien, si solo habláis de un solo núcleo ok, pero en su conjunto el usage no lo he visto en mi 12900k que tengo en por ejemplo resident evil 4 remake a 4k ni al 40%

Yo creo que el problema es mas bien de opti que de maquina

https://www.youtube.com/watch?v=duqkMYAN9zk

Mira este video a partir del minuto 7, cuando activa DLSS, veras que la 4090 baja al 80% 90% de uso, el 13900k le esta haciendo cuello.

Que un cpu este haciendo cuello a la gpu, da igual que el cuello sea de 1 solo núcleo o de todos los núcleos, es cuello igualmente.

El Resident 4 me hace cuello en un solo núcleo, comprobado, y ves el uso general del cpu y lo ves al 30-40%

Pero ese núcleo no da mas de si y le esta haciendo cuello a la gpu.

En el The last of us son todos los nucleos al 80-90%, en este caso el cpu no da mas de si en general.

Siempre pongo Afterburner para que me enseñe el uso de todos los núcleos, no solo del general, así sabes si hay algún núcleo saturado o 2,3 o todos.

Hay personas que piensan que porque el uso general del cpu este al 30-40% no esta haciendo cuello y no siempre es cierto.

Y repito, si me planteo el cambio del 5800X3D no es por necesidad, es por no perder mucha pasta al venderlo, de aqui 2 o 3 años cualquier i5 normalito dará los mismos fps que el 5800x3D


Estáis confundiendo mala programación/limitaciones de la API/motor con limitaciones de hardware.

Si sois felices comprando una CPU nueva cada pocos años porque se os pone la gpu al 90% de uso en 100fps pues no voy a ser yo quien lo impida, pero mi concepto de cuello de botella es diferente.

Si un juego te satura un hilo y te provoca stuttering pero todos los demás hilos estan rascándose los huevos no hay más vuelta de hoja. El juego está mal programado. Por supuesto dentro de 7 años solamente por la enorme mejora en mononucleo el juego dará menos tirones. El Crysis no se puede jugar a 60fps rocosos a día de hoy.

Es increíble el poco valor que se le da a lo más importante, el software, todo lo referente a la optimización, motores gráficos, herramientas de desarrollo... es mucho mejor gastarse miles de euros en fuerza bruta para encima seguir teniendo problemas similares.

En fin, yo personalmente si fuera vosotros me lo replantearia, ya no solo por el tema de dinero, si no por vuestros propio disfrute. Cada uno puede hacer lo que quiera, por supuesto, y más con su dinero, pero hay una línea entre ser exigente y otra en que te guste quemar dinero. Está clarísimo que esto es un caso de mala optimización, igual que ha pasado con muchos juegos en 2022 y fueron arreglados. Puedo poner ejemplos a patadas.

Se perfectamente que es problema de programación o mala optimización, pero se esta convirtiendo en una tónica general últimamente.
the_aeon escribió:
Cyborg_Ninja escribió:
the_aeon escribió:https://www.youtube.com/watch?v=duqkMYAN9zk

Mira este video a partir del minuto 7, cuando activa DLSS, veras que la 4090 baja al 80% 90% de uso, el 13900k le esta haciendo cuello.

Que un cpu este haciendo cuello a la gpu, da igual que el cuello sea de 1 solo núcleo o de todos los núcleos, es cuello igualmente.

El Resident 4 me hace cuello en un solo núcleo, comprobado, y ves el uso general del cpu y lo ves al 30-40%

Pero ese núcleo no da mas de si y le esta haciendo cuello a la gpu.

En el The last of us son todos los nucleos al 80-90%, en este caso el cpu no da mas de si en general.

Siempre pongo Afterburner para que me enseñe el uso de todos los núcleos, no solo del general, así sabes si hay algún núcleo saturado o 2,3 o todos.

Hay personas que piensan que porque el uso general del cpu este al 30-40% no esta haciendo cuello y no siempre es cierto.

Y repito, si me planteo el cambio del 5800X3D no es por necesidad, es por no perder mucha pasta al venderlo, de aqui 2 o 3 años cualquier i5 normalito dará los mismos fps que el 5800x3D


Estáis confundiendo mala programación/limitaciones de la API/motor con limitaciones de hardware.

Si sois felices comprando una CPU nueva cada pocos años porque se os pone la gpu al 90% de uso en 100fps pues no voy a ser yo quien lo impida, pero mi concepto de cuello de botella es diferente.

Si un juego te satura un hilo y te provoca stuttering pero todos los demás hilos estan rascándose los huevos no hay más vuelta de hoja. El juego está mal programado. Por supuesto dentro de 7 años solamente por la enorme mejora en mononucleo el juego dará menos tirones. El Crysis no se puede jugar a 60fps rocosos a día de hoy.

Es increíble el poco valor que se le da a lo más importante, el software, todo lo referente a la optimización, motores gráficos, herramientas de desarrollo... es mucho mejor gastarse miles de euros en fuerza bruta para encima seguir teniendo problemas similares.

En fin, yo personalmente si fuera vosotros me lo replantearia, ya no solo por el tema de dinero, si no por vuestros propio disfrute. Cada uno puede hacer lo que quiera, por supuesto, y más con su dinero, pero hay una línea entre ser exigente y otra en que te guste quemar dinero. Está clarísimo que esto es un caso de mala optimización, igual que ha pasado con muchos juegos en 2022 y fueron arreglados. Puedo poner ejemplos a patadas.

Se perfectamente que es problema de programación o mala optimización, pero se esta convirtiendo en una tónica general últimamente.


Basicamente porque la gente como tu ante el problema en vez de quejarse pasa por el aro y sigue comprando.
KailKatarn escribió:
VíctorXD escribió:Pon video bloqueado los FPS para que se mantengan sólido y vemos el Frametime.


OK, en cuanto tenga un rato te lo grabo a 60fps locked y con los FPS y frametime mostrado.

Cuando tenga un rato dice y lleva todo el santo día en el foro defendiendo ésta basura de port. Que da hasta asco leer el hilo porque a cada 2 réplicas de usuarios hay una suya aprox. Y como paso de que me contestes ya que estoy hasta las gónadas de leer tus tonterías te meto directamente en ignorados. Pesaaaooo!
Os estoy leyendo y estoy flipando macho. Cualquiera diría que os estáis comiendo el port de un port (de PS5) de un port (de PS4) de un juego de PS3.
Mr.Threepwood escribió:Os estoy leyendo y estoy flipando macho. Cualquiera diría que os estáis comiendo el port de un port (de PS5) de un port (de PS4) de un juego de PS3.

Según algunos es la panacea gráfica....
elamos escribió:
the_aeon escribió:
Cyborg_Ninja escribió:
Estáis confundiendo mala programación/limitaciones de la API/motor con limitaciones de hardware.

Si sois felices comprando una CPU nueva cada pocos años porque se os pone la gpu al 90% de uso en 100fps pues no voy a ser yo quien lo impida, pero mi concepto de cuello de botella es diferente.

Si un juego te satura un hilo y te provoca stuttering pero todos los demás hilos estan rascándose los huevos no hay más vuelta de hoja. El juego está mal programado. Por supuesto dentro de 7 años solamente por la enorme mejora en mononucleo el juego dará menos tirones. El Crysis no se puede jugar a 60fps rocosos a día de hoy.

Es increíble el poco valor que se le da a lo más importante, el software, todo lo referente a la optimización, motores gráficos, herramientas de desarrollo... es mucho mejor gastarse miles de euros en fuerza bruta para encima seguir teniendo problemas similares.

En fin, yo personalmente si fuera vosotros me lo replantearia, ya no solo por el tema de dinero, si no por vuestros propio disfrute. Cada uno puede hacer lo que quiera, por supuesto, y más con su dinero, pero hay una línea entre ser exigente y otra en que te guste quemar dinero. Está clarísimo que esto es un caso de mala optimización, igual que ha pasado con muchos juegos en 2022 y fueron arreglados. Puedo poner ejemplos a patadas.

Se perfectamente que es problema de programación o mala optimización, pero se esta convirtiendo en una tónica general últimamente.


Basicamente porque la gente como tu ante el problema en vez de quejarse pasa por el aro y sigue comprando.

No he pasado por ningún aro, versión sparrow
¿A ti cuando te bajan son muchos o es jugable?


Es jugable pero algo molesto. Yo es que soy muy exquisito :cool:

Ya contarás cómo te ha ido con esos 12 GB VRAM
VíctorXD escribió:Pon video bloqueado los FPS para que se mantengan sólido y vemos el Frametime.


Aquí te lo dejo, te paso enlace de MEGA original para que no haya mierdas de youtube o derivados por el camino. Ahora bien, no le pidas la mejor calidad del mundo que está capturado en H264. Te lo he pasado del prólogo, que es bastante exigente y así evitamos SPOILERS por el camino ;) y en 60fps locked con frametime como me has pedido.

Link: https://mega.nz/file/BdEVzSpZ#vvm38fYYA ... u4htSfHmtQ

PD: Aun así para que esto sea realista se necesita un FCAT, MSI Afterburner para hacerte una idea te vale, pero rigurosidad 0.
xineloeol escribió:
Mr.Threepwood escribió:Os estoy leyendo y estoy flipando macho. Cualquiera diría que os estáis comiendo el port de un port (de PS5) de un port (de PS4) de un juego de PS3.

Según algunos es la panacea gráfica....


Eso es otra cosa con la que me estoy quedando a cuadros. Es algo bien conocido que ni a los jugadores de PS5 les impresionó en general, porque ya se veía muy parecido a TLOU 2, solo que a mayor resolución y con algunos ajustes mejores, pero la comparativa con TLOU 2 (que recordemos, funcionaba perfectamente en PS4 base a 30fps) a nivel visual era razonable:





Que ojo, es un remake y es obvio que es más exigente que el TLOU de PS3 o el de PS4 remasterizado, y en PC se va más allá en cuanto a settings, pero de ahí a ponerlo como si fuera el mismísimo Crysis y tenga requisitos desmesurados justificados por lo que se ve en pantalla... va a ser que no. Es un juego que se ve bien, pero ya. No es como el A Plague Tale Requiem, o el Horizon FW, o el Demon Souls Remake, que son juegos claramente pensados para la nueva generación. Es un juego que por la serie y por tener gran parte de los assets ya hechos (por ejemplo, el modelado de Joel y Ellie jóvenes de TLOU 2 se utilizó en el remake, Joel incluso luce más viejo de lo que debería) se llevó a cabo, pero nunca ha sido una revolución en lo gráfico.
xineloeol escribió:
Mr.Threepwood escribió:Os estoy leyendo y estoy flipando macho. Cualquiera diría que os estáis comiendo el port de un port (de PS5) de un port (de PS4) de un juego de PS3.

Según algunos es la panacea gráfica....


No es el A Plague Tale: Requiem pero me parece que tiene unos gráficos muy top
Senegio escribió:
xineloeol escribió:
Mr.Threepwood escribió:Os estoy leyendo y estoy flipando macho. Cualquiera diría que os estáis comiendo el port de un port (de PS5) de un port (de PS4) de un juego de PS3.

Según algunos es la panacea gráfica....


No es el A Plague Tale: Requiem pero me parece que tiene unos gráficos muy top

Es que ahí está el tema, el juego no da tanto para lo que pide, son gráficos buenos pero los juegos recientes de este año se lo pasan por el aro, por poner algún ejemplo: A Plague Tale Requiem, Dead Space Remake, The Callisto Protocol, ... yo los veo muy superiores en casi todo, especialmente en iluminación.
Lo veo más a la par de un RE4 Remake por ejemplo, de escenarios similares en tamaño, rindiendo este último infinitamente mejor.
2670 respuestas