[HO] The Last of Us Part I

SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Sony tiene un poco de lio con esto de los shaders, se les atraganta y no saben muy bien que hacer ( precompilar o no ) ya que por ejemplo en el horizon a cada parche te lo cambiaban, yo estoy a favor de hacerla pero en los menus del juego y despues en segundo plano, no hacerla es simplemente un suicidio en algunos motores gráficos.

Hay gente reportando 5 horas de espera para compilar, yo creo que huele más a bug que otra cosa ya que en su anterior juego portado a pc ( uncharted ) había compilación pero no tardaba tanto tiempo.
ionesteraX escribió:
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Sony tiene un poco de lio con esto de los shaders, se les atraganta y no saben muy bien que hacer ( precompilar o no ) ya que por ejemplo en el horizon a cada parche te lo cambiaban, yo estoy a favor de hacerla pero en los menus del juego y despues en segundo plano, no hacerla es simplemente un suicidio en algunos motores gráficos.

Hay gente reportando 5 horas de espera para compilar, yo creo que huele más a bug que otra cosa ya que en su anterior juego portado a pc ( uncharted ) había compilación pero no tardaba tanto tiempo.

lo triste es que después de estar 5 horas para compilar no podrán pedir reembolso en Steam al haber "jugado" más de 2 horas.
ionesteraX escribió:
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Sony tiene un poco de lio con esto de los shaders, se les atraganta y no saben muy bien que hacer ( precompilar o no ) ya que por ejemplo en el horizon a cada parche te lo cambiaban, yo estoy a favor de hacerla pero en los menus del juego y despues en segundo plano, no hacerla es simplemente un suicidio en algunos motores gráficos.

Hay gente reportando 5 horas de espera para compilar, yo creo que huele más a bug que otra cosa ya que en su anterior juego portado a pc ( uncharted ) había compilación pero no tardaba tanto tiempo.


Pero esta gente no ha hecho control de calidad? Me parece increíble que un juego asi con todo el ruido que lleva la serie salga en este estado y a 60 euros!
Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:

- No se puede desoír al consumidor por tener una GPU de 8 GB en 2023. La 3070ti es la GPU más potente que se ha fabricado con 8 GB (al menos hasta el día de hoy) y salió hace 2 años. Una gráfica por la que se venía pagando hasta hace poco el precio de 1,5 PS5's. Por lo tanto es normal que la gente espere que los juegos funcionen correctamente en sus equipos, como mínimo, a la altura de la consola de la que proviene el port. Y siendo la 3070 más potente que PS5 en rendimiento gráfico puro, entendería que se esperara poder jugar al menos un punto por encima (asumiendo las pérdidas habituales de rendimiento de todo port).

- Una cosa es lo que la gente quiera y otra la realidad. Y para que la realidad cambie la gente se tiene que quejar. Que nos digamos unos a otros "cómo pretendes quejarte en 2023 con una gráfica de 8 GB de VRAM" le hace un flaquísimo favor a nuestro colectivo. Quien no llora no mama y pedir ciertas cosas no es que sea razonable, si no que es deseable y saludable para todos nosotros.

- No es razonable pedir que una 1060 rinda como una PS5. Pero sí es razonable que una 2070 Super, 2080 ti, 3060 ti o 3070 rindan +-20% de lo que rinde un hardware cerrado equivalente. La PS5 tiene 16 GB GDDR6 y varios chips dedicados al streaming de datos y la descompresión de texturas. Esto no lo tiene el PC y es una desventaja para nosotros, es un hecho. Pero un PC de 16 GB de RAM y 8 de VRAM ya tiene 24 GB de memoria que estoy seguro de que pueden utilizarse mucho mejor de lo que algunos ports la utilizan. O los ordenadores con 8 cores y 16 threads o más, cada uno de ellos más potente que los de PS5; estoy seguro que se pueden portar los juegos para ocupar los hilos que normalmente nunca se ocupan en tareas que suplan las carencias que tiene el PC respecto de la consola. Y esto lo sé porque hay juegos que se ven genial y que están llenos de objetos, texturas y efectos bien optimizados; y porque los hay mal optimizados. Es nuestro derecho como colectivo es pedir productos en las mejores condiciones posibles.

- Iron Galaxy es una empresa de porting que no se caracteriza por haber entregado trabajos finísimos (Arkham Knight, Uncharted 4 se comió una buena ristra de parches, este TLoU se comerá otra...) por lo que si especulo un poco y leo por ahí llego a la conclusión de que son baratos. Y de que entregan aquello por lo que se les paga. Si Naughty Dog o Sony (quien pague) hubiesen destinado más dinero a portar este juego y tuviésemos un producto mejor optimizado, ¿entonces 8 GB de VRAM ya serían aceptables?¿Entonces un i5 8400 ya sería aceptable?

Menos toxicidad y más apoyarnos entre nosotros. Que aquí todos buscamos (creo) lo mismo: jugar a juegos de PC en las mejores condiciones posibles.
Si nadie comprase la 4060 cuando salga, nvidia no volvería a cometer la guarrada de sacar gráficas en 2023 con 8g de ram NADIE deberia de comprarla y veríais como espabilaban.
Senegio escribió:
adri079 escribió:Se nota más moviento en el hilo de este Port de Sonymala que en el del resident Evil 4 REMAKE GOTY....como se nota que es gratis y en el otro trae denuvo jajaja. Luego se niega la mayor de ciertos temitas en pc...


Y pese a todo ahí están los datos del dinero que ha generado cada plataforma. Casi 50% el PC, el resto del pastel a repartirse entre todas las consolas.

También este juego tiene mucho más marketing detrás. Pero bueno, lo del hilo de DENUVO en este subforo siempre ha sido la risa. Es la versión 2.0 del eufemismo de la “copia de seguridad” que se hacía en EOL para decir “yo no pirateo”.


Sobretodo por la cantidad de AAA exclusivos que tiene pc. No quieren ganar dinero. TLoU2 se hizo en una apu de 2012 de 300 euros era no? Star citizen era el que iba a dejar en ridículo en 2012 esa Apu no?

Móvil tiene muchos más ingresos que PC en juegos, por cierto, estadísticas sanas
SOTN escribió:Si nadie comprase la 4060 cuando salga, nvidia no volvería a cometer la guarrada de sacar gráficas en 2023 con 8g de ram NADIE deberia de comprarla y veríais como espabilaban.


Esto es otro tema con el que estoy de acuerdo.

Pero lo que no podemos pretender es pedir a nuestros compañeros del gremio que compren más VRAM cuando quizá el juego se podría portar para aprovechar mejor los recursos de los que dispone la tarjeta. No digo que sea así en todos los casos ni mucho menos, pero dudo mucho que este juego que es pasillero* (no lo digo como crítica eh) a más no poder, necesite tanta VRAM por sus cojones.

*Pasillero = escenarios bien delimitados y en los que avanzas prácticamente en una línea recta. Que no son sandbox ni mundos abiertos con mil sitios diferentes que visitar sin tiempos de carga.
KailKatarn escribió:
Cyborg_Ninja escribió: @KailKatarn Yo sinceramente no creo que el juego sirva de ejemplo de nada. Es un juego con base en una PS5, que lo ejecuta a 60fps una cpu equivalente (más o menos) a un Ryzen 3600. Arriba o abajo. Que pida más procesador (que cuidado, algunos no son nada cpu dependientes y rascan de lo lindo por usar MAL la cpu) de lo normal también podría ser perfectamente por mala optimización, o porque la usa francamente bien.


Pero vamos, tienes razón en que el juego parece tremendamente exigente en cuanto a cpu. He visto un 5600X al 95% de uso a unos 70-80fps con una 3060Ti. Lo que no creo es que se deba invertir tanto en CPU como en GPU, al menos a 60fps, la que pincha y corta en la mayoría de juegos es la gráfica y es mucho más fácil que se te quede corta esta.

Seguramente este juego reciba parches a lo bestia, sobre todo por la cpu. Si me dijeras que un juego full next gen que nos deje boquiabiertos empiece a pedir CPU a mansalva... pero es un juego de PS5 que tampoco es que vaya más allá de TLOU 2, un juego con PS4 fat de base. [carcajad]


Que vengas a decir que es un juego con una PS4 fat de base, el cual va a 30fps con caídas y con gráficos bastante peores que lo que podemos ver en PC no hay por donde cogerlo. Como tampoco hay por donde coger el intentar defender que en PC hemos venido a jugar a 60fps y que cada vez vayan saliendo más juegos que piden mucha CPU y siempre se justifique con "es que están mal optimizados".

Ya van "A plaguetale requiem" y ya me dijiste lo mismo, "Dead Space Remake", "Hogwarts Legacy" y ahora este "The last of US" donde el uso de CPU está muy por encima de lo habitual. Que oye, que te quieres justificar en que para 60fps quizás no tanto cuando muestras un vídeo de un 5800X3D al 45-50% para 50-60fps en una de las escenas que menos CPU pide, pues ya te digo yo que ese 5800X3D te empieza a hacer cuello en partes del juego a 80-90fps porque ya me ha pasado a mi y con los shaders compilados. Ah! y eso en el prólogo, que ya veremos si todavía hay escenas más CPU demandantes.

A todo esto hay que sumarle que mientras una GPU al 100% no es ningún problema salvo que te va a limitar los fps hasta donde llegue, una CPU al 100% te puede generar stuttering, y eso sólo hablando de hilos maximizados, así que ya no hablemos de la CPU al 100% de uso real. Eso de recomendar priorizar la GPU por encima de la CPU es el mayor error de base de absolutamente todo pc-gamer, sin descontar que una CPU potente te va a permitir aprovechar gráficas más modernas y actualizar.

Sinceramente, a mi me da igual lo que cada uno haga con su dinero, pero priorizar la GPU sobre la CPU en un PC gamer es directamente tirar el dinero. Ahora bien, también se puede intentar usar CPUs de calculadoras en pleno 2023 y decir que todo está mal optimizado y protestar, o comprar gráficas con 8gb de VRAM en pleno 2023 y protestar igualmente.



Perdona que te corrija pero estás poniendo ejemplos malísimos, todos esos juegos en su mayoría fueron arreglados, puedes añadir el Gotham Knight que pedía CPU a borbotones y apenas había CPU en el mercado que no tuviera bajones a 40-50fps por el uso de esta y fue arreglado, el R3600 paso de tener caídas por debajo de 30fps a +45fps, el A Plague Tale Requiem tenía escenas MUY CPU exigentes que hasta las de gama alta se tambaleaban a 40-50fps en las escenas de las ratas y desde que lo parchearon ni en mi 3600 bajan de 60fps cuando antes incluso con el 5700x tenía caídas sostenidas a 45/50fps... Con Dead Space o Callisto Protocol misma historia.

Has ido a poner ejemplos malísimos, casi todo se demostró que era simple y llanamente mala optimización porque los arreglaron. Añadir The Witcher 3, que hasta hace poco con RT y DX12 había zonas de Novigrado que era literalmente imposible mantener los 60fps, a mí con el 5700x incluso me bajaba a 55fps y tenía abundante stuttering (después de jugar muchas horas y con los shaders ya cargadisimos), y ahora sorpresa, 70-80fps en esas mismas áreas en cuanto hicieron parches específicos para ello.


Que obviamente los requisitos van a aumentar (CPU incluida) es de cajón, pero que ha habido una oleada de juegos mal programados (y ojo, que los shaders se carguen al inicio no te tiene por qué quitar el "transversal stuttering" que suelen sufrir estos juegos) que pedían CPU a cholon y luego mágicamente dejaron de hacerlo también lo es. Malísimos ejemplos, compañero. Creo que de ahí no hay ni uno que no haya sido arreglado y te he añadido dos más.



Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada. Tranquilo, que este tras un par de parches lo tienes volando en cualquier CPU medio decente y el 5800x3d estará descojonao.


Que yo no digo tampoco que haya que racanear en CPU al máximo, cuidado ahi. Soy partidario de poner CPUs competitivas y decentes. De lo que no soy partidario es de PRIORIZAR la CPU sobre la gpu. Casi todos esos juegos no es que fueran CPU exigentes de por si, que también, era más bien que había un cuello de botella enorme en la CPU y contra más fuerza bruta tuvieras mejor se defendía, pero en cuanto los parchearon ya volaban en CPUs normalitas cuando antes iban mal hasta en CPUs de gama alta. En casi cualquier review que te veas, benchmark o pruebas que he hecho yo mismo los mayores cambios de rendimiento recaen sobre la gráfica. Mismamente tengo un 3600, un 5700x y también un Ryzen 1600AF, y aunque había diferencias, solo pasar de la 6700xt a la 6800xt ya me aumento más el rendimiento, ni te cuento pasar de la RX570 a la 6700XT.

Los procesadores por suerte en el uso de los videojuegos es significativamente menor. Tampoco es que haya que ir con uno muy básico, o tampoco veo normal gastarte 2000 pavos en una 4090 para acompañarlo con un 5600x (hoy día, otra cosa es si ya lo tienes), pero tampoco hace falta pillar un Intel i9 13900k o un Ryzen 7800x3d para meterle una 407, digo yo.


Lo de la base de TLOU 2 en TLOU 1 remake para buen entendedor pocas palabras bastan.
zero2006xl escribió:Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:


A ver, estás dando a entender que algunos usuarios venimos a reírnos o algo así de los usuarios de 8GB de VRAM o los 16GB de RAM o las CPUs de pocos núcleos y te equivocas.

Vamos a ser realistas:

1º Las gráficas de 8GB de VRAM se ven de manera mayoritaria desde hace más de 7 años. Una "simple" GTX1070 ya contaba con 8GB de VRAM GDDR5. ¿Te parece normal pretender tener la misma cantidad de VRAM 7 años después? pues evidentemente muchos no lo vemos normal. No se montó la marimorena cuando 2GB no fueron suficientes, ni tampoco vuando 4 o 6GB de VRAM dejaron de ser suficientes.

2º ¿Cuanto llevamos con 16GB de RAM? ¿10 años? ¿más? pues es evidente que los motores y el software avanza y al final vas a necesitar 32GB y quizás hasta dentro de no mucho 64GB sea el standard. ¿Es eso malo? pues yo no vi todas esas quejas cuando se tuvo que saltar de 4 a 8GB de RAM ni de 8 a 16GB de RAM.

3º Las CPUs de 4 y 6 núcleos + HT llevan con nosotros desde hace más de 12 años. ¿De verdad nos vamos a asustar que en pleno 2023 haya juegos punteros gráficamente que necesiten 8/16 a altas frecuencias? pues tampoco lo entiendo. Como tampoco entenderé las quejas de cuando se necesiten más de 8/16 y los 16/32 sean el standard o todavía más.

Aquí no es cuestión ni de reírse ni de criticar a nadie. Ahora bien, si has estado dispuesto a comprar una gráfica moderna con la misma VRAM que hace 7 años, pretender seguir usando la misma RAM que hace 10 años o más y CPUs de hace 12 años, pues sinceramente, has elegido muy mal los componentes para tener un PC equilibrado.

Eso sí, parece ser que si mencionas todo esto están en su derecho de cargarse en tus muertos peludos, que a mi me parece cojonudo y me río que te cagas, pero evidentemente no era una jugada inteligente. Todo esto sin descontar que los motores y el software avanzan, y siempre llegará un momento que necesites más de todo. Ahora bien, eso parece que no se quiere entender y es que todo sale fatal optimizado. Luego actualizan el PC o equilibran lo que les falla y entonces todo bien hasta que llega el juego que pide 32GB de VRAM y 64GB de RAM y vuelta a empezar. Si es siempre lo mismo.

PD: El port no está hecho por Iron Galaxy unicamente, Naughty Dog han colaborado con ellos y son los que han dado el visto bueno a la salida del juego.

Cyborg_Ninja escribió:Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada.


Ajam, sí.
aim_dll escribió:
ionesteraX escribió:
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Sony tiene un poco de lio con esto de los shaders, se les atraganta y no saben muy bien que hacer ( precompilar o no ) ya que por ejemplo en el horizon a cada parche te lo cambiaban, yo estoy a favor de hacerla pero en los menus del juego y despues en segundo plano, no hacerla es simplemente un suicidio en algunos motores gráficos.

Hay gente reportando 5 horas de espera para compilar, yo creo que huele más a bug que otra cosa ya que en su anterior juego portado a pc ( uncharted ) había compilación pero no tardaba tanto tiempo.


Pero esta gente no ha hecho control de calidad? Me parece increíble que un juego asi con todo el ruido que lleva la serie salga en este estado y a 60 euros!


Estamos apañaos, entre las compañías que nos usan de betatesters, las que quieren exprimirte hasta tu último euro vendiéndote gráficas al triple de precio y los que están por aquí justificando que es normal que vaya mal con una 3070 ya que solo tiene 8 de vram o que 16 gigas de ram son pocos.

Esto sin contar a los que se piensan que este juego, el Hogwarts Legacy o el Forspoken son next gen y es normal que se necesite mínimo una rtx 4080. Cuando son juegos old gen, de la ps4 normal, los gráficos son como el the last of us 2. El forspoken es como un final fantasy xv de cuando empezó la ps4 y el Hogwarts es una especie de Assassins Creed Origins y del primer Horizon Zero Dawn.

Lo del Hogwarts es especialmente grave ya que fuera del sistema de combate y la ambientación el nivel del juego cae por debajo de la media. Son muy cutres los diálogos, sosos, sin emoción y en un plano estáticoo con un personaje a la izquierda y otro a la derecha sin apenas moverse, ni cambios de plano. La saga Yakuza tiene muchísimos diálogos y en lo que es la historia principal hay cambios constantes de cámara, los personajes se mueven por todas partes hay acción y ya era así en ps2.

En resumen, que los que justifican la barbaridad de requisitos que piden las desarrolladoras para jugar a juegos de ps4 nos cavan la tumba a todos.
zero2006xl escribió:
SOTN escribió:Si nadie comprase la 4060 cuando salga, nvidia no volvería a cometer la guarrada de sacar gráficas en 2023 con 8g de ram NADIE deberia de comprarla y veríais como espabilaban.


Esto es otro tema con el que estoy de acuerdo.

Pero lo que no podemos pretender es pedir a nuestros compañeros del gremio que compren más VRAM cuando quizá el juego se podría portar para aprovechar mejor los recursos de los que dispone la tarjeta. No digo que sea así en todos los casos ni mucho menos, pero dudo mucho que este juego que es pasillero (no lo digo como crítica eh) a más no poder, necesite tanta VRAM por sus cojones.

*Pasillero = escenarios bien delimitados y en los que avanzas prácticamente en una línea recta. Que no son sandbox ni mundos abiertos con mil sitios diferentes que visitar sin tiempos de carga.


Al final acaba dando la sensación de que sacan el producto limitando conscientemente a los usuarios que no tengan X características en sus componentes. No me creo que esta gente no haya hecho mil millones de pruebas como para saber de los tiempos locos de compilación de shaders o que el juego petardea en ciertos equipos.

(Relacionado a tu comentario anterior) Estaría mucho mejor que os dejáseis de dar tralla entre vosotros, yo por lo menos preferiría entrar al hilo y encontrarme comentarios sobre las configuraciones que se estan probando, test de rendimiento o ayuda general a solucionar problemas del lanzamiento
KailKatarn escribió:
zero2006xl escribió:Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:


A ver, estás dando a entender que algunos usuarios venimos a reírnos o algo así de los usuarios de 8GB de VRAM o los 16GB de RAM o las CPUs de pocos núcleos y te equivocas.

Vamos a se realistas:

1º Las gráficas de 8GB de VRAM se ven de manera mayoritaria desde hace más de 6 años. Una "simple" GTX1070 ya contaba con 8GB de VRAM GDDR5. ¿Te parece normal pretender tener la misma cantidad de VRAM 6 años después? pues evidentemente muchos no lo vemos normal. No se montó la marimorena cuando 2GB no fueron suficientes, ni tampoco vuando 4 o 6GB de VRAM dejaron de ser suficientes.

2º ¿Cuanto llevamos con 16GB de RAM? ¿10 años? ¿más? pues es evidente que los motores y el software avanza y al final vas a necesitar 32GB y quizás hasta dentro de no mucho 64GB sea el standard. ¿Es eso malo? pues yo no vi todas esas quejas cuando se tuvo que saltar de 4 a 8GB de Ram ni de 8 a 16GB de RAM.

3º Las CPUs de 4 y 6 núcleos + HT llevan con nosotros desde hace más de 12 años entre nosotros. ¿De verdad nos vamos a asustar que en pleno 2023 haya juegos punteros gráficamente que necesiten 8/16 a altas frecuencias? pues tampoco lo entiendo.

Aquí no es cuestión ni de reírse ni de criticar a nadie. Ahora bien, si has estado dispuesto a comprar una gráfica moderna con la misma VRAM que hace 6 años, pretender seguir usando la misma RAM que hace 10 años y CPUs de hace 10-12 años pues sinceramente, has elegido muy mal los componentes para tener un PC equilibrado.

Eso sí, parece ser que si mencionas todo esto están en su derecho de cargarse en tus muertos peludos, que a mi me parece cojonudo y me río que te cagas, pero evidentemente no era una jugada inteligente.


Cyborg_Ninja escribió:Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada.


Ajam, sí.


Nvidia me vendio una gpu hace 2 años con 8vram a 420 euros y ahora te dicen que la siguiente que viene en su gama lleva tb 8gb de ram, el precio es de 750 dolares... o Nvidia no se entera de la película o las desarrolladoras pasan de optimizar y testear

Los 16 de ram pues si ya se estan empezando a quedar cortos y en ese punto ya tenemos que cambiar el chip

@pepetu Es lo que dices, van mas juegos rotos que optimizados en este 2023
Esk la culpa no es de nvdia.
Lo que está pasando a día de hoy que sacan los juegos sin optimizar apenas, y ese es el gran problema de la industria a día de hoy, pero hoy en día tenemos una crisis muy profunda y optimizar un par de años más un juego significa más recursos y más dinero por parte de los inversores y lo que buscan es un desarrollo de mucho brilli brilli en el menor tiempo posible, sacamos el producto roto y con el tiempo lo vamos puliendo pero primero crear hype, sacar el producto y vender todo lo posible para recuperar la inversión y conseguir los máximos beneficios posibles.
Así que aquí hay dos temas bien diferenciados, uno que nvdia es verdad que es una racana con los GB de RAM en sus gpus y otra las compañías de juegos.

Yo por suerte tengo una 4090 y no tengo ningún tipo de problemas con the last of US ni con resident Evil 4 remake, los estoy disfrutando muchísimo si ningun cuelgue y todo al máximo con rt y 4k.
yosu888 escribió:Esk la culpa no es de nvdia.


Lo siento, vender en pleno 2023 gráficas de 1000€ con 12GB de VRAM es timo de NVIDIA igualmente (RTX4070/4070Ti) y pretender sacar por 700€ o más una 4060Ti con 8GB de VRAM ya no es una timada, es una tomadura de pelo por parte de NVIDIA.

Ya en la 3000 Series engañaron y timaron cosa mala, lo de esta generación ya no hay por donde cogerlo. La RTX3080 con la buena potencia calidad/precio que tenía con 10GB fue un robo, sacar la 3080Ti con 12GB y lo que valía, robo a mano armada directamente.

De hecho hasta si me apuras los 16GB de VRAM de la RTX4080 por 1600€ o más me sigue pareciendo otro robo.
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Han utilizado una libreria de Oodle (la 2.9.6) que tiene bug conocido de fugas de memoria. Si se sustituye el archivo por el de la versión anterior (2.9.5) que no tiene ese problema, ya tarda en compilar lo shaders lo normal. En Nexusmod han subido el archivo con la versión sin el bug https://www.nexusmods.com/thelastofuspart1/mods/11 O si tenéis instalado el Warframe o el Fifa 23, tambien se puede coger el archivo de ahí, que lleva esa versión.

Eso sí, solo arregla lo de la compilación de shaders, no el resto de problemas que tiene el port.
yosu888 escribió:Esk la culpa no es de nvdia.
Lo que está pasando a día de hoy que sacan los juegos sin optimizar apenas, y ese es el gran problema de la industria a día de hoy, pero hoy en día tenemos una crisis muy profunda y optimizar un par de años más un juego significa más recursos y más dinero por parte de los inversores y lo que buscan es un desarrollo de mucho brilli brilli en el menor tiempo posible, sacamos el producto roto y con el tiempo lo vamos puliendo pero primero crear hype, sacar el producto y vender todo lo posible para recuperar la inversión y conseguir los máximos beneficios posibles.
Así que aquí hay dos temas bien diferenciados, uno que nvdia es verdad que es una racana con los GB de RAM en sus gpus y otra las compañías de juegos.

Yo por suerte tengo una 4090 y no tengo ningún tipo de problemas con the last of US ni con resident Evil 4 remake, los estoy disfrutando muchísimo si ningun cuelgue y todo al máximo con rt y 4k.


Hola, normal te vaya, bien, lo digo de buen rollo ;-.) Faltaria mas que con una grafica de mas de 2000 euros no fuese bien pero es lo que dije ¿Somos conscientes en la dinamica que estamos entrando? ¿Que va a costar la serie 5000 si esto sigue?

Yo ya explique que soy el primero en caer ,es nuestro hobby... Pero mas vamos muy mal como esto siga asi, ojala me equivoque.
Lo que tengo claro es que ni fabricantes de componentes, ni de graficas..etc,etc estan perdiendo dinero , estan ganando mas aun.El que crea esto no es asi, felicidades te han convencido para justificar...etc,etc.
Saludos.
fonso86 escribió:
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Han utilizado una libreria de Oodle (la 2.9.6) que tiene bug conocido de fugas de memoria. Si se sustituye el archivo por el de la versión anterior (2.9.5) que no tiene ese problema, ya tarda en compilar lo shaders lo normal. En Nexusmod han subido el archivo con la versión sin el bug https://www.nexusmods.com/thelastofuspart1/mods/11 O si tenéis instalado el Warframe o el Fifa 23, tambien se puede coger el archivo de ahí, que lleva esa versión.

Eso sí, solo arregla lo de la compilación de shaders, no el resto de problemas que tiene el port.


Mods!!!! [amor] [amor]
KailKatarn escribió:
zero2006xl escribió:Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:


A ver, estás dando a entender que algunos usuarios venimos a reírnos o algo así de los usuarios de 8GB de VRAM o los 16GB de RAM o las CPUs de pocos núcleos y te equivocas.

Vamos a se realistas:

1º Las gráficas de 8GB de VRAM se ven de manera mayoritaria desde hace más de 7 años. Una "simple" GTX1070 ya contaba con 8GB de VRAM GDDR5. ¿Te parece normal pretender tener la misma cantidad de VRAM 7 años después? pues evidentemente muchos no lo vemos normal. No se montó la marimorena cuando 2GB no fueron suficientes, ni tampoco vuando 4 o 6GB de VRAM dejaron de ser suficientes.

2º ¿Cuanto llevamos con 16GB de RAM? ¿10 años? ¿más? pues es evidente que los motores y el software avanza y al final vas a necesitar 32GB y quizás hasta dentro de no mucho 64GB sea el standard. ¿Es eso malo? pues yo no vi todas esas quejas cuando se tuvo que saltar de 4 a 8GB de RAM ni de 8 a 16GB de RAM.

3º Las CPUs de 4 y 6 núcleos + HT llevan con nosotros desde hace más de 12 años entre nosotros. ¿De verdad nos vamos a asustar que en pleno 2023 haya juegos punteros gráficamente que necesiten 8/16 a altas frecuencias? pues tampoco lo entiendo. Como tampoco entenderé las quejas de cuando se necesiten más de 8/16 y los 16/32 sean el standard o todavía más.

Aquí no es cuestión ni de reírse ni de criticar a nadie. Ahora bien, si has estado dispuesto a comprar una gráfica moderna con la misma VRAM que hace 7 años, pretender seguir usando la misma RAM que hace 10 años o más y CPUs de hace 12 años, pues sinceramente, has elegido muy mal los componentes para tener un PC equilibrado.

Eso sí, parece ser que si mencionas todo esto están en su derecho de cargarse en tus muertos peludos, que a mi me parece cojonudo y me río que te cagas, pero evidentemente no era una jugada inteligente. Todo esto sin descontar que los motores y el software avanzan, y siempre llegará un momento que necesites más de todo. Ahora bien, eso parece que no se quiere entender y es que todo sale fatal optimizado. Luego actualizan el PC o equilibran lo que les falla y entonces todo bien hasta que llega el juego que pide 32GB de VRAM y 64GB de RAM y vuelta a empezar. Si es siempre lo mismo.


Cyborg_Ninja escribió:Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada.


Ajam, sí.



Nada, lo juegos mal programados son los padres. Que luego se arreglen vía parche es magia potagia. Todos a tirar sus equipos e ir metiendo a la de ya 64gb de RAM y el Intel/Ryzen más potente que haya, y en un par de añitos otra vez a cambiar, no vaya a ser que salga un juego mal optimizado que con un i9 13900k y una 4090 petardee cuando salga a 40fps, metan dos parches y vaya a 60fps con un Ryzen 3600. Para ese mes habrá que tener el equipo al máximo.

Que la PS5 te ejecute este juego a 1440p y con uns CPU similar a un Ryzen 3600 no es pista de nada. Este en unos meses estará a 120fps con ese 5800x3d, pero ya lo habrás añadido a la colección de juegos "muy CPU demandantes y que la gente se queja de que están mal optimizados cuando no lo están" que mágicamente fueron arreglados y ya van bien con CPUs modestisimas.

Te crees el más listo de la clase por ir contracorriente y realmente estás diciendo barbaridades. Tiene cojones que webs dedicadas a la tecnologia hablen claramente de juegos mal programados a nivel de CPU, que les da igual casi una CPU que otra, que hacen mal uso de estas y que además se suelen arreglar, te lo pases todo por el forro y te creas que es que hace falta meter un Ferrari para ir al Mercadona porque el asfalto está dañado y terminas yendo igual de lento que con un Seat Ibiza del año María Castaña, pero cuando arreglan el asfalto ya eso no cuenta, había que ir con el Ferrari al Mercadona, que corre más y quizás llegabas 30 segundos antes.


Nada, que cada vez que salga un juego mal programado a actualizar los procesadores todos. O el PC completo si ya tienes la mejor CPU del socket. El Horizon ZD otro que salió pidiendo CPU por un tubo con un stuttering de cojones y otro que se arregló con magia potagia e iba como una roca hasta con un Ryzen 2600. Pero nada, los padres.
Kurosawa42 escribió:
yosu888 escribió:Esk la culpa no es de nvdia.
Lo que está pasando a día de hoy que sacan los juegos sin optimizar apenas, y ese es el gran problema de la industria a día de hoy, pero hoy en día tenemos una crisis muy profunda y optimizar un par de años más un juego significa más recursos y más dinero por parte de los inversores y lo que buscan es un desarrollo de mucho brilli brilli en el menor tiempo posible, sacamos el producto roto y con el tiempo lo vamos puliendo pero primero crear hype, sacar el producto y vender todo lo posible para recuperar la inversión y conseguir los máximos beneficios posibles.
Así que aquí hay dos temas bien diferenciados, uno que nvdia es verdad que es una racana con los GB de RAM en sus gpus y otra las compañías de juegos.

Yo por suerte tengo una 4090 y no tengo ningún tipo de problemas con the last of US ni con resident Evil 4 remake, los estoy disfrutando muchísimo si ningun cuelgue y todo al máximo con rt y 4k.


Hola, normal te vaya, bien, lo digo de buen rollo ;-.) Faltaria mas que con una grafica de mas de 2000 euros no fuese bien pero es lo que dije ¿Somos conscientes en la dinamica que estamos entrando? ¿Que va a costar la serie 5000 si esto sigue?

Yo ya explique que soy el primero en caer ,es nuestro hobby... Pero mas vamos muy mal como esto siga asi, ojala me equivoque.
Lo que tengo claro es que ni fabricantes de componentes, ni de graficas..etc,etc estan perdiendo dinero , estan ganando mas aun.El que crea esto no es asi, felicidades te han convencido para justificar...etc,etc.
Saludos.

Tube suerte y pille la kfa2 por 1800 euros.
Jejejejejeje.
Yo esk esto lo veo como un hobby que me parece tan caro como cualquier otro.
Saludos
@zero2006xl ni pongo ni una coma a todo lo que has dicho [plas] [plas] [plas] [plas]
Ghandig escribió: a plague tale decidieron sacarlo a 30fps porque no quisieron quitarle el RT

Salu2.


A Plague Tale( el ultimo) salió sin RT. En PC por lo menos. Se lo incorporaron un tiempo después del lanzamiento

PD/ divertido hilo las ultimas paginas XD
Que los shaders tarden una hora en compilarse porque el juego viene con una librería bugueada significa que esta gente ni siquiera se ha dignado a hacer el más mínimo testing. Aunque lo pueda mover en mi pc, con mi pasta que no cuenten hasta que arreglen el percal y encima lo rebajen.
yosu888 escribió:
Kurosawa42 escribió:
yosu888 escribió:Esk la culpa no es de nvdia.
Lo que está pasando a día de hoy que sacan los juegos sin optimizar apenas, y ese es el gran problema de la industria a día de hoy, pero hoy en día tenemos una crisis muy profunda y optimizar un par de años más un juego significa más recursos y más dinero por parte de los inversores y lo que buscan es un desarrollo de mucho brilli brilli en el menor tiempo posible, sacamos el producto roto y con el tiempo lo vamos puliendo pero primero crear hype, sacar el producto y vender todo lo posible para recuperar la inversión y conseguir los máximos beneficios posibles.
Así que aquí hay dos temas bien diferenciados, uno que nvdia es verdad que es una racana con los GB de RAM en sus gpus y otra las compañías de juegos.

Yo por suerte tengo una 4090 y no tengo ningún tipo de problemas con the last of US ni con resident Evil 4 remake, los estoy disfrutando muchísimo si ningun cuelgue y todo al máximo con rt y 4k.


Hola, normal te vaya, bien, lo digo de buen rollo ;-.) Faltaria mas que con una grafica de mas de 2000 euros no fuese bien pero es lo que dije ¿Somos conscientes en la dinamica que estamos entrando? ¿Que va a costar la serie 5000 si esto sigue?

Yo ya explique que soy el primero en caer ,es nuestro hobby... Pero mas vamos muy mal como esto siga asi, ojala me equivoque.
Lo que tengo claro es que ni fabricantes de componentes, ni de graficas..etc,etc estan perdiendo dinero , estan ganando mas aun.El que crea esto no es asi, felicidades te han convencido para justificar...etc,etc.
Saludos.

Tube suerte y pille la kfa2 por 1800 euros.
Jejejejejeje.
Yo esk esto lo veo como un hobby que me parece tan caro como cualquier otro.
Saludos


Me alegro por ti -) , pero creo estaras de acuerdo en parte, que la dinamica en la que hemos entrado no es buena; Bueno ya veremos como van los precios y si la 5080 vale unos 2000 euros y la 5090 unos 3000 mil...Lo mismo ni tu ni yo ni nadie podra soltar ese "jejeje" y lo de caro se quedara corto.
Ya veremos si eso pasa o no pero bien no pinta.
Perdon por el off topic.
Luego probare mas del juego a ver que tal.
Saludos ;-)
Joder con la verificación para Steam Deck. He jugado 3 minutos, ya tras el prólogo que lo jugué ayer en PC, e iba relativamente bien (relativamente = entre 20-30 fps), ha llegado a una escena de video, y pam. Me ha dejado la Deck totalmente unresponsive y al cabo de unos minutos de pantalla en negro y que no pudiese hacer nada, se ha apagado.

MutantCamel escribió:Que los shaders tarden una hora en compilarse porque el juego viene con una librería bugueada significa que esta gente ni siquiera se ha dignado a hacer el más mínimo testing. Aunque lo pueda mover en mi pc, con mi pasta que no cuenten hasta que arreglen el percal y encima lo rebajen.


Bueno, si fuese eso tendría cierta justificación si la versión es nueva. Siempre pueden haber probado la versión anterior, y siendo una nueva versión con pocos cambios, pensar que no va a haber problemas con la versión nueva.

La cosa es que ese será el menor de los problemas.
No he probado el juego y no creo que lo compre pronto, me vino con la PS5 y paso de volverlo a jugar, pero sí quiero hablar de la optimización (en general) de los videojuegos.
Lo primero es que esto en las consolas de 8 y 16 bits y PCs antiguos no pasaba (al menos no como ahora). Lo que había era sobre donde había que trabajar, y nada más. Los desarrolladores se dejaban los cuernos para optimizar lo máximo posible y hacer magia con lo que había. Un ejemplo de ello es Crash Bandicoot, Donkey Kong Country o similares. Evidentemente habrían ralentizaciones y cosillas algo clunky pero al menos intentaban reventar el hardware como podían... porque no había otra cosa.
Ahora mismo hay tal cantidad de gamas, componentes, marcas, segundas marcas, configuraciones, chips y mierdas varias que afinar es una puta lotería. Igual en sus equipos va todo de cine pero cuando se ejecuta en el PC de Pepe es imposible, por más que el PC de la talla. Y eso sin meterme en temas de drivers, sistemas operativos etc...
La tecnología avanza a pasos agigantados y cuando están trabajando en algo ya lo hacen sobre el futuro que está por venir (en casi todo lo que conlleve componentes eléctricos, informáticos etc..). Pero aún así, la potencia es tan bruta que directamente implementan todo, mal dicho, con lo primero que pillan. No tienen que preocuparse de cuántos sprites/polígonos/lo que quieras pueden meter, simplemente lo hacen y punto. Y cuando lo planean, aún así, hay mil mierdas más que tener en cuenta. Es imposible manejar los datos de ahora con lo que había antes.
Con el sistema operativo Android pasa lo mismo, por ejemplo. Salen móviles como churros cada día así que, ¿para qué molestarse en que Android X funcione bien en teléfonos viejos? Y aún así, a los dos años casi cualquier teléfono se queda pajarito con el último Android o directamente no es compatible.. y eso que el teléfono que te vendieron era la panacea en características. Van a lo bruto, sin más.
Ahora montan a lo burro, caballo grande ande o no ande, ¿para qué optimizarlo a equipos modestos? Y aún así siempre intentan hacerlo pero como digo, es imposible. Cada uno tiene una gráfica de su madre o de su padre. Uno MSI, el otro de Asus, el otro de María la Castaña, lo mismo con los micros, la memoria o la refrigeración. Y Windows lo mismo, hay quien no sabe ni cómo actualizar el sistema operativo, o los drivers de la gráfica. ¿Solución? Como es imposible tener en el estudio equipos con combinaciones rocambolescas, optimizo a lo bruto y arreando.
Hace poco me enseñaron una versión para Mega Drive de Sunset Riders que era UN CALCO de la recreativa. Impresionante ver la comparación del juego sacado en cartucho con el "remaster" que están haciendo. Y es la misma máquina, Mega Drive. Es un sistema cerrado, conocido, que se ha trabajado mucho sobre él y los programadores utilizan recursos de la máquina que en su día no tuvieron en cuenta. Solo basta con ver a Doom, corriendo hasta en calculadoras xD
Y todo eso sin hablar de las alianzas de marcas con las desarrolladoras, que quiera o no, utilizan tecnologías y trucos para que al final (queriendo o no) obliguen al consumidor a comprar los nuevos productos ya que "así te irá bien". Y como la gente pica y lo acepta pues....
lo mejor de todo es que en twitter han perdido perdon, y han dicho que estan escuchando a la gente

tienen que pedir perdon por intentar estafar a la gente porque esto lo han sacado sabiendo como estaba, aun asi la gente dandole las gracias por su duro trabajo y por escuchar
chorriwuarri escribió:lo mejor de todo es que en twitter han perdido perdon, y han dicho que estan escuchando a la gente

tienen que pedir perdon por intentar estafar a la gente porque esto lo han sacado sabiendo como estaba, aun asi la gente dandole las gracias por su duro trabajo y por escuchar


De pedir perdón y de arreglar nada, no hace falta. A cambiar de equipo todo el mundo que un 5800x3d se queda corto ya, y en nada estarán pidiendo 64gb de RAM y 24gb de VRAM.

Eso sí, de gráfica con una 1050ti vamos sobrados. Por ahí no os preocupéis que como dice el forero de más arriba, la gráfica es lo de menos.
KailKatarn escribió:
zero2006xl escribió:Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:


A ver, estás dando a entender que algunos usuarios venimos a reírnos o algo así de los usuarios de 8GB de VRAM o los 16GB de RAM o las CPUs de pocos núcleos y te equivocas.

Vamos a ser realistas:

1º Las gráficas de 8GB de VRAM se ven de manera mayoritaria desde hace más de 7 años. Una "simple" GTX1070 ya contaba con 8GB de VRAM GDDR5. ¿Te parece normal pretender tener la misma cantidad de VRAM 7 años después? pues evidentemente muchos no lo vemos normal. No se montó la marimorena cuando 2GB no fueron suficientes, ni tampoco vuando 4 o 6GB de VRAM dejaron de ser suficientes.

2º ¿Cuanto llevamos con 16GB de RAM? ¿10 años? ¿más? pues es evidente que los motores y el software avanza y al final vas a necesitar 32GB y quizás hasta dentro de no mucho 64GB sea el standard. ¿Es eso malo? pues yo no vi todas esas quejas cuando se tuvo que saltar de 4 a 8GB de RAM ni de 8 a 16GB de RAM.

3º Las CPUs de 4 y 6 núcleos + HT llevan con nosotros desde hace más de 12 años entre nosotros. ¿De verdad nos vamos a asustar que en pleno 2023 haya juegos punteros gráficamente que necesiten 8/16 a altas frecuencias? pues tampoco lo entiendo. Como tampoco entenderé las quejas de cuando se necesiten más de 8/16 y los 16/32 sean el standard o todavía más.

Aquí no es cuestión ni de reírse ni de criticar a nadie. Ahora bien, si has estado dispuesto a comprar una gráfica moderna con la misma VRAM que hace 7 años, pretender seguir usando la misma RAM que hace 10 años o más y CPUs de hace 12 años, pues sinceramente, has elegido muy mal los componentes para tener un PC equilibrado.

Eso sí, parece ser que si mencionas todo esto están en su derecho de cargarse en tus muertos peludos, que a mi me parece cojonudo y me río que te cagas, pero evidentemente no era una jugada inteligente. Todo esto sin descontar que los motores y el software avanzan, y siempre llegará un momento que necesites más de todo. Ahora bien, eso parece que no se quiere entender y es que todo sale fatal optimizado. Luego actualizan el PC o equilibran lo que les falla y entonces todo bien hasta que llega el juego que pide 32GB de VRAM y 64GB de RAM y vuelta a empezar. Si es siempre lo mismo.

PD: El port no está hecho por Iron Galaxy unicamente, Naughty Dog han colaborado con ellos y son los que han dado el visto bueno a la salida del juego.

Cyborg_Ninja escribió:Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada.


Ajam, sí.


Yo no he dicho que vengas a reírte de nadie. Lo que digo lo digo con respeto y yo eso ni lo he dicho ni lo he insinuado.

Lo que he dicho se puede releer perfectamente.

Sobre lo que comentas: que llevemos 5, 10 o 20 años con un estándar no significa nada. Mientras ese estándar funcione, bienvenido sea. Si ese estándar debe cambiarse, que sea de manera justificada y me gastaré el dinero encantado si decido hacer el upgrade.

Entiendo que debemos avanzar, pero no porque un estudio de desarrollo de ports decide que necesitas más 24 GB de RAM+VRAM para hacer lo que en PS5 haces con 16GB de memoria compartida. Y digo lo que en PS5 porque eso es lo que necesitas para correr las texturas en calidad de PS5. Si quieres activar las texturas Ultra en 1440 (ya no te digo 4K) preparara mínimo 10 o 12gb de VRAM. Yo creo que todavía hay margen para aprovechar un poco mejor los recursos.

Pero estoy contigo en que debemos avanzar. Pero creo que debemos hacerlo en condiciones. No que para tener un poco más de detalle en algunas texturas necesito 2 o 4 gb más de VRAM. Si me vas a pedir requisitos, si me vas a hacer gastarme el doble o el triple que en la consola de la que viene un juego, haz que valga la pena. Eso es lo que yo les pido a las desarolladoras. Que esto ya lo hablé en su momento, que a dos años de salida de PS3 por 600 euros te comprabas un PC que movía Crysis que se meaba literalmente en cualquier consola. En 2015, a dos años de la salida de PS4, te montabas un PC por casi el mismo precio que la consola y jugabas similar. En 2023, a poco más de dos años del lanzamiento de PS5 sigues teniendo que gastar el doble para tener una experiencia similar. Y encima comiéndonos ports que necesitan 10 parches para funcionar correctamente. Así no.


KailKatarn escribió:
yosu888 escribió:Esk la culpa no es de nvdia.


Lo siento, vender en pleno 2023 gráficas de 1000€ con 12GB de VRAM es timo de NVIDIA igualmente (RTX4070/4070Ti) y pretender sacar por 700€ o más una 4060Ti con 8GB de VRAM ya no es una timada, es una tomadura de pelo por parte de NVIDIA.

Ya en la 3000 Series engañaron y timaron cosa mala, lo de esta generación ya no hay por donde cogerlo. La RTX3080 con la buena potencia calidad/precio que tenía con 10GB fue un robo, sacar la 3080Ti con 12GB y lo que valía, robo a mano armada directamente.

De hecho hasta si me apuras los 16GB de VRAM de la RTX4080 por 1600€ o más me sigue pareciendo otro robo.


Y con esto estoy 100x100 de acuerdo y siempre lo hemos estado. Una series 3000 vendida a precio MSRP con la cantidad de VRAM que tenían a mí no me parece ni tan mal. El problema es que ni se vendieron al MSRP ni tampoco ahora con la 4000 hay precios razonables ni prestaciones acordes al precio. El bus de memoria ese rácano que lleva la 4070ti y los 12 GB de VRAM a un módico precio de casi 1000 pavos... mal asunto.
fonso86 escribió:
SOTN escribió:Porqué este juego tarda tanto en compilar shaders en qué se han equivocado para que esto suceda al portear el juego?


Han utilizado una libreria de Oodle (la 2.9.6) que tiene bug conocido de fugas de memoria. Si se sustituye el archivo por el de la versión anterior (2.9.5) que no tiene ese problema, ya tarda en compilar lo shaders lo normal. En Nexusmod han subido el archivo con la versión sin el bug https://www.nexusmods.com/thelastofuspart1/mods/11 O si tenéis instalado el Warframe o el Fifa 23, tambien se puede coger el archivo de ahí, que lleva esa versión.

Eso sí, solo arregla lo de la compilación de shaders, no el resto de problemas que tiene el port.


Lo he probado pero en mi caso sigue igual, ahí va con un 30% despues de 15-20 minutos y consumiento 24 gigas de ram [+risas]
_anVic_ está baneado por "clon de usuario baneado"
Bueno os dejo un par de testeos con mi humilde 9900k a 4K ultra sin Dlss ni fsr:

...

En este segundo vídeo he continuado donde dejé el primero, que me han llamado por teléfono y he tenido que cortar.

...
Por cierto en el minuto 8:33 se me buguea al personaje detrás de una puerta entre los tablones [+risas]

Me rio por no llorar, hay que tomarse las cosas con humor en la vida. Espero que lo arreglen pues mi experiencia no está siendo muy buena.
Editado por metalgear. Razón: spam youtube
zero2006xl escribió:Pero estoy contigo en que debemos avanzar. Pero creo que debemos hacerlo en condiciones. No que para tener un poco más de detalle en algunas texturas necesito 2 o 4 gb más de VRAM. Si me vas a pedir requisitos, si me vas a hacer gastarme el doble o el triple que en la consola de la que viene un juego, haz que valga la pena. Eso es lo que yo les pido a las desarolladoras. Que esto ya lo hablé en su momento, que a dos años de salida de PS3 por 600 euros te comprabas un PC que movía Crysis que se meaba literalmente en cualquier consola. En 2015, a dos años de la salida de PS4, te montabas un PC por casi el mismo precio que la consola y jugabas similar. En 2023, a poco más de dos años del lanzamiento de PS5 sigues teniendo que gastar el doble para tener una experiencia similar. Y encima comiéndonos ports que necesitan 10 parches para funcionar correctamente. Así no.


No puedes comparar un hardware cerrado con una plataforma abierta con 1000 tipos de configuraciones y a la que se le pide que el acabado final se vea mejor que en consola y a veces hasta pidiendo más del doble de framerate que en estas últimas, cuando no se pide 4 veces más 30fps vs 120fps que se piden muchas veces en PC.

En consola tienes la memoria unificada y puedes repartir la carga de la misma según la escena a renderizar. Necesitas más VRAM? se la das a la GPU, necesitas más RAM? se la das a la CPU y así en todo momento de manera asíncrona, en PC no puedes hacer eso, porque cada uno de los componentes lleva su propia RAM.

Y eso es el menor de los detalles, porque como tu bien dices, las consolas tienen hardware dedicado para diversas funciones que en PC tienes que tirar de CPU (véase el Spiderman). Este juego luce mejor en PC en ultra que en la PlayStation 5, y tiene un acabado técnico que es de auténtico portento hoy por hoy. ¿Pretendes mover el mayor portento de PC con el mismo hardware que hace 10 años?

Hasta el Resident Evil 4 Remake, que ha salido en Playstation 4, está colgando a mucha gente si pone todo en ULTRA + RT con 8 y 10GB de VRAM. Ahora bien, parece ser que CAPCOM si puede hacerlo en un juego con un acabado técnico que aunque no está mal, no es ni comparable con este TLOU, pero Naugty Dog no puede hacerlo, ellos lo tienen prohibido.

Este juego pide máquina porque ofrece un acabado técnico muy pepino. Todo lo demás es negarse la realidad. Y tú como cliente claro que te puedes quejar y pedir hasta la luna, ahora bien, los milagros no existen. Podrán rascar de aquí y de allá, pero no puedes hacer que un juego muy demandante pase a necesitar absolutamente nada de nada.
A ver si aplican alto parche gordo y arreglan esto... menuda chapuza.
Lo he ajustado todo a mi VR ram, el resultado:

Imagen

Parece una película de Tim Burton.


Espero que al reiniciar se arregle, ya que antes puse todo a tope ultra y se veía el juego lo que iba a tirones.
De verdad , no os dais cuenta que es más un problema de optimizacion y no de nvdia de la vram de sus gpus?
Si ni tiene RT el juego, de verdad que me sorprendeis.
katatsumuri escribió:Lo he ajustado todo a mi VR ram, el resultado:

Imagen

Parece una película de Tim Burton.


Espero que al reiniciar se arregle, ya que antes puse todo a tope ultra y se veía el juego lo que iba a tirones.


La novia cadáver 🤣🤣🤣🤣🤣
Una cosa con la que no estoy de acuerdo es con los usuarios que dicen que no se ve bien, que sus gráficos son de PS4 retocados, o cosas de este estilo.

Más allá de la optimización y el consumo, donde todo debate está más que justificado, el juego para mi se ve de escándalo. No he puesto comparaciones con la versión original de PS3 porque además no quiero spoilearme con partes del juego que no he visto. Pero imagino que dará risa verlo.

Para mi el juego con mejores gráficos en naturaleza/exteriores era RDR2 que peca de un modelado de caras y animaciones de personajes que desmerece al resto de apartados.

Este tiene el WOW del RDR2 en exteriores pero con el añadido de la complejidad de los entornos (no son 3 casas y vegetación) pero además las animaciones, el modelado y la expresividad de los rostros son sobresalientes en la mayoría de los casos.

Es uno de los mejores apartados visuales que yo he visto, tampoco estoy al tanto de otros juegos supuestamente punteros como el Harry Potter o el Callisto Protocol. No sé con quien más puede competir. El Uncharted tampoco lo he jugado. El Spiderman se ve increíble pero es otro rollo artístico totalmente diferente. El Day's Gone cumple pero está a un abismo de distancia en mi opinión, así como el God of War.


Edito: XD viendo la foto de arriba. Yo hace un rato lo probé en el portatil y me salió un Joel que parecía Sonic con los polígonos de los pelos y una especie de "barba" blanca.

Reinicia el ordenador y se desbuguea eso. Hay trabajo por delante, hay.
Entiendo todo lo que dices @KailKatarn pero yo no pido la luna. Creo que podemos pedir que hagan las cosas un poco mejor y opino que 8 GB VRAM / 16 GB RAM deberían ser suficientes para correr las texturas del juego a calidad de consola. Y que para jugar por encima de esa calidad no se debería de ir a fuerza bruta, si no utilizar alternativas que ofrece el PC. No hablo ya solo de este juego sino de cualquier Port. Almacenar más en RAM si la VRAM no es suficiente y tirar de DirectStorage para agilizar procesos de comunicación entre el hardware, optimizar más la carga de recursos en pantalla, y un largo etcétera. Que sé que lleva tiempo y dinero, pero que si me vas a pedir 60 pavos de un juego que ya has amortizado en consola, al menos curratelo.
se ha arreglado al reiniciar pero vamos, que a nivel de texturas no consigo ni ponerlas todas en medio, y eso que aún queda alto y ultra

Imagen
Imagen


Y esto es lo que sube las texturas en medio
Imagen
Imagen


Y la de efectos visuales está en alto porque apenas sube pocos mbs, es que es increíble la organización de texturas por niveles que han hecho, imposible tener en una 3070ti un equilibrio y tener que ponerlas en bajo como si pareciese un juego de switch xd
Manny Calavera está baneado por "Pesado del woke, desvío de todos los hilos a esa temática"
katatsumuri escribió:Lo he ajustado todo a mi VR ram, el resultado:

Imagen

Parece una película de Tim Burton.


Espero que al reiniciar se arregle, ya que antes puse todo a tope ultra y se veía el juego lo que iba a tirones.


Imagen


En que cojones pensaba Sony al dar el juego a esta gente? [qmparto]
KailKatarn escribió:
zero2006xl escribió:Chicos, no podemos estar en un sub de juegos de PC echándonos mierda entre nosotros. Los colectivos deberían ir todos a una y no este rollito que nos traemos. Por partes:


A ver, estás dando a entender que algunos usuarios venimos a reírnos o algo así de los usuarios de 8GB de VRAM o los 16GB de RAM o las CPUs de pocos núcleos y te equivocas.

Vamos a ser realistas:

1º Las gráficas de 8GB de VRAM se ven de manera mayoritaria desde hace más de 7 años. Una "simple" GTX1070 ya contaba con 8GB de VRAM GDDR5. ¿Te parece normal pretender tener la misma cantidad de VRAM 7 años después? pues evidentemente muchos no lo vemos normal. No se montó la marimorena cuando 2GB no fueron suficientes, ni tampoco vuando 4 o 6GB de VRAM dejaron de ser suficientes.

2º ¿Cuanto llevamos con 16GB de RAM? ¿10 años? ¿más? pues es evidente que los motores y el software avanza y al final vas a necesitar 32GB y quizás hasta dentro de no mucho 64GB sea el standard. ¿Es eso malo? pues yo no vi todas esas quejas cuando se tuvo que saltar de 4 a 8GB de RAM ni de 8 a 16GB de RAM.

3º Las CPUs de 4 y 6 núcleos + HT llevan con nosotros desde hace más de 12 años. ¿De verdad nos vamos a asustar que en pleno 2023 haya juegos punteros gráficamente que necesiten 8/16 a altas frecuencias? pues tampoco lo entiendo. Como tampoco entenderé las quejas de cuando se necesiten más de 8/16 y los 16/32 sean el standard o todavía más.

Aquí no es cuestión ni de reírse ni de criticar a nadie. Ahora bien, si has estado dispuesto a comprar una gráfica moderna con la misma VRAM que hace 7 años, pretender seguir usando la misma RAM que hace 10 años o más y CPUs de hace 12 años, pues sinceramente, has elegido muy mal los componentes para tener un PC equilibrado.

Eso sí, parece ser que si mencionas todo esto están en su derecho de cargarse en tus muertos peludos, que a mi me parece cojonudo y me río que te cagas, pero evidentemente no era una jugada inteligente. Todo esto sin descontar que los motores y el software avanzan, y siempre llegará un momento que necesites más de todo. Ahora bien, eso parece que no se quiere entender y es que todo sale fatal optimizado. Luego actualizan el PC o equilibran lo que les falla y entonces todo bien hasta que llega el juego que pide 32GB de VRAM y 64GB de RAM y vuelta a empezar. Si es siempre lo mismo.

PD: El port no está hecho por Iron Galaxy unicamente, Naughty Dog han colaborado con ellos y son los que han dado el visto bueno a la salida del juego.

Cyborg_Ninja escribió:Este juego con 2-3 parches empezará a volar con CPUs de 100 euros pero ya para entonces te habrás quedado con la impresión inicial, tal y como has hecho con esos, aunque sea erróneo, e intentaras meterle a la peña en la cabeza que necesitan un 5800x3d como mínimo, y para nada.


Ajam, sí.


Y aún hay gente que de verdad se ha creído el cuento de que se necesitan más de 6GB de gráfica y más de 16GB de RAM hoy en día para los videojuegos, cuando realmente no es así, y el problema está en que cada vez se trabajan menos las versiones de PC.

Me gasté yo novecientos euros hace tres años por un PC nuevo, que los componentes no tendrán ni seis años que salieron al mercado, y me encuentro con juegos normaluchos como este, Hogwarts Legacy, y otros tantos, que no puedo moverlos de manera fluida solo por el trabajo tan penoso que han hecho las desarrolladoras, y ahora me vengo a leer que me tengo que gastar dos mil euros en una gráfica para jugarlo no bien, si no de manera aceptable.

Si es que normal que nos claven estas basuras, si hay gente culpando los componentes de un PC, o a los usuarios, y no a los que trabajan en esto. Meame y dime que es colonia.

No creo que sea culpa de los componentes que en el menú principal, que es una puñetera ventana, esté así:

Imagen
zBoID escribió:No creo que sea culpa de los componentes que en el menú principal, que es una puñetera ventana, esté así:

Imagen


Se llama compilación de shaders y pone cualquier CPU al 100%. Ya tengas 2 núcleos o 20, utiliza todos al 100% para tardar lo menos posible. Y sí, lo hace en el menú.


Fleishmann escribió:Una cosa con la que no estoy de acuerdo es con los usuarios que dicen que no se ve bien, que sus gráficos son de PS4 retocados, o cosas de este estilo.

Más allá de la optimización y el consumo, donde todo debate está más que justificado, el juego para mi se ve de escándalo.


El juego en ULTRA es lo más pepino que se ha podido ver hasta la fecha en PC, ahora bien, parece ser que lo más pepino que se ha visto hasta la fecha en PC tiene que pedir como mucho un dual core, 2gb de RAM y 512MB de VRAM. En serio, con este tipo de "sensatez" va clara la PC Master Race. [sonrisa]


zero2006xl escribió:Entiendo todo lo que dices @KailKatarn pero yo no pido la luna. Creo que podemos pedir que hagan las cosas un poco mejor y opino que 8 GB VRAM / 16 GB RAM deberían ser suficientes para correr las texturas del juego a calidad de consola. Y que para jugar por encima de esa calidad no se debería de ir a fuerza bruta, si no utilizar alternativas que ofrece el PC. No hablo ya solo de este juego sino de cualquier Port. Almacenar más en RAM si la VRAM no es suficiente y tirar de DirectStorage para agilizar procesos de comunicación entre el hardware, optimizar más la carga de recursos en pantalla, y un largo etcétera. Que sé que lleva tiempo y dinero, pero que si me vas a pedir 60 pavos de un juego que ya has amortizado en consola, al menos curratelo.


No si por opinar se puede opinar lo que yo he dicho antes, y es que debería ir a 2000fps con un dual core, 4GB de RAM y 512MB de VRAM. Ahora bien, una cosa es lo deseado y otra la realidad, y más cuando hablas de uno de los juegos más pepinos técnicamente en PC mientras que a su vez lo comparas con la versión nativa, nada de port y que se ve peor, con peor framerate y que aun así cuenta con 8 cores / 16 hilos, hardware dedicado para bastantes tareas y una gráfica que no es coja a pesar de tener 2 años la consola.

Yo lo que veo es que es muy fácil decir que todo debería ir infinitamente mejor, que si no lo hace es porque no se le ha dedicado tiempo y mimo dando por hecho que todas las compañías tienen a Einstein en su equipo de desarrollo que es capaz de hacer magia.

Luego eso sí, lo de siempre, CAPCOM puede sufrir lo mismo con 8GB y 10GB de VRAM, pero ellos pueden, a pesar de presentar un juego que está a siglos luz técnicamente frente a este. Si hay que echar mierda a ver si se le echa a todos, porque luego lo que se puede leer es que el RE 4 Remake es un milagro de la optimización.
@zBoID Siempre habrá quien defienda un truño "bicos yas!!", por eso no te preocupes. A este juego le queda de 3 a 6 meses de parches para que vaya ya no bien, sino medianamente bien, pero los dineros... ay los dineros.
Para hacer esto que me hubiesen puesto el remaster de ps4, que me lo comía con patatas :-|
KailKatarn escribió:
zero2006xl escribió:Pero estoy contigo en que debemos avanzar. Pero creo que debemos hacerlo en condiciones. No que para tener un poco más de detalle en algunas texturas necesito 2 o 4 gb más de VRAM. Si me vas a pedir requisitos, si me vas a hacer gastarme el doble o el triple que en la consola de la que viene un juego, haz que valga la pena. Eso es lo que yo les pido a las desarolladoras. Que esto ya lo hablé en su momento, que a dos años de salida de PS3 por 600 euros te comprabas un PC que movía Crysis que se meaba literalmente en cualquier consola. En 2015, a dos años de la salida de PS4, te montabas un PC por casi el mismo precio que la consola y jugabas similar. En 2023, a poco más de dos años del lanzamiento de PS5 sigues teniendo que gastar el doble para tener una experiencia similar. Y encima comiéndonos ports que necesitan 10 parches para funcionar correctamente. Así no.


No puedes comparar un hardware cerrado con una plataforma abierta con 1000 tipos de configuraciones y a la que se le pide que el acabado final se vea mejor que en consola y a veces hasta pidiendo más del doble de framerate que en estas últimas, cuando no se pide 4 veces más 30fps vs 120fps que se piden muchas veces en PC.

En consola tienes la memoria unificada y puedes repartir la carga de la misma según la escena a renderizar. Necesitas más VRAM? se la das a la GPU, necesitas más RAM? se la das a la CPU y así en todo momento de manera asíncrona, en PC no puedes hacer eso, porque cada uno de los componentes lleva su propia RAM.

Y eso es el menor de los detalles, porque como tu bien dices, las consolas tienen hardware dedicado para diversas funciones que en PC tienes que tirar de CPU (véase el Spiderman). Este juego luce mejor en PC en ultra que en la PlayStation 5, y tiene un acabado técnico que es de auténtico portento hoy por hoy. ¿Pretendes mover el mayor portento de PC con el mismo hardware que hace 10 años?

Hasta el Resident Evil 4 Remake, que ha salido en Playstation 4, está colgando a mucha gente si pone todo en ULTRA + RT con 8 y 10GB de VRAM. Ahora bien, parece ser que CAPCOM si puede hacerlo en un juego con un acabado técnico que aunque no está mal, no es ni comparable con este TLOU, pero Naugty Dog no puede hacerlo, ellos lo tienen prohibido.

Este juego pide máquina porque ofrece un acabado técnico muy pepino. Todo lo demás es negarse la realidad. Y tú como cliente claro que te puedes quejar y pedir hasta la luna, ahora bien, los milagros no existen. Podrán rascar de aquí y de allá, pero no puedes hacer que un juego muy demandante pase a necesitar absolutamente nada de nada.

Lo siento.
Mira macho.En PS5 como en Xbox series X tienen ocho gigas para RAM y V RAM.En TOTAL.
Con razon pedian 32 gigas de memoria Ram.Sabien que tenian ese problema de volcado de memoria RAM,pero tenian que sacarlo cuando la serie de HBO aun estuviera "caliente" en nuestras memorias.
Si han puesto a un monton de chimpances a golpear tecados no es culpa de el usuario final.
O bien es una maniobra de obsolescencia programada.¿que compañia tiene cpus con muchos cores y casualmetne graficas con mucha VRAM?efectivamente,AMD.
Es un juego de hace diez años con requisito de juego de dentro de diez que se ve como uno de dentro de dos años.
Ya sacaran la gold ultimate edition o como quieran llamarla.Pero hasta que no solucionen esos problemas de rendimiento...lo siento.Aunque me encanto hace diez años y se vea genial no lo compro.
Y ojo,que ya hay version Sparrow por ahi suelta.Quizas lo inteligente seria usar sparrow y pagar por el cuando valga 40 euros o asi.
KailKatarn escribió:
zBoID escribió:No creo que sea culpa de los componentes que en el menú principal, que es una puñetera ventana, esté así:

Imagen


Se llama compilación de shaders y pone cualquier CPU al 100%. Ya tengas 2 núcleos o 20, utiliza todos al 100% para tardar lo menos posible. Y sí, lo hace en el menú.


Fleishmann escribió:Una cosa con la que no estoy de acuerdo es con los usuarios que dicen que no se ve bien, que sus gráficos son de PS4 retocados, o cosas de este estilo.

Más allá de la optimización y el consumo, donde todo debate está más que justificado, el juego para mi se ve de escándalo.


El juego en ULTRA es lo más pepino que se ha podido ver hasta la fecha en PC, ahora bien, parece ser que lo más pepino que se ha visto hasta la fecha en PC tiene que pedir como mucho un dual core, 2gb de RAM y 512MB de VRAM. En serio, con este tipo de "sensatez" va clara la PC Master Race. [sonrisa]


El tema shaders también es para darle de comer aparte... Creo que a la mayoría le da tiempo a completar la jornada laboral, hacer horas extra, volver a casa, cenar, volver al PC y que quede aún la mitad de carga.

El juego va a tener varios parches, eso es innegable, pero a ver como explica Naughty Dog de aquí a unos meses que el juego funcione como debe, y que de salida no lo hiciera. Que la explicación la sabemos todos, pero la excusa no.
A mí me parece que va a ser la misma situación de NieR: Automata hace unos años. El juego no le funcionaba a mucha gente (la inmensa mayoría con Nvidia que tampoco se dignó a arreglarlo) con crasheos y tenía unas puntuaciones lamentables en Steam. Esto no quita que fuese una obra maestra y mereciese la pena trastear para disfrutarlo.

worf escribió:Mira macho.En PS5 como en Xbox series X tienen ocho gigas para RAM y V RAM.En TOTAL.

Tienen 16 GB de GDDR6 unificada. Igual que la Steam Deck también tiene 8 GB de RAM unificada.

worf escribió:Si han puesto a un monton de chimpances a golpear tecados no es culpa de el usuario final.

Y aquí estamos en EOL con gente que no conoce las características de la PS5 o SeriesX y hay que respetarla.
worf escribió:[
Lo siento.
Mira macho.En PS5 como en Xbox series X tienen ocho gigas para RAM y V RAM.En TOTAL.


Imagen




zBoID escribió:El tema shaders también es para darle de comer aparte... Creo que a la mayoría le da tiempo a completar la jornada laboral, hacer horas extra, volver a casa, cenar, volver al PC y que quede aún la mitad de carga.

El juego va a tener varios parches, eso es innegable, pero a ver como explica Naughty Dog de aquí a unos meses que el juego funcione como debe, y que de salida no lo hiciera. Que la explicación la sabemos todos, pero la excusa no.


Con los meses van a poder pulir y rascar de aquí y de allá pero no van a poder convertir que uno de los mejores juegos a nivel técnico en PC pase a pedir nada y menos de PC.
zBoID escribió:
KailKatarn escribió:
zBoID escribió:No creo que sea culpa de los componentes que en el menú principal, que es una puñetera ventana, esté así:

Imagen


Se llama compilación de shaders y pone cualquier CPU al 100%. Ya tengas 2 núcleos o 20, utiliza todos al 100% para tardar lo menos posible. Y sí, lo hace en el menú.


Fleishmann escribió:Una cosa con la que no estoy de acuerdo es con los usuarios que dicen que no se ve bien, que sus gráficos son de PS4 retocados, o cosas de este estilo.

Más allá de la optimización y el consumo, donde todo debate está más que justificado, el juego para mi se ve de escándalo.


El juego en ULTRA es lo más pepino que se ha podido ver hasta la fecha en PC, ahora bien, parece ser que lo más pepino que se ha visto hasta la fecha en PC tiene que pedir como mucho un dual core, 2gb de RAM y 512MB de VRAM. En serio, con este tipo de "sensatez" va clara la PC Master Race. [sonrisa]


El tema shaders también es para darle de comer aparte... Creo que a la mayoría le da tiempo a completar la jornada laboral, hacer horas extra, volver a casa, cenar, volver al PC y que quede aún la mitad de carga.

El juego va a tener varios parches, eso es innegable, pero a ver como explica Naughty Dog de aquí a unos meses que el juego funcione como debe, y que de salida no lo hiciera. Que la explicación la sabemos todos, pero la excusa no.


Jajaja :D me encanta esa última frase.

La explicación la sabemos todos, la excusa no - por @zBoID

Sinceramente, me gusta que este juego se esté llevando tantas hostias. Yo creo que es un efecto queme también. El jugador de PC está cansado de recibir juegos a medio hornear y luego, con la comida ya en la mesa, tener que esperar a la hora de la cena para poder comer a gusto.

Creo que este juego es lo típico de una relación que ya está tocada y en la discusión número 471 estalla lo de las 470 anteriores. Exagerando un poco vaya, pero para ilustrar.

Y esto me gusta. A ver si reaccionan, coño.
zero2006xl escribió:Creo que este juego es lo típico de una relación que ya está tocada y en la discusión número 471 estalla lo de las 470 anteriores. Exagerando un poco vaya, pero para ilustrar.

Y esto me gusta. A ver si reaccionan, coño.


Si yo fuera desarrollador mando a la comunidad de PC a la mierda, y no me extrañaría que lo acaben haciendo. Una cosa es sacar una basura y pedir el equipo de la NASA y otra sacar un portento gráfico en PC, y que te pidan que lo mueva una tostadora.

Si yo fuera Naughty Dog no se vuelve a ver un juego mío en PC en la vida. Y con razón.
Chaquetero está baneado por "troll"
Aquí hay un tipo que dice que este remake mediocre de un juego de hace 10 años es el actual referente gráfico, y si no eres capaz de jugarlo decentemente eres pobre y deberías dedicarte a jugar a la petanca, callarte, y servir hamburguesas a gente como él que puede y merece permitirse tener un equipo de 4000 euros todos los años.

Y luego yo soy el troll.

Ya lo he dicho en más de una ocasión y cada día estoy más convencido, la 4090 va a ser mi última grafica con toda seguridad, me niego a seguir participando en esta mierda de industria de posturetas y juegos de gamepass en la que se ha convertido el pc y las consolas.

Me voy a jugar al rdr2 que se ve mucho mejor que este pufo hipersobrevalorado y que pide como tres veces menos potencia.
SOTN escribió:Si nadie comprase la 4060 cuando salga, nvidia no volvería a cometer la guarrada de sacar gráficas en 2023 con 8g de ram NADIE deberia de comprarla y veríais como espabilaban.


Exacto, a mí me ha engañado Nvidia una vez pero ya no habrá una segunda, una AMD o Intel sí o sí la siguiente y con 16gb vram y listo. Cuando pierda una buena cuota de mercado Nvidia quizás deja de estafar al consumidor [fumando]
2670 respuestas