[HO] Cyberpunk 2077

Encuesta
¿Qué opinión tenéis del juego?
32%
522
35%
576
14%
232
8%
132
6%
97
6%
91
Hay 1650 votos.
Supongo que el viernes 18 saldremos de dudas. Por fin.

Ahora lo de la 3070 me parece una flipada. Por muy tocho que sea yo en los gameplays he visto un juego de esta generación. Además no sé a quien narices se lo iban a vender el juego xD.

Como dato: sin optimizar, en pleno desarrollo, en un gameplay a full usaron una 1080 ti. Y eso que la peña dice que no se ha vuelto a ver tantos NPC en un gameplay como en ese de 2018. Lo único que no debía haber allí era RT. Y 2 años de optimización después...
A mi no me extrañaría que cuando publiquen los requisitos pongan una gráfica de la serie 3000 como recomendada, pero vamos, por el hecho de que será la serie nueva que habrá en el mercado cuando se lance el juego y que CP2077 se está utilizando en su promoción.

De ahí a que realmente sea necesaria para mover el juego... va a ser que no.

Yo sigo insistiendo en que no van a sacar un juego que de los varios millones que han debido vender solo con las resevas vayan a poder mover 3 tios.
En los requisitos van a poner a la baja, como en todos los juegos. En RDR2 la recomendada era la 1060, y ya os digo yo que teniendo una 1070 me la tuve que cambiar porque le costaba mantener los 60 en calidad media. Y ahora juego a 2k en con casi todo en medio. Vamos que pide lo suyo. Y Horizon otro juego que pide una burrada y funciona bien en una consola de hace 7 años.
No vale RDR2 para todo. Es un caso muy especialito. Con un descuido de lanzamiento y de optimización bastante destacables. Desastroso. Hasta el cutrelauncher de Rockstar afectaba. Y nunca supe bien bien si el desarrollo para PC fue coetaneo al de consola o es un Port, cosa que suele influir.
Strait escribió:En los requisitos van a poner a la baja, como en todos los juegos. En RDR2 la recomendada era la 1060, y ya os digo yo que teniendo una 1070 me la tuve que cambiar porque le costaba mantener los 60 en calidad media. Y ahora juego a 2k en con casi todo en medio. Vamos que pide lo suyo. Y Horizon otro juego que pide una burrada y funciona bien en una consola de hace 7 años.


"2k" (2.5K mejor dicho = 2560x1440) con "casi todo en medio", con una RTX 2070 Super? poco rendimiento, cuando yo con una GTX 1080 (bastante menor) he podido jugar con todo en alto a la misma resolución? (con una CPU peor que la tuya..) algo no me cuadra en la config. pero bueno, son todo especulaciones y es un hablar por hablar, aunque "ojalá" te equivoques por el bien de todos :p
Darkcaptain escribió:
Strait escribió:En los requisitos van a poner a la baja, como en todos los juegos. En RDR2 la recomendada era la 1060, y ya os digo yo que teniendo una 1070 me la tuve que cambiar porque le costaba mantener los 60 en calidad media. Y ahora juego a 2k en con casi todo en medio. Vamos que pide lo suyo. Y Horizon otro juego que pide una burrada y funciona bien en una consola de hace 7 años.


"2k" (2.5K mejor dicho = 2560x1440) con "casi todo en medio", con una RTX 2070 Super? poco rendimiento, cuando yo con una GTX 1080 (bastante menor) he podido jugar con todo en alto a la misma resolución? (con una CPU peor que la tuya..) algo no me cuadra en la config. pero bueno, son todo especulaciones y es un hablar por hablar, aunque "ojalá" te equivoques por el bien de todos :p


Lo tengo configurado para que no baje de 60fps en ningún caso. El benchmark me da ahora mismo 82 para que te hagas la idea.

Tened en cuenta que cuando hablamos de settings en ultra son hoy día una burrada. En cyberpunk será una distancia de visión bastante alta con lods lejanos, una niebla volumétrica y reflejos muy exigentes que seguramente se multiplicará el rendimiento al bajarlos a medio como pasa en todos los juegos modernos. Los settings ultra están al alcance de pocos en los juegos modernos y son bastante exigentes. En este no será menos.
Yo por lo que he visto de algunas informacioneses para 1080p 60fps en ultra, lo minimo es una 2070. A partir de alli habra que ir bajando cosas.

Lo de las 3000 como dicen es una barbaridad. Quzas cuando saquen la version mejorada el año que viene si la aprovechen mas
(mensaje borrado)
kjavi escribió:No vale RDR2 para todo. Es un caso muy especialito. Con un descuido de lanzamiento y de optimización bastante destacables. Desastroso. Hasta el cutrelauncher de Rockstar afectaba. Y nunca supe bien bien si el desarrollo para PC fue coetaneo al de consola o es un Port, cosa que suele influir.


Por no decir que hay opciones que las pones en medio o ultra y no hay apenas diferencia visual pero se come los fps como yo las sandias en verano...


Joder que ricas están [amor]

Mucha preocupación veo en cyberpunk con sus graficos, cuando estos no son su punto fuerte...Lo que no quiere decir que se vea mal ni mucho menos.

[beer]
CDprojeckt es una empresa que aun ha de decepcionarme. Hasta que eso no ocurra tienen mi confianza plena.
anibaltw escribió:Yo por lo que he visto de algunas informacioneses para 1080p 60fps en ultra, lo minimo es una 2070. A partir de alli habra que ir bajando cosas.

Lo de las 3000 como dicen es una barbaridad. Quzas cuando saquen la version mejorada el año que viene si la aprovechen mas


Pues no sé de dónde has sacado las informaciones. Si son ciertas, no sé a quiénes pensarán venderles el juego.
El grosso de los jugadores no llega a la serie 2000.

Vamos a dejarnos de tonterías. Este juego con una 1060/1070, que es lo que tiene la mayoría, se va a poder jugar decentemente. Aparte que es un juego que no tiene NADA destacable en cuanto a gráficos se refiere, estamos hablando de una compañía que VENDE juegos en su propia tienda para PC. Lo normal es que estén optimizados. Rockstar o Guerrilla sudan tres cojones del Pc. Quisieron sacar cualquier cosa al mercado y eso fue lo que salió: una basura. Dejen de comparar juegos y compañías que nada tienen que ver.

Y ya lo que están comentando algunos por ahí de la 3070 como gráfica recomendada... es para meterlos en la cárcel.
@Chervitte CPR no es una compañía que pula sus juegos. El problema es que no lo veis, cosa que no entiendo.
No hay un juego suyo que no me haya dado problemas de rendimiento, micro stuttering, temblores en la cámara, aceleración negativa o bugs gordos.

Decir que Cyberpunk 2077 no tiene NADA destacable... es un juego de nueva generación, de mundo abierto, con una ciudad grande, vehículos y mucha población. Te adelanto desde ya que el típico procesador de 4 núcleos le va a costar tirar con eso... Y en cuanto a la gráfica pues ya veremos, depende de a la resolución que juegues, pero dudo mucho que con una serie 1000 se pueda jugar decentemente (por decente entiendo 60fps) sin renunciar a muchas cosas. De todas formas hasta que no salgan las especificaciones esto es pura especulación.

Lo normal en PC es comerse el port de consola mal optimizado el día de salida.
La bendita configuración gráfica, no se habla de otra cosa.
Prefiero que gráficamente sea bueno pero optimizado, pero lo que más me interesa es el Gameplay ,gunplay y la historia. Mientras eso este equilibrado pues disfrutaré del juego. Por qué quieres una bestialidad gráfica si el juego aburre.
Esa es mi opinión
Chervitte escribió:
anibaltw escribió:Yo por lo que he visto de algunas informacioneses para 1080p 60fps en ultra, lo minimo es una 2070. A partir de alli habra que ir bajando cosas.

Lo de las 3000 como dicen es una barbaridad. Quzas cuando saquen la version mejorada el año que viene si la aprovechen mas


Pues no sé de dónde has sacado las informaciones. Si son ciertas, no sé a quiénes pensarán venderles el juego.
El grosso de los jugadores no llega a la serie 2000.

Vamos a dejarnos de tonterías. Este juego con una 1060/1070, que es lo que tiene la mayoría, se va a poder jugar decentemente. Aparte que es un juego que no tiene NADA destacable en cuanto a gráficos se refiere, estamos hablando de una compañía que VENDE juegos en su propia tienda para PC. Lo normal es que estén optimizados. Rockstar o Guerrilla sudan tres cojones del Pc. Quisieron sacar cualquier cosa al mercado y eso fue lo que salió: una basura. Dejen de comparar juegos y compañías que nada tienen que ver.

Y ya lo que están comentando algunos por ahí de la 3070 como gráfica recomendada... es para meterlos en la cárcel.


La 1060 en Horizon:



Solo llega a 60fps a 1080p en low, y bajando a 50 en ciudades/asentamientos. Y a 54 con bajones a 40 en calidad original de PS4. Que vale que no es el ejemplo de buena optimización, pero es lo que estamos viendo últimamente. Si pensáis que con una 1060 vamos a poder jugar a 1080p 60fps al que probablemente sea el mundo abierto más burro y detallado en lo que hemos visto hasta ahora igual es tener demasiadas esperanzas. O el juego viene con unas settings en low realmente bajas para estos casos o toca actualizar gráfica a la serie 2000 mínimo.
Y dale con los Ports xD
Strait, lo de Horizon no llega ni a port, eso es una puñetera basura y los mismos de Guerrilla lo saben. Lo mismo que RDR 2. Esos juegos son faltas de respeto a los jugadores de Pc, por eso no cuentan ni como ejemplo. Si vamos a poner ahí el rasero...

Spartan, yo no sé qué clase de problemas habrás tenido porque cada ordenador es un mundo, pero la mejor versión de The Witcher 3 es la de PC. Y con este juego será igual.

Es que NO es un juego de nueva generación. Es un juego que se ha desarrollado para ESTA generación y el trabajo que lleva se ha perfilado con las tecnologías actuales. Un juego de next gen será el que venga de 2022 en adelante.
Lo único que tendrán las versiones de las nuevas consolas será más resolución y trazado de rayos. Si acaso, algún que otro NPC más. No habrá muchas más mejoras.

Lo de la densidad de población y demás, ya veremos. Yo hasta que no vea el juego corriendo en un pc normal...
Lo mismo acaba habiendo cuatro gatos cruzando por la calle. No sé qué piensas que va a pedir de procesador. Ya te digo yo que con un I7 irá sobrado. Y sí, gráficamente no es nada del otro mundo. Una 1070 podrá correr este juego a 1080 y 60 fps. Pedir más potencia para esa calidad me parecería cagarse en los jugadores de PC.

Que saldrá con problemas no lo dudes. Hasta finales de diciembre/principios de enero a olvidarse de tocar esto.
Joder, pues en 1080p calidad baja se ve como en PS4 y va a +60 fps cuando en PS4 va a 30 fps y gracias. Y en ultra va a 40 fps, siendo superior encalidad gráfica por mucho a PS4 y en fps también. Y todo esto en uno de los peores ports que recuerdo. Y estamos hablando de la 1060, gráfica de gama media-baja de hace 4 años.
@ayran La calidad low de Horizon es peor que la PS4. Después viene la "Original" que es exactamente la misma que PS4 y Alto y Ultra

PD: Dejo por aquí el The Witcher 3 (2015) con las gráficas de última generación que había por el momento en calidad ULTRA:

Strait escribió:@ayran La calidad low de Horizon es peor que la PS4. Después viene la "Original" que es exactamente la misma que PS4 y Alto y Ultra

PD: Dejo por aquí el The Witcher 3 (2015) con las gráficas de última generación que había por el momento en calidad ULTRA:


Con el timo del hairworks activado que esperas ... Dices medias verdades
ayran escribió:
Strait escribió:@ayran La calidad low de Horizon es peor que la PS4. Después viene la "Original" que es exactamente la misma que PS4 y Alto y Ultra

PD: Dejo por aquí el The Witcher 3 (2015) con las gráficas de última generación que había por el momento en calidad ULTRA:


Con el timo del hairworks activado que esperas ... Dices medias verdades


Calidad Ultra. Si pones calidad ultra y empiezas a bajar cosas ya no es ultra [qmparto]

PD: Yo con una 1070 tuve que bajar algunas cosas para que no me bajara de 60. Y jugaba con el hairworks quitado.
Strait escribió:
ayran escribió:
Strait escribió:@ayran La calidad low de Horizon es peor que la PS4. Después viene la "Original" que es exactamente la misma que PS4 y Alto y Ultra

PD: Dejo por aquí el The Witcher 3 (2015) con las gráficas de última generación que había por el momento en calidad ULTRA:


Con el timo del hairworks activado que esperas ... Dices medias verdades


Calidad Ultra. Si pones calidad ultra y empiezas a bajar cosas ya no es ultra [qmparto]

Todos sabemos cómo funciona el hairworks. No voy a explicártelo. Una cosa es calidad ultra y otra cosa es calidad ultra y activar otras opciones que comen fps. Es como si ahora comparas un juego calidad ultra con un juego calidad ultra+RT. El primero sigue estando en calidad ultra.
ayran escribió:
Strait escribió:
ayran escribió:Con el timo del hairworks activado que esperas ... Dices medias verdades


Calidad Ultra. Si pones calidad ultra y empiezas a bajar cosas ya no es ultra [qmparto]

Todos sabemos cómo funciona el hairworks. No voy a explicártelo. Una cosa es calidad ultra y otra cosa es calidad ultra y activar otras opciones que comen fps. Es como si ahora comparas un juego calidad ultra con un juego calidad ultra+RT. El primero sigue estando en calidad ultra.


Imagen

@Strait
Te das cuenta de que con esa tabla estás dando la razón a los que te dicen que no hay que tener un octa-sli de 3090 superti's para mover el juego a más de 480p, ¿no?
Mi PC tiene las mismas características que las del video y Novigrado sigue siendo una pesadilla (hoy 2020) y a veces a caballo noto micro stuttering incluso con g-sync. Y eso con una configuración razonable, buscando calidad/rendimiento. The Witcher 1 y 2 también dan problemas y mi PC no debería ni despeinarse con esos juegos. Aunque igual es que soy muy quisquilloso... Y la gente no se suele dar cuenta de esos problemas.

Por todo esto creo que Cyberpunk 2077 no va a estar bien optimizado.
LoganAxecirl escribió:@Strait
Te das cuenta de que con esa tabla estás dando la razón a los que te dicen que no hay que tener un octa-sli de 3090 superti's para mover el juego a más de 480p, ¿no?


Con esa tabla se demuestra que el juego no iba a 60fps con una 970 en calidad ultra. Es lo que estamos hablando.
Strait escribió:
LoganAxecirl escribió:@Strait
Te das cuenta de que con esa tabla estás dando la razón a los que te dicen que no hay que tener un octa-sli de 3090 superti's para mover el juego a más de 480p, ¿no?


Con esa tabla se demuestra que el juego no iba a 60fps con una 970 en calidad ultra. Es lo que estamos hablando.

Y tambien demuestra que bajando el pelito y alguna otra chorrada que probablamente la gente no será capaz de decir si está a ultra o a alto si les ponen en un monitor el juego y no dejan mirar la configuración gráfica ni otro al lado para comparar los fps se doblan. Que tambien se está hablando.
LoganAxecirl escribió:
Strait escribió:
LoganAxecirl escribió:@Strait
Te das cuenta de que con esa tabla estás dando la razón a los que te dicen que no hay que tener un octa-sli de 3090 superti's para mover el juego a más de 480p, ¿no?


Con esa tabla se demuestra que el juego no iba a 60fps con una 970 en calidad ultra. Es lo que estamos hablando.

Y tambien demuestra que bajando el pelito y alguna otra chorrada que probablamente la gente no será capaz de decir si está a ultra o a alto si les ponen en un monitor el juego y no dejan mirar la configuración gráfica ni otro al lado para comparar los fps se doblan. Que tambien se está hablando.


Pero si sin pelito (gameworks off) iba a 55 con bajones a 33.

La cosa es que yo he dicho que vamos a necesitar una 3070 para mover Cyberpunk a 1080p ULTRA y os habéis tirado a mi cuello como si fuera una locura. Pues nada, jugadlo con una 1060 que seguro que va perfecto.
@Strait
¿Decir que el juego se moverá DECENTEMENTE sin esa gráfica y que no se te secan los ojos si hay alguna opción que no se pone a ultra es tirarsete al cuello?

Ok.
Strait escribió:
LoganAxecirl escribió:
Strait escribió:
Con esa tabla se demuestra que el juego no iba a 60fps con una 970 en calidad ultra. Es lo que estamos hablando.

Y tambien demuestra que bajando el pelito y alguna otra chorrada que probablamente la gente no será capaz de decir si está a ultra o a alto si les ponen en un monitor el juego y no dejan mirar la configuración gráfica ni otro al lado para comparar los fps se doblan. Que tambien se está hablando.


Pero si sin pelito (gameworks off) iba a 55 con bajones a 33.

La cosa es que yo he dicho que vamos a necesitar una 3070 para mover Cyberpunk a 1080p ULTRA y os habéis tirado a mi cuello como si fuera una locura. Pues nada, jugadlo con una 1060 que seguro que va perfecto.


Vamos, que según tú, una 2080ti no moverá el juego a 1080 ultra. Y esto lo dices sin despeinarte, sin aportar pruebas y sin desarrollar el por qué. Pues hombre, normal que se te tiren al cuello. Normal.

Por cierto, RDR2 es un port DE MIERDA. Cyberpunk tiene desarrollo nativo en pc.
Juanatan escribió:
Strait escribió:
LoganAxecirl escribió:Y tambien demuestra que bajando el pelito y alguna otra chorrada que probablamente la gente no será capaz de decir si está a ultra o a alto si les ponen en un monitor el juego y no dejan mirar la configuración gráfica ni otro al lado para comparar los fps se doblan. Que tambien se está hablando.


Pero si sin pelito (gameworks off) iba a 55 con bajones a 33.

La cosa es que yo he dicho que vamos a necesitar una 3070 para mover Cyberpunk a 1080p ULTRA y os habéis tirado a mi cuello como si fuera una locura. Pues nada, jugadlo con una 1060 que seguro que va perfecto.


Vamos, que según tú, una 2080ti no moverá el juego a 1080 ultra. Y esto lo dices sin despeinarte, sin aportar pruebas y sin desarrollar el por qué. Pues hombre, normal que se te tiren al cuello. Normal.


A ver se espera que la 3070 esté a la altura de la 2080ti, así que las 2 gráficas serán iguales en ese sentido. He dicho la 3070 por modernizar un poco los requisitos a la actual generación.
Strait escribió:
Juanatan escribió:
Strait escribió:
Pero si sin pelito (gameworks off) iba a 55 con bajones a 33.

La cosa es que yo he dicho que vamos a necesitar una 3070 para mover Cyberpunk a 1080p ULTRA y os habéis tirado a mi cuello como si fuera una locura. Pues nada, jugadlo con una 1060 que seguro que va perfecto.


Vamos, que según tú, una 2080ti no moverá el juego a 1080 ultra. Y esto lo dices sin despeinarte, sin aportar pruebas y sin desarrollar el por qué. Pues hombre, normal que se te tiren al cuello. Normal.


A ver se espera que la 3070 esté a la altura de la 2080ti, así que las 2 gráficas serán iguales en ese sentido. He dicho la 3070 por modernizar un poco los requisitos a la actual generación.

O sea, una 2080ti/370 para 1080 60 fps... el mundo se va a la mierda ;p
@Mendrolo 1080p 60fps ULTRA. Igual que en el 2015 hacia falta una 980 para jugar a The Witcher 3 a 60 fps ultra. Que sí, que bajando a alto o medio ciertas opciones se va a multiplicar el rendimiento, pero estamos hablando de ULTRA. Lo máximo que da el juego visualmente.
Strait escribió:@Mendrolo 1080p 60fps ULTRA. Igual que en el 2015 hacia falta una 980 para jugar a The Witcher 3 a 60 fps ultra. Que sí, que bajando a alto o medio ciertas opciones se va a multiplicar el rendimiento, pero estamos hablando de ULTRA. Lo máximo que da el juego visualmente.

Pero hombre, estamos hablando de una época donde el 1080 era el standard para la gama top. la 2080ti/3070 están pensadas para el 2k para arriba.


Poner ejemplos de juegos medio rotos, o con opciones comerecursos absurdas no tiene sentido. Hay que ser realista, y pensar que para medio/alto 1080/60fps con una 1070 para arriba vas a ir sobradamente bien.
Strait escribió:@Mendrolo 1080p 60fps ULTRA. Igual que en el 2015 hacia falta una 980 para jugar a The Witcher 3 a 60 fps ultra. Que sí, que bajando a alto o medio ciertas opciones se va a multiplicar el rendimiento, pero estamos hablando de ULTRA. Lo máximo que da el juego visualmente.

Aún así me parece exagerado, aunque quién sabe.

De todas formas, y sé que no es lo que se está discutiendo, yo soy de los que en movimiento y jugando no soy capaz de distinguir alto de ultra. Está claro que cuanto mayor calidad, mejor, pero es que hoy en día los juegos se ven increíbles incluso en medio. El RDR2 me lo pasé en PS4 y joder... flipante. El Last of Us 2, lo mismo. Y son juegos que en pc estarían en... medio-alto?

Mendrolo escribió:
Strait escribió:@Mendrolo 1080p 60fps ULTRA. Igual que en el 2015 hacia falta una 980 para jugar a The Witcher 3 a 60 fps ultra. Que sí, que bajando a alto o medio ciertas opciones se va a multiplicar el rendimiento, pero estamos hablando de ULTRA. Lo máximo que da el juego visualmente.

Pero hombre, estamos hablando de una época donde el 1080 era el standard para la gama top. la 2080ti/3070 están pensadas para el 2k para arriba.


Poner ejemplos de juegos medio rotos, o con opciones comerecursos absurdas no tiene sentido. Hay que ser realista, y pensar que para medio/alto 1080/60fps con una 1070 para arriba vas a ir sobradamente bien.


Buen apunte. La equivalencia sería más bien si para Witcher 3 se hubiera exigido una 980 para moverlo a 720p ultra.
Que no, que no vas a necesitar una 2080ti para jugar en ultra. Pero una 2070 si
Siempre se puede ir testeando

Imagen
kjavi escribió:Siempre se puede ir testeando

Imagen

Pero tiene hairworks para poder deleitarse con su pecholobo? Me da igual si lo tengo que jugar a 20 fps por tenerlo activado...
anibaltw escribió:Que no, que no vas a necesitar una 2080ti para jugar en ultra. Pero una 2070 si


Depende de que resolución.

En serio, no os comáis mucho la cabeza, jugable va ser con una amplia gama de gráficas, si queremos calidades altas, pues como en todos.

Habrá gente que le da igual jugar a 30fps en calidades más altas,
Otros que no pueden bajar de 60, aunque sea en low settings
Y otros que busquen 2k/4k 60 fps etcetcetc

Yo a los singleplayer, por ejemplo, desde que me acostumbré al 2k/60, soy incapaz de volver a 1080, y sin en cambio los multiplayer, soy incapaz de no jugarlos en el monitor 1080 de144hz.
Yo desde que descubrí los 144hz me cuesta muchísimo volver a los 60. Tanto multi como singleplayer. A 30 directamente no los juego.
Da igual lo que se diga en este hilo,el día de salida se llenará de gente preguntando porque con su 1060 no puede jugarlo todo a ultra y 60fps.

Por como está masificado el juego con gente,coches,luces y demás,no soy muy optimista con cualquier gráfica que baje de una 20XX.

El The Witcher 3 en su salida tampoco fue la panacea de la optimización y este creo que necesitará unos meses (y parches) para rendir como debe.
ayran escribió:Yo desde que descubrí los 144hz me cuesta muchísimo volver a los 60. Tanto multi como singleplayer. A 30 directamente no los juego.

Pues yo nunca noté gran diferencia de fluidez más allá del escritorio. Algo notaba en juegos pero no nada como para que compensase el desembolso. Prefiero 1440p (y tampoco porque me sobra con 1080) a 144hz
rubee3n escribió:
ayran escribió:Yo desde que descubrí los 144hz me cuesta muchísimo volver a los 60. Tanto multi como singleplayer. A 30 directamente no los juego.

Pues yo nunca noté gran diferencia de fluidez más allá del escritorio. Algo notaba en juegos pero no nada como para que compensase el desembolso. Prefiero 1440p (y tampoco porque me sobra con 1080) a 144hz


No entendí bien, no notas diferencia de 30 a 60 fps? O de 60 a 144 Hz?

Bendito seas en los 2 casos
Rhous escribió:Da igual lo que se diga en este hilo,el día de salida se llenará de gente preguntando porque con su 1060 no puede jugarlo todo a ultra y 60fps.

Por como está masificado el juego con gente,coches,luces y demás,no soy muy optimista con cualquier gráfica que baje de una 20XX.

El The Witcher 3 en su salida tampoco fue la panacea de la optimización y este creo que necesitará unos meses (y parches) para rendir como debe.


Estoy de acuerdo, pero el problema es la "Ultratis", cuando toqueteando los parámetros mas chupones se consigue prácticamente el mismo aspecto y consiguiendo mas fps, en muchos casos algunos parámetros "Ultra" están rotos y no son para nada recomendables a no ser que "te sobren fps por 1 tubo", por lo que molestándose en toquetear 5 minutos los ajustes se puede conseguir un aspecto visual mas que decente y obteniendo mayor tasa de frames, sobretodo en juegos de mundo abierto.

Soy de los que piensa que con una GTX 1060 no se va a poder mover con todo ultra a 60fps, pero probablemente ajustando bien los parámetros, bajando algunos en alto y otros en medio, se pueda conseguir jugar por encima de 30-40fps sin problemas, si se busca 60fps con esa gráfica pues tocará bajar otros tantos a "medio" o similares. Con una serie 2000 ya se puede activar el DLSS para aumentar considerablemente la tasa de frames que es un "Boost" considerable (luego otro tema sería, si activar o no el RT y si esta se puede también toquetear)

Anteriormente, cuando puse el ejemplo del RDR2, fue justamente por que espero que CP 2077 venga mejor optimizado que el de Rockstar (no es muy difícil), aunque también se que CP 2077 va a venir bastante mas "cargado" (muchas mas luces, NPC's, vehículos etc..) pero ni muchos menos pienso que sea el Crysis del Hardware y solo unos pocos vayan a poder disfrutarlo bien, cuando repito, sale en PS4/ONE aunque no niego que en estas estén haciendo algo de "magia" para conseguir un buen equilibrio de calidad/rendimiento XD
d2akl escribió:
rubee3n escribió:
ayran escribió:Yo desde que descubrí los 144hz me cuesta muchísimo volver a los 60. Tanto multi como singleplayer. A 30 directamente no los juego.

Pues yo nunca noté gran diferencia de fluidez más allá del escritorio. Algo notaba en juegos pero no nada como para que compensase el desembolso. Prefiero 1440p (y tampoco porque me sobra con 1080) a 144hz


No entendí bien, no notas diferencia de 30 a 60 fps? O de 60 a 144 Hz?

Bendito seas en los 2 casos

De 60 a 144, de 30 a 60 se nota bastante más el cambio, yo al menos.
Una pregunta, al haber una version mejorada para las nuevas consolas el año que viene, sabeis si la version de PC ya sera la version definitiva, o tambien habra una version mejorada para cuando salga el de ps5 y xsx?
@Lemmiwinks Según se dijo en su momento, eso solamente se aplicaba a consolas (para la Xbox, concretamente, aunque no se si al final lo confirmaron también para ps5).

Pero vamos, yo personalmente no esperaría nada muy drástico o muy distinto de lo que fue en su día el cambio/mejora de GTA V desde PS3 a PS4.

Fuentes:
https://www.hobbyconsolas.com/noticias/ ... ola-619355

https://depor.com/depor-play/videojuego ... s-noticia/

https://as.com/meristation/2020/04/10/n ... 33025.html

https://regionps.com/cd-projekt-red-con ... -consolas/

https://www.somosxbox.com/cyberpunk-207 ... nto/867043

https://vandal.elespanol.com/noticia/13 ... -series-x/
Lemmiwinks escribió:Una pregunta, al haber una version mejorada para las nuevas consolas el año que viene, sabeis si la version de PC ya sera la version definitiva, o tambien habra una version mejorada para cuando salga el de ps5 y xsx?

La versión de PC va a ser mejor que la de la next gen de consolas.
ayran escribió:
Lemmiwinks escribió:Una pregunta, al haber una version mejorada para las nuevas consolas el año que viene, sabeis si la version de PC ya sera la version definitiva, o tambien habra una version mejorada para cuando salga el de ps5 y xsx?

La versión de PC va a ser mejor que la de la next gen de consolas.


A ver, explícame algo. La xbox series x tiene 12 teraflops. La 2080ti tiene 13,4. El juego saldrá a 1080p 30fps o 4k 30fps en una versión "recortada" técnicamente con respecto a PC. ¿Te sigue pareciendo una locura que para 1080p ultra 60fps haga falta una gráfica similar a la 2080ti como la 3070?
Strait escribió:
ayran escribió:
Lemmiwinks escribió:Una pregunta, al haber una version mejorada para las nuevas consolas el año que viene, sabeis si la version de PC ya sera la version definitiva, o tambien habra una version mejorada para cuando salga el de ps5 y xsx?

La versión de PC va a ser mejor que la de la next gen de consolas.


A ver, explícame algo. La xbox series x tiene 12 teraflops. La 2080ti tiene 13,4. El juego saldrá a 1080p 30fps o 4k 30fps en una versión "recortada" técnicamente con respecto a PC. ¿Te sigue pareciendo una locura que para 1080p ultra 60fps haga falta una gráfica similar a la 2080ti como la 3070?

No compares la cantidad de núcleos dedicados que tienen las gráficas nvidia con lo que le van a meter a la consola ....
32146 respuestas