ismarub escribió:El problema me da es que no has probado el juego con gráficas inferiores. Una gtx 970 no es el ejemplo de gráfica ideal y menos con el rollo de los últimos drivers con juegos gameworks. En alto no mantengo si quiera 30 fps estables con una r9 280 oceada como una r9 280x. En medio rasca por debajo de 60 fps con facilidad y con lluvia o en ciudades cae a 45 fps. Encima tengo las sombras en bajo Gente con gráficas similares de ambas marcas he leído cosas parecidas.
Joder, pero bueno, se supone que AMD va a sacar ya un driver beta para The Witcher 3, esto será como siempre, mal al principio pero después de algún parche y los drivers actualizados (una cuestión que redundantemente, y da igual si el juego es TWIMTBP o GE, AMD no suele tener preparado para el día cero del lanzamiento de un juego, sino unos días o semanas después, y eso con suerte), irá bastante mejor.
El juego a nivel gráfico es impresionante, y esto no tiene nada que ver con el gameworks que tanta campaña se hace en contra, a las AMD les cuesta por algo inherente del motor gráfico al igual que a las kepler, algún tipo de efecto gráfico fuera de Gameworks, que es un tema distinto y puramente opcional (hay pocas cosas más neutrales en rendimiento que el HBAO+, puede que tengas problemas activando el relativamente caro hairworks, pero el HBAO+ no tiene un coste excesivo y es además similar en todas las gráficas, da igual la marca).
Ya digo que a nivel medio de detalles sigue siendo un juego notable en gráficos, evidentemente jode bajar el detalle sabiendo que hay calidades superiores, pero no es un juego muy perjudicado por bajarlo.
Espera drivers, y puede que algún parche extra, seguro que irá mejor con el driver previsto para estos días (parece que AMD con este juego sí se está dando más prisa que lo habitual para sacar un driver para él).
El juego es otro watchdogs a la vista pero de gpu. Incluso al mínimo para obetener 60 fps, la gráfica trabaja por encima del 80% y eso que va ya subidita, No me quiero imaginar con las gráficas que pide para el mínimo (gtx 660 y hd 7870). Demasiado exigente para lo que muestra después del bajón gráfico que ha tenido. Hay escenarios y texturas que dan pena. Hasta el 2 le hace sombra actualmente.
Yo a Watchdogs jugaba con todo a tope excepto las texturas bajando un punto de detalle, con la GTX 770 y por el tema de la VRAM, y excepto cierto stuttering al ir sobre todo en coches (más que nada por carga de secciones de mapeado, curiosamente con la moto pasaba mucho menos, creo que era una combinación de las cargas y su stuttering con un control muy malo de los vehículos de 4 ruedas).
Y me iba bastante bien. Ah, bajé también el detalle de sombras porque en algunas localizaciones concretas eran muy costosas a nivel de rendimiento (una zona con un edificio en construcción, con muchas sombras proyectadas).
¿El 2, Witcher 2? ¿estás comparando con Watchdogs o ya otra vez con The Witcher 3? El dos es un gran juego que tiene un buen nivel gráfico incluso hoy en día, pero tengo claro que los efectos y escenarios, objetos y sus detalles, son más elaborados en The Witcher 3. Incluso a nivel medio no veo yo escenas tan complejas en The Witcher 2.
No te pases...
Aparte, en el hilo oficial muchos se quejan que los 30 fps del juego capados no van finos y es verdad. Hay usuarios que dicen haber jugado a las versiones de ps4/xone y los 30 fps se notan más finos que en pc.
Un "problema" muy importante en PC es que el tipo de control que usamos nos hace percibir muchísimo más las tasas de fps bajas (sin stuttering) que en consolas. Eso lo comprobé con un juego portado de consola bastante malo, Viking: Battle for Asgard, que como port chapucero venía capado a 30 fps.
Pues bien, jugarlo con el ratón y teclado se me hacía insufrible, notaba "microstuttering" al girar la cámara seguido, etc (más bien es un problema de tasa de fps baja), y se me ocurrió jugar con un mando que tengo por aquí, dado que hasta para configurar las teclas era porculero el juego.
El cambio de sensación percibida de fluidez de juego era radical, y sólo era un cambio consistente en usar un mando con sus sticks y crucetas en vez del ratón.
La conclusión clara a la que llegué es que el control "extrafino" que permite un ratón de cada giro de cámara es básicamente incompatible con tasas de fps muy bajas y que destruyen la precisión a las que nos acostumbra el control con ratón de la cámara. Si sólo tienes 30 frames por segundo generados, y estás haciendo un giro donde pretendes ir de X a Y con el ratón y su precisión típica, encuentras que "fallas" la mayoría de veces con una aproximación muy mala de lo que querías hacer. En cambio con un mando con sticks la precisión más baja hace que "aciertes" más en las posibilidades del mando de control, la tasa de fps no se queda corta para la precisión del mando, que hace por cada toque que le puedas dar al stick un movimiento mayor en grados que un ratón.
En serio que el cambio era sorprendente en el juego, no había cambio alguno en configuración gráfica, y la percepción de fluidez del juego cambiaba radicalmente, de parecer infumable con ratón, a ser potable (no pidamos tampoco milagros a los 30 fps) con mando.
Las consolas tienen la "ventaja" de un control de mierda que enmascara problemas inducidos por una tasa de fps baja.
Yo no hablo de jugar todo en ultra, como ves. Simplemente con jugar con tasas de fps estables me conformo, pero incluso en medio con semejante gráfica no puede. Incluso con el el gta v y una gtx 670 jugué bastante bien el mes pasado. No es el caso en éste y posiblemente en medio juegue con menor calidad visual que en ps4 y con rendimiento inestable.
Un i7 y una gráfica que en su momento era gama alta, se debería de jugar bastante mejor que en dichas consolas e incluso humillarlas, pero con los multis eso ya no pasa. Olvidaos de ver juegos tipo crysis o metro 2033 como en su momento. Eso no va a pasar casi nunca porque la mayoría se van a centrar en las versiones de consola y no hacer 3 versiones distintas. Habrá diferencias entre versiones, pero nada que justifique la desproporción entre el dinero invertido en un pc vs consola.
Insisto, la PS4 va a 30 fps y con un detalle que como mucho es high y gracias, a 1080p. Si lo piensas tú le estás pidiendo bastante a la 280X, que no es el doble de rápida que una 7870 (básicamente lo que lleva la PS4). Al pedir 60 fps estables estás pidiendo que sea el doble de rápida que la PS4- Entiendo que es frustrante no llegar a 60 fps en niveles de detalle de "consolas", pero es que este juego no baja detalle de la misma forma que otros, mantiene bastante el tipo.
En su momento cuando salieron las PS3 y las XBOX360, lo mejor que había en el mercado eran cosas como las G70 de nvidia o las 1900 de AMD. Y eran similares los tops de gama a lo que ofrecían las consolas, o incluso ligeramente inferiores (el chip gráfico de la XBOX era más avanzado que el usado en las 1900, algo entre éstos y el usado con la 2900).
Hizo falta que salieran las G80 para "humillar" a las consolas, y entre comillas (sí lo hacía, pero también a qué precio, y también depende de qué juego comparáramos). Salieron las G92 y las RV670 y ya hubo a precios asequibles un nivel de rendimiento superior al de consolas a las claras, porque hasta ese momento las consolas tenían chips iguales o superiores, y la optimización de su lado.
Esto es, se hizo un salto de nodo y de arquitectura para lograr superarlas. Hoy en día las consolas usan GCN y una versión más o menos avanzada, en PC no hubo aún salto de nodo, la arquitectura ha cambiado pero entre comillas al ser limitado su potencial por el proceso de fabricación, una Maxwell en 20nm sería impresionante, en el sentido de que se podría recortar enormemente precios, no hay que olvidar que el chip de gama media que es el GM204 tiene un tamaño casi gigantesco de 400mm2, y el GM200 ha superado los 600mm2 batiendo marcas de tamaño.
A AMD le está costando dios y ayuda sacar algo nuevo, se le supone que está ahí a las puertas, pero queda por ver, de hecho se está centrando más en el cambio de sistema de memoria que en decirnos cosas concretas sobre la gpu en sí.
Cuando ocurra el salto de nodo, la economía de escala combinada con una producción por oblea muy superior hará que las gamas medias sean mucho más potentes que ahora, como venía siendo tradicional antes, no sólo "optimizaciones" y mejoras ligeras. En ese momento se superarán a las consolas de nueva (de)generación porque estaban basadas en origen en gama media o incluso media-baja de lo existente en PC.
La única razón para que no hayan sido totalmente sobrepasadas desde hace ya casi un año, es por el retraso que ha inducido en la industria los problemas para cambiar el nodo de fabricación. Nunca se ha estirado tanto un nodo concreto en el mundo de gpus como en la actualidad.
Hay que entender los problemas en perspectiva. Y evidentemente, aunque incluso una gama media actual sea claramente más potente que las consolas de nueva generación, eso no quiere decir que se le pueda superar por >2X en rendimiento con la gama media en PC. Una 280x es una gráfica muy respetable, pero que tiene más de 3 años en el mercado. Que no haya sido apabullada del todo por gráficas nuevas sólo es porque los fabricantes han tenido que echarle "imaginación" y ver cómo ir consiguiendo más rendimiento anclados en los 28 nm (AMD con Hawaii, nvidia con el GK110 y después Maxwell, etc).
Crysis fue un ejemplo de lo que podía hacer el PC por encima de las consolas, sí, pero la generación de consolas con la que rivalizó había salido DOS años antes (la PS3 sólo uno).
Las nuevas consolas sólo llevan poco más de un año con nosotros, en el mismo periodo de tiempo en la generación anterior, no teníamos argumentos de peso para decir que el PC superaba a las consolas. Podíamos mencionar a Far Cry, o Half Life 2, pero eso no daba una victoria clara.