BernatBCN escribió:pues veo que no soy el único que piensa que es una chusta de gráficos vamos que el que ha dicho que es lo mejor que ha visto en PC se ha cubierto de gloria xD
KailKatarn escribió:batuka escribió:El juego es una verguenza, es un CUTREPORT de manual. No puedo aguantar que con mi GTX970 tenga que ver el juego asi para jugar a 60 fps..
Me da verguenza ajena hasta enseñar esta basura:
Parece que estoy jugando a la PS3...
Te has llegado a plantear que sea culpa de Nvidia? o de Juego + Nvidia y no sólo del juego únicamente? te lo comento porque eso en AMD no pasa. Puedes jugar todo a full y 60 fps , con la top, claro.
mosotron escribió:El Dx12 va mejor en las ADM. Eso se puede solucionar en la siguiente gen de tarjetas. pero así está la cosa. esa 970 va bien para juegos antiguos.
KailKatarn escribió:mosotron escribió:El Dx12 va mejor en las ADM. Eso se puede solucionar en la siguiente gen de tarjetas. pero así está la cosa. esa 970 va bien para juegos antiguos.
Eso es relativo, de momento sólo en juegos que usen Async Shaders si no se usan no salvo que AMD deja de sufrir el overhead de su driver de DX11 que Nvidia no sufre a su nivel ni por asomo bajo DX11. Y quizás no haya que esperar a nuevas gen para que Nvidia solucione el problema, quien sabe si sus ingenieros apañan algo antes con las gens actuales a nivel de driver.
papatuelo escribió:No es solo por el async, algo más hahi debajo del capó.
Los juegos preparados para correr en Dx12 aun en DX11 corren mejor en AMD.
Hitman por ejemplo corre mejor en AMD que en Nvidia aun en DX11 y en DX12 el incremente de rendimiento derivado del uso de async esta entre un 5% y 10%. Eso no justifica algunas diferencias que se están viendo.
mosotron escribió:KailKatarn escribió:batuka escribió:El juego es una verguenza, es un CUTREPORT de manual. No puedo aguantar que con mi GTX970 tenga que ver el juego asi para jugar a 60 fps..
Me da verguenza ajena hasta enseñar esta basura:
Parece que estoy jugando a la PS3...
Te has llegado a plantear que sea culpa de Nvidia? o de Juego + Nvidia y no sólo del juego únicamente? te lo comento porque eso en AMD no pasa. Puedes jugar todo a full y 60 fps , con la top, claro.
El Dx12 va mejor en las ADM. Eso se puede solucionar en la siguiente gen de tarjetas. pero así está la cosa. esa 970 va bien para juegos antiguos.
eljefazito escribió:Hola, expongo mi problema, tengo 2 discos duros y hice espacio en el disco duro secundario de unos 55 gigas. Descargue el juego pero para mi sorpresa, habia que dejar mas espacio libre. El problema viene de que tengo esos 55 gigas ocupados y cuando le doy a que descargue de nuevo no los coge y me dice que deje mas espacio libre. Alguien sabe como puedo borrar esos 55 gigas que tengo ocupaos? por que no se que mas hacer
KailKatarn escribió:papatuelo escribió:No es solo por el async, algo más hahi debajo del capó.
Los juegos preparados para correr en Dx12 aun en DX11 corren mejor en AMD.
Hitman por ejemplo corre mejor en AMD que en Nvidia aun en DX11 y en DX12 el incremente de rendimiento derivado del uso de async esta entre un 5% y 10%. Eso no justifica algunas diferencias que se están viendo.
En el hitman no ocurre eso:
Y eso que usa Async Shaders. Y luego la otra diferencia es porque la gente se pensaba que una GTX970 arrasaba a una 290/390/290X/390X y en cuanto pierden el overhead que tienen por driver en DX11 entonces ... ven la realidad y es que nunca esas tarjetas a nivel de specs y pcb fueron peor que una GTX970 sino todo lo contrario.
papatuelo escribió:Su contrapunto natural en DX11 es la 970 y no la 980
Esta claro que en quantum break es aun más exagerado, pero en Hitman tambien se deja notar la tendencia.
KailKatarn escribió:papatuelo escribió:Su contrapunto natural en DX11 es la 970 y no la 980
Esta claro que en quantum break es aun más exagerado, pero en Hitman tambien se deja notar la tendencia.
Tú lo has dicho, su contrapunto natural en DX11 es la 970 pero en DX11 no activan los async shaders (aunque se puede, liquidVR usa async en DX11 pero en juegos todavía no se han usado en DX11) entonces tienes que sumarle 2 dopes a las 290/390:
1er dope: Usamos Asyncs + 5 o 10% de momento de potencia extra conocida, más si se usa mucha iluminación bajo compute (como pasa en el Quantum Break).
2º dope: Pierden el overhead por driver en DX11 al usar DX12. Si el Hitman a parte de ser un GAMING EVOLVED (patrocinado por AMD) ya iba mejor en DX11 que la propia GTX970 (normal, juego patrocinado) si encima le sumas que le quitas el OVERHEAD del driver pues ahí tienes otra subida.
Vamos, que no hay ni truco ni cartón ni nada detrás, sólo que el driver de AMD en DX11 hace un overhead de pelotas y la gente se pensaba que las 290 eran una basura y ahora están viendo que sin el overhead y los asyncs se llevan un buen dope, no hay más.
papatuelo escribió:Si yo estoy de acuerdo contigo, solo digo que tengo la impresión de que AMD se ha puesto las pilas tanto en DX11 como qen DX12 y que el hecho de que ahora los juegos tenga que salir en consolas con arquitectura AMD favorece la optimización de los juegos para correr en AMD, más a un ahora que XBOX y PC comparten API.
Gaiden escribió:Pues yo creo que hace ya mucho que en terreno real amd funciona bastante mejor que nvidia en general, recalco lo de "en general" pq luego hay juegos y juegos. Y con ir mejor me refiero a mejor rendimiento y menos problemas de doble/triple buffer, crasheos de driver y mil historias, incluyendo rendimiento gameworks que se la pela la marca de tu tarjeta...y con ir mejor tb me refiero a que envejecen mil veces mejor, todas todas. La 770 era chip nuevo y la 280X era refrito, eran equivalentes, pues desde el día 1 la balanza empezó a caer del lado de la amd y hasta hoy donde le pasa la mano por la cara con claridad...y los drivers que tanto habla la gente por inercia, otro tanto. Se que estoy loco al decir algo así por internet donde el 70% del mercado es nvidia "por que si" pero es lo que hay
Me empecé a dar cuenta con los primeros port tochos, como dead rising 3 o ryse.
Natsu escribió:Ahora resulta que el juego tienes malos gráficos, venga que chapen ya el hilo por dios.
batuka escribió:El juego es una verguenza, es un CUTREPORT de manual. No puedo aguantar que con mi GTX970 tenga que ver el juego asi para jugar a 60 fps..
Me da verguenza ajena hasta enseñar esta basura:
Parece que estoy jugando a la PS3...
ionesteraX escribió:batuka escribió:El juego es una verguenza, es un CUTREPORT de manual. No puedo aguantar que con mi GTX970 tenga que ver el juego asi para jugar a 60 fps..
Me da verguenza ajena hasta enseñar esta basura:
Parece que estoy jugando a la PS3...
Si no quereis fotos, dos tazas, así lo veo yo a 60fps con una 290 todo gameplay sin ninguna cutscene, igualito a ps3 si si![]()
KailKatarn escribió:Gaiden escribió:Pues yo creo que hace ya mucho que en terreno real amd funciona bastante mejor que nvidia en general, recalco lo de "en general" pq luego hay juegos y juegos. Y con ir mejor me refiero a mejor rendimiento y menos problemas de doble/triple buffer, crasheos de driver y mil historias, incluyendo rendimiento gameworks que se la pela la marca de tu tarjeta...y con ir mejor tb me refiero a que envejecen mil veces mejor, todas todas. La 770 era chip nuevo y la 280X era refrito, eran equivalentes, pues desde el día 1 la balanza empezó a caer del lado de la amd y hasta hoy donde le pasa la mano por la cara con claridad...y los drivers que tanto habla la gente por inercia, otro tanto. Se que estoy loco al decir algo así por internet donde el 70% del mercado es nvidia "por que si" pero es lo que hay
Me empecé a dar cuenta con los primeros port tochos, como dead rising 3 o ryse.
Eso es simple. Nvidia, como no tenía competencia a nivel de driver se ha permitido DURANTE MUCHO TIEMPO (empezó desde la serie GTX6xx) a vender tarjetas bastante simples a precios muy altos. Las specs de las de AMD que les hacían competencia estaban a siglos luz, pero aun así, las Nvidia rendían más. Por qué? por el driver. Ahora que AMD ha espabilado vía driver ha disminuido esa distancia y por lo tanto tarjetas antiguas están dando un sorpresón cuando se están soltando el pelo.
Es simplemente eso. Ahora Nvidia esperemos que vuelva a los tiempos de la serie GTX5xx y hacia atrás donde te daban los chips complejos sin jugar a forrarse vendiendo gamas medias a precio de gamas altas pero que no tenían competencia a nivel de driver y que por lo tanto se podían permitir hacerlo.
No quieras saber el pastizal indecente que habrá hecho Nvidia con esa táctica, pero vaya si le ha funcionado. De ahí que una 280X se ría de una GTX770 cuando esta le daba una paliza a la salida de ambas. Y no olvidamos que la 280X es una HD7970 que salió para competir contra la GTX680 y esta última la apalizaba.
diego88_7iglesias escribió:Yo lo unico que saco de tus comentarios es que eres un vende Nvidias y que en tu vida has probado AMD y segundo que vendes fantasticamente este cutreport sea como sea, yo lo dejaria ya porque cada vez que hablas sube el pan, no se si me entiendes majete.
papatuelo escribió:Yo tengo clara una cosa: la gente quiere sus gráficas para poner el juego 1080p/ultra. No importa que signifique eso. No importa lo que se ponga en pantalla, lo importante el es dato. 1080p/ultra bien, todo lo demás mal.
No importa una mierda que el 1080p ultra de un juego ponga menos en pantalla que el 900p/medium de otro juego. Si puedes poner el juego 1080p/ultra win win y el juego es un portento de la optimizaión.
Q lastima.
diego88_7iglesias escribió:Yo lo unico que saco de tus comentarios es que eres un vende Nvidias y que en tu vida has probado AMD y segundo que vendes fantasticamente este cutreport sea como sea, yo lo dejaria ya porque cada vez que hablas sube el pan, no se si me entiendes majete.
papatuelo escribió:Yo tengo clara una cosa: la gente quiere sus gráficas para poner el juego 1080p/ultra. No importa que signifique eso. No importa lo que se ponga en pantalla, lo importante el es dato. 1080p/ultra bien, todo lo demás mal.
No importa una mierda que el 1080p ultra de un juego ponga menos en pantalla que el 900p/medium de otro juego. Si puedes poner el juego 1080p/ultra win win y el juego es un portento de la optimizaión.
Q lastima.
eljefazito escribió:Alguien con el mando de 360 inalambrico le funciona? Por que a mi no me lo reconoce el juego
Shiniori escribió:eljefazito escribió:Alguien con el mando de 360 inalambrico le funciona? Por que a mi no me lo reconoce el juego
Tienes que tener encendido el mando antes de iniciar el juego, si el mando por alguna razón se desconecta, tendrás que volver a iniciar el juego porque se pierde la comunicación.
papatuelo escribió:Yo tengo clara una cosa: la gente quiere sus gráficas para poner el juego 1080p/ultra. No importa que signifique eso. No importa lo que se ponga en pantalla, lo importante el es dato. 1080p/ultra bien, todo lo demás mal.
No importa una mierda que el 1080p ultra de un juego ponga menos en pantalla que el 900p/medium de otro juego. Si puedes poner el juego 1080p/ultra win win y el juego es un portento de la optimizaión.
Q lastima.
papatuelo escribió:ionesteraX escribió:batuka escribió:El juego es una verguenza, es un CUTREPORT de manual. No puedo aguantar que con mi GTX970 tenga que ver el juego asi para jugar a 60 fps..
Me da verguenza ajena hasta enseñar esta basura:
Parece que estoy jugando a la PS3...
Si no quereis fotos, dos tazas, así lo veo yo a 60fps con una 290 todo gameplay sin ninguna cutscene, igualito a ps3 si si![]()
El juego es brutal, pero la iglesia del milochentapé ha hecho mucho daño. Ya nada más importa.
edergarcremas escribió:Sabéis si se puede solicitar un reembolso en pc?
JaviGabber escribió: Peeero en este juego quien diga que esta mal optimizado tiene toda la razon (por lo menos en nvidia que es lo que tengo). El rendimiento con mi equipo es inadmisible.
papatuelo escribió:El juego es brutal, pero la iglesia del milochentapé ha hecho mucho daño. Ya nada más importa.
Viaja en el tiempo al pasado y puedes leer en su diario como informa de los ataques terroristas del 11S me parece genial, yo de ellos habria explotado más ese aspecto dandole más profundidad a esa parte, da para mucho juego.
Misstic escribió:Si no tengo el mando de la One me como los mocos? A parte, yo uso el DS4 con inputmapper, funcionaría?
KailKatarn escribió:diego88_7iglesias escribió:Yo lo unico que saco de tus comentarios es que eres un vende Nvidias y que en tu vida has probado AMD y segundo que vendes fantasticamente este cutreport sea como sea, yo lo dejaria ya porque cada vez que hablas sube el pan, no se si me entiendes majete.
Te entiendo, te entiendo...
FJLemus escribió:pues va muy mal con mi gtx 980, la imagen se ve demasiado borrosa y tengo stuttering por todas partes, en fin, para mi es injugable, esperare haber si sacan algun parche para arreglar los problemas de este port