Battlefield V - 2a Guerra mundial

Inevitable escribió:
Lince1988 escribió:
Inevitable escribió:@Lince1988 Pues mira lo acabo de probar y si lo noto, como más suave junto con G-sync y se nota la diferencia un montón.


¿has ganado FPS?


Pues al poner las dos cosas, bastante mejor la verdad. Tampoco he probado cuando hay explosiones, efectos, casas cayendo, gente disparando etc XD que es cuando se resiente.


Joe a mí me baja con el 12, ¿Qué gráfica tienes?
Con dx12 baja un poco los fps, más que con dx11 pero va más fluido por lo menos la sensación con gsync, cosa que con dx11 tiene sttutering mínimo pero tiene.

Lo que no he probado quitar el future frame ese que ponéis...
A mi me bajaba antes de la actualización del juego y de drivers. Luego ya con una 1080ti se me mantenía similar al rendimiento con dx11 pero con menos rascadas a de 100 a 60 o cosas así. Me resulta mas estable. Igual es que simplemente han estabilizado el juego en general. Y sospecho que el dx12 furula mejor en las series 10xx ... :-?
nemor-samaro escribió:A mi me bajaba antes de la actualización del juego y de drivers. Luego ya con una 1080ti se me mantenía similar al rendimiento con dx11 pero con menos rascadas a de 100 a 60 o cosas así. Me resulta mas estable. Igual es que simplemente han estabilizado el juego en general. Y sospecho que el dx12 furula mejor en las series 10xx ... :-?


Yo cuando tenía la 970 y ponía el dx12 no notaba aparentemente nada así que es probable eso. Es una funcionalidad que esta un poco verde aún pero bueno.

@Lince1988 una 1080
A mí lo que me pasa es extraño, en el mapa multijugador que peor rendimiento tengo, tendré entre 65-75 fps y de vez en cuando me pega un bajón de 10-20 fps de una milesima de segundo y se recupera. Pero no en situaciones de explosiones ni nada, lo mismo voy por un pasillo estrecho yo solo..
Lince1988 escribió:A mí lo que me pasa es extraño, en el mapa multijugador que peor rendimiento tengo, tendré entre 65-75 fps y de vez en cuando me pega un bajón de 10-20 fps de una milesima de segundo y se recupera. Pero no en situaciones de explosiones ni nada, lo mismo voy por un pasillo estrecho yo solo..


Exactamente eso me ocurría con dx11, no con el dx12. Así que a saber.
Lince1988 escribió:A mí lo que me pasa es extraño, en el mapa multijugador que peor rendimiento tengo, tendré entre 65-75 fps y de vez en cuando me pega un bajón de 10-20 fps de una milesima de segundo y se recupera. Pero no en situaciones de explosiones ni nada, lo mismo voy por un pasillo estrecho yo solo..

Lo tengo comprobado es una caída de la carga gráfica, lo tengo monitorizado todo el tiempo todo todo, y cuando sucede eso da igual el sitio del mapa que puede pasar , las gráficas que se mueven son la de la carga de la GPU y la de red.... Que una de dos , es un problema de servidor ( que no lo descarto) o algo le da a la gráfica que baja el uso....
con el V-sync tiene stuttering en DX12 , en DX 11 va perfecto , al menos así era en la beta ¿sigue igual?
De todas formas acaba de salir, irán sacando parches... aunque hubo beta y un retraso de un mes.. pero bueno X'D
Lo que dice el compañero @terriblePICHON es interesante y muy probable. Que a mi me vaya mejor con dx12 puede ser una casualidad, que me haya estado yendo mejor la conexión y no tenga esas caídas de red, o que está mejor optimizado el uso gráfico con dx12. En cualquier caso, no hay que sufrir tanto y ser feliz [360º]
nemor-samaro escribió:Lo que dice el compañero @terriblePICHON es interesante y muy probable. Que a mi me vaya mejor con dx12 puede ser una casualidad, que me haya estado yendo mejor la conexión y no tenga esas caídas de red, o que está mejor optimizado el uso gráfico con dx12. En cualquier caso, no hay que sufrir tanto y ser feliz [360º]


la teoria dice que DX12 necesita menos poder bruto del procesador que DX11 , el juego final no lo he catado pero en la beta me iba mejor con el DX11 que con el DX12 , con el DX12 pegaba bajones cada cierto tiempo era practicamente injugable en el mapa de la nieve. con el V-sync , con G-sync no lo he porbado
Titán_Salvaje_ escribió:
nemor-samaro escribió:Lo que dice el compañero @terriblePICHON es interesante y muy probable. Que a mi me vaya mejor con dx12 puede ser una casualidad, que me haya estado yendo mejor la conexión y no tenga esas caídas de red, o que está mejor optimizado el uso gráfico con dx12. En cualquier caso, no hay que sufrir tanto y ser feliz [360º]


la teoria dice que DX12 necesita menos poder bruto del procesador que DX11 , el juego final no lo he catado pero en la beta me iba mejor con el DX11 que con el DX12 , con el DX12 pegaba bajones cada cierto tiempo era practicamente injugable en el mapa de la nieve. con el V-sync , con G-sync no lo he porbado


Sí sí. Tienes razón. Fue hasta hace unos días que sacaron el parche de lanzamiento que empezó a ir correctamente el dx12. Al menos en mi caso.
Titán_Salvaje_ escribió:con el V-sync tiene stuttering en DX12 , en DX 11 va perfecto , al menos así era en la beta ¿sigue igual?

He probado de todas las opciones posibles
Dx11 gsync más vsync panel de Nvidia más capado a 120 fps tiene sttutering
Dx11 gsync sin vsync en el panel más vsync en el juego capado a 120 fps tiene sttutering
Dx11 gsync sin vsync en ningún lado capado a 120 fps tiene sttutering.
Dx12 gsync vsync panel de Nvidia vsync en el juego quitado capado a 120 fps perfecto.

Dx11 gsync sin vsync en ningún lado capado a 120 fps tearing y sttutering.
Dx11 gsync sin vsync en ningún lado sin capar solo a la tasa del monitor tearing y sttutering.

Si bien con la primera opción el sttutering es mínimo mínimo, se juega perfecto, con dx12 va como la seda, no puedo usar el reshade pero bueno...
@terriblePICHON Pero no es lógico usar V-sync si pones el G-sync (que es por ello la sustitución)
Inevitable escribió:@terriblePICHON Pero no es lógico usar V-sync si pones el G-sync (que es por ello la sustitución)

Si y no depende el juego, no en todos va igual , muchas veces toca jugar con vsync on off del panel y del juego y otras veces solo con el gsync va de fábula....el puto gsync es una maravilla , pero es porculero muchas veces de dejarlo perfecto...
Ejemplo claro el PUBG como le active cualquier vsync la lío, va bien con el gsync, sin embargo overwatch tengo que tener el vsync del panel activado porque sino la lío, y así toooooodos los juegos...por eso las pruebas que comento.
@terriblePICHON joder pues ni sabía eso x'D yo me dí cuenta que tenia tearing con el g-sync porque no puse en el juego los hz de mi monitor (120 por ejemplo) y luego capado a 60 .. entonces ya trabaja bien.
Esta noche probare lo de dx12
También he probado resoluciones en 4 k no me va fluido, tengo un i5 8600k y una 1080ti,
Juego en resolución 1920 x 1080 con 180 de escala de resolución que es como mejor me va
Saludos
Tengo entendido que es mejor activar tanto gsync como vsync. El gsync trabaja en el rango de fps similares a la frecuencia del monitor o incluso 2 fps por debajo, y cuando te pasas de fps se usa el vsync para evitar tearing.
Precisen o corríjanme si es una patinada. XD
@terriblePICHON

has probado si a 60 fps tambien tiene stuttering? yo es que no juego con monitor nunca me han gustado los monitores por su tamaño son pequeños para mi gusto , me mola mas conectar el pc a una pantalla de 42'' o mayor , la beta la probe a 60fps y no note nada de stuttering con DX11

PD: se que me pierdo una gran experiencia en fluidez , pero doy prioridad al tamaño de la pantalla
@nemor-samaro Yo de 120hz capado a 60 con gsync como digo no tengo problema :/ cada pc es un mundo Xdd
@Inevitable Al capar se supone que ya no pasas de los 60 fps entonces no hace falta el vsync. Si quitas el cap y te coge 200 fps, como tus hz son 120, en teoria habría algo de tearing porque el gsync deja de funcionar al pasar los 120hz. Todo esto lo digo porque me suena haberlo leído en foros. Investígalo y no me hagas caso xD
Notáis el DXR de los coone?
guille15 escribió:Notáis el DXR de los coone?


solo lo notaras en los reflejos ya que en este juego solo esta ahí , pero la perdida de rendimiento esta siempre presente veas o no los reflejos , es una caracteristica de esta tecnologia , se calcula el trazado de rayos en un area mucho mayor que la que se ve en pantalla
@Titán_Salvaje_ He visto un par de vídeos en youtube y la verdad es que la perdida de rendimiento para lo follado que tienes que jugar... Como que es difícil apreciarlo.
@nemor-samaro
El gsync trabaja desde 30 fps hasta la máxima nativa del monitor , pero siempre mínimo dos por debajo, es decir 144 capas a 142 porque no son 144 justos, y el gsync se desactiva al pasar de 144, lo suyo es probar cómo hago yo, empezar sin vsync de ningún tipo e ir capando desde 142 -140-138-136 etc hasta que se quite el tearing en la parte inferior del monitor ( fijaos que el tearing es abajo) que puede ser cualquier valor de fps, no en todos los juegos es en el mismo, y una vez tengo solucionado el tearing , empiezo con el sttutering, pruebo sin nada solo con gsync, luego gsync más vsync del panel, y luego gsync más vsync del juego, en una de los tres está la configuración óptima, pero repito no en todos va igual...

@Titán_Salvaje_
No he probado a 60 fps, no puedo con ello en shooter, me acostumbré a los 120-144 hz y no puedo, y me pasa lo mismo con el tiempo de respuesta, como no sea de 5ms para abajo lo noto en el movimiento del ratón un hueco, por eso no me gustan las TV para jugar shooter, pero ya me pasaba en consola, éramos solo dos los que jugabamos en monitor de todos los colegas, en TV me parecía imposible...
Si tienes un momento y no te importa, pasarme la configuración de la BIOS de ese 8700k a 5.0 que tienes , que yo no soy capaz de bajarlo de 1.36 tengo tú misma placa, pero cuando tenía la Asus que la devolví me era estable a 1.32 pero no sé qué me está jodiendo en la msi, me tiene loco, de hecho en Asus me hacía 4.7 a 1.22 y con esta necesito 1.27 cosas raras de la vida, pero sé que es algo de la BIOS que me está haciendo polvo.
Yo sufría de stuttering en bf1 y en este también en la beta, tenia bajadas repentinas no muy fuertes de fps que el gsync no amortiguaba aunque solo fueran unos 10fps de caída. Hasta que un día no hace mucho me dio por mirar profundamente por Internet y di con una solución en un foro guiri que me funciono, hice lo del siguiente vídeo y el juego ya va fluido sin nada de stuttering https://www.youtube.com/watch?v=2P8SPRkNmcg&list=WL , a mi por lo menos esto si me funciono imagino que dependerá del problema de cada uno.
@terriblePICHON

por suerte la tv que tengo no tiene un input lag muy grande es de solo 14 ms en modo juego , normalmente en las tv's suele ser de 20 ms para arriba


he leido que el short durantion power limit , el long duration power limit y el current limit puede hacer cuello de botella a la hora de hacer overclock

yo lo tengo así

short duration power limit: 4095

long duration power limit: 4095

cpu current limit: 256


y el resto de opciones

OC Explore mode: expert

CPU Ratio apply mode: all Core

CPU Ratio: 50

CPU Ratio mode: dynamic mode

EIST: Enabled

Voltage: Adaptive

core voltage: 1.295 (cuando la carga del procesador sube al 100% se pone a 1.320 es así como he comprobado que es estable al 100% con 8 horas de OCCT y mogollón de horas jugando) el core voltaje lo subo de 5 en 5 hay que tener paciencia pero así me parece la mejor forma de ajustar el oc al maximo , es decir la frecuencia mas alta posible con el voltaje mas bajo posible

Extreme memory profile: enabled

capturas:

Imagen

Imagen

Imagen

la bios no la tengo actualizada por que paso de las mitigaciones contra meltdown y spectre

la temperatura en idle es de unos 25º , al 100% de unos 75º y no lleva delid
@Titán_Salvaje_
Muchas gracias por las fotos , luego lo miro y le pongo lo mismo que tú....ya te comento si va perfecto....
hit está baneado por "Troll"
terriblePICHON escribió:@Titán_Salvaje_
Muchas gracias por las fotos , luego lo miro y le pongo lo mismo que tú....ya te comento si va perfecto....


Cada cpu es un mundo,no digo que no te pueda valer pero yo no lo daria por seguro


Edit:





WTF! Como sea verdad veo suicidios en masa

https://twitter.com/VideoCardz/status/1063469840818679808
nemor-samaro escribió:@Inevitable Al capar se supone que ya no pasas de los 60 fps entonces no hace falta el vsync. Si quitas el cap y te coge 200 fps, como tus hz son 120, en teoria habría algo de tearing porque el gsync deja de funcionar al pasar los 120hz. Todo esto lo digo porque me suena haberlo leído en foros. Investígalo y no me hagas caso xD


Ya ya pero ni de coña llegaría a tantos fps xDD por eso capo a 60 y así tampoco fuerzo a que trabaje mas la gráfica ya que juego en ultra también.
@hit
Como sea cierto , mañana urgencias está lleno....
De ser verdad donde se van a meter los de Nvidia , si al final todo este asunto estaba turbio desde el día del lanzamiento, menos mal que me mantuve frío y no hice la cagada de cambiar la 1080ti....la primera vez que no cambio de generacion....
hit está baneado por "Troll"
terriblePICHON escribió:@hit
Como sea cierto , mañana urgencias está lleno....
De ser verdad donde se van a meter los de Nvidia , si al final todo este asunto estaba turbio desde el día del lanzamiento, menos mal que me mantuve frío y no hice la cagada de cambiar la 1080ti....la primera vez que no cambio de generacion....


No he podido evitar reirme al verlo y eso que la EVGA 2070 esta ya dentro de mi pc pero bueno,a mi no me duele tanto,yo salto de una rx 480 8 gb...
Al parecer están teniendo fallos las 2080 por el PCB cosa que siempre es recomendable darle unos meses para comprarlo para no ser un tester xd... pero bueno a la mayoría le va de lujo.
terriblePICHON escribió:@Titán_Salvaje_
Muchas gracias por las fotos , luego lo miro y le pongo lo mismo que tú....ya te comento si va perfecto....


como dice hit cada cpu es un mundo aunque dijiste que en la Asus conseguiste poner el voltaje a 1.320 a 5 Ghz , en teoria tambien deberias poder hacerlo con la MSI... pero incluso puede haber variaciones en un mismo fabricante , por ejemplo yo he tenido dos MSI Z370 Gaming m5 la primera se jodio y la mande a RMA pero el voltaje que metia a la ram con el xmp era inferior al que mete la que tengo ahora , por eso tengo marcado en DRAM voltaje 1.350

otra cosa que se me olvido comentar las intrucciones AVX las tengo en auto por que no utilizo nada que utilice esas instrucciones , pero hice la prueba de extres con AVX con el Aida64 y la cpu paso de 80º eso ya depende de cada uno si vas a usar esas instrucciones puedes bajar el offset a -3 , -5
Según un usuario de Guru3D, llamado ‘OnnA‘, pudo activar y ejecutar la tecnología RayTracing en su Radeon Vega 64 a una resolución 2K @ 70 FPS con calidad Alta en la primera misión del Modo Campaña, mientras que en el mapa de Rotterdam, que pertenece al modo multijugador, se indica que la tecnología RayTracing es muy inestable.

Read more https://elchapuzasinformatico.com/2018/ ... lefield-v/
hit está baneado por "Troll"
Sir BLaDE escribió:Según un usuario de Guru3D, llamado ‘OnnA‘, pudo activar y ejecutar la tecnología RayTracing en su Radeon Vega 64 a una resolución 2K @ 70 FPS con calidad Alta en la primera misión del Modo Campaña, mientras que en el mapa de Rotterdam, que pertenece al modo multijugador, se indica que la tecnología RayTracing es muy inestable.

Read more https://elchapuzasinformatico.com/2018/ ... lefield-v/


A ver si leemos 4 mensajes mas atras y no repetimos las cosas...que al final uno pone las cosas y no se para que
hit escribió:
Sir BLaDE escribió:Según un usuario de Guru3D, llamado ‘OnnA‘, pudo activar y ejecutar la tecnología RayTracing en su Radeon Vega 64 a una resolución 2K @ 70 FPS con calidad Alta en la primera misión del Modo Campaña, mientras que en el mapa de Rotterdam, que pertenece al modo multijugador, se indica que la tecnología RayTracing es muy inestable.

Read more https://elchapuzasinformatico.com/2018/ ... lefield-v/


A ver si leemos 4 mensajes mas atras y no repetimos las cosas...que al final uno pone las cosas y no se para que

Pues salte a la ultima pagina y me pareció raro que nadie lo comentara por eso lo puse, sorry.
hit está baneado por "Troll"
Sir BLaDE escribió:
hit escribió:
Sir BLaDE escribió:Según un usuario de Guru3D, llamado ‘OnnA‘, pudo activar y ejecutar la tecnología RayTracing en su Radeon Vega 64 a una resolución 2K @ 70 FPS con calidad Alta en la primera misión del Modo Campaña, mientras que en el mapa de Rotterdam, que pertenece al modo multijugador, se indica que la tecnología RayTracing es muy inestable.

Read more https://elchapuzasinformatico.com/2018/ ... lefield-v/


A ver si leemos 4 mensajes mas atras y no repetimos las cosas...que al final uno pone las cosas y no se para que

Pues salte a la ultima pagina y me pareció raro que nadie lo comentara por eso lo puse, sorry.


No te lo tomes a mal pero es que son 3 mensajes mas atras...y ademas es que blog ese es de lo peorcito de hard en nuestro idioma...se limita a linkear el link de twitter que yo pongo...es un fusilador de noticias
@Titán_Salvaje_
En principio solo para jugar , quitando algún juego que lo usé , los normales nunca he tenido problemas,lo raro era que en la Asus lo mantenía perfecto , pero en la msi no sé porque le tengo que meter más.

La temperatura eso sí que va cojonudo, le hice delid nada más sacarlo del blister, ni lo probé de fábrica, en test de esfuerzo máximo 67 grados... Y jugando no pasa de 45, en eso es una gozada...

Ahora que me meteré a tope toda la noche al btv le meto los settings en BIOS y veremos cuantos BSOD me da XD.

Si alguno le apetece darle nos metemos en patrulla rápido...
terriblePICHON escribió:@Titán_Salvaje_
En principio solo para jugar , quitando algún juego que lo usé , los normales nunca he tenido problemas,lo raro era que en la Asus lo mantenía perfecto , pero en la msi no sé porque le tengo que meter más.

La temperatura eso sí que va cojonudo, le hice delid nada más sacarlo del blister, ni lo probé de fábrica, en test de esfuerzo máximo 67 grados... Y jugando no pasa de 45, en eso es una gozada...

Ahora que me meteré a tope toda la noche al btv le meto los settings en BIOS y veremos cuantos BSOD me da XD.

Si alguno le apetece darle nos metemos en patrulla rápido...


ya contaras , llevo con este overclock desde febrero y hasta el momento va como la seda , la prueba de OCCT es infalible al menos los overclock que he hecho con ese programa nunca me han fallado

la verdad que yo sin hacerle delid estoy contento con la temperatura , por ejemplo en el Assassins creed Origins que tira mogollón de cpu no lo he visto pasar de 65º aunque esa teperatura se da en pocas ocasiones normalmente esta a unos 55º , en otros juegos tipo Ghost recon wildlands , The witcher 3 , Destiny 2 50º a lo sumo , pero ahora con la temperatura ambiente de 20º , en pleno verano no me gusta jugar con overclock al Assassins por que tiene picos de 70º
@guille15
ayer lo probé y meh...notas que baja muchos fps, está muy muy verde el tema
Titán_Salvaje_ escribió:
terriblePICHON escribió:@Titán_Salvaje_
En principio solo para jugar , quitando algún juego que lo usé , los normales nunca he tenido problemas,lo raro era que en la Asus lo mantenía perfecto , pero en la msi no sé porque le tengo que meter más.

La temperatura eso sí que va cojonudo, le hice delid nada más sacarlo del blister, ni lo probé de fábrica, en test de esfuerzo máximo 67 grados... Y jugando no pasa de 45, en eso es una gozada...

Ahora que me meteré a tope toda la noche al btv le meto los settings en BIOS y veremos cuantos BSOD me da XD.

Si alguno le apetece darle nos metemos en patrulla rápido...


ya contaras , llevo con este overclock desde febrero y hasta el momento va como la seda , la prueba de OCCT es infalible al menos los overclock que he hecho con ese programa nunca me han fallado

la verdad que yo sin hacerle delid estoy contento con la temperatura , por ejemplo en el Assassins creed Origins que tira mogollón de cpu no lo he visto pasar de 65º aunque esa teperatura se da en pocas ocasiones normalmente esta a unos 55º , en otros juegos tipo Ghost recon wildlands , The witcher 3 , Destiny 2 50º a lo sumo , pero ahora con la temperatura ambiente de 20º , en pleno verano no me gusta jugar con overclock al Assassins por que tiene picos de 70º

nada necesito 1.36 sino se cuelga, no entiendo como con la asus necesitaba menos vcore ....bueno lo dejare a 4.8 y 1.26 que tampoco esta mal....

he probado en dx12 sin lo del future frame ese y va de lujo, sin embargo en dx11 como le quites el future frame bajan los fps que no veas....
Una duda y pequeño offtopic:

¿El modo rendimiento, equilibrado y calidad del panel de Nvidia, es para todos los juegos que ejecute el PC?
Lince1988 escribió:Una duda y pequeño offtopic:

¿El modo rendimiento, equilibrado y calidad del panel de Nvidia, es para todos los juegos que ejecute el PC?

lo puedes poner para todo en general, o cada juego con una confi diferente,añadiendo el .exe del juego...
@ikki1988 Pienso igual... Encima tienes que reiniciar el juego de los coone para ver que se nota y no... y se pierde esa capacidad de poderlo apreciar de primeras.
Saludos.
¿Entonces este juego es más cpu que gpu, no?
Inevitable escribió:¿Entonces este juego es más cpu que gpu, no?

En. comparación con otros si, depende mucho de la CPU, por ejemplo con un i5-2500k a 4.2 hacia cuello de botella
@vocesSPA Puff siempre que es tema de cpu da cosa xDD yo tengo un i7 7700 que llega a 4.1 o asi.. que no es el K y va bien pero si hay momentos en los que rasca. Si hablamos del Odyssey por ejemplo ese juego es de otro mundo x'D el juego mas cpu dependiente que existe y como no tengas muchos nucleos te comes los mocos... cosa que ahí si que sufro [360º]
Inevitable escribió:@vocesSPA Puff siempre que es tema de cpu da cosa xDD yo tengo un i7 7700 que llega a 4.1 o asi.. que no es el K y va bien pero si hay momentos en los que rasca. Si hablamos del Odyssey por ejemplo ese juego es de otro mundo x'D el juego mas cpu dependiente que existe y como no tengas muchos nucleos te comes los mocos... cosa que ahí si que sufro [360º]

que lo tienes en alto? yo tengo un i7 6000 y si ati te rasca....esperemos que mi gtx 970 este a la altura xd
Buenas he activado dx12 y ahora me va mejor incluso puedo ponerlo a 4 k
5276 respuestas