Optimizar oblivion

Bien , seguro que hay 202023367 posts acerca de esto , pero yo no lo encuentro ^_^

Me gustaria saber si hay algun truco o algo similar para optimizar el oblivion PC , ya que cuando me ha cargado unas 10 areas , apartir de ahi , comienza a tirar de cache de disco duro que da gusto , y se muere bastante el pc , hasta el punto de star casi 1 minuto cargando. No es normal... ^^

Me suena de haber visto por ahi algun mod para optimizar las texturas o asi , para que funcione algo mejor en sistemas un poco penoso , os suena de algo?

GRACIAS ;)
En el hilo oficial postearon una web con un montón de información sobre los cambios que puedes aplicar al .ini para mejorar la calidad gráfica y/o el rendimiento. Estuve buscando el link, pero no lo encuentro. De todas formas seguro que está en el hilo oficial.
Gracias , me leere los 10000 post ........ me va a dar un algo [+risas]

De todas formas si alguno sabe ma o menos la pag. en la q puede star q me informe ^^
Va MUY bien quitarle el VSYNC, yo jugaba con el Vsync y se lo quité pa probar, y con los fps que he ahorrado me he comprado mas AA y mas resolucion, y aun asi me va ligeramente mejor.

Enserio pruebalo y ya me comentas.
Sí, a mí el Vsync también me bajaba muchísimo los fps. Otra cosa que me ayudó bastante (que al parecer mejora el rendimiento en casi todas las ATI) es desactivar las sombras en la hierba. Prueba y cuéntanos que tal.
pues es verdad, sin el vsync la cosa va mejor

para que se supone que sirve?
si quitais todas las sombras y la hierba os irá perfecto. Segun la gráfica tambien va bien limitar la distacioa de vision.
Que yo sepa, se encarga de sincronizar la imagen que sale por el monitor con respecto a lo que está trabajando la gráfica en ese mismo momento. Esta sincronización requeire de un refresco muy rápido que resta mucho rendimiento a los juegos.

Básicamente lo que soluciona es ese efecto que sucede de vez en cuando de que la parte más alta de la imagen del monitor y la parte más baja no están sincronizadas y una va un nada más retrasada que la otra. Pero esto solo sucede cuando la cámara se mueve muy rápido, y la sincronización vertical sólo conseguiría que todo fuese a la par del trozo más lento, no sé si se entiende bien...

Por otro lado, la vsync creo que además capa los fps máximos en un videojuego, lo que muchas veces impide una fluidez total.

Que alguien me corrija si me equivoco ^^U.
Reijiko, bien explicado.

En algunos juegos se nota más que en otros, yo lo noto mucho más en juegos "oscuros" o con poca luz, como el FEAR. Si la tienes desactivada, prueba a moverte de lado a lado en una de esas oficinas en las que la luz se apaga y se enciende; acabas teniendo en la parte de arriba del monitor una estantería y en la de abajo media puerta XD
Nadie se lee mis hilos... ¬¬

Vsync + triple búfer = jugar sin tearing sin perder frames.
Reijiko escribió:Básicamente lo que soluciona es ese efecto que sucede de vez en cuando de que la parte más alta de la imagen del monitor y la parte más baja no están sincronizadas y una va un nada más retrasada que la otra. Pero esto solo sucede cuando la cámara se mueve muy rápido, y la sincronización vertical sólo conseguiría que todo fuese a la par del trozo más lento, no sé si se entiende bien...


Bueno, por fin me entero de lo que le pasaba a mi Doom 3... :-p
€ñµff_£ïêßt_Ïkð escribió:Nadie se lee mis hilos... ¬¬

Vsync + triple búfer = jugar sin tearing sin perder frames.



What? xD


Link please
Eso eso, explícanos ese milagro :D
€ñµff_£ïêßt_Ïkð escribió:Echad un ojo AQUÍ y AQUÍ.


puedes hacer un resumen xD?

entonces no vale activar desde los drivers el triple buffer y el Vsync?
Puedo :)

En OGL, basta con activar el tb desde el panel de control del driver. En D3D sin embargo (imagino que Oblivion es D3D, no he jugado aún), el juego ha de estar programado para usar tb.

Si no es el caso, se activa el modo por defecto de directx para el vsync: doble búfer, que tiene ventajas e inconvenientes.

Existe una utilidad para forzar el triple (o incluso cuádruple) búfer en D3D, y es más que recomendable. Se nota muchísimo en FEAR y CoD2, y supongo que también en Oblivion. En los hilos de antes hay explicaciones más exhaustivas y links.

Repito por enésima vez que a este tema se le da mucha menos importancia de la que tiene realmente.
€ñµff_£ïêßt_Ïkð escribió:Puedo :)

En OGL, basta con activar el tb desde el panel de control del driver. En D3D sin embargo (imagino que Oblivion es D3D, no he jugado aún), el juego ha de estar programado para usar tb.

Si no es el caso, se activa el modo por defecto de directx para el vsync: doble búfer, que tiene ventajas e inconvenientes.

Existe una utilidad para forzar el triple (o incluso cuádruple) búfer en D3D, y es más que recomendable. Se nota muchísimo en FEAR y CoD2, y supongo que también en Oblivion. En los hilos de antes hay explicaciones más exhaustivas y links.

Repito por enésima vez que a este tema se le da mucha menos importancia de la que tiene realmente.


que hace ese bufer? fuerza la tarjeta o algo? porque no viene de serie? hace mucho que oigo hablar de el pero como siempre he tenido gráficas petardeantes nunca me he metido con el.

que ventajas tiene el doble buffer? el triple? ¿cuadriple?
Explicación primitiva, ¿va? Que ya es medianoche X-D

Básicamente en el escenario vsync + 2x búfer, se muestra el búfer de color A mientras se dibuja el B; el problema es que uno ha de esperar a que el otro esté listo para que el proceso pueda repetirse, así que al estar la sincronía vertical activada, si el monitor refresca a X hz y la tarjeta gráfica no manda una señal igual o mayor que X, lo que vemos es una disminución drástica de la tasa de fps mostrada. Y cuando digo drástica, me refiero a X/2.

Este modo tiene la ventaja de mostrar tasas de frames muy constantes (si el monitor está a 100hz y la gráfica manda 75 fps, el juego lo veremos a 50 constantes, al menos hasta que la gráfica no pueda mandar 50 o más; entonces se dividirá de nuevo).


En modo vsync + 3x búfer si tenemos 3 bufers de color A, B y C, no hay que esperar para pasar de uno a otro; se puede mostrar el B mientras se dibuja el A. Cuando A está listo, podemos empezar a dibujar en C inmediatamente, así que la gráfica puede mostrar todo lo que sea capaz de mostrar sin tener que esperar a que el monitor esté listo, y a su vez el monitor mantiene la sincronía vertical y no sufrimos del tan molesto "tearing".


No sé por qué no viene activado por defecto, la verdad. El 2x búfer puede ser mejor en unas condiciones muy determinadas (como por ejemplo casos de alta optimización, como en consola), pero en general el 3x es mucho más ventajoso.

En juegos al menos no sirve para nada usar más de 3 bufers.


Espero que haya quedado más o menos claro...

No obstante he explicado esto a petición de Spinaker; lo único que os hace falta es DXTcontrol.
€ñµff_£ïêßt_Ïkð, desde hoy eres mi nuevo Dios [tadoramo][tadoramo][tadoramo][tadoramo]
€ñµff_£ïêßt_Ïkð escribió:Explicación primitiva, ¿va? Que ya es medianoche X-D

Básicamente en el escenario vsync + 2x búfer, se muestra el búfer de color A mientras se dibuja el B; el problema es que uno ha de esperar a que el otro esté listo para que el proceso pueda repetirse, así que al estar la sincronía vertical activada, si el monitor refresca a X hz y la tarjeta gráfica no manda una señal igual o mayor que X, lo que vemos es una disminución drástica de la tasa de fps mostrada. Y cuando digo drástica, me refiero a X/2.

Este modo tiene la ventaja de mostrar tasas de frames muy constantes (si el monitor está a 100hz y la gráfica manda 75 fps, el juego lo veremos a 50 constantes, al menos hasta que la gráfica no pueda mandar 50 o más; entonces se dividirá de nuevo).


En modo vsync + 3x búfer si tenemos 3 bufers de color A, B y C, no hay que esperar para pasar de uno a otro; se puede mostrar el B mientras se dibuja el A. Cuando A está listo, podemos empezar a dibujar en C inmediatamente, así que la gráfica puede mostrar todo lo que sea capaz de mostrar sin tener que esperar a que el monitor esté listo, y a su vez el monitor mantiene la sincronía vertical y no sufrimos del tan molesto "tearing".


No sé por qué no viene activado por defecto, la verdad. El 2x búfer puede ser mejor en unas condiciones muy determinadas (como por ejemplo casos de alta optimización, como en consola), pero en general el 3x es mucho más ventajoso.

En juegos al menos no sirve para nada usar más de 3 bufers.


Espero que haya quedado más o menos claro...

No obstante he explicado esto a petición de Spinaker; lo único que os hace falta es DXTcontrol.


OKA muchas grácias, se agradece la explicación.
descoat: érase una vez una tarjeta gráfica que sufría porque no podía mostrar a su dueño todo lo que era capaz de hacer. El malvado Doublebuffer la obligaba a esperar al monitor. Entonces llegó el poderoso Triplebuffer y con su espada DXTControl decapitó a su pérfido hermano; la tarjeta nunca más tuvo que esperar, y todos fueron felices. ¿Mejor? X-D

hardcrack: me sacas los colores. Me alegro de haber podido ayudar. Es un tema oscuro y espinoso.

SPINAKER: de nada.
Una cosa, en un hilo dices que en ausencia de ATITools para Nvidia... He buscado por todo en el ATITools pero no he encontrado nada del triple buffer...

De momento, me da error con el FEAR instalado, probare a bajarme el DirectX de diciembre, a ver que tal.

salu2
No he tenido nunca una gráfica ATi, así que no tengo forma de decirte dónde está; solamente sé que existe la opción.

Quizá esto te ayude:

Tomshardware escribió:Added "Force Triple Buffer (D3D)" in Game profiles. This option is application depended and can not be enabled as system wide option. To be able to use Direct3D Force Tweaks you must keep enabled "Aggressive 3D Detection" option.


Acaba de salir un dx9 nuevo, por cierto: directx_apr2006_redist.
Vale, confundí el ATI Tool con el Ati Tray Tools xD

EDITO:

En serio eres mi dios! Lo he probado con el FEAR y la mejoría es notable! Falta proabr con el Oblivion a ver que tal se porta... Por cierto, mil gracias también por hacerme descubrir el Ati Tray Tools, es una joya de programa! Le da mil patadas al Ati Tool.

De nuevo --> [tadoramo][tadoramo][tadoramo][tadoramo]
€ñµff_£ïêßt_Ïkð escribió:descoat: érase una vez una tarjeta gráfica que sufría porque no podía mostrar a su dueño todo lo que era capaz de hacer. El malvado Doublebuffer la obligaba a esperar al monitor. Entonces llegó el poderoso Triplebuffer y con su espada DXTControl decapitó a su pérfido hermano; la tarjeta nunca más tuvo que esperar, y todos fueron felices. ¿Mejor? X-D


uff... mucho mas claro, se agradece
€ñµff_£ïêßt_Ïkð escribió:descoat: érase una vez una tarjeta gráfica que sufría porque no podía mostrar a su dueño todo lo que era capaz de hacer. El malvado Doublebuffer la obligaba a esperar al monitor. Entonces llegó el poderoso Triplebuffer y con su espada DXTControl decapitó a su pérfido hermano; la tarjeta nunca más tuvo que esperar, y todos fueron felices. ¿Mejor? X-D




... pero de las profundidades del averno más voraz, asomaba la sombra del procesador, capaz de arrebatar la tierna inocencia de nuestra tarjeta, que no dejaba escapar su sueño idílico por ver aumentados sus FPS mínimos.. pues ella podía. Su pérfido y cruel enemigo de camino ( el procesador, no le dejaba sacar la cabeza como ella quisiera y asomar su linda mirada por el campo de la suavidad y del framerate. Eran tiempos difíciles, con compradores de tarjetas de gama medio- bajas y memos por encima de los 256mb... deseos ardientes de acaparar todas las texturas que su GPU no podían mover, y más si cabe con su pobre y lenta memoria... ( unas lágrimas )

Lejos de acabarse sus problemas, los timings ( por defecto ) de la memoria Ram no casaban muy bien para el chipset que tenía y disminuía drásticamente su visión entrecortándose su tierna mirada.

Para colmo.. unos orcos de programadores, vagaban por las más tórridas desarrolladoras, poniendo las cosas aún peor.


Si por fuera poco, su tio Microsoft gestionaba la cache de una forma tan poco sutil y penosa, que a su pobre sobrinita le faltaba aliento y su mirada se turbaba poco a poco hasta decaer....



Pero seimpre queda la esperanza.... algún día triunfará esta nuestra tarjeta.. más avanzada que todo su penoso equipo de viaje.



FIN




( mejor no??????? )))
29 respuestas