Aristoteles escribió:Voy aportar mi granito de arena....
Aqui va mi ejemplo:
Tienes una grafica a 550 MHz de core esos 50MHZ te generan al forzar la grafica 15 o 25 grados, segun la termperatura a la que este la grafica porque vaya a 600Mhz no vas a tener mas rendimiento porque ya que como todo necesita una temperatura adecuada para que funcione adecuadamente por lo tanto si lo bajas a 500 sin forzar bajas muchos grados y puedes conseguir una temperatura de trabajo adecucada para alargar la vida de la misma y conseguir un mejor rendimeinto.
Es dificil de entender pero muchas veces porque subas mas las frecuencias no consigues un rendimiento extra si no todo lo contrario, en cambio en otros casos si consigues unos fps extras pero eso si mas calor que hace que la vida de tu grafica dure menos.
Hablo del puro conocimiento provado por mi mismo con diferentes graficas de ordenador.
.
salu2
Ui, escribe con comas, por dios, que me quedo sin aire, casi me ahogas.......
Bueno, si, en la mayoria de los casos, subir la frecuencia de reloj de algunas GPUs o CPUs es practicamente no hacer nada, salvo subirle la temperatura.
Pero una cosa es subirle y otra, muy distinta, es rebajarle, por que no por el hecho de que a mi Ati 96000XT no rinda para un Doom3 al 100%, bajarle el rendimiento no la va a hacer mejor...
Que aqui no hablamos de overclockeo, sino de una rebaja de rendimiento, que si bien no es muy apreciable a corto plazo, a largo plazo seria algo que se echaria en falta....
Ahora si, si se overclockea una GPU o CPU, como minimo, que sea algo digno de ver, y que los ciclos de reloj que se ganan se hagan de notar, no se, en un benchmark de ultima generacion.....
(es como cuando se overclockeaban las Voodoo 3 3000 AGP, donde la GPU trabajaba a 166Mhz, y overclockeandola por soft cualificado podias superar los 200Mhz, pero vamos, la diferencia en aquellos tiempos, era inapreciable)
Como experiencia personal con multitud de tarjetas aceleradoras 3D....