› Foros › Noticias › Tecnología
futuro mad max escribió:darksch escribió:la mejora de movimiento (los llamados 100Hz).
Eso no es una mejora, es interpolado y para juegos es mejor apagarlo
Riwer escribió:Ademas, no solo existen los juegos punteros, y cada vez las graficas son mas potentes. Jugar a 120FPs a juegos del año pasado te lo hace cualquiera de la serie 670 para arriba con el pene.
Y ya algo mas antiguos de 200fps para arriba
destroyerjjbg escribió:Riwer escribió:Ademas, no solo existen los juegos punteros, y cada vez las graficas son mas potentes. Jugar a 120FPs a juegos del año pasado te lo hace cualquiera de la serie 670 para arriba con el pene.
Y ya algo mas antiguos de 200fps para arriba
tu mismo me estas hablando de 300 fps 400 fps en cada mensaje
Ahora me hablas de 45 fps?
Yo y creo que todo el mundo e incluso nvidia que es la que saca la solucion es para problemas de tearing por encima de la tasa de refresco del monitor ya que sus tarjetas las venden para que tengas muchos fps y no pocos y que luego encima tengas problemas
Sobre lo de hsz interpolados y a riesgo de que me salte otro al cuello , yo creo que eso era antiguamente ahora los hzs interpolados llegan a 600hz 800hz y hay LCD y LED de 100-200 hz reales
destroyerjjbg escribió:Otra tecnologia a bombo y platillo . Lo mismo me equivoco pero no venden ya TV LCD y LED de 200 mhz (para 3d).? Es raro que un juego vaya a llegar a los 200 fps mas que nada porque siempre los haran mas "cargados" visualmente para que te compres una nueva grafica.
riwer escribió:Respecto a lo que mencionas, un monitor de 60hz, no te capa el vsync a 30, te lo capa a 60. El V sync precisamente sincroniza el framerate con la frecuencia de tu monitor
mmiiqquueell escribió:MENUDA GILIPOLLEZ saca dinero.
El V-sync te limita el uso de la grafica a la mitad o mas de la mitad en juegos de pocos recursos lo cual consume pocos recursos y dura mas la vida de la grafica. Con este chip la grafica ira a 100% todo el rato y consumira un huevo constantemente y se rompera antes. Muy buena idea NVIDIA, lo que desarrollas para vender mas. Ya por esto me quito la GTX660 y me pillo una AMD Radeon HD 7970 y encima me sobra dinero para otra igual con lo que me costo la 660.
El V-sync aunque la grafica no tenga potencia y no llegue a 60 se limita a 30 Frames y esos 10 -15 Frames extras que lleva sin el V-Sync ya no son consumidos y la grafica no va tan cargada, en juegos como el WOW (en mi caso) se hace de notar, el portatil me aguanta a 20-30 Frames a 65-70ºC pero sin el V-sync sube a 80ºC y el teclado arde y es dificil jugar. (me quemo las manos) En caso de la torre con la GTX660 sube por alli de 70 - 90 frames en la mayoria de juegos como BF3 en ULTRA y la grafica va a tope e incluso con OC del 20% junto a la CPU que lleva turbo activo, con el V-Sync tanto el uso de CPU como GPU se reduce a un 60 -70 % de su uso. La GPU pasa de 1300Mhz a solo 800MHz, y la CPU de 3.8GHz Turbo a 3.2GHz o menos.
mmiiqquueell escribió:MENUDA GILIPOLLEZ saca dinero.
El V-sync te limita el uso de la grafica a la mitad o mas de la mitad en juegos de pocos recursos lo cual consume pocos recursos y dura mas la vida de la grafica. Con este chip la grafica ira a 100% todo el rato y consumira un huevo constantemente y se rompera antes. Muy buena idea NVIDIA, lo que desarrollas para vender mas. Ya por esto me quito la GTX660 y me pillo una AMD Radeon HD 7970 y encima me sobra dinero para otra igual con lo que me costo la 660.
El V-sync aunque la grafica no tenga potencia y no llegue a 60 se limita a 30 Frames y esos 10 -15 Frames extras que lleva sin el V-Sync ya no son consumidos y la grafica no va tan cargada, en juegos como el WOW (en mi caso) se hace de notar, el portatil me aguanta a 20-30 Frames a 65-70ºC pero sin el V-sync sube a 80ºC y el teclado arde y es dificil jugar. (me quemo las manos) En caso de la torre con la GTX660 sube por alli de 70 - 90 frames en la mayoria de juegos como BF3 en ULTRA y la grafica va a tope e incluso con OC del 20% junto a la CPU que lleva turbo activo, con el V-Sync tanto el uso de CPU como GPU se reduce a un 60 -70 % de su uso. La GPU pasa de 1300Mhz a solo 800MHz, y la CPU de 3.8GHz Turbo a 3.2GHz o menos.
DJ_nacho escribió:Pero como se va a calentar más la gráfica si solo tiene que procesar los fps que soporte el monitor?
destroyerjjbg escribió:DJ_nacho escribió:Pero como se va a calentar más la gráfica si solo tiene que procesar los fps que soporte el monitor?
Precisamente por eso amigu nacho. Ahora te puedes comprar monitores de 120 - 140 y mas hz.
Imaginate un juego de ultima generacion corriendo a 120 fps todo el rato. Gasto de luz, calor para la tarjeta y el equipo y menos vida util. Si no esta bien refrigerado tarjeta de pisapapeles.
A lo segundo , tu sigue jugando a consolas a 29 fps si es que llegas en 720p que yo seguire a 60 fps seguros en pc
salu2
destroyerjjbg escribió:1.Si tienes razon . Los tft Lcd , a bajas resoluciones los puedes poner a mas hz. No es el grano del asunto.
2.Confundes. No es el monitor el que gestiona el vsync es la tarjeta grafica.riwer escribió:Respecto a lo que mencionas, un monitor de 60hz, no te capa el vsync a 30, te lo capa a 60. El V sync precisamente sincroniza el framerate con la frecuencia de tu monitor
No se a que te refieres. Si tienes un monitor a 60z y el juego no te llega a los 60 fps el vsync te capa el juego a 30 fps si o si. Luego tendras input lag.
Esas soluciones de virtual vsync, no se a que juegos y en que circustancias se aplican pero me imagino que son muy puntuales y nada confiables.
SI exite la adaptative vsync que se puede configurar en los drivers nvidia
http://www.geforce.com/hardware/technol ... tive-vsync
salu2
destroyerjjbg escribió:A lo del input lag no se a que refieres. Si los monitores los vendieran con mas rango de configuracion en cuanto a hz, solo tendrias que bajar los fps hasta un valor estable y configurar tu monitor en ese valor y ni gsync ni mierdas pa NVIDIA y los fabricantes de monitores.
dj_nacho escribió:Sabes que por ejemplo activando el Vsync y limitando los fps a 59 (o 119 en 120hz), desaparece el input lag a costa de un mínimo tearing.
dj_nacho escribió:Pueds ver mi PC en mi perfil de Steam. Tengo un monitor de 120 Hz y un sli de 570, y bien sea jugando en 3D a 60 fps o en 2D a 120 fps, casi siempre están al 100% de uso y se mantienen en unos 87-90C (al 100% de uso y con OC
destroyerjjbg escribió:bueno no quiero seguir discutiendo
gracias por lo de la caja
salu2
Cavalier escribió:Jode lo que os gusta discutir.... Deberíais saber que todo lo que no sea comentar el post original es trolear. Todos tienen derecho a dar su opinión aunque no tengan ni idea. La verdad resulta evidente para terceros sin tener que gastar post y post en batallas de ego.
Este chacharrito sirve para que cuando le des al ctrl+r en el wow (por ejemplo) tengas 120fps y sincronía vertical y así fardar más. Imagino que el gsync será un framebuffer en el monitor, limitado únicamente por el standard del DP... a 1080p unos 120hz.
Y es una MENTIRA como un castillo eso de que el vsync consume recursos. Publicidad engañosa, solo los capa en lugar de desecharlos. Evidentemente 60fps con Vsync van a consumir algo mas (flops) que 60fps sin vsync. Claro, que al que se ha gastado 2000e en un pc porque le sobra la pasta y se ha ido al pc city a comprarse "lo mas burro", creerá que pasar de 170fps a 60fps por activar el Vsync es porque pesa mucho.
Lo del input lag... en fin más publicidad chorra. Si tienes un monstruo montado de PC, en el que buscas minimizar el input lag y por lo tanto eres un potencial comprador de esta tecnologia, vas a pasar de tener una perdida de 1/60 frames en un segundo, (16ms) a 1/120 fps (8ms). Si tu monitor (de gamer) mete 2ms en electronica, sigue estando muy por debajo del umbral de percepción de 50ms para una actividad entrenada (20ms para los muy profesionales, no creo que para una actividad como los videojuegos se llegue a eso)
Por otro lado, lo de los 60fps es a los 24fps como lo del 1-100Khz a los 20-20kHz en la música. Hay gente que de verdad los percibe (aun hay discusión) pero la gran mayoría solo dice que lo percibe. Antes, con los CRT tenia más sentido el paso de los 50Hz a los 100Hz, al fin y al cabo daba una imagen más constante, pero en un LCD no tiene ningún sentido, más que la mera publicidad (y los que tienen ojos de biónicos).
Conclusión, que garanticen yo que sé, 50fps constantes y sincronizados con monitores de 50Hz, en resolución nativa y todos contentos. Que pasará por hacer buenos drivers y soportes para los motores gráficos en vez de tanta pollada para early-buyer.
Salud!
PD: Jeje, la verdad que con la cantidad de ejemplos de tearing que hay, han puesto uno que no se ve!.
PD2: para evitarme el ataque del trol, los fps salen de la grafica y los Hz salen del monitor y pido disculpas por los errores que haya cometido que no se atengan a esta regla
Dj_Nacho escribió:destroyerjjbg escribió:bueno no quiero seguir discutiendo
gracias por lo de la caja
salu2
No es cuestión de discutir, cuando la gráfica se encuentra al 100% de uso, alcanza su máxima temperatura, da igual si el software corriendo rinde con 10 o 10000 fps.
Dj_Nacho escribió:Estas resumiendo TODO el retardo al creado únicamente por el monitor... En serio informaros del input lag por foros americanos y veréis, los foros de steam mismamente están llenos de temas al respecto.
futuro mad max escribió:Dorigon escribió:No noto la diferencia...
Los videos estan capados a menos de 30FPS y la diferencia se nota menos de lo que es realmente, el de la izquierda cuando gira la pantalla es mucho menos fluido que el de la derecha y de nota bastante, el de la izquierda parece que incluso funcione a saltos entre fotogramas
Lo mas impresionante es que han conseguido esa fluidez (cuando un video de youtube no muestra mas de 30fps), en realidad lo que hace es sincronizar lo que envia la grafica con lo que muestra la pantalla
Los que no son capaces de notar si un juego funciona a 10 o 30fps, o mas, no creo que noten nada la verdadahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable
gracias a este sistema no haria falta usar vsync y el ahorro serviria para tener mas framerate
don pelayo escribió:futuro mad max escribió:Dorigon escribió:No noto la diferencia...
Los videos estan capados a menos de 30FPS y la diferencia se nota menos de lo que es realmente, el de la izquierda cuando gira la pantalla es mucho menos fluido que el de la derecha y de nota bastante, el de la izquierda parece que incluso funcione a saltos entre fotogramas
Lo mas impresionante es que han conseguido esa fluidez (cuando un video de youtube no muestra mas de 30fps), en realidad lo que hace es sincronizar lo que envia la grafica con lo que muestra la pantalla
Los que no son capaces de notar si un juego funciona a 10 o 30fps, o mas, no creo que noten nada la verdadahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable
gracias a este sistema no haria falta usar vsync y el ahorro serviria para tener mas framerate
Tienes ojo biónico, macho, porque yo no he notado nada. Lo gracioso es que se pasan dándole vueltas al de la izquierda como tres minutos. Cuando pasan al otro, cual es mi sorpresa cuando lo veo petardear igual (y ya me he sorprendido notando que no lleva una tasa de frames altas) y la diferencia es nula para mi ojo orgánico, pero es que encima apenas se muestra diez segundos...
futuro mad max escribió:100€ para evitar usar vsync, sin parpadeos, ni movimientos de imagen bruscos, para alguien con una grafica de 30€ no le interesa, para un gamer si
Cavalier escribió:Dj_Nacho escribió:Estas resumiendo TODO el retardo al creado únicamente por el monitor... En serio informaros del input lag por forosde e la grafica americanos y veréis, los foros de steam mismamente están llenos de temas al respecto.
Claro. ¿Dónde te crees que va este cacharro?. ¿Qué crees que es el input lag?
Como veo que sabes americano te pongo un enlace americano. Ojo, no es de un foro americano.
http://en.wikipedia.org/wiki/Input_lag