intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos.
vtec16 escribió:intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos.
Pues parece ser que no, por un rollo de los pixeles en el 4k los 1080p se ve como se veria en un monitor 1080p nativo, a ver si algún entendido te lo sabe explicar mejor.
intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos.
leonigsxr1000 escribió:intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos.
Eso depende de lo bien que haga el chip de reescalado la funcion en el monitor o tv....por norma general casi ni te enteras....las teles modernas reescalan muy bien (incluso el 720p).....pero claro el reescalado siempre es "inventarse pixeles".....pero vamos yo juego con la xbox y la ps4 en teles 4k y se ve nuy bien.....pero claro la panacea es poner un juego 4k en una tele o monitor 4k
Soto_ST escribió:leonigsxr1000 escribió:intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos.
Eso depende de lo bien que haga el chip de reescalado la funcion en el monitor o tv....por norma general casi ni te enteras....las teles modernas reescalan muy bien (incluso el 720p).....pero claro el reescalado siempre es "inventarse pixeles".....pero vamos yo juego con la xbox y la ps4 en teles 4k y se ve nuy bien.....pero claro la panacea es poner un juego 4k en una tele o monitor 4k
reescalando de 1080 a 4k no se inventa ningun pixel, multiplica cada píxel por 4 exactamente.
4k es el doble exacto de resolucion vertical y el doble exacto de resolución horizontal, os sea 4 veces 1920x1080
leonigsxr1000 escribió:Multiplica 1920x1080.....y luego multiplica 3840x2160 pixeles.......una imagen 1080p en una tele 4k......se estan inventando pixeles de la imagen original.....se los inventa o multiplica o lo que quieras decir......esta alterando la imagen original de 1920x1080 pixeles......eso es asi aqui y en la china compañero
Todo lo demas que has dicho de 4 veces el 1080p es correcto
eimia escribió:y poner 1080p en un monitor 1440? se ve peor que un monitor nativo a 1080p,no?
khael escribió:Buenas!
Buscando auto regalarme una 980 ti encontré la "Gigabyte GeForce GTX 980 Ti Xtreme", fué amor a primera vista. Aparte por rendimiento los detalles LEDs me encantan para el conjunto del PC.
https://www.youtube.com/watch?v=ZpREe9Hd3Oc
Mi duda ahora viene dada al ver que también hay un modelo refrigerada por agua al mismo precio, ¿ventajas inconvenientes?
Mi otra duda sería que para un poco mas adelante quiero montar un sistema de refrigeración liquida custom y no se si merece la pena el desembolso por esta gráfica para mas tarde abrirla y ponerle el bloque de refrigeración EK Waterblocks que me gusta, o pillarme una mas barata y compensar los 100€ del bloque para gpu...
Que opinión os merece lo que me traigo entre manos?
Un saludo y gracias!
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....
Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....
Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080
logitech888 escribió:leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....
Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080
Calificaríais el salto a 4K como un salto cualitativo similar al de anteriores cambios de época? (320x200 -> 800x600 -> 1920x1080)
Y no me refiero al simple cálculo matemático, sino a la percepción de dicho salto de cara a la experiencia final.
Saludos
Hola compañero! ! , pues hombre....yo definiria el 4k como nitidez absoluta....las imágenes te revelan muchos detalles (sobre todo texturas) que quizas te pierdes con el 1080p y claro se nota mas cuanto mas grande es tu tele o monitor y te pongas a la distancia mas o menos adecuada.....es como una imagen con un super antialising......yo juego en 58" y espero este año pasar a las 65"...logitech888 escribió:leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....
Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080
Calificaríais el salto a 4K como un salto cualitativo similar al de anteriores cambios de época? (320x200 -> 800x600 -> 1920x1080)
Y no me refiero al simple cálculo matemático, sino a la percepción de dicho salto de cara a la experiencia final.
Saludos
Yo siempre he jugado en televisiones grandotas y ahora mismo ya no podria acostumbrarme a un monitor.....para gustos los colores, yo al girar la camara veo el clasico motion blur de las imagenes en movimiento y a mi no me molesta , que no dudo que a 144hz sea mejor, pero 60hz para mi bastan.ciclito escribió:Leo ahora coge esa lara del tomb raider, el witcher 3 que se ve muy bien, o el crysis 3 y compara la diferencia que hay entre una imagen fija, es decir sin mover la cámara y luego en la misma posición con tu personaje parado mueve la cámara manteniéndola rotando 360° hacia la derecha o izquierda de manera continua a una velocidad constante. Te darás cuenta que a mayor velocidad de giro de cámara mayor desenfoque o distorsión en la imagen y que todos esos detalles que veías con la imagen fija ya no los ves simplemente por el desenfoque tan terrible que hay por los 60hz que sólo aguanta el 4k. Aunque tu tv tuviera 1600 hz solo es capaz de reproducir 60hz mientras juegas en 4k. Si a eso le añadimos el input lag de las tv que es bastante elevado vs los monitores y que las tv no poseen modulo g-sync, la experiencia aun se va mas al garete.
Pero claro si no puedes hacer dicha prueba con un monitor de 144hz-165hz con gsync activado haciendo lo mismo para comprobar la diferencia en el desenfoque al repetir la misma operación pues no entenderás bien lo que digo porque hay que verlo para que la información visual llegue a tu cerebro adecuadamente bajo esas diferentes condiciones para ver dichas comparaciones. Fijate si es importante el gsync que si lo desactivo aun manteniendo los 144hz/144fps noto lagueo en la imagen, no concibo jugar sin gsync. Para que te hagas una idea se ve mas fluida la imagen a 100 fps y 144hz con g-sync habilitado que a 144hz/144fps con g-sync off. Entonces imagina como seria a 165hz y g-sync habilitado siempre manteniendo 144/165fps rocosos.
Tu sabes que yo he tenido tv 4k de hasta 65" de mas de 6mil€ y sabes que no la uso para jugar, por algo será no?
Sigo en el monitor que por otro lado debido a su reducido tamaño de 27" la compresión de píxels por centímetro cuadrado de pantalla aún siendo 1440p es mayor que en la tv 4k de 65". Con lo cual el pixel de cerca aun se ve mas pequeño en el monitor. Si a eso le sumas que suelo jugar a 4 o 5k usando dsr pudiendo mantener esos 144hz con gsync activado la diferencia en movimiento es simplemente abismal.
Las tv hoy por hoy son una aberración para jugar como toca. Incluso los monitores 4k debido a esos escasos 60hZ que soportan.
Yo tengo un dell 5k nativo de 60hz ips y adivina para que lo uso... No para jugar precisamente. Sólo para diseño grafico donde la imagen es fija en general y no hay desenfoque.
Yo tengo un oled de 55" y te puedo decir que todo el mundo que tenemos oled hablamos maravillas......no tiene ya nada que ver con los lcd/leds y sus problemas (ghosting, bleeding, clouding, banding etc) ademas la velocidad del pixel es casi instantanea (parecida al plasma) y la mia tiene 37 ms de inputlag, yo juego bien con ella y su colorimetria y contraste esta en el top de la imagen eso si, son muy carosvtec16 escribió:me estais poniendo en dudas .. joder leo las bondades del 144hz con gsync y me iria a este pero con la resolución 4k estoy muy contento y con mis 28" a menos de 1 metro de distancia si paso de 2k a 4k lo noto mucho.
Por otra parte aun le estoy dando vueltas al 21:9 pero claro todo no se puede tener, bueno si hay un 21:9 144hz pero se me va de pasta..
No se si esperar con el 4k tn que tengo a ver si salen los OLED o cambiarlo ya y pasarle el mio a mi mujer..
leonigsxr1000 escribió:Yo tengo un oled de 55" y te puedo decir que todo el mundo que tenemos oled hablamos maravillas......no tiene ya nada que ver con los lcd/leds y sus problemas (ghosting, bleeding, clouding, banding etc) ademas la velocidad del pixel es casi instantanea (parecida al plasma) y la mia tiene 37 ms de inputlag, yo juego bien con ella y su colorimetria y contraste esta en el top de la imagen eso si, son muy carosvtec16 escribió:me estais poniendo en dudas .. joder leo las bondades del 144hz con gsync y me iria a este pero con la resolución 4k estoy muy contento y con mis 28" a menos de 1 metro de distancia si paso de 2k a 4k lo noto mucho.
Por otra parte aun le estoy dando vueltas al 21:9 pero claro todo no se puede tener, bueno si hay un 21:9 144hz pero se me va de pasta..
No se si esperar con el 4k tn que tengo a ver si salen los OLED o cambiarlo ya y pasarle el mio a mi mujer..
La primera vez que ves uno en la oscuridad....con ese negro 0.0 flipassss
EDITO: pido perdon por el offtopics
Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.
Gracias
WiiBoy escribió:Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.
Gracias
la promocion empieza mañana.....
Kensaiken escribió:WiiBoy escribió:Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.
Gracias
la promocion empieza mañana.....
Entro en ella? O si la compras antes no estas dentro? O sabes si dan otro juego? Gracias
loco_desk escribió:Hola!!!
¿Cuanto coil whine aceptáis como tolerable en una G1?
Estoy probándola y tiene un ruido eléctrico muuuy acusado sólo al iniciar los juegos (En principio. Tengo que probarla algo más) tanto con vsync como sin el.
¿Ira desapareciendo el ruido eléctrico, se mantendrá o aumentará? ¿Tramitariais cambio?
Un saludo y gracias
leonigsxr1000 escribió:Una duda tonta chicos.......quiero actualizar drivers (aun tengo los del fallout 4) , es conveniente desactivar el SLI al actualizar? o da lo mismo? muchas gracias.
Gracias amigoociclito escribió:leonigsxr1000 escribió:Una duda tonta chicos.......quiero actualizar drivers (aun tengo los del fallout 4) , es conveniente desactivar el SLI al actualizar? o da lo mismo? muchas gracias.
No hace falta, se te desactivara solo en el proceso y tendrás que volverlo a activar posteriormente a la actualización de dicho driver.
Saludos
WGP Kakashii escribió:yo tengo 2 gigabyte 980 ti g1 y ninguna tiene el problema ese, es cuestio de suerte, tambien te puede pasar en la msi ( creo no lo afirmo jeje ), yo pillaria y si ves q tiene la devuelves y q te la cambien, de todos modos creo q la 1 es mas cara q la 2
leonigsxr1000 escribió:DRIVERS 361.43
Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:
1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?
2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:
"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."
Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???
Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado
ciclito escribió:leonigsxr1000 escribió:DRIVERS 361.43
Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:
1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?
2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:
"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."
Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???
Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado
Pero eso es en gpus diferentes, las tuyas desde el ultimo drivers son las mimas y son el mismo modelo, las g1 gaming si no recuerdo mal. Eso podria pasar en gpus que vayan a clocks base diferentes como la tuya con la extreme que va a 1216mhz. Entonces cuando se utilizan las GPU no idénticas o incluso iguales en el modo SLI, funcionan a diferentes voltajes( por la loteria del silicio que nunca tocan dos exactamente iguales siempre hay una con mas fuga que la otra). Esto se produce porque los relojes de la GPU se mantienen tan parejos como sea posible y el reloj de la que mas ocea de stock está limitado por el de la otra. Uno de los beneficios es que cuanto mas suba la oceadora mas ahorra energía porque baja voltajes y frecuencias para adaptarse a los relojes de la mas vaga y por ende al bajar el voltaje produce menos calor, con lo cual las temps generales disminuiran algo.
ciclito escribió:
Si ahi tienes el paint.
WiiBoy escribió:ciclito escribió:
Si ahi tienes el paint.
Y eso que a sido antes o despues de meterla con hielo en el congelador junto al trofeo mundial de fitness ?
ciclito escribió:leonigsxr1000 escribió:DRIVERS 361.43
Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:
1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?
2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:
"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."
Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???
Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado
Pero eso es en gpus diferentes, las tuyas desde el ultimo driver son las mimas y son el mismo modelo, las g1 gaming si no recuerdo mal.
Eso podria pasar en gpus que vayan a clocks base diferentes como la tuya con la extreme que va a 1216mhz. Entonces cuando se utilizan las GPU no idénticas o incluso iguales en el modo SLI, funcionan casi siempre a diferentes voltajes( por la loteria del silicio que nunca tocan dos exactamente iguales siempre hay una con mas fuga que la otra, es decir una ocea mas que la otra a menores voltajes u ocean parecideo de stock pero necesitan diferentes voltajes para los mismos clocks).En 2 way sli esto se produce porque los relojes de la GPU se mantienen tan parejos como sea posible y el reloj de la que mas ocea de stock está limitado por el de la otra. Uno de los beneficios es que cuanto mas suba la oceadora mas ahorra energía porque baja voltajes y frecuencias para adaptarse a los relojes de la mas vaga y por ende al bajar el voltaje produce menos calor, con lo cual las temps generales disminuiran algo.
WiiBoy escribió:
Y eso que a sido antes o despues de meterla con hielo en el congelador junto al trofeo mundial de fitness ?