[Hilo Oficial] NVIDIA GTX 980 TI

intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos. [oki]


Pues parece ser que no, por un rollo de los pixeles en el 4k los 1080p se ve como se veria en un monitor 1080p nativo, a ver si algún entendido te lo sabe explicar mejor.
ciclito está baneado por "saltarse el ban con clon"
vtec16 escribió:
intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos. [oki]


Pues parece ser que no, por un rollo de los pixeles en el 4k los 1080p se ve como se veria en un monitor 1080p nativo, a ver si algún entendido te lo sabe explicar mejor.


Una imagen nativa 4k convertida a 1080p se ve francamente mal.
intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos. [oki]

Eso depende de lo bien que haga el chip de reescalado la funcion en el monitor o tv....por norma general casi ni te enteras....las teles modernas reescalan muy bien (incluso el 720p).....pero claro el reescalado siempre es "inventarse pixeles".....pero vamos yo juego con la xbox y la ps4 en teles 4k y se ve nuy bien.....pero claro la panacea es poner un juego 4k en una tele o monitor 4k ;)
leonigsxr1000 escribió:
intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos. [oki]

Eso depende de lo bien que haga el chip de reescalado la funcion en el monitor o tv....por norma general casi ni te enteras....las teles modernas reescalan muy bien (incluso el 720p).....pero claro el reescalado siempre es "inventarse pixeles".....pero vamos yo juego con la xbox y la ps4 en teles 4k y se ve nuy bien.....pero claro la panacea es poner un juego 4k en una tele o monitor 4k ;)


reescalando de 1080 a 4k no se inventa ningun pixel, multiplica cada píxel por 4 exactamente.

4k es el doble exacto de resolucion vertical y el doble exacto de resolución horizontal, os sea 4 veces 1920x1080
Soto_ST escribió:
leonigsxr1000 escribió:
intermartin escribió:una duda tonta, ahora que veo que hablais de monitores, si un juego solo tiene un maximo de 1080 y no 4k, en un monitor 4k se veria muy mal?, mas que nada pixeles o graficos mal definidos. [oki]

Eso depende de lo bien que haga el chip de reescalado la funcion en el monitor o tv....por norma general casi ni te enteras....las teles modernas reescalan muy bien (incluso el 720p).....pero claro el reescalado siempre es "inventarse pixeles".....pero vamos yo juego con la xbox y la ps4 en teles 4k y se ve nuy bien.....pero claro la panacea es poner un juego 4k en una tele o monitor 4k ;)


reescalando de 1080 a 4k no se inventa ningun pixel, multiplica cada píxel por 4 exactamente.

4k es el doble exacto de resolucion vertical y el doble exacto de resolución horizontal, os sea 4 veces 1920x1080

Multiplica 1920x1080.....y luego multiplica 3840x2160 pixeles.......una imagen 1080p en una tele 4k......se estan inventando pixeles de la imagen original.....se los inventa o multiplica o lo que quieras decir......esta alterando la imagen original de 1920x1080 pixeles......eso es asi aqui y en la china compañero ;)

Todo lo demas que has dicho de 4 veces el 1080p es correcto :)
y poner 1080p en un monitor 1440? se ve peor que un monitor nativo a 1080p,no?
leonigsxr1000 escribió:Multiplica 1920x1080.....y luego multiplica 3840x2160 pixeles.......una imagen 1080p en una tele 4k......se estan inventando pixeles de la imagen original.....se los inventa o multiplica o lo que quieras decir......esta alterando la imagen original de 1920x1080 pixeles......eso es asi aqui y en la china compañero ;)

Todo lo demas que has dicho de 4 veces el 1080p es correcto :)

No altera la imagen, no hay interpolación ninguna.
No es como pasar de 720 a 1080, el monitor no tiene que inventarse ningún pixel.
Salvo que el monitor aplique alguna tecnica de reescalado -innecesaria siendo múltiplos- una imagen a 1080 debería verse virtualmente igual en un monitor 1080 que en uno 4k.

eimia escribió:y poner 1080p en un monitor 1440? se ve peor que un monitor nativo a 1080p,no?


Ahí si que hay reescalado, así que dependes mucho de lo bien que lo haga tu monitor. Siempre es mejor jugar a la resolución nativa.

Salu2
pues muchas gracias gente, es que hoy en día con la bajada de las tv en 4k, para jugar al pc, y para un futuro monitor 4k, esperemos que salgan rápido las pascal [oki] , ya que estoy dudando ya en dar el salto al 4k viendo los precios que hay y veo que van bajando [oki] , y tenía miedo que al conectar el pc que tengo actual ahora, que solo está preparado para 1080p, en un 4k me tirara muy lento por tema de revolución, ya que mi 660 no aguanta ni 1080p ultra casi [facepalm] .

saludos y muchas gracias a todos, ya tengo menos dudas. [oki]
Buenas!

Buscando auto regalarme una 980 ti encontré la "Gigabyte GeForce GTX 980 Ti Xtreme", fué amor a primera vista. Aparte por rendimiento los detalles LEDs me encantan para el conjunto del PC.

https://www.youtube.com/watch?v=ZpREe9Hd3Oc

Mi duda ahora viene dada al ver que también hay un modelo refrigerada por agua al mismo precio, ¿ventajas inconvenientes?

Mi otra duda sería que para un poco mas adelante quiero montar un sistema de refrigeración liquida custom y no se si merece la pena el desembolso por esta gráfica para mas tarde abrirla y ponerle el bloque de refrigeración EK Waterblocks que me gusta, o pillarme una mas barata y compensar los 100€ del bloque para gpu... :-?

Que opinión os merece lo que me traigo entre manos?

Un saludo y gracias!
khael escribió:Buenas!

Buscando auto regalarme una 980 ti encontré la "Gigabyte GeForce GTX 980 Ti Xtreme", fué amor a primera vista. Aparte por rendimiento los detalles LEDs me encantan para el conjunto del PC.

https://www.youtube.com/watch?v=ZpREe9Hd3Oc

Mi duda ahora viene dada al ver que también hay un modelo refrigerada por agua al mismo precio, ¿ventajas inconvenientes?

Mi otra duda sería que para un poco mas adelante quiero montar un sistema de refrigeración liquida custom y no se si merece la pena el desembolso por esta gráfica para mas tarde abrirla y ponerle el bloque de refrigeración EK Waterblocks que me gusta, o pillarme una mas barata y compensar los 100€ del bloque para gpu... :-?

Que opinión os merece lo que me traigo entre manos?

Un saludo y gracias!


No te puedo hablar de ese modelo en particular pero las que vienen con bloque de agua montado suelen traer bios más tragonas para llegar más lejos en el OC, como la Hydrocopper de EVGA. Si vas a montar liquida yo las veo buena solución, aunque dicen que en general los bloques de EK algo mejores de los que montan los fabricantes.
Lo malo de estas soluciones son el día que la quieras vender usada, la demanda es mucho más limitada ya que no todo el mundo tiene RL Custom, cuando si te compras una refrigerada por aire+bloque EK, siempre podrás volver a montar el disipador original y despacharla de segunda zarpa.
Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....

Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080 ;)
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....

Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080 ;)


Ya ves tío, a disfrutar amigo. :) [beer]

Yo aquí estoy aguantando como un cabrónido jugando a 1440p 60 frames a títulos punteros bajando alguna cosilla, pero ya tengo ganas de pillar una "Pascualita" y darle caña al 4K a 60 frames. :) :Ð
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....

Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080 ;)


Calificaríais el salto a 4K como un salto cualitativo similar al de anteriores cambios de época? (320x200 -> 800x600 -> 1920x1080)
Y no me refiero al simple cálculo matemático, sino a la percepción de dicho salto de cara a la experiencia final.

Saludos
logitech888 escribió:
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....

Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080 ;)


Calificaríais el salto a 4K como un salto cualitativo similar al de anteriores cambios de época? (320x200 -> 800x600 -> 1920x1080)
Y no me refiero al simple cálculo matemático, sino a la percepción de dicho salto de cara a la experiencia final.

Saludos


yo creo que de fullhd a 2k si podria considerarse asi!! a 4k, bajo mi punto de vista lo veo excesivo y no se si tanta apreciacion de salto cualitativo hay de 2k a 4k, por lo que casi veo mas logico y mas representativo saltar de 1080p a 2k.
ciclito está baneado por "saltarse el ban con clon"
La imagen en 4k nativo efectivamente se ve muy bonita y detallada, eso si a imagen fija, en cuanto mueves la cámara del personaje mientras juegas a 60hz hay un desenfoque o blur del carajo.

Yo tuve uno de los primeros monitores 4k antes de que llegaran a Europa, de eso ha llovido bastante ya... y si lo tengo que comparar con mi panel ips actual 1440p con 144hz y gsync en 27" me quedo con este porque la imagen que me da sobre todo en movimiento gracias a la mayor tasa de refresco que posee, vs los 4k, obtengo menor desenfoque y por ende la imagen se percibe mas suave, fluida, detallada y bonita con el plus añadido de que resulta mucho menos cansada y dañina para la vista ( sobre todo para los que jugamos muchas Horas) y da igual el tipo de juego que sea, se nota una barbaridad la diferencia y aun mas con gsync activado. Si mantienes una tasa de fps entre 120 y 144 constantes el desenfoque es mucho menor que a 60hz.

Para que el 4k luzca como toca en juegos necesitas al menos 120hz con gsync y si son mas hz pues aun mejor.

Yo en breve me paso a los 165hz que ya he catado uno y se nota un pelin mas la fluidez vs los 144hz. Con lo cual aun la imagen sera más agradable a la vista y habrá menos distorsión si cabe al mover la cámara mientras juego.

Por otro lado en paneles pequeños de hasta 31" el píxel en un 1440p se ve bastante pequeño a 70-80cm ni lo ves. Además aun puedes hacer supersampling usando dsr hasta 5k con lo que la imagen es aun mas nítida que en 1440p nativo si a eso le sumas que se puede jugar a 4 o 5k a 144hz bajando algún parámetro tienes como resultado una imagen del copón con una fluidez cojonuda y muy poco desenfoque gracias a esa tasa de refresco.

A día de hoy para los que de verdad entienden del tema y lo han probado todo saben que ese es el sweet spot.
logitech888 escribió:
leonigsxr1000 escribió:Llevo ya 2 semanas con el sli de 980ti...y no podria estar mas contento , no he tenido ningun problemas de cuelgues, fallos graficos o cosas raras , va como un tiro y ahora me arrepiento de no haberlo tenido antes jehehe.....

Lo malo supongo que cuando te acostumbras a los 4k 60fps....ya te cuesta volver a 1080 ;)


Calificaríais el salto a 4K como un salto cualitativo similar al de anteriores cambios de época? (320x200 -> 800x600 -> 1920x1080)
Y no me refiero al simple cálculo matemático, sino a la percepción de dicho salto de cara a la experiencia final.

Saludos
Hola compañero! ! , pues hombre....yo definiria el 4k como nitidez absoluta....las imágenes te revelan muchos detalles (sobre todo texturas) que quizas te pierdes con el 1080p y claro se nota mas cuanto mas grande es tu tele o monitor y te pongas a la distancia mas o menos adecuada.....es como una imagen con un super antialising......yo juego en 58" y espero este año pasar a las 65"...

A mi personalmente cuando probé por primera vez el 4k (me acuerdo que fue con el tombraider de pc).....me produjo el mismo "guauuuuu" que al pasar de tele de tubo a tele hdready..... (con el gears of war de xbox360).......me acerque a la pantalla y vi a lara totalmente nitida.....se apreciaban cicatrices, arrugas del pantalon, pliegues etc.....que no apreciaba en 1080p.....y la vegeracion y los arboles eran supernitidos ☺

En mi opinion es el futuro y bienvenido sea .
ciclito está baneado por "saltarse el ban con clon"
Leo ahora coge esa lara del tomb raider, el witcher 3 que se ve muy bien, o el crysis 3 y compara la diferencia que hay entre una imagen fija, es decir sin mover la cámara y luego en la misma posición con tu personaje parado mueve la cámara manteniéndola rotando 360° hacia la derecha o izquierda de manera continua a una velocidad constante. Te darás cuenta que a mayor velocidad de giro de cámara mayor desenfoque o distorsión en la imagen y que todos esos detalles que veías con la imagen fija ya no los ves simplemente por el desenfoque tan terrible que hay por los 60hz que sólo aguanta el 4k. Aunque tu tv tuviera 1600 hz solo es capaz de reproducir 60hz mientras juegas en 4k. Si a eso le añadimos el input lag de las tv que es bastante elevado vs los monitores y que las tv no poseen modulo g-sync, la experiencia aun se va mas al garete.

Pero claro si no puedes hacer dicha prueba con un monitor de 144hz-165hz con gsync activado haciendo lo mismo para comprobar la diferencia en el desenfoque al repetir la misma operación pues no entenderás bien lo que digo porque hay que verlo para que la información visual llegue a tu cerebro adecuadamente bajo esas diferentes condiciones para ver dichas comparaciones. Fijate si es importante el gsync que si lo desactivo aun manteniendo los 144hz/144fps noto lagueo en la imagen, no concibo jugar sin gsync. Para que te hagas una idea se ve mas fluida la imagen a 100 fps y 144hz con g-sync habilitado que a 144hz/144fps con g-sync off. Entonces imagina como seria a 165hz y g-sync habilitado siempre manteniendo 144/165fps rocosos.

Tu sabes que yo he tenido tv 4k de hasta 65" de mas de 6mil€ y sabes que no la uso para jugar, por algo será no?
Sigo en el monitor que por otro lado debido a su reducido tamaño de 27" la compresión de píxels por centímetro cuadrado de pantalla aún siendo 1440p es mayor que en la tv 4k de 65". Con lo cual el pixel de cerca aun se ve mas pequeño en el monitor. Si a eso le sumas que suelo jugar a 4 o 5k usando dsr pudiendo mantener esos 144hz con gsync activado la diferencia en movimiento es simplemente abismal.

Las tv hoy por hoy son una aberración para jugar como toca. Incluso los monitores 4k debido a esos escasos 60hZ que soportan.

Yo tengo un dell 5k nativo de 60hz ips y adivina para que lo uso... No para jugar precisamente. Sólo para diseño grafico donde la imagen es fija en general y no hay desenfoque.
ciclito escribió:Leo ahora coge esa lara del tomb raider, el witcher 3 que se ve muy bien, o el crysis 3 y compara la diferencia que hay entre una imagen fija, es decir sin mover la cámara y luego en la misma posición con tu personaje parado mueve la cámara manteniéndola rotando 360° hacia la derecha o izquierda de manera continua a una velocidad constante. Te darás cuenta que a mayor velocidad de giro de cámara mayor desenfoque o distorsión en la imagen y que todos esos detalles que veías con la imagen fija ya no los ves simplemente por el desenfoque tan terrible que hay por los 60hz que sólo aguanta el 4k. Aunque tu tv tuviera 1600 hz solo es capaz de reproducir 60hz mientras juegas en 4k. Si a eso le añadimos el input lag de las tv que es bastante elevado vs los monitores y que las tv no poseen modulo g-sync, la experiencia aun se va mas al garete.

Pero claro si no puedes hacer dicha prueba con un monitor de 144hz-165hz con gsync activado haciendo lo mismo para comprobar la diferencia en el desenfoque al repetir la misma operación pues no entenderás bien lo que digo porque hay que verlo para que la información visual llegue a tu cerebro adecuadamente bajo esas diferentes condiciones para ver dichas comparaciones. Fijate si es importante el gsync que si lo desactivo aun manteniendo los 144hz/144fps noto lagueo en la imagen, no concibo jugar sin gsync. Para que te hagas una idea se ve mas fluida la imagen a 100 fps y 144hz con g-sync habilitado que a 144hz/144fps con g-sync off. Entonces imagina como seria a 165hz y g-sync habilitado siempre manteniendo 144/165fps rocosos.

Tu sabes que yo he tenido tv 4k de hasta 65" de mas de 6mil€ y sabes que no la uso para jugar, por algo será no?
Sigo en el monitor que por otro lado debido a su reducido tamaño de 27" la compresión de píxels por centímetro cuadrado de pantalla aún siendo 1440p es mayor que en la tv 4k de 65". Con lo cual el pixel de cerca aun se ve mas pequeño en el monitor. Si a eso le sumas que suelo jugar a 4 o 5k usando dsr pudiendo mantener esos 144hz con gsync activado la diferencia en movimiento es simplemente abismal.

Las tv hoy por hoy son una aberración para jugar como toca. Incluso los monitores 4k debido a esos escasos 60hZ que soportan.

Yo tengo un dell 5k nativo de 60hz ips y adivina para que lo uso... No para jugar precisamente. Sólo para diseño grafico donde la imagen es fija en general y no hay desenfoque.
Yo siempre he jugado en televisiones grandotas y ahora mismo ya no podria acostumbrarme a un monitor.....para gustos los colores, yo al girar la camara veo el clasico motion blur de las imagenes en movimiento y a mi no me molesta ;) , que no dudo que a 144hz sea mejor, pero 60hz para mi bastan.

Me parece muy bien que los jugadores profesionales juguen solo en 144hz y lo demas les parezca una mierda, a mi no, es cuestion de gustos amigo.... :)

No utilizo el PC para jugar en linea, (para eso siempre uso las consolas) y con el mando y el inputlag de mis teles me apaño muy muy bien y la verdad que en juegos como gear o halo no se me da nada mal...... ;)
me estais poniendo en dudas .. joder leo las bondades del 144hz con gsync y me iria a este pero con la resolución 4k estoy muy contento y con mis 28" a menos de 1 metro de distancia si paso de 2k a 4k lo noto mucho.
Por otra parte aun le estoy dando vueltas al 21:9 pero claro todo no se puede tener, bueno si hay un 21:9 144hz pero se me va de pasta..
No se si esperar con el 4k tn que tengo a ver si salen los OLED o cambiarlo ya y pasarle el mio a mi mujer..
vtec16 escribió:me estais poniendo en dudas .. joder leo las bondades del 144hz con gsync y me iria a este pero con la resolución 4k estoy muy contento y con mis 28" a menos de 1 metro de distancia si paso de 2k a 4k lo noto mucho.
Por otra parte aun le estoy dando vueltas al 21:9 pero claro todo no se puede tener, bueno si hay un 21:9 144hz pero se me va de pasta..
No se si esperar con el 4k tn que tengo a ver si salen los OLED o cambiarlo ya y pasarle el mio a mi mujer..
Yo tengo un oled de 55" y te puedo decir que todo el mundo que tenemos oled hablamos maravillas......no tiene ya nada que ver con los lcd/leds y sus problemas (ghosting, bleeding, clouding, banding etc) ademas la velocidad del pixel es casi instantanea (parecida al plasma) y la mia tiene 37 ms de inputlag, yo juego bien con ella y su colorimetria y contraste esta en el top de la imagen ;) eso si, son muy caros

La primera vez que ves uno en la oscuridad....con ese negro 0.0 flipassss

EDITO: pido perdon por el offtopics
leonigsxr1000 escribió:
vtec16 escribió:me estais poniendo en dudas .. joder leo las bondades del 144hz con gsync y me iria a este pero con la resolución 4k estoy muy contento y con mis 28" a menos de 1 metro de distancia si paso de 2k a 4k lo noto mucho.
Por otra parte aun le estoy dando vueltas al 21:9 pero claro todo no se puede tener, bueno si hay un 21:9 144hz pero se me va de pasta..
No se si esperar con el 4k tn que tengo a ver si salen los OLED o cambiarlo ya y pasarle el mio a mi mujer..
Yo tengo un oled de 55" y te puedo decir que todo el mundo que tenemos oled hablamos maravillas......no tiene ya nada que ver con los lcd/leds y sus problemas (ghosting, bleeding, clouding, banding etc) ademas la velocidad del pixel es casi instantanea (parecida al plasma) y la mia tiene 37 ms de inputlag, yo juego bien con ella y su colorimetria y contraste esta en el top de la imagen ;) eso si, son muy caros

La primera vez que ves uno en la oscuridad....con ese negro 0.0 flipassss

EDITO: pido perdon por el offtopics


Bueno yo tengo un plasma panasonic de 55" de gama alta y es espectaculo en cuanto a negros pero es 1080p y para jugar por la ubicacion donde tengo el pc tiene que ser monitor y no mas grande de las 28" que tengo ahora aunque si fuera un 21:9 podria creo que irme a 34".
Me siguen tentado mogollon los 21:9 ...
Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.

Gracias
Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.

Gracias


la promocion empieza mañana.....
WiiBoy escribió:
Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.

Gracias


la promocion empieza mañana.....



Entro en ella? O si la compras antes no estas dentro? O sabes si dan otro juego? Gracias
Kensaiken escribió:
WiiBoy escribió:
Kensaiken escribió:Acabo de comprarme una Gigabyte GTX 980 Ti Windforce, quería preguntar si sabéis si Nvidia regala algún juego por ella? Lei que regalaban el Tomb Raider nuevo, pero no tengo ni idea donde descargarlo ni como va el tema.

Gracias


la promocion empieza mañana.....



Entro en ella? O si la compras antes no estas dentro? O sabes si dan otro juego? Gracias



No, a no ser que los de la tienda se enrrollen y te den un codigo.
Si no te lo dieran lo que podrias hacer es cancelar el pedido y pedirla mañana.
@Kensaiken pues hijo creo que si se compra un articulo antes de ponerse en promocion, te comes una mierda xd desde luego si el codigo viene dentro de la caja, lo tienes jodido, si es la tienda la que te lo da, pues preguntales
donde la compraste¿? lo digo por q si es en pccompontes a lo mejor tienes suerte y te dan el codigo si no hace mas de 2 o 3 dias q la compraste claro
La pille en xtremmedia y me llego ayer, les he mandado un mail a ver si se enrollan y me mandan el código del tomb raider o algún juego, con la grafica de 800 euros no venia ninguno :(
Si es como con el Rainbow sólo tienes que poner el número de serie de la tarjeta en un formulario web, yo supongo que sí entrarás en la promoción
Yo me compre una evga 980 ti hybrid hace unos días y no me vino ningún código ni nada por coolmod cuál es esa web para probar haber si me lo dan
creo que no todas las tiendas estan en la promocion, o eso me parece , todas maneras el dia 28 de diciembre me llego mi 980ti y unos dias antes desde amazon me mandaron un email con un codigo para el pack de balas o cuchillas.
Hola!!!
¿Cuanto coil whine aceptáis como tolerable en una G1?
Estoy probándola y tiene un ruido eléctrico muuuy acusado sólo al iniciar los juegos (En principio. Tengo que probarla algo más) tanto con vsync como sin el.
¿Ira desapareciendo el ruido eléctrico, se mantendrá o aumentará? ¿Tramitariais cambio?
Un saludo y gracias ;)
loco_desk escribió:Hola!!!
¿Cuanto coil whine aceptáis como tolerable en una G1?
Estoy probándola y tiene un ruido eléctrico muuuy acusado sólo al iniciar los juegos (En principio. Tengo que probarla algo más) tanto con vsync como sin el.
¿Ira desapareciendo el ruido eléctrico, se mantendrá o aumentará? ¿Tramitariais cambio?
Un saludo y gracias ;)


La mia ha llegado muda,0 Coilwhine.Por contra,rinde un poco por debajo del resto de 980ti comparando mis resultados en benchmarks y me ha salido un poco calentorra.

[bye]
Una duda tonta chicos.......quiero actualizar drivers (aun tengo los del fallout 4) , es conveniente desactivar el SLI al actualizar? o da lo mismo? muchas gracias.
ciclito está baneado por "saltarse el ban con clon"
leonigsxr1000 escribió:Una duda tonta chicos.......quiero actualizar drivers (aun tengo los del fallout 4) , es conveniente desactivar el SLI al actualizar? o da lo mismo? muchas gracias.


No hace falta, se te desactivara solo en el proceso y tendrás que volverlo a activar posteriormente a la actualización de dicho driver.
Saludos
ciclito escribió:
leonigsxr1000 escribió:Una duda tonta chicos.......quiero actualizar drivers (aun tengo los del fallout 4) , es conveniente desactivar el SLI al actualizar? o da lo mismo? muchas gracias.


No hace falta, se te desactivara solo en el proceso y tendrás que volverlo a activar posteriormente a la actualización de dicho driver.
Saludos
Gracias amigoo
Chavales a ver si me echais una mano:

Voy a comprarme una 980 Ti y estoy en duda entre 2 modelos:

- Gigabyte GTX 980 Ti Xtreme Gaming Windforce

- MSI GTX 980 Ti Gaming 6G

De primeras iba a ir por la gigabyte, pero tras leer que pueden venir con ruido electrico me ha echado un poco para atras.. Por contra, es mas potente y mas fresquita que la MSI.

Que opinais?
yo tengo 2 gigabyte 980 ti g1 y ninguna tiene el problema ese, es cuestio de suerte, tambien te puede pasar en la msi ( creo no lo afirmo jeje ), yo pillaria y si ves q tiene la devuelves y q te la cambien, de todos modos creo q la 1 es mas cara q la 2
WGP Kakashii escribió:yo tengo 2 gigabyte 980 ti g1 y ninguna tiene el problema ese, es cuestio de suerte, tambien te puede pasar en la msi ( creo no lo afirmo jeje ), yo pillaria y si ves q tiene la devuelves y q te la cambien, de todos modos creo q la 1 es mas cara q la 2

Sabes si pccomponentes acepta RMA por ruido electrico? Si es asi probare suerte con la gigabyte..
ni idea la verdad nunca he tenido una con este problema, mandales un correo o llamas para preguntar
DRIVERS 361.43

Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:

1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?

2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:

"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."


Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???

Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado :)
ciclito está baneado por "saltarse el ban con clon"
leonigsxr1000 escribió:DRIVERS 361.43

Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:

1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?

2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:

"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."


Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???

Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado :)


Pero eso es en gpus diferentes, las tuyas desde el ultimo driver son las mimas y son el mismo modelo, las g1 gaming si no recuerdo mal.

Eso podria pasar en gpus que vayan a clocks base diferentes como la tuya con la extreme que va a 1216mhz. Entonces cuando se utilizan las GPU no idénticas o incluso iguales en el modo SLI, funcionan casi siempre a diferentes voltajes( por la loteria del silicio que nunca tocan dos exactamente iguales siempre hay una con mas fuga que la otra, es decir una ocea mas que la otra a menores voltajes u ocean parecideo de stock pero necesitan diferentes voltajes para los mismos clocks).En 2 way sli esto se produce porque los relojes de la GPU se mantienen tan parejos como sea posible y el reloj de la que mas ocea de stock está limitado por el de la otra. Uno de los beneficios es que cuanto mas suba la oceadora mas ahorra energía porque baja voltajes y frecuencias para adaptarse a los relojes de la mas vaga y por ende al bajar el voltaje produce menos calor, con lo cual las temps generales disminuiran algo.
ciclito escribió:
leonigsxr1000 escribió:DRIVERS 361.43

Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:

1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?

2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:

"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."


Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???

Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado :)


Pero eso es en gpus diferentes, las tuyas desde el ultimo drivers son las mimas y son el mismo modelo, las g1 gaming si no recuerdo mal. Eso podria pasar en gpus que vayan a clocks base diferentes como la tuya con la extreme que va a 1216mhz. Entonces cuando se utilizan las GPU no idénticas o incluso iguales en el modo SLI, funcionan a diferentes voltajes( por la loteria del silicio que nunca tocan dos exactamente iguales siempre hay una con mas fuga que la otra). Esto se produce porque los relojes de la GPU se mantienen tan parejos como sea posible y el reloj de la que mas ocea de stock está limitado por el de la otra. Uno de los beneficios es que cuanto mas suba la oceadora mas ahorra energía porque baja voltajes y frecuencias para adaptarse a los relojes de la mas vaga y por ende al bajar el voltaje produce menos calor, con lo cual las temps generales disminuiran algo.


Pues es un poco cachondeo, por que en algunas cosas lo hace y en otras no, pero bueno, por lo general se pone en los clocks de la mas vaga.

Encima habia visto videos de que una iba a 1500 y otra a 1400 por poner un ejemplo, dejaban a la vaga como secundaria y parece ser que se ganaba algo de rendimiento respecto a tener ambas a 1400.

Lo que si me he fijado, no se ya si bajara voltaje o no, pero a mismos clocks parece que mantiene la que puede mas con algo menos de carga y quizas de ahi salga ese consumo/temperaturas menor.
Si no siempre puedes cambiar los voltajes con el paint y arreando
ciclito está baneado por "saltarse el ban con clon"
Imagen

...
ciclito escribió:Imagen

Si ahi tienes el paint. [poraki]



Y eso que a sido antes o despues de meterla con hielo en el congelador junto al trofeo mundial de fitness ?
WiiBoy escribió:
ciclito escribió:Imagen

Si ahi tienes el paint. [poraki]



Y eso que a sido antes o despues de meterla con hielo en el congelador junto al trofeo mundial de fitness ?

te olvidas de que atrasa el tiempo de refresco de 1.0 a 10.0 claro asi cualquiera subes a 1700/2200 y haces el bench y no te cuenta cuando peta por que el tiempo de refresco hasta la frecuencia original te tarda .
anda ciclito que te han pillado clarisimamente que no hay VGA que llege por aire a 1600 y por agua es muy dificil . no saltes con el ASIC ya que el asic cuanto mas tienes mas Vcore consume y mas inestable es en el overclocking
ponlo en la web de kingpin cooling que ahi estan todos los Overclockers ya veras que risas se echan.
ciclito escribió:
leonigsxr1000 escribió:DRIVERS 361.43

Muy buenas queria haceros una pregunta, acabo de actualizar y tengo 2 ligeros "cambios" que no se si es por efecto placebo, os comento:

1- En el dragon age inquisition, juego a 4k 60 fps, y aun manteniendo los 60fps al girar la camara tenia un poco de "microsutering", ha sido actualizar los drivers y ha desaparecido........(no he leido nada al respecto en la guia del driver 361.43, de ahi mi duda).......ha sido por el driver?

2- Curiosamente la temperatura de mi SLI a bajado un poco, estando la habitacion a la misma temperatura que ayer y jugando al mismo juego las mismas horas (dragon age 3), tengo 3 grados menos en las graficas.......he leido en la guia del driver y pone esto:

"When non-identical GPUs are used in SLI mode, they may run at different voltages. This
occurs because the GPU clocks are kept as close as possible, and the clock of the higher
performance GPU is limited by that of the other. One benefit is that the higher
performance GPU saves power by running at slightly reduced voltages.
An end-user gains nothing by attempting to raise the voltage of the higher performance
GPU because its clocks must not exceed those of the other GPU."


Entiendo que han bajado un pelin el voltaje en SLI y tengo por eso una leve mejora de la temperatura???

Pues esas 2 dudas, por lo demas este drivers pienso que me ha mejorado :)


Pero eso es en gpus diferentes, las tuyas desde el ultimo driver son las mimas y son el mismo modelo, las g1 gaming si no recuerdo mal.

Eso podria pasar en gpus que vayan a clocks base diferentes como la tuya con la extreme que va a 1216mhz. Entonces cuando se utilizan las GPU no idénticas o incluso iguales en el modo SLI, funcionan casi siempre a diferentes voltajes( por la loteria del silicio que nunca tocan dos exactamente iguales siempre hay una con mas fuga que la otra, es decir una ocea mas que la otra a menores voltajes u ocean parecideo de stock pero necesitan diferentes voltajes para los mismos clocks).En 2 way sli esto se produce porque los relojes de la GPU se mantienen tan parejos como sea posible y el reloj de la que mas ocea de stock está limitado por el de la otra. Uno de los beneficios es que cuanto mas suba la oceadora mas ahorra energía porque baja voltajes y frecuencias para adaptarse a los relojes de la mas vaga y por ende al bajar el voltaje produce menos calor, con lo cual las temps generales disminuiran algo.

Gracias compañero por la clara explicacion y un saludete ;)
WiiBoy escribió:

Y eso que a sido antes o despues de meterla con hielo en el congelador junto al trofeo mundial de fitness ?


[qmparto] A degüello la virgen
3680 respuestas