NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

No sé si se habrá puesto ya por aquí, pero nvidia está trabajando en que el cambio a la serie 2000 merezca la pena de verdad https://www.youtube.com/watch?v=mFSLro_OXLQ
razieljas escribió:¡¡POR FIN!!

Ya tengo la Zotac RTX 2080 Ti AMP! montada.

Os pongo una galería de fotos:

https://imgur.com/a/St3Bv70

He probado el 3DMark y me da 12909 puntos, aunque creo que tener el Gsync activado resta, en TechPowerUp les da 13000 raspados. De sonoridad muy muy bien, no suena más que la EVGA GTX 1080 FTW que tenía y se quedó a 60C durante todo el test.

¿Qué usáis para ver el % de utilización de GPU en los juegos? En el Shadow of the Tomb Raider estoy viendo prácticamente el doble de framerate a 1440p 21:9.

preciosa compañero, pero para ver como rinde en 3dmark hay que hacerlo sin v-sync, si no, estas capando el rendimiento de la grafica, ahora a meterle un buen perfil de ventilacion y pasale el oc scanner a ver hasta donde te sube
Strait escribió:No sé si se habrá puesto ya por aquí, pero nvidia está trabajando en que el cambio a la serie 2000 merezca la pena de verdad https://www.youtube.com/watch?v=mFSLro_OXLQ

Ese vídeo pierde toda la credibilidad en el momento en que no muestra nada en pantalla que pruebe a que gráfica se corresponden esos rendimientos, pueden ser totalmente distintas y sólo tenemos su palabra.
Pero nada, mejor seguir alimentando un bulo de internet que se ha demostrado varias veces ser falso:
https://www.youtube.com/watch?v=GBkGu4Wd7vg
https://www.youtube.com/watch?v=lY7_ujxbdNY
adriano_99 escribió:
Strait escribió:No sé si se habrá puesto ya por aquí, pero nvidia está trabajando en que el cambio a la serie 2000 merezca la pena de verdad https://www.youtube.com/watch?v=mFSLro_OXLQ

Ese vídeo pierde toda la credibilidad en el momento en que no muestra nada en pantalla que pruebe a que gráfica se corresponden esos rendimientos, pueden ser totalmente distintas y sólo tenemos su palabra.
Pero nada, mejor seguir alimentando un bulo de internet que se ha demostrado varias veces ser falso:
https://www.youtube.com/watch?v=GBkGu4Wd7vg
https://www.youtube.com/watch?v=lY7_ujxbdNY


Tampoco me vale que me pongas vídeos de canales que trabajan con marcas (entre ellas nvidia) y que son más medios de propaganda que informativos.
Strait escribió:
adriano_99 escribió:
Strait escribió:No sé si se habrá puesto ya por aquí, pero nvidia está trabajando en que el cambio a la serie 2000 merezca la pena de verdad https://www.youtube.com/watch?v=mFSLro_OXLQ

Ese vídeo pierde toda la credibilidad en el momento en que no muestra nada en pantalla que pruebe a que gráfica se corresponden esos rendimientos, pueden ser totalmente distintas y sólo tenemos su palabra.
Pero nada, mejor seguir alimentando un bulo de internet que se ha demostrado varias veces ser falso:
https://www.youtube.com/watch?v=GBkGu4Wd7vg
https://www.youtube.com/watch?v=lY7_ujxbdNY


Tampoco me vale que me pongas vídeos de canales que trabajan con marcas (entre ellas nvidia) y que son más medios de propaganda que informativos.

Mira los vídeos de linus y como deja en la mierda el lanzamiento de turing y luego me hablas de propaganda.
Te he pasado vídeos de canales precisamente conocidos por imparcialidad y objetividad, a años luz del chapuzas informático del que parece que se cuelga absolutamente todo en este foro.
¿Qué rtx 2080ti es buena en cuanto el número de ventiladores para que disipe mejor el calor? La de Asus, Nvidia...
El Pelanas escribió:¿Qué rtx 2080ti es buena en cuanto el número de ventiladores para que disipe mejor el calor? La de Asus, Nvidia...


asus
Strait escribió:
adriano_99 escribió:
Strait escribió:No sé si se habrá puesto ya por aquí, pero nvidia está trabajando en que el cambio a la serie 2000 merezca la pena de verdad https://www.youtube.com/watch?v=mFSLro_OXLQ

Ese vídeo pierde toda la credibilidad en el momento en que no muestra nada en pantalla que pruebe a que gráfica se corresponden esos rendimientos, pueden ser totalmente distintas y sólo tenemos su palabra.
Pero nada, mejor seguir alimentando un bulo de internet que se ha demostrado varias veces ser falso:
https://www.youtube.com/watch?v=GBkGu4Wd7vg
https://www.youtube.com/watch?v=lY7_ujxbdNY


Tampoco me vale que me pongas vídeos de canales que trabajan con marcas (entre ellas nvidia) y que son más medios de propaganda que informativos.


Con el lanzamiento de Maxwell se dijo la misma historieta, salieron bulos (porque lo eran) y mucho youtuber con pruebas de similar corte diciendo que si se boicoteaban a las kepler con los drivers nuevos.

Pues bien, yo y un colega que anda por otro foro del ramo, empezamos a preguntarnos qué había de cierto o no en dicho rumor, así que ni cortos ni perezosos enfrentamos a nuestras gráficas (él una 780, yo una 970) a pruebas en varios juegos y registrando los datos con FRAPS, usando los mismos parámetros y walkthroughs, etc, y drivers de lanzamiento y justo previos de kepler contra los últimos que había para kepler y maxwell (casi un año después del lanzamiento de maxwell).

¿Qué obtuvimos analizando los datos, por cierto publicados en N3D con desgranado de cada prueba, percentiles, y demás?

Que era la 780 la que más mejoraba con los drivers últimos vs los viejos, no la Maxwell.

¿Qué pasó?, que durante un tiempo se dejó de repetir ese mantra por lo menos en ese foro, pero con el tiempo volvieron a surgir otra vez los bulos y afirmaciones hablando de la "más que demostrada" malevolencia de nvidia boicoteando a las kepler, un "hecho demostrado".

A pesar de que había un bonito hilo en el foro demostrando lo contrario.

El mismo disco, la misma canción:

"El eterno retorno".
Lo cierto es que con los últimos drivers van peor todas las graficas Nvidia, incluidas las Turing
Yo he tenido que volver a drivers anteriores por errores visuales en casi todos los juegos y hasta en el escritorio de windows. Indagando en el foro de nvidia he visto el hilo donde habían puesto ese vídeo, y a más de un usuario diciendo que también lo había notando en los driver 4xx con respecto a los 3xx. No sé qué creer.
the_gooseman escribió:Lo cierto es que con los últimos drivers van peor todas las graficas Nvidia, incluidas las Turing

Eso no es cierto, estuve viendo un vídeo con los fps con los drivers 416.34 hay mejora en todas las gráficas (Pascal y turing) pero en Turing dan problemas por qué están pensados para el RT y para la actualización de Windows 10 de octubre que han retirado, de ahí que den tantos problemas y Haya que volver a los 411.70
Otro que tiene peor rendimiento con los 41x que con los 39x en una 1070TI
razieljas escribió:Una 2080 Ti va a estar de vacaciones a 1080p por mas frame rate que quieras, cosa que tú CPU no va a dar a basto, es tirar el dinero. Además tienes un no K, luego imagino que va a frecuencias nominales, olvídate ya.

Las 2080Ti no son para 1080p.


No entiendo nada lo de que las 2080ti no son para los 1080p.
Yo tengo 3 monitores, pero ahora te voy a hablar de un 4k 60hz y un 1080p 144hz.
Mi tarjeta anterior era una gtx 1080 subida de oc todo lo que se podia.
Cuando utilizaba el 1080p 144hz, en juegos como Evil Whitin 2 jugaba entre 80 y 90fps y muchas opciones graficas en nivel medio, se que este juego no tiene la mejor optimizacion, pero te puedo poner mas juegos de ejemplo, en 4k me olvidaba de jugar.
Ahora con la 2080ti juego con todo en ultra entre 120 y 140fps, una autentica gozada con la suavidad que se mueve y también puedo jugar en 4k bajando algunas cosas con framerate bastante estable entre 50 y 60hz, pero esto es aparte.
Mi procesador es un 5820k subido a 4,2ghz, vamos que todos sabemos que no es el mejor procesador para juegos.
Asi que, que alguien me explique lo de que con una 2080ti no aprovechas un monitor 1080p 144hz y encima comentais que con una 1080 suficiente cuando yo la he tenido y con muchos juegos metiendo detalles altos le costaba llegar a 80fps y ahora con casi cualquiera que pruebo me va a 140 y 160 fps con la punta del...
que alguien me lo explique por que no lo entiendo

EDITO: Es mas, me he dado cuenta que estaba jugando ahora al Evil Whitin 2 con el perfil "light" que tengo con frecuencias 1845mhz para que no me pase de 65º, asi que si le aprieto los fps se irán por encima de los 140 facil.
Tendrá su explicación supongo. También decían lo mismo de una 1070 cuando las lanzaron. "Noooooo si es para 1080p vas sobrado con la 1060" [carcajad]
vtec16 escribió:
razieljas escribió:Una 2080 Ti va a estar de vacaciones a 1080p por mas frame rate que quieras, cosa que tú CPU no va a dar a basto, es tirar el dinero. Además tienes un no K, luego imagino que va a frecuencias nominales, olvídate ya.

Las 2080Ti no son para 1080p.


No entiendo nada lo de que las 2080ti no son para los 1080p.
Yo tengo 3 monitores, pero ahora te voy a hablar de un 4k 60hz y un 1080p 144hz.
Mi tarjeta anterior era una gtx 1080 subida de oc todo lo que se podia.
Cuando utilizaba el 1080p 144hz, en juegos como Evil Whitin 2 jugaba entre 80 y 90fps y muchas opciones graficas en nivel medio, se que este juego no tiene la mejor optimizacion, pero te puedo poner mas juegos de ejemplo, en 4k me olvidaba de jugar.
Ahora con la 2080ti juego con todo en ultra entre 120 y 140fps, una autentica gozada con la suavidad que se mueve y también puedo jugar en 4k bajando algunas cosas con framerate bastante estable entre 50 y 60hz, pero esto es aparte.
Mi procesador es un 5820k subido a 4,2ghz, vamos que todos sabemos que no es el mejor procesador para juegos.
Asi que, que alguien me explique lo de que con una 2080ti no aprovechas un monitor 1080p 144hz y encima comentais que con una 1080 suficiente cuando yo la he tenido y con muchos juegos metiendo detalles altos le costaba llegar a 80fps y ahora con casi cualquiera que pruebo me va a 140 y 160 fps con la punta del...
que alguien me lo explique por que no lo entiendo

EDITO: Es mas, me he dado cuenta que estaba jugando ahora al Evil Whitin 2 con el perfil "light" que tengo con frecuencias 1845mhz para que no me pase de 65º, asi que si le aprieto los fps se irán por encima de los 140 facil.

La 2080ti no se aprovecha bien a 1080p y prueba de ello es que si miras reviews apenas se distancia de la 1080ti a esa resolución.
Esos mismos fps con muy poca variación los podrías sacar a 1440p.
@adriano_99
No estoy de acuerdo del todo y te lo digo porque tuve también una 1080ti durante unos dias y con los ssaa x2 o x4 se ahoga, la 2080ti los aguanta mucho mas holgada. Otra cosa es que en benchs esos lo prueben como les salgan de las pelotas, con opciones graficas mas estandar.
Si le metes todo al maximo se va a notar la diferencia por fuerza bruta de una a otra, por lo menos en mi 5820k pero en el resto siempre que no sea un desproposito de procesador también se tiene que notar.
desde el momento q en 4k saca mas distancia la 2080ti a la 1080ti q en 1080p, es q la grafica la estas desapovechando (escala menos)

aun asi, no me entra en la cabeza q alguien se compre 1 grafica de 1400e para jugar a 1080p
tigretong escribió:desde el momento q en 4k saca mas distancia la 2080ti a la 1080ti q en 1080p, es q la grafica la estas desapovechando (escala menos)

aun asi, no me entra en la cabeza q alguien se compre 1 grafica de 1400e para jugar a 1080p



Se supone que con RTX ON se va a jugar a esa resolución por 1400 euros.
vtec16 escribió:@adriano_99
No estoy de acuerdo del todo y te lo digo porque tuve también una 1080ti durante unos dias y con los ssaa x2 o x4 se ahoga, la 2080ti los aguanta mucho mas holgada. Otra cosa es que en benchs esos lo prueben como les salgan de las pelotas, con opciones graficas mas estandar.
Si le metes todo al maximo se va a notar la diferencia por fuerza bruta de una a otra, por lo menos en mi 5820k pero en el resto siempre que no sea un desproposito de procesador también se tiene que notar.


perdona que me meta pero ssaa es supersampling antialiasing, que significa que el juego se renderiza a mayor resolución para luego sacarla a la resolución de la pantalla nativa, una forma de antialiasing un poco primitiva y similar a lo que hace dsr o escala de resolución, cualquier gpu se va a ahogar con esa configuración, la 2080ti es más holgada porque ese método de antialiasing se beneficia del ancho de banda de la memoria de la gpu.

Generalmente en los benchs no se pone ese tipo de antialiasing por que es lo mismo que subir la resolucion a 1600p en caso de ssaa2x o 2160p en caso de ssaa 4x solo que la mayor parte del tiempo el algoritmo no escala texturas solo geometria y materiales solidos si no pon el rise of the tomb raider a 4K nativos sin ssaa y compara con 1080p nativos con ssaa4x y veras que el rendimiento es casi casi similar.

Date cuenta que ese 2x es como un multiplicador ssaa 2x en 1080 es multiplicar internamente el render del motor grafico que va a la gpu x2 los 2073600 de la resolucion 1080p 16:9 de un solo monitor si usas ssaa2x o x4 veces ese numero de pixeles si usas ssaa4x.

Por eso es que no se usa en benchmarks 4k o 1440p esas configuraciones porque imaginate usar el ssaa4x en 4k que son 8294400 de pixeles, imaginate eso multiplicarlo por 4 (y aparte que estan dejando de usarse en la mayoria de juegos).
Si si a mi tampoco me salen las cuentas eso de pagar 1400 para jugar en un monitor de 100 euros, solo por meter metodos de antialiasing que estan rotos como el ssaa o msaa que ni siquiera son capaces de remover los dientes de sierra de texturas con alpha blending (hierbas, arboles, flora, y similar), y cuando haya juegos que no vengan con esos metodos te toca usar o dsr que aumenta la latencia porque es downsampling via shaders que aparte rinde peor que la resolución nativa ya que usa el metodo de gauss para que la imagen se vea suave y no rara. O te comes el juego con unos dientes horribles y que se ven mal cuando hay distancias o emborronando texturas con el TAA o FXAA que ni el pack de texturas 4K arregla lo horrible que se ve el TAA o FXAA.
tigretong escribió:desde el momento q en 4k saca mas distancia la 2080ti a la 1080ti q en 1080p, es q la grafica la estas desapovechando (escala menos)

aun asi, no me entra en la cabeza q alguien se compre 1 grafica de 1400e para jugar a 1080p

Conozco a varios que con monitores 2k activan el DSR para poner el juego a 4k y ver una imagen cristalina, sin dientes de sierra ni lineas parpadeantes. Según dicen es el mejor antialiasing, aunque para hacer eso te hace falta una tarjeta con mucho músculo, aunque depende del juego.
paco_man escribió:
tigretong escribió:desde el momento q en 4k saca mas distancia la 2080ti a la 1080ti q en 1080p, es q la grafica la estas desapovechando (escala menos)

aun asi, no me entra en la cabeza q alguien se compre 1 grafica de 1400e para jugar a 1080p

Conozco a varios que con monitores 2k activan el DSR para poner el juego a 4k y ver una imagen cristalina, sin dientes de sierra ni lineas parpadeantes. Según dicen es el mejor antialiasing, aunque para hacer eso te hace falta una tarjeta con mucho músculo, aunque depende del juego.


No es lo mismo, pero algo parecido estoy haciendo yo con la mía, si el juego veo que a 1080p la 2080 va sobrada, entonces subo la resolución a 1440p dsr, la imagen se ve mejor y la gráfica, aunque tiene mas carga, todavía va muy suelta. En su día leí que las 2080 eran gráficas que donde brillaban mas era a 1440p, porque sobran a 1080 y no llegan al 4k, el 2k es su resolución y vaya, que por lo que estoy viendo esto se cumple siempre.
vtec16 escribió:@adriano_99
No estoy de acuerdo del todo y te lo digo porque tuve también una 1080ti durante unos dias y con los ssaa x2 o x4 se ahoga, la 2080ti los aguanta mucho mas holgada. Otra cosa es que en benchs esos lo prueben como les salgan de las pelotas, con opciones graficas mas estandar.
Si le metes todo al maximo se va a notar la diferencia por fuerza bruta de una a otra, por lo menos en mi 5820k pero en el resto siempre que no sea un desproposito de procesador también se tiene que notar.

Como ya te han dicho estás usando un antialiasing que básicamente te sube la resolución pero te da peores resultados que la resolución resultantd nativa.
Estás forzando le a usar una potencia bruta que apenas da resultados.
Cómprate un buen monitor 1440p y olvídate de esos AA absurdos, tendrás mayor calidad gráfica y en muchos casos más fps.
Me parece que al final no comprare ningúna tarjeta gráfica xDD

https://www.noticias3d.com/noticia.asp?idnoticia=76038

250€ por algo que rinde como la RTX2070 y gtx1080ti?

Lo que compremos ahora si se confirma todo esto, va a durar 2 años máximo, para entonces tendremos algo bastante bastante mejor, parece que eso si es el salto, tal vez RTX en esta tecnología era lo que querían.

Ayer me dejaban una Gt´x1080ti Founders Edition por 350€ sin garantía, pero ese disipador... es que ni por ese precio, sino fuera por eso la hubiera pillado, sobretodo por no tener ni la garantía del fabricante, porque me dejan otra de gigabyte pero que le pasa lo mismo que no tiene garantía... pero ya son unos precios que te lo puedes plantear, ara... como le pase algo has palmado 350€

La putada ahora es si compras un monitor con g-sync te casas con nvidia, y si es free-sync te casas con AMD... eso no mola...
Letrina escribió:Me parece que al final no comprare ningúna tarjeta gráfica xDD

https://www.noticias3d.com/noticia.asp?idnoticia=76038

250€ por algo que rinde como la RTX2070 y gtx1080ti?

Lo que compremos ahora si se confirma todo esto, va a durar 2 años máximo, para entonces tendremos algo bastante bastante mejor, parece que eso si es el salto, tal vez RTX en esta tecnología era lo que querían.

Ayer me dejaban una Gt´x1080ti Founders Edition por 350€ sin garantía, pero ese disipador... es que ni por ese precio, sino fuera por eso la hubiera pillado, sobretodo por no tener ni la garantía del fabricante, porque me dejan otra de gigabyte pero que le pasa lo mismo que no tiene garantía... pero ya son unos precios que te lo puedes plantear, ara... como le pase algo has palmado 350€

La putada ahora es si compras un monitor con g-sync te casas con nvidia, y si es free-sync te casas con AMD... eso no mola...

Vega también iba a pasarse por el forro a las 1080ti costando la mitad y todos sabemos cómo acabó.
Hasta que no lo vea no me lo creo.
adriano_99 escribió:
Letrina escribió:Me parece que al final no comprare ningúna tarjeta gráfica xDD

https://www.noticias3d.com/noticia.asp?idnoticia=76038

250€ por algo que rinde como la RTX2070 y gtx1080ti?

Lo que compremos ahora si se confirma todo esto, va a durar 2 años máximo, para entonces tendremos algo bastante bastante mejor, parece que eso si es el salto, tal vez RTX en esta tecnología era lo que querían.

Ayer me dejaban una Gt´x1080ti Founders Edition por 350€ sin garantía, pero ese disipador... es que ni por ese precio, sino fuera por eso la hubiera pillado, sobretodo por no tener ni la garantía del fabricante, porque me dejan otra de gigabyte pero que le pasa lo mismo que no tiene garantía... pero ya son unos precios que te lo puedes plantear, ara... como le pase algo has palmado 350€

La putada ahora es si compras un monitor con g-sync te casas con nvidia, y si es free-sync te casas con AMD... eso no mola...

Vega también iba a pasarse por el forro a las 1080ti costando la mitad y todos sabemos cómo acabó.
Hasta que no lo vea no me lo creo.


Nunca dijeron que Vega fuera a costar la mitad, dijo que igualarían rendimiento y lo hicieron, lo que pasa es que con unos consumos y temperaturas... (Que casualmente ahora tienen las 20XX). Y se llevó unos palos tremendos por ello. Además HBM2 supuso una subida de precio por lo que esta vez AMD no pudo competir en precio.

@Letrina ráscale un poco el precio y métele un Accelero, es lo que hice yo con mi HD7970 y contentísimo
albertoooooooooo escribió:
adriano_99 escribió:
Letrina escribió:Me parece que al final no comprare ningúna tarjeta gráfica xDD

https://www.noticias3d.com/noticia.asp?idnoticia=76038

250€ por algo que rinde como la RTX2070 y gtx1080ti?

Lo que compremos ahora si se confirma todo esto, va a durar 2 años máximo, para entonces tendremos algo bastante bastante mejor, parece que eso si es el salto, tal vez RTX en esta tecnología era lo que querían.

Ayer me dejaban una Gt´x1080ti Founders Edition por 350€ sin garantía, pero ese disipador... es que ni por ese precio, sino fuera por eso la hubiera pillado, sobretodo por no tener ni la garantía del fabricante, porque me dejan otra de gigabyte pero que le pasa lo mismo que no tiene garantía... pero ya son unos precios que te lo puedes plantear, ara... como le pase algo has palmado 350€

La putada ahora es si compras un monitor con g-sync te casas con nvidia, y si es free-sync te casas con AMD... eso no mola...

Vega también iba a pasarse por el forro a las 1080ti costando la mitad y todos sabemos cómo acabó.
Hasta que no lo vea no me lo creo.


Nunca dijeron que Vega fuera a costar la mitad, dijo que igualarían rendimiento y lo hicieron, lo que pasa es que con unos consumos y temperaturas... (Que casualmente ahora tienen las 20XX). Y se llevó unos palos tremendos por ello. Además HBM2 supuso una subida de precio por lo que esta vez AMD no pudo competir en precio.

@Letrina ráscale un poco el precio y métele un Accelero, es lo que hice yo con mi HD7970 y contentísimo

Lo que se crítico de Vega fue la relación rendimiento por w la cual no llegaba a competir ni con Maxwell y por más que repitais algunos lo contrario turing tiene mejor rendimiento por w que pascal.
@adriano_99 tampoco he dicho que no tenga mejor rendimiento por W, he dicho que ha aumentado al nivel de Vega. De todas maneras el objetivo debería ser mejorar rendimiento y bajar consumo, a ver con los 7nm de Navi en que queda y si esto se cumple.
@adriano_99
Monitor 1440p tengo, un LG 21:9 3440x1440 ips 60hz. Como había comentado tengo 3 monitores pero parece que para poder tener una 2080ti tengas que tener un 4k y jugar a 60hz (con suerte) y no lo digo por ti pero si por muchos comentarios que se leen aqui y que si tienes un 1080p de 144hz es una locura utilizarlo en una 2080ti..
Al igual que el que dice que un monitor 1080p cuesta 100€. Yo tengo un Samsung Qled que cuesta 270€ de 23.5 y se ve muy bien y seguramente sea mejor monitor que muchos 2k que hay por ahí.
Creo que todo no es ni blanco ni negro hay otra gama de colores.
La 2080ti va a tirar siempre mas que cualquier grafica en 1080p 144hz, siempre, y no hace falta meter un saax4. Otra cosa es que en proporción no le saques tanto provecho, puedes hacer undervolt bajar un poco las frecuencias y que no te pase de 60°, es otra forma de aprovechar esa potencia extra.
Letrina escribió:Me parece que al final no comprare ningúna tarjeta gráfica xDD

https://www.noticias3d.com/noticia.asp?idnoticia=76038

250€ por algo que rinde como la RTX2070 y gtx1080ti?

Lo que compremos ahora si se confirma todo esto, va a durar 2 años máximo, para entonces tendremos algo bastante bastante mejor, parece que eso si es el salto, tal vez RTX en esta tecnología era lo que querían.

Ayer me dejaban una Gt´x1080ti Founders Edition por 350€ sin garantía, pero ese disipador... es que ni por ese precio, sino fuera por eso la hubiera pillado, sobretodo por no tener ni la garantía del fabricante, porque me dejan otra de gigabyte pero que le pasa lo mismo que no tiene garantía... pero ya son unos precios que te lo puedes plantear, ara... como le pase algo has palmado 350€

La putada ahora es si compras un monitor con g-sync te casas con nvidia, y si es free-sync te casas con AMD... eso no mola...

En la noticia pone que no salen hasta el tercer trimestre del próximo año, y a ver cómo rinden en realidad... Hasta entonces, Nvidia haciendo dólares [facepalm]
Pascal lo que tiene para mi sin dudas es la mejor relación precio-rendimiento-consumo. Cuando las turing bajen de precio, que es algo que algún día tendrá que pasar aunque sea cuando salga la nueva generación, entonces deberían coronarse en eso (mas que nada porque tiene pinta de que esa nueva generación milagrosa no será, o sea, al principio tendrán un precio mas elevado del que tendrán ellas mismas a su vez mas adelante y para cuando eso pase las pascal ya todas serán de segunda mano).

A estas alturas queda también bastante claro que las pascal en todo han sido la mejor generación que ha sacado Nvidia en toda su historia. Y es que después de algo así es bastante difícil igualarlo, mas si además lo que se quiere meter son cosas que hasta ese momento no han salido nunca de un laboratorio.
vtec16 escribió:@adriano_99
Monitor 1440p tengo, un LG 21:9 3440x1440 ips 60hz. Como había comentado tengo 3 monitores pero parece que para poder tener una 2080ti tengas que tener un 4k y jugar a 60hz (con suerte) y no lo digo por ti pero si por muchos comentarios que se leen aqui y que si tienes un 1080p de 144hz es una locura utilizarlo en una 2080ti..
Al igual que el que dice que un monitor 1080p cuesta 100€. Yo tengo un Samsung Qled que cuesta 270€ de 23.5 y se ve muy bien y seguramente sea mejor monitor que muchos 2k que hay por ahí.
Creo que todo no es ni blanco ni negro hay otra gama de colores.
La 2080ti va a tirar siempre mas que cualquier grafica en 1080p 144hz, siempre, y no hace falta meter un saax4. Otra cosa es que en proporción no le saques tanto provecho, puedes hacer undervolt bajar un poco las frecuencias y que no te pase de 60°, es otra forma de aprovechar esa potencia extra.

Bueno, mi opinión sigue siendo que no tiene sentido pero allá cada uno obviamente.

albertoooooooooo escribió:@adriano_99 tampoco he dicho que no tenga mejor rendimiento por W, he dicho que ha aumentado al nivel de Vega. De todas maneras el objetivo debería ser mejorar rendimiento y bajar consumo, a ver con los 7nm de Navi en que queda y si esto se cumple.

Tampoco es cierto desde el momento en que la inmensa mayoría de compañeros del foro que tienen turing simplemente ajustando un poco la curva de ventiladores no llegan a los 70 grados.
No hay ni punto de comparación entre als temperaturas de turing y las de vega.
adriano_99 escribió:
vtec16 escribió:@adriano_99
Monitor 1440p tengo, un LG 21:9 3440x1440 ips 60hz. Como había comentado tengo 3 monitores pero parece que para poder tener una 2080ti tengas que tener un 4k y jugar a 60hz (con suerte) y no lo digo por ti pero si por muchos comentarios que se leen aqui y que si tienes un 1080p de 144hz es una locura utilizarlo en una 2080ti..
Al igual que el que dice que un monitor 1080p cuesta 100€. Yo tengo un Samsung Qled que cuesta 270€ de 23.5 y se ve muy bien y seguramente sea mejor monitor que muchos 2k que hay por ahí.
Creo que todo no es ni blanco ni negro hay otra gama de colores.
La 2080ti va a tirar siempre mas que cualquier grafica en 1080p 144hz, siempre, y no hace falta meter un saax4. Otra cosa es que en proporción no le saques tanto provecho, puedes hacer undervolt bajar un poco las frecuencias y que no te pase de 60°, es otra forma de aprovechar esa potencia extra.

Bueno, mi opinión sigue siendo que no tiene sentido pero allá cada uno obviamente.

albertoooooooooo escribió:@adriano_99 tampoco he dicho que no tenga mejor rendimiento por W, he dicho que ha aumentado al nivel de Vega. De todas maneras el objetivo debería ser mejorar rendimiento y bajar consumo, a ver con los 7nm de Navi en que queda y si esto se cumple.

Tampoco es cierto desde el momento en que la inmensa mayoría de compañeros del foro que tienen turing simplemente ajustando un poco la curva de ventiladores no llegan a los 70 grados.
No hay ni punto de comparación entre als temperaturas de turing y las de vega.


Una Vega64 con ventiladores por defecto no pasa de 75° en las review, como las 2080ti.
Imagen

Hazle una curva y verás como tampoco llega a los 70.
Buenas! Alguien me puede guiar o dar unos consejos/nociones para hacerle una curva de temperatura a una msi rtx 2080 ti gaming x trio? Gracias
@Tecmok es ir haciendo pruebas y test de estrés. Lanza el test con el ventilador a X revs y comprueba temps. Si quieres bajarlas, aumentas, etc... O al revés lanza test y comprueba hasta que temp máxima llega. Y luego lo lanzas poniendo otras revs.

Saludos!
albertoooooooooo escribió:
Una Vega64 con ventiladores por defecto no pasa de 75° en las review, como las 2080ti.
Imagen

Hazle una curva y verás como tampoco llega a los 70.

75 grados es una barbaridad para una de las custom tochas, es mas o menos como las turing founders y eso que son de las peores.
No hay punto de comparación.
adriano_99 escribió:
albertoooooooooo escribió:
Una Vega64 con ventiladores por defecto no pasa de 75° en las review, como las 2080ti.
Imagen

Hazle una curva y verás como tampoco llega a los 70.

75 grados es una barbaridad para una de las custom tochas, es mas o menos como las turing founders y eso que son de las peores.
No hay punto de comparación.


Hombre hay 2 grados de diferencia contra el mismo modelo tope de gama...
Imagen
albertoooooooooo escribió:
adriano_99 escribió:
albertoooooooooo escribió:
Una Vega64 con ventiladores por defecto no pasa de 75° en las review, como las 2080ti.
Imagen

Hazle una curva y verás como tampoco llega a los 70.

75 grados es una barbaridad para una de las custom tochas, es mas o menos como las turing founders y eso que son de las peores.
No hay punto de comparación.


Hombre hay 2 grados de diferencia contra el mismo modelo tope de gama...
Imagen

No seas tramposo comparándolo con el modo silencioso cuando el modo de rendimiento se pone 12 grados por debajo.
En modo performance donde se pone a 63 grados lo hace con 31 dB de ruido mientras que la vega para ponerse a 75 grados llega a los 38,3dB.
Y ya ni comparemos con el modo silencioso donde se queda en 29 db.
Es decir la vega necesita ser varias veces mas ruidosa para estar sólo 12 grados pro encima.
@adriano_99 no son trampas, es el modo por defecto y con el que se ha hecho la comparativa. Entiendo que para la vega es lo mismo, pero no se indica en ninguna de los bench. Aún asi, son los valores que recordaba y no se van tanto como tu quieres hacer creer. La temperatura ha subido una barbaridad en la serie 20 quieras o no, pese a que haya aumentado el rendimiento.

Por otra parte, he visto que asus está sacando versiones "Advanced edition" de sus gráficas, están en pccomponentes por ejemplo. ¿Alguien sabe las diferencias con el modelo normal?"
albertoooooooooo escribió:@adriano_99 no son trampas, es el modo por defecto y con el que se ha hecho la comparativa. Entiendo que para la vega es lo mismo, pero no se indica en ninguna de los bench. Aún asi, son los valores que recordaba y no se van tanto como tu quieres hacer creer. La temperatura ha subido una barbaridad en la serie 20 quieras o no, pese a que haya aumentado el rendimiento.

Por otra parte, he visto que asus está sacando versiones "Advanced edition" de sus gráficas, están en pccomponentes por ejemplo. ¿Alguien sabe las diferencias con el modelo normal?"

Antes decías que estaban al nivel de vega en temperaturas, ahora han subido una barbaridad ( obviamente sin especificar).
Aquí tienes las temperaturas de la misma asus strix pero de 1080ti:
Imagen
64 grados de stock y 67 con OC.
Hay mas del triple de diferencia entre turing y vega que entre pascal y turing pero tu erre que erre.
Que la realidad no te chafe el discurso [oki]
De verdad se ha llegado al punto de defender que las serie 2000 no consumen tanto? [facepalm]
@adriano_99 con esa gráfica solo confirmas lo que yo he dicho, que la 2080ti es unos 8-9° más caliente que una 1080ti, te das cuenta? Para mi eso es una subida bastante alta, pero bueno...todos a bailar al son de Nvidia... Para mi decir que 2° de diferencia es poder decir que están al mismo nivel de temperatura (cosa que no pasaba con la 1080ti que se quedaba a más de 10°)

Mayban36 escribió:De verdad se ha llegado al punto de defender que las serie 2000 no consumen tanto? [facepalm]


Si hijo si... Parece que sean las gráficas mas frescas y eficientes del mundo...
albertoooooooooo escribió:@adriano_99 con esa gráfica solo confirmas lo que yo he dicho, que la 2080ti es unos 8-9° más caliente que una 1080ti, te das cuenta? Para mi eso es una subida bastante alta, pero bueno...todos a bailar al son de Nvidia... Para mi decir que 2° de diferencia es poder decir que están al mismo nivel de temperatura (cosa que no pasaba con la 1080ti que se quedaba a más de 10°)

Mayban36 escribió:De verdad se ha llegado al punto de defender que las serie 2000 no consumen tanto? [facepalm]


Si hijo si... Parece que sean las gráficas mas frescas y eficientes del mundo...

Pero tío, que dejes de ignorar lo datos que no te dan la razón!!!!
No puedes simplemente usar el dato mas elevado correspondiente a un modo centrado en hacer el mínimo de ruido posible y quedarte tan pancho cuando tienes el modo rendimiento que la deja 10 grados mas bajos.
En fin, paso, tienes tu discurso que vas a repetir una y otra vez te pongan las pruebas que te pongan.
Ni te molestes, directo a ignorados.
adriano_99 escribió:
albertoooooooooo escribió:@adriano_99 con esa gráfica solo confirmas lo que yo he dicho, que la 2080ti es unos 8-9° más caliente que una 1080ti, te das cuenta? Para mi eso es una subida bastante alta, pero bueno...todos a bailar al son de Nvidia... Para mi decir que 2° de diferencia es poder decir que están al mismo nivel de temperatura (cosa que no pasaba con la 1080ti que se quedaba a más de 10°)

Mayban36 escribió:De verdad se ha llegado al punto de defender que las serie 2000 no consumen tanto? [facepalm]


Si hijo si... Parece que sean las gráficas mas frescas y eficientes del mundo...

Pero tío, que dejes de ignorar lo datos que no te dan la razón!!!!
No puedes simplemente usar el dato mas elevado correspondiente a un modo centrado en hacer el mínimo de ruido posible y quedarte tan pancho cuando tienes el modo rendimiento que la deja 10 grados mas bajos.
En fin, paso, tienes tu discurso que vas a repetir una y otra vez te pongan las pruebas que te pongan.
Ni te molestes, directo a ignorados.


He usado los datos que has puesto tu, así que no te vengas arriba. Todos los modelos si le pones los ventiladores al 100% también bajan las temperaturas. Ni que hubiera hecho yo la review, no te jode. Además que desde un principio solo he indicada que habian subido las temp y consumo como las subió Vega en su día. Ahora parece que es normal 400W en una 2080ti pero inasumible en una Vega. A mí personalmente me la pela porque tengo una fuente de 1250W, solo ha sido un comentario. Además que en profesionaReview, por usar la misma web que has puesto tu indican 69° (no 63 como tu dices de 10° de diferencia). Cada web da unas temperaturas, usa las que a ti más te guste para dormir tranquilo defendiendo tu gráfica favorita
vtec16 escribió:@adriano_99
Monitor 1440p tengo, un LG 21:9 3440x1440 ips 60hz. Como había comentado tengo 3 monitores pero parece que para poder tener una 2080ti tengas que tener un 4k y jugar a 60hz (con suerte) y no lo digo por ti pero si por muchos comentarios que se leen aqui y que si tienes un 1080p de 144hz es una locura utilizarlo en una 2080ti..
Al igual que el que dice que un monitor 1080p cuesta 100€. Yo tengo un Samsung Qled que cuesta 270€ de 23.5 y se ve muy bien y seguramente sea mejor monitor que muchos 2k que hay por ahí.
Creo que todo no es ni blanco ni negro hay otra gama de colores.
La 2080ti va a tirar siempre mas que cualquier grafica en 1080p 144hz, siempre, y no hace falta meter un saax4. Otra cosa es que en proporción no le saques tanto provecho, puedes hacer undervolt bajar un poco las frecuencias y que no te pase de 60°, es otra forma de aprovechar esa potencia extra.


60C me da a mi escupiendo 120fps a 3440x1440 en ultra, a 1080p se estará echando la siesta.
Strait escribió:Yo he tenido que volver a drivers anteriores por errores visuales en casi todos los juegos y hasta en el escritorio de windows. Indagando en el foro de nvidia he visto el hilo donde habían puesto ese vídeo, y a más de un usuario diciendo que también lo había notando en los driver 4xx con respecto a los 3xx. No sé qué creer.


Es que son dos cosas distintas, de hecho muy distintas, la mayoría de problemas de artefactos se deben a dos tipos de razones:

1.- Nuevas optimizaciones para aumentar el rendimiento con ciertas técnicas pero con fallos de implementación temprana.

2.- Aumento de rendimiento general que puede hacer que una tarjeta "estable" deje de serlo (normalmente con OC por el usuario, pero incluso pasa con modelos de serie, sobre todo si llevan OC de fábrica).


Y no ya contestando sólo a ti, sino en general.

Las acusaciones como éstas se deben hacer con datos reales y analíticos (yo los hice en su momento, cuando surgió el mito), no con impresiones, porque incluso el mismo rendimiento puede parecer "peor" si te dicen por distintos lugares que ha empeorado, porque aumentarás tu sensibilidad a cualquier amago de stuttering e identificarlos y verás cosas que no veías antes. Y si no, felicidades, tienes una subjetividad muy neutral, pero para ser objetivo hay que dudar incluso de tu propia neutralidad, por mucho que uno se obligue a "no dejarse llevar" y "ser justo" con las experiencias subjetivas y demás sensaciones.

Yo no he notado ni un mínimo cambio, ni para bien, ni para mal, pero es mi impresión subjetiva, con los juegos que uso y la forma en que lo tengo todo configurado, de la misma forma, alguien que tenga y sufra el problema de un bug de rendimiento con un particular juego que es el que usa él, digamos como ejemplo en exclusiva, para él el problema será uno de rendimiento general. Y viceversa, para el que recibe optimizaciones y mejoras en el juego que usa, y llega a notarlo, estos drivers son la repanocha y buenísimos, aunque sea sólo una mejora en un juego entre miles, y por minoritario que sea (pero no para él, que es lo que cuenta en la subjetividad).

Saludos.


albertoooooooooo escribió: ............Además que desde un principio solo he indicada que habian subido las temp y consumo como las subió Vega en su día. Ahora parece que es normal 400W en una 2080ti pero inasumible en una Vega. A mí personalmente me la pela porque tengo una fuente de 1250W, solo ha sido un comentario. Además que en profesionaReview, por usar la misma web que has puesto tu indican 69° (no 63 como tu dices de 10° de diferencia). Cada web da unas temperaturas, usa las que a ti más te guste para dormir tranquilo defendiendo tu gráfica favorita


1.- Las temperaturas depende del sistema de disipación usado, no sólo del consumo. Si hablamos de consumo se habla de él separado, como dato objetivo, pero no se mezcla el tema cuando hay X variantes de cada modelo con disipadores distintos y a la hora de comparar genéricamente Vega y Turing resulta que se puede escoger, para el interés de cada cual, un disipador mejor o peor para llevarse la razón.

2.- La diferencia entre Vega y las GT102 está en un rendimiento soberanamente mayor, con el mismo consumo. Así que sí, hay una eficiencia mucho mayor en las Turing en ese sentido. Porque la eficiencia se mide en fps/W, no en W.

De nada me sirve tener una tarjeta que consume muy poco si después va a 1-2 fps frente a otra que consume el doble pero va a 60 fps, como ejemplo extremo.

¿Porqué es escandaloso el consumo de Vega?, porque da el rendimiento de un GP104, consumiendo mucho más (<fps/W), y aún por encima salió a posteriori, cuando lo normal en un mercado es que de productos posteriores a uno referencia para los demás es que se superen sus cualidades, que no ha sido en absoluto el caso.
wwwendigo escribió:¿Porqué es escandaloso el consumo de Vega?, porque da el rendimiento de un GP104, consumiendo mucho más (<fps/W), y aún por encima salió a posteriori, cuando lo normal en un mercado es que de productos posteriores a uno referencia para los demás es que se superen sus cualidades, que no ha sido en absoluto el caso.


El fallo de Vega fue que vienen horriblemente optimizadas de fábrica en cuanto a bios y voltaje asignado.

Pasan de 1.2v de stock, y por ello se dispara el consumo, temperaturas y baja rendimiento por superar TDP y thermal trottling.

Por lo que he leído aquí en el foro y en N3D, más del 90% de Vega permiten un Undervolt de -0,1v

Con ello se consigue, que manteniendo la gráfica a 1.1v en carga, el boost es mayor (de 1400 de stock a 1600), menores temperaturas y menor consumo.

Al final, queda en un rendimiento muy similar a la 1080, juego arriba juego abajo, por un consumo igualmente parecido a esta.

Claro que ya estamos hablando que tiene que ser un usuario que se entere del tema y aplique estas medidas para corregir la cagada de AMD. Un usuario que pinche y se olvide del tema, quedará muy decepcionado.
Acabo de ver en Twitter promoción de las GTX, 1060,1070 y 1070ti llevarán de regalo el Monster Hunter

https://www.nvidia.com/es-es/geforce/ca ... 0003831033
Buenas, señores para los que la tenga la 2080 Ti.

¿Se puede jugar a todos los juegos a 4K@60Hz sin bajadas?

Me estoy planteando comprar una.
joseanime16 escribió:Buenas, señores para los que la tenga la 2080 Ti.

¿Se puede jugar a todos los juegos a 4K@60Hz sin bajadas?

Me estoy planteando comprar una.

Assassins Creed origin y Odyssey, si, sin bajadas, tomb raider nuevo si, sin bajadas, Forza Horizon si, sin bajadas, final fantasy 15, bueno, este ni con sli de 2080ti, lo mueves sin bajadas, pero si, se puede a 60 FPS en el 95% del juego en ultra y sin bajadas, y del resto pues 60 FPS en ultra tocándose los eggs, por ejemplo COD black ops 3 multijugador, 4k 60 FPS y la gráfica solo al 55% de la carga gráfica, vamos es un monstruo ( bueno, todo esto con oc a 2040 MHz y 7800 MHz en memorias, lo normal en las 2080ti) en el 90% de los juegos actuales los vas a poder jugar a 4k ultra estables, quedando algún cutreport como el ff 15, es acojonante como se ve en tomb raider y el Assassins Creed Odyssey a 4k ultra en una OLED 4k de 55" es amor puro [amor]
11796 respuestas