NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

@KnightSparda

Una pregunta que aun no me queda clara, todas llevan el mismo pcb, sea cual sea?
O las top tienen pcb's diferentes. Por ejemplo de mi PNY a una Palit, Gigabyte, MSi, Zotac, si quito el disipador son lo mismo?
goku593 escribió:Pues acabo de probar un ratín la RTX 2080 OC con el Assassins Creed Odyssey y la verdad que como un tiro. Luego haré algún test, a ver que puntuación saco.


¿Qué modelo has elegido al final?
vtec16 escribió:@KnightSparda

Una pregunta que aun no me queda clara, todas llevan el mismo pcb, sea cual sea?
O las top tienen pcb's diferentes. Por ejemplo de mi PNY a una Palit, Gigabyte, MSi, Zotac, si quito el disipador son lo mismo?


Los modelos con PCB founders, el que se ha usado de base, son todas iguales en la distribución de componentes, fases etc. Por ejemplo la Duke, la Asus Dual.

Los modelos con PCB custom, suelen ser los de gama más alta, con fases adicionales, conectores de corriente adicionales, etc. Por ejemplo, la MSI Trio, la FTW3, o la Aorus.

Sólo por tener el PCB modificado no significa que sean top Tier, la Trio no es top por ejemplo y tiene PCB custom, y la FTW3 si sacan una kingping tampoco es top.
hit está baneado por "Troll"
goku593 escribió:Pues acabo de probar un ratín la RTX 2080 OC con el Assassins Creed Odyssey y la verdad que como un tiro. Luego haré algún test, a ver que puntuación saco.



Una cosa esta clara,con tu dinero haces lo que quieres y yo no me meto... pero yo que se...si tiro paginas atras te veo tirando pestes a estas graficas
@KnightSparda

Entonces la gigabyte OC es el mismo PCB que el resto no?
vtec16 escribió:@KnightSparda

Entonces la gigabyte OC es el mismo PCB que el resto no?


Sí, si no me equivoco, usa el de referencia, pero hay que tener una cosa en cuenta, en el caso de la 2080ti al menos, parece ser que incluso el modelo de referencia llevaba un PCB muy bueno en comparación a otros años, y que va muy sobrado, ya que tuvieron en cuenta que la FE iba a ser oceable, por eso aun que lleven pcbs de referencia algunos modelos, en éste caso no es tan importante para los voltajes que manejan.
(mensaje borrado)
Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.
Jin_zip escribió:Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.



Algo falla, ha esa resolución he jugado con la 1080ti y mantiene los 40-45

El test de media 47.

https://www.dropbox.com/s/emyaovlfcvt12 ... y.JPG?dl=0
4L783D07 escribió:
goku593 escribió:Pues acabo de probar un ratín la RTX 2080 OC con el Assassins Creed Odyssey y la verdad que como un tiro. Luego haré algún test, a ver que puntuación saco.



Tienes el ACO? podrias hacer un video para ver que tal rinde a 4k con estos settings:

https://www.youtube.com/watch?v=_jIvgWOZkO8


La única prueba que he hecho ahora que tenía un ratillo es a 2K con la GPU a Stock. A ver si mañana que tengo más tiempo empiezo a hacer pruebas a fondo.

De momento sorprendido con el rendimiento y temperatura, no pasa de 65-66 grados con los fans al 65 o 70 por ciento. Y la CPU sí que es verdad que en este juego da todo de sí, como en el anterior. Puta Ubi.

Lo que no entiendo de este juego es que es super exigente, en cambio VRam exige poquísima.

Imagen
(mensaje borrado)
4L783D07 escribió:
Jin_zip escribió:Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.

Sera por el denuvo, en el ACO ya pasaba algo similar.

Observa las caga de tu micro y gpu seguro que es cpu dependencia por culpa de eso.


Vaya, a mi el 7700k me hace tope en varios nucleos, por eso me voy a comprar el 9900k
Jin_zip escribió:Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.

Fijo qué es el micro, este juego es súper dependiente de CPU, lo que tienes que hacer es ocear la CPU hasta donde de de si y verás como te desaparece los bajones
leonigsxr1000 escribió:
4L783D07 escribió:
Jin_zip escribió:Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.

Sera por el denuvo, en el ACO ya pasaba algo similar.

Observa las caga de tu micro y gpu seguro que es cpu dependencia por culpa de eso.


Vaya, a mi el 7700k me hace tope en varios nucleos, por eso me voy a comprar el 9900k

en esta generecacion tambien van a caer un par de 2080ti leon ? [360º]

hacia tiempo que no te leia pensaba que habias desaparecido
no solo es suficiente con gastarse un pastizal en la 2080 ti también hay que acompañarlo con los nuevos intel ¬_¬
vtec16 escribió:no solo es suficiente con gastarse un pastizal en la 2080 ti también hay que acompañarlo con los nuevos intel ¬_¬

Eso no es cierto, con un i5 8600k o un 7700k subido de vueltas o un 8700 no k o un 8400 o un 8700k en el 99.99% de los juegos no vas a tener problemas, es más ganas de cacharrear que otra cosa, está ya demostrado de sobra que un i5 8400 o un i5 8600k rinden en juegos lo mismo que un 8700 o un 8700k y un 7700k oceado también, el que se quiera comprar un 9xxx es por qué o bien ser está armando de un pc nuevo, o bien es por puro cacharreo, no hay más
https://youtu.be/rklIVX5MpyM

Igualito rinden los i5 que los i7 exactamente lo mismo.
vamos, que yo con un 6700k de stock me va a hacer cuello de botella una 2080ti... menuda gracia
RTX 2080 TI 1500 lereles y no llega a 4K [facepalm]
@pdriko31

hombre como llegar es la que mejor llega de todo lo que hay ahora mismo.
Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.

Yo siempre lo he dicho, la 1080ti y la 2080ti son gráficas para 2k como mucho, el 4k les queda grande. En poco tiempo con juegos nuevos estas gráficas se arrastrarán cosa mala con el 4k.

O eso o bajar settings, ¿pero quién es el guapo que se gasta 1300€ para bajar la calidad de los juegos?

Tal vez para la próxima generación.
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.

Que antialising pones??? En 4k es prácticamente innecesario....fxaa cuando sea posible y ya está

Si empiezas a meter un x2 o un x4 en 4k no hay gráfica que lo resista , yo creo que ahí está tu problema , pienso yo



@ariakan25 Hola amigo , pues es que empecé así a lo tonto a crear un canal de youtube de teles y video juegos y llevo ya más de 200 vídeos y 4.400 subcriptores y la verdad le dedicó tiempecillo y como el PC me iba bien , pues no posteo mucho aquí , pero voy a renovarlo jehe

He pensando en el SLI pero en los últimos 6 meses parece que lo están abandonando , por lo tanto pillaré una 2080ti y si veo que se anima luego pillo la otra. Un saludete
@vtec16 si,pero por lo que vale me parece increible que no de la talla de sobra para 4k ultra vamos.
Señores, buenos días.
Hoy he ido a poner el Doom, me queda muy poco para acabarlo, y de ir con la GTX 1080 de maravilla, con la RTX 2080ti va como el puto culo, el test de frames que tiene el juego baila que no soy capaz de ver los frames... Alguna idea de por qué esta puta mierda?
Saludos.
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


Pues no te pienso devolver la 1080 [beer]

Que además está en reparto [amor]
Acabo de comprar la 2080ti msi gaming x trio en pccomponentes que me salia en stock, ahora ya pone sin fecha de entrega no se si solo tenian una o que, a mi me pone que la recibo entre hoy y el lunes, a ver si es verdad
MSI 2080 ti Lightning en camino, y problemas de fabricación de los chips de las RTX:
https://elchapuzasinformatico.com/2018/ ... -rtx-2080/

Saludos!
Ruben1001 escribió:Acabo de comprar la 2080ti msi gaming x trio en pccomponentes que me salia en stock, ahora ya pone sin fecha de entrega no se si solo tenian una o que, a mi me pone que la recibo entre hoy y el lunes


Que suerte, en Coolmod aún no me han dicho nada y lleva más de un mes pagada.
papatuelo escribió:
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


Pues no te pienso devolver la 1080 [beer]

Que además está en reparto [amor]


Jajaja, que la disfrutes.
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


quita el AA ,yo lo tengo quitado y bajado alguna chorrada mas y juego a 4k ultra 60 a todo
Jin_zip escribió:Estoy probando mi 2080 ti con el assasins creed odyssey en 4k con todo en ultra y me pega bajones a 40-45 fps.
Supongo que el juego está optimizado como el culo, mi procesador es un i7-7700k no creo que sea cuello de botella.

¿Alguien con este juego? He probado bajando varias cosillas pero no consigo quitar esos bajones a 40 fps.


Parece todo normal https://youtu.be/-G859nzY6r4?t=685 tiene un SLI pero no le va en este juego, te puede servir como referencia. Ahora tiene un directo en el que juega a 8k al Max Payne 3 y si tira bien el SLI.
karlostek escribió:
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


quita el AA ,yo lo tengo quitado y bajado alguna chorrada mas y juego a 4k ultra 60 a todo

Da igual que tú lo consideres chorradas, si bajas algo ya no es ultra.
Además del falso mito de que el AA no hace falta en 4k, como si solo se producirán dientes de sierra por falta de resolución cuando los hay de todo tipo como por el movimiento.
adriano_99 escribió:
karlostek escribió:
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


quita el AA ,yo lo tengo quitado y bajado alguna chorrada mas y juego a 4k ultra 60 a todo

Da igual que tú lo consideres chorradas, si bajas algo ya no es ultra.
Además del falso mito de que el AA no hace falta en 4k, como si solo se producirán dientes de sierra por falta de resolución cuando los hay de todo tipo como por el movimiento.


Suponiendo que se juega en un monitor de entorno a 27", a 4K no necesitas AA porque no se aprecia los dientes de sierra. Otra cosa es que pongas 4k en una TV de 70" en el comedor, entonces ahí a lo mejor si es necesario.
adriano_99 escribió:
karlostek escribió:
Jin_zip escribió:Bueno pues con las pruebas de hoy con la 2080 ti y 7700k en 4k y ultra o muy alto.

Assasin´s Creed Odyssey: bajadas continuas a 40-45 fps
Shadow of tomb raider: bajadas a 50-55 fps
Final Fantasy XV: bajadas incluso a 35 fps [facepalm]
Battlefield 1: 60 fps rocosos
Forza 4: también 60 fps rocosos

Me voy a dormir y mañana seguiré haciendo pruebas.


quita el AA ,yo lo tengo quitado y bajado alguna chorrada mas y juego a 4k ultra 60 a todo

Da igual que tú lo consideres chorradas, si bajas algo ya no es ultra.
Además del falso mito de que el AA no hace falta en 4k, como si solo se producirán dientes de sierra por falta de resolución cuando los hay de todo tipo como por el movimiento.


La diferencia entre un desenfoque de una imagen en movimiento (que se mitiga con mas frecuencia de refresco) y la definicion en la propia imagen estatica, es la subjetividad de cada uno.
Y el que diga que 'YO lo veo..... X' que no se alarme nadie mas, cada uno tiene una percepcion diferente.
Ahora, no conozco a nadie con un ojo bionico que sea capaz de diferenciar un pixel en resolucion 4K a segun qué distancia y dependiendo del tamaño del panel.

https://wikiversus.com/tv/tamano-televisor/

https://www.unocero.com/ciencia/cual-es ... jo-humano/
Saoren escribió:
adriano_99 escribió:
karlostek escribió:
quita el AA ,yo lo tengo quitado y bajado alguna chorrada mas y juego a 4k ultra 60 a todo

Da igual que tú lo consideres chorradas, si bajas algo ya no es ultra.
Además del falso mito de que el AA no hace falta en 4k, como si solo se producirán dientes de sierra por falta de resolución cuando los hay de todo tipo como por el movimiento.


La diferencia entre un desenfoque de una imagen en movimiento (que se mitiga con mas frecuencia de refresco) y la definicion en la propia imagen estatica, es la subjetividad de cada uno.
Y el que diga que 'YO lo veo..... X' que no se alarme nadie mas, cada uno tiene una percepcion diferente.
Ahora, no conozco a nadie con un ojo bionico que sea capaz de diferenciar un pixel en resolucion 4K a segun qué distancia y dependiendo del tamaño del panel.

https://wikiversus.com/tv/tamano-televisor/

https://www.unocero.com/ciencia/cual-es ... jo-humano/


El problema aquí es que estás centrándote solo en la distancia y resolución de la imagen, pero no te has parado a pensar en la "Calidad" de esa imagen. Si la calidad de imagen es mejor, obviamente siempre se verá mejor. Otra cosa es que a veces no sea necesaria dicha calidad (como comento anteriormente, poner antialiasing en una tv de 27" a 4K es tonteria ya que la cantidad de PPP es tan alta que no se va a apreciar) y que te puedas ahorrar los recursos para obtener mejor rendimiento por ejemplo. Ahí ya decide cada uno.
@albertoooooooooo
Estás asumiendo que todos los dientes de sierra los genera la densidad de píxeles y eso no es verdad.
Hay algunos generados por el movimiento que siempre van a estar.
O por transparencias y alguna cosa más
adriano_99 escribió:@albertoooooooooo
Estás asumiendo que todos los dientes de sierra los genera la densidad de píxeles y eso no es verdad.
Hay algunos generados por el movimiento que siempre van a estar.
O por transparencias y alguna cosa más


Pero como tu dices, esos siempre van a estar. Si no me equivoco, el anitialiasing solo suaviza los bordes de los elementos que no tienen una resolución suficiente como para que se vean completamente "redondeados". Aún así, de nuevo con una resolución tan alta y una pantalla pequeña, dudo que sean perceptibles (volvemos a lo del ojo biónico de cada uno). Cada uno que decida si prefiere una mejor calidad de imagen, o más frames, como siempre. Pero yo puedo jugar a ULTRA perfectamente sin AA y sigue siendo ULTRA porque si le pongo el AA máximo, lo veo exactamente igual a esas resoluciones y en un tamaño de pantalla comedido.

Luego decís que una imagen reescalada con DLSS y una nativa a 4K se ve igual... pero el ULTRA no es ULTRA si no pones todos los filtros... [fiu]
Tíos dejad de hacer pruebas con Odyssey. Está absurdamente influenciado por el DRM y no es garantía de nada para probar gráficas. Se le queda pequeño hasta un 7700K.

Además, será en juegos nuevos donde se vea el verdadero poder de las RTX.

Respecto al AA. A 4K no hace falta...
Quítale el AA al TR y fíjate lo que cambia el pelo y muchos rasgos de los personajes y vegetación... Eso de que no vale, no se yo... No es solo para los dientes de sierra.

¿Alguna idea de lo que me pasa en el Doom? ¬_¬
goku593 escribió:Tíos dejad de hacer pruebas con Odyssey. Está absurdamente influenciado por el DRM y no es garantía de nada para probar gráficas. Se le queda pequeño hasta un 7700K.

Además, será en juegos nuevos donde se vea el verdadero poder de las RTX.

Respecto al AA. A 4K no hace falta...


Acabo de quitar el AA y se ve horrible el pelo y la hierba, yo al menos lo noto un montón.
@Jin_zip Tu no, cualquiera que no sea ciego... Se nota un huevo, el AA no es solo quitar los dientes de sierra.
Claro que se nota el AA a 4K, otra cosa es que haga menos falta que a 1080p, pero notarse se nota.
@goku593 se suelen utilizar juegos recientes para comparar ya que son los que interesan generalmente. Lo que no tiene sentido es comprar una RTX y comparar con el Crysis 3.. un juego con años y poco rejugable, así como tampoco interesan mucho test a 1280x720. Si hubiese algo con DLSS o RTX pues compararían ahí.
Está claro que desactivar el antialiasing va a dar mas rendimiento que tenerlo activado, pero la calidad de imagen algo tiene que resentirse, hasta a una resolución tan alta. Otra cosa es que esa pérdida de calidad a algunos no les moleste y a otros si, también dependerá un poco la distancia que haya de la pantalla a la persona, porque otra cosa buena que tienen las 4k es que como suelen ser o bien televisores grandecitos, que algo hay que retirarse para poder abarcar de una vez toda la imagen, o bien monitores con una densidad de píxeles grande, a los que hay que acercar mucho la vista para empezar a ver los píxeles, al final, a no ser que uno esté con unas gafas de realidad virtual, el tema de ver píxeles está ya mas que solucionado. Esto último que digo tiene su nombre, pero ni lo recuerdo ahora mismo ni tengo tiempo como para pararme a buscarlo.

Todas las pruebas que estoy haciendo yo con mi gráfica han sido poniendo todo al máximo, no me he parado a ver que tal rendiría la cosa si lo pongo a 4k dsr y desactivo antialiasing.
albertoooooooooo escribió:
adriano_99 escribió:@albertoooooooooo
Estás asumiendo que todos los dientes de sierra los genera la densidad de píxeles y eso no es verdad.
Hay algunos generados por el movimiento que siempre van a estar.
O por transparencias y alguna cosa más


Pero como tu dices, esos siempre van a estar. Si no me equivoco, el anitialiasing solo suaviza los bordes de los elementos que no tienen una resolución suficiente como para que se vean completamente "redondeados". Aún así, de nuevo con una resolución tan alta y una pantalla pequeña, dudo que sean perceptibles (volvemos a lo del ojo biónico de cada uno). Cada uno que decida si prefiere una mejor calidad de imagen, o más frames, como siempre. Pero yo puedo jugar a ULTRA perfectamente sin AA y sigue siendo ULTRA porque si le pongo el AA máximo, lo veo exactamente igual a esas resoluciones y en un tamaño de pantalla comedido.

Luego decís que una imagen reescalada con DLSS y una nativa a 4K se ve igual... pero el ULTRA no es ULTRA si no pones todos los filtros... [fiu]

Claro que hace, muchos de esos aspectos los soluciona el FXA.
En el vídeo en que comparan la calidad del DLSS se ve claramente como el 4k nativo necesita antialiasing si o si para según que cosas.
Cuando la gente empezó a jugar a 4k era lo primero que quitaba y se ha generado el mito de que no hace falta pero no deja de ser un mito.
Acabo de darme cuenta que mi cpu se pone a más de 90º [mad] ¿puede ser que por eso tenga esas bajadas de fps?
es una leyenda urbana lo del AA
en juegos como el Assassins etc, se nota 1 monton aun jugando en resoluciones tochas
otra cosa es si justifica la perdida de tantos fps por la mejora q tienes en tales resoluciones
Jin_zip escribió:Acabo de darme cuenta que mi cpu se pone a más de 90º [mad] ¿puede ser que por eso tenga esas bajadas de fps?

Entonces seguramente tengas thermal throttling.
Jin_zip escribió:Acabo de darme cuenta que mi cpu se pone a más de 90º [mad] ¿puede ser que por eso tenga esas bajadas de fps?


Tu 7700k está haciendo un bottleneck como un camello de grande a la 2080ti, es normal, y más en juegos como AC que revienta hasta a los 8700k actualmente.
11796 respuestas