[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Zaguer escribió:Tiene pinta de que la FE 3080 es mas pequeña que las custom no? mi caja es enana y necesito la gráfica mas pequeña que haya (dentro de las 3080).

La FE son 285mm, tiene pinta de que las custom son mas de 30cm...


Esto es una lista parcial, pero te puedes hacer una idea:

Imagen
Existe diferencia respecto a potencia la founders y las custom o solo es refrigeración y diseño?
yonnah escribió:Existe diferencia respecto a potencia la founders y las custom o solo es refrigeración y diseño?


Suele haber diferencias porque algunas custom hacen OC y suelen refrigerar mejor, de ahí la diferencia de tamaño y de precio
goku593 escribió:
Wanderlei escribió:Una cuestión, cuando habláis de que se puede quedar corta de vram la 3080, habláis de resoluciones 4k o 2k?

Voy a comprar la 3080 para sacar partido a mi monitor 1440p 170hz, no me interesa para nada el 4k. Creéis que se quedará corta en 4 años que es lo que pienso aguantarla?

Se queda corta ya. Imagina en 4 años.


Horizon se come 12 Gbs de Vram.


Tú lo hablas desde una 2080, pero yo tengo una 1080 y el salto me valdrá la pena.

A malas la vendo por 200€ menos la 3080 de 10GB más adelante, siendo la mía la Watercooled, y me pillo una 2080 de 20GB watercooled.

Mi PC necesita un upgrade de grafica para la VR.
En serio ya estamos con PCC y colmod, poniendo los precios que le da la gana?
Smoje escribió:
Zaguer escribió:Tiene pinta de que la FE 3080 es mas pequeña que las custom no? mi caja es enana y necesito la gráfica mas pequeña que haya (dentro de las 3080).

La FE son 285mm, tiene pinta de que las custom son mas de 30cm...


Esto es una lista parcial, pero te puedes hacer una idea:

Imagen


Genial, gracias!
garbagecrystal escribió:
goku593 escribió:
garbagecrystal escribió:
No hay DLSS 3.0.

¿Pero el DLSS de las 3000 es distinto al de las 2000? ¿Hay una nueva versión compatible con las nuevas?


Es el mismo. Se supone que con más tensor cores pues igual se ejecuta más rápido, claro.

De hecho, que me venga a la cabeza no hay nada tecnológicamente hablando en las 3000 que no se esté en las 2000, a parte claro está del PCIe4

El PCIe 4.0 es nada porque las diferencias entre el 4.0 y el 3.0 son infimas.

La unica gracia de Ampere es la fuerza bruta. Ese 40% de mejora razonable provocado por sacar graficas cada 2 años. Normal que la 3070 sea mejor que la 2080Ti. Y la 3060 por regla de 3 deberia ser igual o casi que una 2080.

Lo que si veo es que Ampere no deberia ser la panacea para actuales usuarios de RTX 2000. Salvo los que tengan una 2060 normalita.

goku593 escribió:
garbagecrystal escribió:
Nomada_Firefox escribió:Supongo que esto va por el DirectStorage que Nvidia vende como RTX IO. Nada más lejos de la realidad, no es algo de Nvidia, es de Microsoft y lo van a incorporar a Windows 10. Asi que no es algo exclusivo de Ampere.



Asi que Ampere solo trae el DLSS 3.0


No hay DLSS 3.0.

¿Pero el DLSS de las 3000 es distinto al de las 2000? ¿Hay una nueva versión compatible con las nuevas?

Nadie lo ha confirmado todavia pero se supone que el DLSS de Ampere se puede usar en cualquier juego con TAA. Mientras que eso no estaba en las RTX 2000.

Pero dicha afirmación es un sin sentido porque los juegos con TAA son los mismos que usan DLSS. No va a haber juegos con TAA que no usen DLSS seguramente. Admito que es el humo que algunos han querido vender.
Está la han puesto barata no sé de qué os quejáis, 1,21€

https://www.pccomponentes.com/pny-gefor ... 0gb-gddr6x
Antoniopua está baneado por "saltarse el ban con un clon"
La compraré donde más barata sea... sobre las tiendas de aquí, ellos sabrán lo que hacen...
Nomada_Firefox escribió:La unica gracia de Ampere es la fuerza bruta. Ese 40% de mejora razonable provocado por sacar graficas cada 2 años. Normal que la 3070 sea mejor que la 2080Ti. Y la 3060 por regla de 3 deberia ser igual o casi que una 2080.

En realidad ese 40% debería ser más en según que situaciones, llegando a duplicar el rendimiento en escenarios puramente de cómputo. Así lo explica Sebastian Aaltonen de Unity.

Imagen
Antoniopua escribió:La compraré donde más barata sea... sobre las tiendas de aquí, ellos sabrán lo que hacen...

En qué tienda extranjera dale normal de precio y es de fiar?
Una supuesta 3070 super/Ti con más VRAM creo que está claro que tarde o temprano saldrá, pero una 3080 super/Ti no lo veo nada claro por la aparente poquísima diferencia de rendimiento entre está y la 3090, por lo menos a corto/medio plazo.

Esperar a la supuesta 3070 con más VRAM pues en mi opinión depende de que tengas, yo que aún voy con la 970 paso de esperar más, se me pasa la vida esperando.

Por otra parte una 3070 Super supongo que se colocaría en los 620€ y 20% por debajo de la 3080 ya que la 3070 parece ser que se sitúa en un 40% menos. Solo 100€ de diferencia, tendría la gran duda de si menos VRAM y más rendimiento o al contrario.... Pero esto lo digo desde la barra del bar xd

Tampoco creo que 10Gb VRAM sean tan pocos como algunos dicen , 8Gb VRAM ya dan más miedito xd
garbagecrystal escribió:
Bio81 escribió:
eimia escribió:buenas, como veis una 3080 para una placa base pci express 3.0? tengo entendido que funcionan mejor con una placa pci 4.0.

Aqui en este enlace dicen que es un rotundo NO, que no es necesario el pci 4.0 para gaming.

Vosotros como lo veis?

https://hardzone.es/noticias/tarjetas-g ... x-3070-ti/


así es , el PCI-E 3.0 16x sobra incluso para 8K:

Imagen


Si entiendo bien esa imagen, está calculando si el PCIe es suficiente comparándolo con el fillrate necesario para la resolución objetivo.
Eso no me parece que tenga sentido alguno


lo que en esa imagen se compara es al ancho de banda necesario para 4k 144 Hz con una profundidad de color de 10 Bit y da 35.83 Gbps y el PCI-E 3.0 X16 tiene un ancho de banda de 126.4 Gbps

https://www.profesionalreview.com/2019/ ... fica-nada/

https://elchapuzasinformatico.com/2019/ ... os-gamers/

https://hardwaresfera.com/noticias/hard ... os-gamers/

PCI-E 3.0 x16 sobra para 8k 60K a no ser que te vayas a 8k 120Hz HDR 4:4:4 10 bit el 3.0 deberia ser suficiente
Nomada_Firefox escribió:El PCIe 4.0 es nada porque las diferencias entre el 4.0 y el 3.0 son infimas.


Bueno, es el doble de ancho de banda en el bus. Ya veremos si juega un papel importante o no, pero lo cierto es que no podemos utilizar información actual y extrapolar si cambiamos el paradigma y se espera acceso directo al NVME de ahora en adelante.

Lo que sí que pienso yo es que hasta que los NVME medios saturen el PCIe3 faltan algunos años.

Nomada_Firefox escribió:Nadie lo ha confirmado todavia pero se supone que el DLSS de Ampere se puede usar en cualquier juego con TAA. Mientras que eso no estaba en las RTX 2000.

Pero dicha afirmación es un sin sentido porque los juegos con TAA son los mismos que usan DLSS. No va a haber juegos con TAA que no usen DLSS seguramente. Admito que es el humo que algunos han querido vender.

Nadie ha confirmado eso ni lo van a confirmar porque no será así.

Por un lado, no hay diferencias en DLSS entre las 2000 y las 3000. Falta ver el white paper pero al final DLSS es un algoritmo que NO está en el hardware, por lo que la única diferencia en ese sentido entre las 2000 y las 3000 será la velocidad a la que puedan aplicarlo. Eso puede hacer que en el mismo tiempo puedan inferir más o mejor, así que quizá ganamos calidad o penalizamos menos el framerate en las 3000, pero la tecnología en sí es la misma en una 2000.

Por otro lado, aplicar DLSS vía drivers en los juegos con TAA no tiene mucho sentido. No es como aplicar un efecto de post procesado y a correr. Otra cosa es que se inventen un reescalador por post basado en ML, pero eso no sería DLSS.
Aqui en UK la mas barata es la Palit

https://www.overclockers.co.uk/palit-ge ... 5d-pl.html

£10 mas barata que la FE. Vamos yo es que no me lo pienso, voy a por la FE de cabeza xD

Aquí el listado completo por si a alguien le interesa:

https://www.overclockers.co.uk/pc-compo ... =1&sSort=3
Zaguer escribió:Aqui en UK la mas barata es la Palit

https://www.overclockers.co.uk/palit-ge ... 5d-pl.html

£10 mas barata que la FE. Vamos yo es que no me lo pienso, voy a por la FE de cabeza xD

Aquí el listado completo por si a alguien le interesa:

https://www.overclockers.co.uk/pc-compo ... =1&sSort=3


Yo gracias a que soy el account manager IT de la empresa y le compro a varias de las paginas server y otras cosas me hable con los account manager para ver si me podia asegurar la 3090 de Salida, me dijeron que me estarian avisando, jajaja que larga se me hara la espera.
Bio81 escribió:
garbagecrystal escribió:
Bio81 escribió:
así es , el PCI-E 3.0 16x sobra incluso para 8K:

Imagen


Si entiendo bien esa imagen, está calculando si el PCIe es suficiente comparándolo con el fillrate necesario para la resolución objetivo.
Eso no me parece que tenga sentido alguno


lo que en esa imagen se compara es al ancho de banda necesario para 4k 144 Hz con una profundidad de color de 10 Bit da 35.83 Gbps y el PCI-E 3.0 X16 tiene un ancho de banda de 126.4 Gbps

https://www.profesionalreview.com/2019/ ... fica-nada/

https://elchapuzasinformatico.com/2019/ ... os-gamers/

https://hardwaresfera.com/noticias/hard ... os-gamers/


Entonces lo he entendido bien, pero sigo sin verle el sentido.

Vale, necesitas 35.83 Gbps para mover un frontbuffer de 4k 144 veces por segundo, pero para generar ese frontbuffer necesitarás más datos que esos 35.83 Gbps. De lo contrario no nos harían falta memorias de GPUs de más de 40 Gbps y estamos ya llegando a los 1000 GB/s (que no gigabits)

No digo que PCIe4 hoy en día sea necesario, eso ya lo veremos los próximos años, pero que esa comparativa no tiene mucho sentido sí que lo digo :P
wildchild_bcn escribió:
WGP Kakashii escribió:estoy viendo la foto de la strix en pccom y parece q tiene 3 conectores de corriente, es asi?

si, la strix va a tener 3 conectores de corriente


para los preocupados del tema nvme y pcie4:

SSD Requirement for Ampere
Pengwin17523 – Will there be a certain ssd speed requirement for RTX I/O?

[Tony Tamasi] There is no SSD speed requirement for RTX IO, but obviously, faster SSD’s such as the latest generation of Gen4 NVMe SSD’s will produce better results, meaning faster load times, and the ability for games to stream more data into the world dynamically. Some games may have minimum requirements for SSD performance in the future, but those would be determined by the game developers. RTX IO will accelerate SSD performance regardless of how fast it is, by reducing the CPU load required for I/O, and by enabling GPU-based decompression, allowing game assets to be stored in a compressed format and offloading potentially dozens of CPU cores from doing that work. Compression ratios are typically 2:1, so that would effectively amplify the read performance of any SSD by 2x.

https://videocardz.com/newz/nvidia-prov ... -30-series

Me alegro ahora de haberme comprado hace poco un SSD wd con 3,5 GB/s.
garbagecrystal escribió:
Nomada_Firefox escribió:El PCIe 4.0 es nada porque las diferencias entre el 4.0 y el 3.0 son infimas.


Bueno, es el doble de ancho de banda en el bus. Ya veremos si juega un papel importante o no, pero lo cierto es que no podemos utilizar información actual y extrapolar si cambiamos el paradigma y se espera acceso directo al NVME de ahora en adelante.

Lo que sí que pienso yo es que hasta que los NVME medios saturen el PCIe3 faltan algunos años.

Nomada_Firefox escribió:Nadie lo ha confirmado todavia pero se supone que el DLSS de Ampere se puede usar en cualquier juego con TAA. Mientras que eso no estaba en las RTX 2000.

Pero dicha afirmación es un sin sentido porque los juegos con TAA son los mismos que usan DLSS. No va a haber juegos con TAA que no usen DLSS seguramente. Admito que es el humo que algunos han querido vender.

Nadie ha confirmado eso ni lo van a confirmar porque no será así.

Por un lado, no hay diferencias en DLSS entre las 2000 y las 3000. Falta ver el white paper pero al final DLSS es un algoritmo que NO está en el hardware, por lo que la única diferencia en ese sentido entre las 2000 y las 3000 será la velocidad a la que puedan aplicarlo. Eso puede hacer que en el mismo tiempo puedan inferir más o mejor, así que quizá ganamos calidad o penalizamos menos el framerate en las 3000, pero la tecnología en sí es la misma en una 2000.

Por otro lado, aplicar DLSS vía drivers en los juegos con TAA no tiene mucho sentido. No es como aplicar un efecto de post procesado y a correr. Otra cosa es que se inventen un reescalador por post basado en ML, pero eso no sería DLSS.

Bueno solo puedo decir esto.

A TODOS LOS QUE VENDISTEIS LA EXISTENCIA DEL DLSS 3.0 EN AMPERE. NO TENIAIS RAZON. NO EXISTE Y SIGUE SIENDO EL MISMO DE LAS RTX 2000. [beer]

Lamentablemente, seguimos en las mismas. Solo lo usan 14 juegos con 25 en desarrollo. Podia ser peor, el Raytracing lo usa un número similar de juegos pero solo hay 13 juegos en desarrollo que lo vayan a incorporar.
garbagecrystal escribió:
Bio81 escribió:
garbagecrystal escribió:
Si entiendo bien esa imagen, está calculando si el PCIe es suficiente comparándolo con el fillrate necesario para la resolución objetivo.
Eso no me parece que tenga sentido alguno


lo que en esa imagen se compara es al ancho de banda necesario para 4k 144 Hz con una profundidad de color de 10 Bit da 35.83 Gbps y el PCI-E 3.0 X16 tiene un ancho de banda de 126.4 Gbps

https://www.profesionalreview.com/2019/ ... fica-nada/

https://elchapuzasinformatico.com/2019/ ... os-gamers/

https://hardwaresfera.com/noticias/hard ... os-gamers/


Entonces lo he entendido bien, pero sigo sin verle el sentido.

Vale, necesitas 35.83 Gbps para mover un frontbuffer de 4k 144 veces por segundo, pero para generar ese frontbuffer necesitarás más datos que esos 35.83 Gbps. De lo contrario no nos harían falta memorias de GPUs de más de 40 Gbps y estamos ya llegando a los 1000 GB/s (que no gigabits)

No digo que PCIe4 hoy en día sea necesario, eso ya lo veremos los próximos años, pero que esa comparativa no tiene mucho sentido sí que lo digo :P


esa comparativa la hizo intel , puedes entrar en los enlaces y leer para saber de que va el tema
Bio81 escribió:
garbagecrystal escribió:
Bio81 escribió:
lo que en esa imagen se compara es al ancho de banda necesario para 4k 144 Hz con una profundidad de color de 10 Bit da 35.83 Gbps y el PCI-E 3.0 X16 tiene un ancho de banda de 126.4 Gbps

https://www.profesionalreview.com/2019/ ... fica-nada/

https://elchapuzasinformatico.com/2019/ ... os-gamers/

https://hardwaresfera.com/noticias/hard ... os-gamers/


Entonces lo he entendido bien, pero sigo sin verle el sentido.

Vale, necesitas 35.83 Gbps para mover un frontbuffer de 4k 144 veces por segundo, pero para generar ese frontbuffer necesitarás más datos que esos 35.83 Gbps. De lo contrario no nos harían falta memorias de GPUs de más de 40 Gbps y estamos ya llegando a los 1000 GB/s (que no gigabits)

No digo que PCIe4 hoy en día sea necesario, eso ya lo veremos los próximos años, pero que esa comparativa no tiene mucho sentido sí que lo digo :P


esa comparativa la hizo intel , puedes entrar en los enlaces y leer para saber de que va el tema


Sí, ya lo he hecho :)
josemurcia escribió:
Tienes razón, BCPack es compresión de texturas, no de bloque. En ese caso en XSX se puede usar Oodle Texture + ZLib que dará un rendimiento similar a Oodle Texture + Kraken, pero como te digo no es un rendimiento que puedas extrapolar al aplicar solo a texturas con compresión.

Lo demás como siempre te lo inventas, los ratios 2:1 de Microsoft y NVIDIA son de usar BCn + Zlib o BCPack + ZLib en el caso de Xbox (supuestamente, lo mismo BCPack ofrece una compresión similar a Oodle Texture con compresión).


Ahi queria llegar yo, eso es imposible, Zlib nunca rendirá como kraken. Para que iba nadie a gastarse la pasta en la licencia de kraken si Zlib rinde igual y es gratis...........pues porque no rinden igual.

Imagen

josemurcia escribió:
No te basta con publicar un benchmark sin saber interpretarlo si no que ahora pones otro distinto, con otras condiciones distintas y te inventas que es por saturación del PCIe.

Cada benchmark pone a prueba condiciones diferentes que rinden de forrma diferente según la disposición de las memorias, su calidad, el microcontrolador, el firmware, etc.

Si en otro benchmark da peor resultado es porque la velocidad anunciada de los SSD es en condiciones óptimas, como se ve en el benchmark ATTO, en condiciones más parecidas a un uso real siempre darán por debajo por simples limitaciones del propio disco, y puedes ver que pasa lo mismo con todos los SSD, da igual que "saturen" el PCIe o no.

Por ejemplo el Samsung 950 Pro que en ATTO da 2.5Gbps de lectura pero luego en otros tests menos óptimos da 2.

Imagen

Imagen

https://www.anandtech.com/show/9702/sam ... gb-512gb/8

Las evidencias las tienes ahí, puedes seguir inventándote que el PCIe se satura o asumir que con el disco adecuado el ancho de banda en PC será un 30% mayor que el de PS5 sobre PCIe 4.


Puedes seguir pensando que no se interpretar un los benchmark, ya solo puedo explicarlo por reduccion a lo absurdo:

Puesto que eres el único de todos los foros en los que se esta hablando de esto incluido el de Nvidia que piensa que los 14 GB/s son sostenidos.
También debes ser el único que intenta demostrar que en MS/Sony/fabricantes de SSD son idiotas y que por ejemplo en MS no supieron usar sus dos lineas de PCIeGen4 las cuales según tu teoría podrían conseguir unos 4 GB/s teóricos y que según tu podrían conseguir 3,5 GB/s sostenidos y curiosamente les han asignado una trasferencia de 2,5 GB/s sostenidos oficialmente.

Y luego en Sony que han conseguido un SSD de 12 canales de 1 GB/s que en realidad ofrecería una trasferencia de 12 GB/s han puesto de pico 11GB/s (22 GB/s comprimido) y sostenidos 9 GB/s. Joe mira que son inútiles pudiendo saturar las lineas de PCI sin ningún problema.

La próxima vez les mandamos tu curriculum y ya se lo diseñas tu.
Zuffuel escribió:


Juer, como tira la 3080, que lujazo será poder jugar a 4k@120 en la oled LG.
@eldespertar por curiosidad, cual es esa 4k@120?
No me cuadra una cosa.
El modelo de rog strix de la 3080 está subido 150 euros respecto a las fe.
El de la 3090 no....

No es algo raro, además he probado en varias web
Nowcry escribió:
Ahi queria llegar yo, eso es imposible, Zlib nunca rendirá como kraken. Para que iba nadie a gastarse la pasta en la licencia de kraken si Zlib rinde igual y es gratis...........pues porque no rinden igual.

Imagen


En escenarios reales es solo un 10% más eficiente que ZLib, lo dice el propio Cerny en su video.

https://youtu.be/ph8LyNIT9sg?t=1015

Un 10% de mejora en la compresión sin pérdida palidece comparación a la diferencia entre el ancho de banda de un SSD PCIe 4 frente al de PS5. Y eso contando con que NVIDIA no soporte Kraken en su HW.

Nowcry escribió:
Puedes seguir pensando que no se interpretar un los benchmark, ya solo puedo explicarlo por reduccion a lo absurdo:

Puesto que eres el único de todos los foros en los que se esta hablando de esto incluido el de Nvidia que piensa que los 14 GB/s son sostenidos.
También debes ser el único que intenta demostrar que en MS/Sony/fabricantes de SSD son idiotas y que por ejemplo en MS no supieron usar sus dos lineas de PCIeGen4 las cuales según tu teoría podrían conseguir unos 4 GB/s teóricos y que según tu podrían conseguir 3,5 GB/s sostenidos y curiosamente les han asignado una trasferencia de 2,5 GB/s sostenidos oficialmente.

Y luego en Sony que han conseguido un SSD de 12 canales de 1 GB/s que en realidad ofrecería una trasferencia de 12 GB/s han puesto de pico 11GB/s (22 GB/s comprimido) y sostenidos 9 GB/s. Joe mira que son inútiles pudiendo saturar las lineas de PCI sin ningún problema.

La próxima vez les mandamos tu curriculum y ya se lo diseñas tu.

Vamos, que ante la evidencia de los datos sales por el carril del medio a tirar de falacias ad populum, pues muy bien, mándale tu CV tu a Cerny que parece que podrías hacer magia y ofrecerles el doble de rendimiento del que han conseguido en PS5 con el mismo HW.
muy guapo el video de doom q ganitas de tener una ya
josemurcia escribió:
Nowcry escribió:
Ahi queria llegar yo, eso es imposible, Zlib nunca rendirá como kraken. Para que iba nadie a gastarse la pasta en la licencia de kraken si Zlib rinde igual y es gratis...........pues porque no rinden igual.

Imagen


En escenarios reales es solo un 10% más eficiente que ZLib, lo dice el propio Cerny en su video.

https://youtu.be/ph8LyNIT9sg?t=1015

Un 10% de mejora en la compresión sin pérdida palidece comparación a la diferencia entre el ancho de banda de un SSD PCIe 4 frente al de PS5. Y eso contando con que NVIDIA no soporte Kraken en su HW.

Nowcry escribió:
Puedes seguir pensando que no se interpretar un los benchmark, ya solo puedo explicarlo por reduccion a lo absurdo:

Puesto que eres el único de todos los foros en los que se esta hablando de esto incluido el de Nvidia que piensa que los 14 GB/s son sostenidos.
También debes ser el único que intenta demostrar que en MS/Sony/fabricantes de SSD son idiotas y que por ejemplo en MS no supieron usar sus dos lineas de PCIeGen4 las cuales según tu teoría podrían conseguir unos 4 GB/s teóricos y que según tu podrían conseguir 3,5 GB/s sostenidos y curiosamente les han asignado una trasferencia de 2,5 GB/s sostenidos oficialmente.

Y luego en Sony que han conseguido un SSD de 12 canales de 1 GB/s que en realidad ofrecería una trasferencia de 12 GB/s han puesto de pico 11GB/s (22 GB/s comprimido) y sostenidos 9 GB/s. Joe mira que son inútiles pudiendo saturar las lineas de PCI sin ningún problema.

La próxima vez les mandamos tu curriculum y ya se lo diseñas tu.

Vamos, que ante la evidencia de los datos sales por el carril del medio a tirar de falacias ad populum, pues muy bien, mándale tu CV tu a Cerny que parece que podrías hacer magia y ofrecerles el doble de rendimiento del que han conseguido en PS5 con el mismo HW.


Mas bien al revés, ante la imposibilidad que tienes de ver la realidad y no querer ver las evidencias de las pruebas , yo te intento mostrar que un benchmarkt secuencial no llega a la capacidad en sus medias y que por supuesto jugando a un juego con lectura aleatoria nunca alcanzaras esas tasas y aun menos si hay un des-compresor de por medio y un carril PCIe de transmisión junto con mas datos.

Ya solo me ha quedado determinar por reducción a lo absurdo. Que a su vez es bastante efectiva.

Y no yo no se mas que Cerny, no creo que ni la mitad de la mitad de la mitad, ni intento hacer cosas imposibles, se donde están las limitaciones al menos en lo existente actualmente. Quien sabe que trucos inventaran los devs para hacer rendir esto de lujo.
Zuffuel escribió:


Joder que mareo de gameplay [+risas]
Metalyard escribió:
Zuffuel escribió:


Joder que mareo de gameplay [+risas]


El baile de fps es bastante elevado, aun asi es increible a lo que han llegado con la serie 3000, me supongo que con la 3090 alcanzará casi los 200 fps en 4k y la 3080 en 1440p igual 200 casi
Metalyard escribió:Yo lo que no entiendo es que hasta hace dos días , una 2080Ti era un graficón con 11GB y ahora una 3080 con 10GB se queda corta :-?


tu lo has dicho ahora , pero con juegos de nueva generación lo mas probable y conociendo a Nvidia es que saque una 3080 Super con mas Vram en unos meses o un año para el que quiera jugar a 4k sin sacrificar texturas o algún efecto grafico con la 3080 de 10 GB y te obligue a pasar por caja de nuevo , ahí esta el tema , la 2080 Ti a ido bien de memoria en la generación de ps4 y xbox one , pero eso no garantiza que siga siendo así en un año por ejemplo
@elamos No, si no lo decía por el baile de fps, sino porque el colega va follao moviendo la cámara [carcajad]
Zuffuel escribió:


17 teraflops de diferencia y solo 30-40fps más? [toctoc]

Muy poco me parece
Podrían enseñar ese Doom con la 3090, tiene que ser brutal. Tendrán que salir mas comparativas para decidirme por una aún
Zuffuel escribió:

Estoy flipando con el salto que han dado. En el minuto 1:30 se puede apreciar cómo la RTX 2080 Ti va a 100fps y la RTX 3080 a 146fps. Pero qué me estás contando? [+risas]

Hacía tiempo que no veía un salto tan grande y además acompañado por un ajuste de precios. Lo de la 2080 Ti era un robo a mano armada que sabía cualquiera, así que tampoco han tenido que enforzarse muchos con el ajuste económico.

Pero aún así estoy flipando con el rendimiento. Mis dieses a Nvidia. [beer]
Bio81 escribió:
Metalyard escribió:Yo lo que no entiendo es que hasta hace dos días , una 2080Ti era un graficón con 11GB y ahora una 3080 con 10GB se queda corta :-?


tu lo has dicho ahora , pero con juegos de nueva generación lo mas probable y conociendo a Nvidia es que saque una 3080 Super con mas Vram en unos meses o un año para el que quiera jugar a 4k sin sacrificar texturas o algún efecto grafico con la 3080 de 10 GB y te obligue a pasar por caja de nuevo , ahí esta el tema , la 2080 Ti a ido bien de memoria en la generación de ps4 y xbox one , pero eso no garantiza que siga siendo así en un año por ejemplo


Umm no se no se, creo que se está exagerando un poco con el tema de la Vram de las gráficas...

Si nos referimos a que la VRam está sobretodo relacionado con el texturizado de los juegos, creo que cobra su importancia el tener mayor capacidad de Ram simplemente y plantarse con un mínimo de 32GB y tener instalado los juegos en un SSD obviamente...es decir, por ponerte un ejemplo, mi GTX 1080 se defiende bastante bien con sus 8GB GDDR5X a una media de 40/45 FPS a 3440X1440 mi Skyrim SE con 1000 mods con texturas en 8K y 4K que se rien de las de Red Dead Redemption 2...Eso sí, tuve que ampliar a 32GB de Ram al equipo [+risas]

alvaro200 escribió:Sacado de la propia Nvidia en reddit, hablando sobre el tema de la VRAM:

Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

[Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.

In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.

Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.


Fuente


He leído el articulo que han testeado varios juegos TOP de la actualidad y el consumo medio de VRAM oscila entre 4~6 GB (6~10 GB de la generación Turing), lo cual concuerda con la reducción por la compresión de los tensor cores, un 40% del consumo de VRAM.
Por lo tanto la RTX 3070 viene preparada con un pequeño margen para aguantar mínimo 3 años a Full para 1440p y +70~120fps o 4K 60fps en Ultra. Y la 3080 estimo que no será hasta 2024 cuando aparezca algún juego que puedan empezar a demandar mas de 10GB (Teoricos 14GB de la generación Turing) sobrada para 4K 60fps en Ultra/High durante un lustro.

Por otro lado, yo pronostico que la RTX 3060 tendrá 6GB de VRAM GDDR6 a 16 Ggps, a aprox 1,8 Ghz y tendría una potencia de 12 Tflops. Siendo así ligeramente superior a la RTX 2080 Super, costando sus 300€ Ideal para 1080 a full durante los próximos 5 años o 1440p +60fps para los próximos 3 años y defendiéndose en 4K 60fps en los juegos actuales en Ultra.

Edit: Como todos sabemos, podemos alargar la vida de las gráficas bajando settings. Yo estube con una GTX 670 de 2GBGDDR5 de 2012 a 2018. Porque jugaba a 1080p. Pero a la que me pillé un monitor 1440p 144hz te pide otra gráfica mas pepino. Me pillé la GTX 1060 de 6GBGDD5, de transición, llevo con ella 2 años, pero deseando pillarme una 3070 o 3080 para darle cera y que me dure mínimo 6 añitos.
Zaguer escribió:@eldespertar por curiosidad, cual es esa 4k@120?


C9
Metalyard escribió:
Bio81 escribió:
Metalyard escribió:Yo lo que no entiendo es que hasta hace dos días , una 2080Ti era un graficón con 11GB y ahora una 3080 con 10GB se queda corta :-?


tu lo has dicho ahora , pero con juegos de nueva generación lo mas probable y conociendo a Nvidia es que saque una 3080 Super con mas Vram en unos meses o un año para el que quiera jugar a 4k sin sacrificar texturas o algún efecto grafico con la 3080 de 10 GB y te obligue a pasar por caja de nuevo , ahí esta el tema , la 2080 Ti a ido bien de memoria en la generación de ps4 y xbox one , pero eso no garantiza que siga siendo así en un año por ejemplo


Umm no se no se, creo que se está exagerando un poco con el tema de la Vram de las gráficas...

Si nos referimos a que la VRam está sobretodo relacionado con el texturizado de los juegos, creo que cobra su importancia el tener mayor capacidad de Ram simplemente y plantarse con un mínimo de 32GB y tener instalado los juegos en un SSD obviamente...es decir, por ponerte un ejemplo, mi GTX 1080 se defiende bastante bien con sus 8GB GDDR5X a una media de 40/45 FPS a 3440X1440 mi Skyrim SE con 1000 mods con texturas en 8K y 4K que se rien de las de Red Dead Redemption 2...Eso sí, tuve que ampliar a 32GB de Ram al equipo [+risas]



skyrim no es buen ejemplo es un juego de la generación pasada , la vram no se usa solo para texturas , mira por ejemplo el Horizon zero dawn https://www.youtube.com/watch?v=Ue3IXkSU_w4 que consume casi 10 GB , en ese juego con una 3080 se queda al limite , imagina con juegos de nueva generación
ikemen escribió:
alvaro200 escribió:Sacado de la propia Nvidia en reddit, hablando sobre el tema de la VRAM:

Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

[Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.

In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.

Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.


Fuente


He leído el articulo que han testeado varios juegos TOP de la actualidad y el consumo medio de VRAM oscila entre 4~6 GB (6~10 GB de la generación Turing), lo cual concuerda con la reducción por la compresión de los tensor cores, un 40% del consumo de VRAM.
Por lo tanto la RTX 3070 viene preparada con un pequeño margen para aguantar mínimo 3 años a Full para 1440p y +70~120fps o 4K 60fps en Ultra. Y la 3080 estimo que no será hasta 2024 cuando aparezca algún juego que puedan empezar a demandar mas de 10GB (Teoricos 14GB de la generación Turing) sobrada para 4K 60fps en Ultra/High durante un lustro.

Por otro lado, yo pronostico que la RTX 3060 tendrá 6GB de VRAM GDDR6 a 16 Ggps, a aprox 1,8 Ghz y tendría una potencia de 12 Tflops. Siendo así ligeramente superior a la RTX 2080 Super, costando sus 300€ Ideal para 1080 a full durante los próximos 5 años o 1440p +60fps para los próximos 3 años y defendiéndose en 4K 60fps en los juegos actuales en Ultra.

Edit: Como todos sabemos, podemos alargar la vida de las gráficas bajando settings. Yo estube con una GTX 670 de 2GBGDDR5 de 2012 a 2018. Porque jugaba a 1080p. Pero a la que me pillé un monitor 1440p 144hz te pide otra gráfica mas pepino. Me pillé la GTX 1060 de 6GBGDD5, de transición, llevo con ella 2 años, pero deseando pillarme una 3070 o 3080 para darle cera y que me dure mínimo 6 añitos.


Dónde has leído eso? No me cuadra que 10 GB de Ampere sean 14 de Turing
ikemen escribió:
alvaro200 escribió:Sacado de la propia Nvidia en reddit, hablando sobre el tema de la VRAM:

Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

[Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.

In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.

Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.


Fuente


He leído el articulo que han testeado varios juegos TOP de la actualidad y el consumo medio de VRAM oscila entre 4~6 GB (6~10 GB de la generación Turing), lo cual concuerda con la reducción por la compresión de los tensor cores, un 40% del consumo de VRAM.
Por lo tanto la RTX 3070 viene preparada con un pequeño margen para aguantar mínimo 3 años a Full para 1440p y +70~120fps o 4K 60fps en Ultra. Y la 3080 estimo que no será hasta 2024 cuando aparezca algún juego que puedan empezar a demandar mas de 10GB (Teoricos 14GB de la generación Turing) sobrada para 4K 60fps en Ultra/High durante un lustro.

Por otro lado, yo pronostico que la RTX 3060 tendrá 6GB de VRAM GDDR6 a 16 Ggps, a aprox 1,8 Ghz y tendría una potencia de 12 Tflops. Siendo así ligeramente superior a la RTX 2080 Super, costando sus 300€ Ideal para 1080 a full durante los próximos 5 años o 1440p +60fps para los próximos 3 años y defendiéndose en 4K 60fps en los juegos actuales en Ultra.

Edit: Como todos sabemos, podemos alargar la vida de las gráficas bajando settings. Yo estube con una GTX 670 de 2GBGDDR5 de 2012 a 2018. Porque jugaba a 1080p. Pero a la que me pillé un monitor 1440p 144hz te pide otra gráfica mas pepino. Me pillé la GTX 1060 de 6GBGDD5, de transición, llevo con ella 2 años, pero deseando pillarme una 3070 o 3080 para darle cera y que me dure mínimo 6 añitos.


Justo casi mi mismo caso, aunque llevo 3 con una 1070 y voy a por una 3080 para que me dure 6 años minimo a 1440p...
Yo digo con la duda de con qué acompañar al 27GL850 (1440p@144):

A) Tirar por la 3070 para que, en caso de salida de las Super, no palme tanta pasta como con la 3080.

B) Tirar por la 3080, cruzar dedos para que 10Gb sean suficientes, y olvidarme ya.

C) Ver qué hace AMD con RDNA2.
@Gwyn D) Por la 3090 y no tendras problema [carcajad]
yonnah escribió:@Gwyn D) Por la 3090 y no tendras problema [carcajad]


E) Atracar un banco para costear la 3090 XD
@Gwyn Yo tengo ese monitor pero en 32"de secundario, y tiraría a por la 3080 en tu caso para olvidarme.
Yo al tener la tv 4k y otro monitor 32:9 es donde dudo si la 3080 o la 3090 para tirar 4 o 5 años mínimo
Lebroncito escribió:
Miles Wolf escribió:
La VRAM que montan la 3070 y la 3080 es justita (para jugar a más de 1080p y 60Hz digo), no hay que darle más vueltas..

[qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
pero de donde coño salis vosotros? [plas]


Ya reirán los que la tengan y dentro de tres años y quieran poner un juego de esa época a 2K o así...
Wanderlei escribió:
yonnah escribió:@Gwyn D) Por la 3090 y no tendras problema [carcajad]


E) Atracar un banco para costear la 3090 XD


F) Pillarte la 3090, la 3080 y la 3070. Así puedes elegir la que quieras. La pinchas y ya está.
The-Best escribió:
Zuffuel escribió:


17 teraflops de diferencia y solo 30-40fps más? [toctoc]

Muy poco me parece


Olvidate de comparar teraflops con generaciones anteriores, Nvidia ha doblado los cuda cores en esta generación (que basicamente dobla los teraflops), por lo que ha pasado a ser un número algo irrelevante en términos de rendimiento real. La diferencia está muy bien porque no compara misma gama, la 3090 es la 2080 Ti de esta generación.
31123 respuestas