[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Antoniopua está baneado por "saltarse el ban con un clon"
¿Estais seguros de que las Customs se van a ir mucho de precio esta vez? Tengo dudas de que solo se vayan 100 Euros a lo máximo y no se porque... Comprar ahora una 2080 Ti, es buena compra dependiendo de la configuración a la que se juegue. Esa gráfica era para 4k y mínimo 2k, por tanto comprarla barata pero jugar por debajo de la resolución para la que fue creada lo veo caro. Yo personalmente hubiese esperado a la 3070.
Kalakatita escribió:Yo no soy experto, pero desde luego los ingenieros de Nvidia seguro que sí lo son. Indudablemente mucho mas que todos los que estamos aquí. Asi pues, confio en que no se quede toda una 3080 corta de VRAM por un “descuido” o simplemente por tacañeria. Estas gráficas estan diseñadas para lo que se viene, que sin ser para nada consolero, si que considero que son las consolas las que marcan lo que vamos a poder ver graficamente esta proxima gen. Evidentemente mejorado en pc, mejoradisimo en ocasiones, a mayor resolucion y fps.. Pero al final las consolas “dicen” cuando empieza una nueva gen y cuando no. Asi esta el mercado.
Asi que si Nvidia ha sacado estas graficas, habran tenido en cuenta cientos de factores que nosotros ignoramos y por ello, por mi parte, tienen mi confianza.


Yo creo que es simplemente una decisión empresarial para que la gente vuelva a pasar por caja pronto. Que les costaría ponerle al menos 16GB en lugar de 10 a nivel fabricación? 30$? No creo que mucho mas. Pero claro canibalizarian bastante las ventas de la 3090.

Puse unos post atrás un tweet de un lead engineer de ID que dice 8GB sera el mínimo en muy poco tiempo y visto lo visto sinceramente me lo creo.
Nowcry escribió:
josemurcia escribió:
Nowcry escribió:Y por otro lado la diferencia de memoria 14 de GDDR (memoria dedicada para juegos segun rumores de PS5) vs 8 gb de GDDR es demasiado grande para que no afecte a las texturas, la iluminación la 3070 va a ser la ganadora pero sinceramente en texturas y detalles va a ser bastante mierdera en comparacion.

Un saludo.

Claro, porque todo el mundo sabe que la memoria solo la utiliza la GPU. [qmparto]


Nooo lo pone bien 14 GB de GDDR, he restado los 2 GB reservados para el sistema. Siquires mete 1 Gb mas para procesos del juego o incluso mete dos.
hablamos de 12 GB vs 8 GB me parece bastante normal lo que se esta comentando.


@battman80 A ver por donde sale AMD, espero que puedan ser competitivos si tenemos estos precios es por ellos. Aunque nunca he sido muy pro AMD por malas experiencias en el pasado. Se que estan mejorando bastante.

@hh1 En potencia esta perfectas pero cambio de consolas con mas VRAM, logicamente se necesita mas VRAM.

@josemurcia tecnologia nueva, ahora ya me la he estudiado.

¿2GB para todos los procesos de la CPU? No se en que mundo vives, pero la CPU y la RAM van a tener mucho más peso esta generación que en la anterior, la GPU con la nueva I/O no necesita tanta memoria, y por algo NVIDIA ha metido "solo" 8 y 10GB en sus gamas altas.

Y habrás estudiado lo que quieras, que ni tu ni ninguno de nosotros sabemos como está implementado RTX I/O y ya estás diciendo que no puede ser igual de bueno que el de PS5 en base a invenciones tuyas.
Pues AMD parecer parece que va por mal camino [facepalm] , ahora por lo visto va a sacar dos versiones de cada una de sus tres gpus, una con gddr6 y la otra con hbm2 [facepalm] .

No se yo, pero esa jugada me suena a pollo sin cabeza, se ve que ayer se cayeron de la silla del susto que les dió las Ampere. Y si, en las filtraciones que mas alto apuntaban, hablaban de que Big Navi iba a ser un 10-15% faster que la 2080Ti... Mare mia, las van a tener que vender a 300 pavos. Eso si, les meten 16 GIGAZOS, (para los micropoligonos [sonrisa] ), dicen, al menos las gddr6. No puedo evitar recordar el sangrante caso de la 580 de 8gbs y la 1060 de 6gbs,... [idea] .
josemurcia escribió:
Nowcry escribió:
josemurcia escribió:Claro, porque todo el mundo sabe que la memoria solo la utiliza la GPU. [qmparto]


Nooo lo pone bien 14 GB de GDDR, he restado los 2 GB reservados para el sistema. Siquires mete 1 Gb mas para procesos del juego o incluso mete dos.
hablamos de 12 GB vs 8 GB me parece bastante normal lo que se esta comentando.


@battman80 A ver por donde sale AMD, espero que puedan ser competitivos si tenemos estos precios es por ellos. Aunque nunca he sido muy pro AMD por malas experiencias en el pasado. Se que estan mejorando bastante.

@hh1 En potencia esta perfectas pero cambio de consolas con mas VRAM, logicamente se necesita mas VRAM.

@josemurcia tecnologia nueva, ahora ya me la he estudiado.

¿2GB para todos los procesos de la CPU? No se en que mundo vives, pero la CPU y la RAM van a tener mucho más peso esta generación que en la anterior, la GPU con la nueva I/O no necesita tanta memoria, y por algo NVIDIA ha metido "solo" 8 y 10GB en sus gamas altas.

Y habrás estudiado lo que quieras, que ni tu ni ninguno de nosotros sabemos como está implementado RTX I/O y ya estás diciendo que no puede ser igual de bueno que el de PS5 en base a invenciones tuyas.


Solo se que el ancho de banda máximo pico teniendo en cuenta compresión es de 14 GB/s con eso ya se como compararlo.
Buenas, vengo a preguntar a ver si me entero de algo, que ando verde.

- ¿Que diferencia hay entre las custom y las Founders?
- ¿Creeis que se agotará el stock de las 3080 y hasta diciembre nada, o habrá un flujo constante?
- Ahora mismo ando jugando con un portatil de hace 4 años y tiene una gtx960m..., ¿merece la pena pasarme al 2k o salto directamente al 4k, y pasar a la 3080 o voy a por una 2070 super? Busco más estabilidad que "potencia", por lo que el verse "un poco peor" no es un problema para mi llegado el caso.
Nowcry escribió:Solo se que el ancho de banda máximo pico teniendo en cuenta compresión es de 14 GB/s con eso ya se como compararlo.

El ancho de banda máximo y constante son 7Gbps que es lo que dan los NVMe nuevos sobre PCIe4, punto.

PS5 tiene 5.5 y Xbox Series X 2.4, no hay más.

Los ratios de compresión sin pérdida es 2:1 para todas, que es lo que ofrecen los algoritmos actuales, y por eso son 14Gbps de media al igual que en PS5 son 9 y en Series X son 4.8, nada de pico.
Estoy viendo las customs y joder, que feas son. Un paso atrás respecto a las 2000. La mayoría horribles.
Eilex_D escribió:Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?

Ningún juego a 1080p va a aprovechar toda la potencia de una 3080 en mas tiempo del que tardará en salir una 4070 mejor y mas barata.
Lo veo una muy muy mala compra para esa resolución.
Incluso a 1440p 75hz lo veo demasiado.
Garbans escribió:
gunman1976 escribió:
Bio81 escribió:que fea es esta EVGA espero que la FTW 3 este mas guapa


Que dios te conserve la vista porque el gusto te empieza a fallar.

En cualquier caso a mi esta no me llama porque voy a por la Watercooled.

A ver cuando publican precios y disponibilidad.

P.D.: Es coña lo de arriba. Como dicen algunos para gustos los colores o las opiniones son como los culos, todo el mundo tenemos uno.


Es que EVGA tiene 4 modelos de los cuales 2 son watercooled

https://www.evga.com/articles/01434/evg ... 30-series/

Imagen


Imagen


La mía sería la que no es híbrida.

La integraré en mi refrigeración líquida y la montaré con tubo rígido, ya que todavía no he probado la refrigeración de tubo rígido. Ahora la tengo en tubo flexible.


Lo que todavia no tengo claro es si será la 3080 o la 3090.
adriano_99 escribió:
Eilex_D escribió:Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?

Ningún juego a 1080p va a aprovechar toda la potencia de una 3080 en mas tiempo del que tardará en salir una 4070 mejor y mas barata.
Lo veo una muy muy mala compra para esa resolución.
Incluso a 1440p 75hz lo veo demasiado.


No estoy de acuerdo, puedes jugar a 1080p subido el antialising a tope o el DSR a tope o combinación de ambos
KindapearHD escribió:Estoy viendo las customs y joder, que feas son. Un paso atrás respecto a las 2000. La mayoría horribles.

+1000 Gran parte por esto voy a ir a por una FE. Me parecen muy sobrias.
josemurcia escribió:
Nowcry escribió:Solo se que el ancho de banda máximo pico teniendo en cuenta compresión es de 14 GB/s con eso ya se como compararlo.

El ancho de banda máximo y constante son 7Gbps que es lo que dan los NVMe nuevos sobre PCIe4, punto.

PS5 tiene 5.5 y Xbox Series X 2.4, no hay más.

Los ratios de compresión sin pérdida es 2:1 para todas, que es lo que ofrecen los algoritmos actuales, y por eso son 14Gbps de media al igual que en PS5 son 9 y en Series X son 4.8, nada de pico.


No hombre no 7 GB/s es el pico máximo de 4 canales de PCIeGen4. Con compresión en pico máximo son 14 GB/s teniendo en cuenta compresión de texturas de alto rendimiento,se espera un rendimiento sostenido de 5-8 GB/s compresión metida. Esta perfecta no hace falta mucho mas. Pero anda lejos de los 22GB/s de pico de PS5 sin tener en cuenta oddle textures y 9 GB/s sostenido sin compresión de texturas de alto rendimiento posiblemente se lleguen a 11GB/s con Odde textures. Pero esas diferencias solo se explotaran por los estudios 1st de sony.

El resto se adecuara a lo que permita realmente PCIeGen4x con configuraciones a PCIeGen3 mediante opciones para adecuarse a la penetración del mercado. Al menos hasta finales de 2021- mediados 2022 que PCieGen5 salga debido al empuje de I/O como garante gráfico. A partir de ahí ya nadie tosera a PC en ningún apartado.
gojesusga escribió:
adriano_99 escribió:
Eilex_D escribió:Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?

Ningún juego a 1080p va a aprovechar toda la potencia de una 3080 en mas tiempo del que tardará en salir una 4070 mejor y mas barata.
Lo veo una muy muy mala compra para esa resolución.
Incluso a 1440p 75hz lo veo demasiado.


No estoy de acuerdo, puedes jugar a 1080p subido el antialising a tope o el DSR a tope o combinación de ambos

Hacer supersampling hoy día es absurdo , apenas notas mejora y quemas rendimiento que vale una pasta.
Antes que una 3080 y acabar usando medidas desesperadas para que la gráfica no se eche una siesta que se compre una 3070 y un mejor monitor.
sobre el tema de memoria no se como ira, pero si una xbox series s para 1440p monta 10gb en total un pc con 16gb de ram y 8gb de vram ha de tener suficiente para 1440p y 10gb para 4k deberian ir biren.
al menos apriori

pero en pocos meses se vera todo

saludos
battman80 escribió:No puedo evitar recordar el sangrante caso de la 580 de 8gbs y la 1060 de 6gbs,... [idea] .


Qué pasó?
Yo creo que me voy a esperar a las Ti con mas vram, y a quemar la 2070 hasta que las anuncien.
sitosnk escribió:sobre el tema de memoria no se como ira, pero si una xbox series s para 1440p monta 10gb en total un pc con 16gb de ram y 8gb de vram ha de tener suficiente para 1440p y 10gb para 4k deberian ir biren.
al menos apriori

pero en pocos meses se vera todo

saludos


Depende de para cuanto tiempo tiempo quieres que te dure la GPU, si me dices que con un par de años te vale creo que no tendras problema. Si la quieres para 5 años o los 7 años de Gen, simplemente no creo que se pueda conseguir sin recucir de forma significativa las experiencias graficas.
adriano_99 escribió:
Eilex_D escribió:Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?

Ningún juego a 1080p va a aprovechar toda la potencia de una 3080 en mas tiempo del que tardará en salir una 4070 mejor y mas barata.
Lo veo una muy muy mala compra para esa resolución.
Incluso a 1440p 75hz lo veo demasiado.


para 1440p 170hz lo verias bien? o mejor esperar a las ti por el tema de la vram?
Wanderlei escribió:
adriano_99 escribió:
Eilex_D escribió:Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?

Ningún juego a 1080p va a aprovechar toda la potencia de una 3080 en mas tiempo del que tardará en salir una 4070 mejor y mas barata.
Lo veo una muy muy mala compra para esa resolución.
Incluso a 1440p 75hz lo veo demasiado.


para 1440p 170hz lo verias bien? o mejor esperar a las ti por el tema de la vram?

No creo que la memoria sea un problema a corto medio plazo pero es dificil de decir.
Nowcry escribió:No hombre no 7 GB/s es el pico máximo de 4 canales de PCIeGen4. Con compresión en pico máximo son 14 GB/s teniendo en cuenta compresión de texturas de alto rendimiento,se espera un rendimiento sostenido de 5-8 GB/s compresión metida. Esta perfecta no hace falta mucho mas. Pero anda lejos de los 22GB/s de pico de PS5 sin tener en cuenta oddle textures y 9 GB/s sostenido sin compresión de texturas de alto rendimiento posiblemente se lleguen a 11GB/s con Odde textures. Pero esas diferencias solo se explotaran por los estudios 1st de sony.

El resto se adecuara a lo que permita realmente PCIeGen4x con configuraciones a PCIeGen3 mediante opciones para adecuarse a la penetración del mercado. Al menos hasta finales de 2021- mediados 2022 que PCieGen5 salga debido al empuje de I/O como garante gráfico. A partir de ahí ya nadie tosera a PC en ningún apartado.

¿Ves como no tienes ni idea y te lo inventas todo?

Los 14 Gbps efectivos son los mismos que los 9 de PS5 y los 4.8 de XSX, punto. Porque todos los algoritmos de compresión sin pérdida actuales rondan el ratio 2:1, DEFLATE y Kraken un poco menos de 2:1 y BCPack un poco más, pero al final todos rondan lo mismo.

La compresión se hace offline y los juegos vienen comprimidos como vienen, que hablas como si la compresión se hiciera en tiempo real. Y la descompresión se hace en hardware, por lo tanto los picos son porcentualmente los mismos para todos. Insisto, el mismo bloque de assets va a ocupar comprimido lo mismo +-10% en PC, PS5 y XSX, y el ancho de banda efectivo es el del canal, por lo tanto la tasa de transferencia será proporcional al ancho de banda, no hay magia aquí.

Oodle Textures se puede utilizar también en PC y XSX, porque va antes de la compresión en bloque, y las mejoras son las mismas que usarlo en PS5.
ayran escribió:
KindapearHD escribió:Estoy viendo las customs y joder, que feas son. Un paso atrás respecto a las 2000. La mayoría horribles.

+1000 Gran parte por esto voy a ir a por una FE. Me parecen muy sobrias.


A mi también me parecen súper bonitas las FE ahora.

Y eso que fui el primero que dijo que vaya FETOS de gráficas cuando salió la primera filtración. [sonrisa]
Una duda compis, ésto del nuevo cable de 12 pines lleva un adaptador o como funciona? adaptas 2 de 6 al de 12 o cómo?
Y otra duda: suele ser recomendable pillar una founders edition a ojos cerrados? es decir, en cuanto salgan pillarla sin saber mucho de ella en vez de esperar a alguna de evga u otro ensamblador.
Un saludo
Blackpo92 escribió:Una duda compis, ésto del nuevo cable de 12 pines lleva un adaptador o como funciona? adaptas 2 de 6 al de 12 o cómo?
Un saludo

Lleva un adaptador que convierte 2 de 8 en uno de 12.
Si fuese 2 de 6 no tendría sentido, no ganarías nada.
Pues si que tiene mala pinta lo de AMD, como no tengan alguna sorpresa este año no van a vender ni una gráfica
En cuanto a vatios, sabéis más o menos que fuente se necesita para una 3070-3080?
Salu2
A mi lo que me preocupa de la FE es el calor y ruido a parte que yo la voy a montar en vertical y no sé si con ese disipador (3080) es aconsejable...

La otra opción es la gaming X trío que me gusta mucho pero ya veremos el precio.

Por cierto en principio voy a mantener mi fuente Corsair hx750 80+ silver del 2012, ya veremos....
Blackpo92 escribió:En cuanto a vatios, sabéis más o menos que fuente se necesita para una 3070-3080?
Salu2


3080 => 750w
Blackpo92 escribió:En cuanto a vatios, sabéis más o menos que fuente se necesita para una 3070-3080?
Salu2


Yo haciendo calculos para una 3080 me han dicho por aqui que con una buena fuente de 650w funciona, asi que yo me fio de los expertos de aqui XD
Bueno, ya van saliendo cosillas de ampere antes del white paper, como por ejemplo como han metido el doble de unidades FP32:

https://twitter.com/davideneco25320/sta ... 19/photo/1
Nowcry escribió:
sitosnk escribió:sobre el tema de memoria no se como ira, pero si una xbox series s para 1440p monta 10gb en total un pc con 16gb de ram y 8gb de vram ha de tener suficiente para 1440p y 10gb para 4k deberian ir biren.
al menos apriori

pero en pocos meses se vera todo

saludos


Depende de para cuanto tiempo tiempo quieres que te dure la GPU, si me dices que con un par de años te vale creo que no tendras problema. Si la quieres para 5 años o los 7 años de Gen, simplemente no creo que se pueda conseguir sin recucir de forma significativa las experiencias graficas.

me estas diciendo que si la 7970 y la gtx 680 tuvieran mas vram aguantarian los juegos de ahora a 4k?

si quieres algo para 5 o 7 años compra una consola, porque en pc siempre han sido las cosas asi.
creo que equivocais el camino, gastar ahora 800€ no te garantiza ni ahora ni antes nada, es mas el que compre ahora una 3060, luego una 4060 y luego una 5060 tendra mas rendimiento final que el que pille una 3090 gastando lo mismo, es asi y siempre ha sido asi, por eso no entiendo tanto comentario sobre algo que siempre ha sido asi.

si quieres disfrutar de lo mejor pillate lo que puedas ahora, pero no cuentes que en 3 años siga siendo igual de eficaz, si quieres pc para ahora y para unos años no compres lo mejor, compra calidad/precio y si quieres algo para jugar 7 años sin tocar nada compra una consola.

es mi humilde y subjetiva opinion, tras muchos años con consolas y con pc's

saludos
He estado viendo los modelos de todos los fabricantes, pero en ningún lado han especificado la cantidad de Vram que llevarán. Es extraño. Por ahora sólo sabemos los de las Founder.

Por cierto, me ha gustado bastante lo que ha sacado nividia. Mi modelo va a ser la 3080 rtx con bloque de agua. Esperemos que vengan más modelos de los que vino con la serie 20xx ya que a penas estaba el bloque de agua EK de MSI en la 2080 y 2080 ti.

Por otro lado, también tenemos que ser cautos con el % de problemas de hardware ya que ese proceso de fabricación de samsung 7nm no está muy pulido.
Resumen:

Ayer parecía que Nvidia se sacaba la polla, gráficas tan potentes que destrozaban a las RTX 20 y a precios irrechazables.

Pero fue una ilusión pasajera, ya que hoy compres la RTX 30 que compres, estás haciendo una tontería:

3090--> Demasiado potente, demasiada VRam, para gamming no compensa, no habrá juegos que aprovechen toda esa potencia hasta dentro de años. Y entonces ya habrá una RTX 4060 que se la meara en la cara... Mejor cómprate una 3080, no seas tonto, que cuesta la mitad y es un pepino.

3080--> Con solo 10 GB de VRam ??? Eso se queda corto en 2 días. Y en cuatro días sale la 3080 super con 16 Gb y después la ti con 20 GB... tontería comprar ahora.

3070--> La potencia de una 2080ti por 519€ !!! Vamosss!!! Espera...8 GB GDDR6, ni siquiera GDDR6X??? Pues para eso, no será mejor una 2080 ti de segunda zarpa por unos 400-450€, que tiene 11 GB de VRam???
Sumemos el tema poca VRam + versiones super/ti en cuatro días (es que ya es oficial una de MSI con 16 Gb). Mala compra.

2080ti--> Vaya tontería, por poco más te compras la 3070. O esperas a la 3060, que no rendirá mucho menos y saldrá por unos ??? 350€ ???

Y espera, que AMD...e Intel...y las consolas nextgen...

Joder, ayer tirábamos billetes al monitor durante la presentación del chino Huan, hoy no podemos hacer nada más que compras descerebradas...

Los únicos que parecen felices son los que compraron la 1080ti de salida y aún hoy la disfrutan.

Ni yo sé si esto está escrito de forma irónica o es un resumen objetivo. [666]
descoat escribió:He estado viendo los modelos de todos los fabricantes, pero en ningún lado han especificado la cantidad de Vram que llevarán. Es extraño. Por ahora sólo sabemos los de las Founder.

Por cierto, me ha gustado bastante lo que ha sacado nividia. Mi modelo va a ser la 3080 rtx con bloque de agua. Esperemos que vengan más modelos de los que vino con la serie 20xx ya que a penas estaba el bloque de agua EK de MSI en la 2080 y 2080 ti.

Por otro lado, también tenemos que ser cautos con el % de problemas de hardware ya que ese proceso de fabricación de samsung 7nm no está muy pulido.



¿Podrían llevar ya de un inicio más VRAM que las FE?

Me parecería muy raro....

@metalero24 para cuando se podrían poner a la venta? Porque lo de los 4 días pueden ser 4 meses como 1 año...
Antoniopua escribió:¿Estais seguros de que las Customs se van a ir mucho de precio esta vez? Tengo dudas de que solo se vayan 100 Euros a lo máximo y no se porque... Comprar ahora una 2080 Ti, es buena compra dependiendo de la configuración a la que se juegue. Esa gráfica era para 4k y mínimo 2k, por tanto comprarla barata pero jugar por debajo de la resolución para la que fue creada lo veo caro. Yo personalmente hubiese esperado a la 3070.

En algun sitio que no recuerdo he leido que las custom que estaban sacando, estaban saliendo a precio de FE. Pero ya sabeis como son las tiendas en estos lares.

Comprar una 2080ti o cualquier serie 2000 lo veo ahora un desperdicio. Tendria que ser muy economica en comparación.

Y total hasta el dia 17 no vamos a ver precios reales más alla de lo publicado de las FE. Las cuales no veo que sean mala compra, igual son hasta mejor.
Pues yo fui uno de los polletes q compró una 2080 super en julio, creyendo q saldrian carisimas las amparito, y vaya maldita sorpresa! !
De todas maneras, como a muchos otros del foro, el tema de la vram de la 3080 q es la q me llamaba la atencion por la relacion precio/potencia, me hecha totalmente para atras y me hace olerme una version ti o super para principios d 2021, con mas vram, o eso espero.
Creo q aguantare y ya de paso la amortizaré, pq vaya palo nos han pegado a los tontos como yo, q compramos una 2080super, ya ni te cuento a los de la 2080ti, caguen tooo......!!!!
josemurcia escribió:
Nowcry escribió:No hombre no 7 GB/s es el pico máximo de 4 canales de PCIeGen4. Con compresión en pico máximo son 14 GB/s teniendo en cuenta compresión de texturas de alto rendimiento,se espera un rendimiento sostenido de 5-8 GB/s compresión metida. Esta perfecta no hace falta mucho mas. Pero anda lejos de los 22GB/s de pico de PS5 sin tener en cuenta oddle textures y 9 GB/s sostenido sin compresión de texturas de alto rendimiento posiblemente se lleguen a 11GB/s con Odde textures. Pero esas diferencias solo se explotaran por los estudios 1st de sony.

El resto se adecuara a lo que permita realmente PCIeGen4x con configuraciones a PCIeGen3 mediante opciones para adecuarse a la penetración del mercado. Al menos hasta finales de 2021- mediados 2022 que PCieGen5 salga debido al empuje de I/O como garante gráfico. A partir de ahí ya nadie tosera a PC en ningún apartado.

¿Ves como no tienes ni idea y te lo inventas todo?

Los 14 Gbps efectivos son los mismos que los 9 de PS5 y los 4.8 de XSX, punto. Porque todos los algoritmos de compresión sin pérdida actuales rondan el ratio 2:1, DEFLATE y Kraken un poco menos de 2:1 y BCPack un poco más, pero al final todos rondan lo mismo.

La compresión se hace offline y los juegos vienen comprimidos como vienen, que hablas como si la compresión se hiciera en tiempo real. Y la descompresión se hace en hardware, por lo tanto los picos son porcentualmente los mismos para todos. Insisto, el mismo bloque de assets va a ocupar comprimido lo mismo +-10% en PC, PS5 y XSX, y el ancho de banda efectivo es el del canal, por lo tanto la tasa de transferencia será proporcional al ancho de banda, no hay magia aquí.

Oodle Textures se puede utilizar también en PC y XSX, porque va antes de la compresión en bloque, y las mejoras son las mismas que usarlo en PS5.


Venga voy a jugar tu juego.

Vale todos los algoritmos de compresion sin perdida rondan el ratio 2:1, puesto que la capacidad de trasferencia de PS5 es de 5,5 GB/s en RAW le corresponden 11 GB/s de comprimido con un ratio 2:1 (gracias a oddle textures) y no 9 como ya te he comentado mas arriba.

Oodle Textures se puede utilizar también en PC y XSX, porque va antes de la compresión en bloque, y las mejoras son las mismas que usarlo en PS5.

Claro pero ya ha sido tenida en cuenta con el ratio 2:1 excepto en PS5. Que en Road to PS5 los ratios ofrecidos son sin Oddle Textures porque aun no habia completado su desarrollo. Ya que fue presentado semanas despues.

En cuanto al SSD a ver como te respondo:

Esto es un benchmark de un Samsung 970 Pro SSD PCIeGen3 cuyo maximo teorico se encuentra en 4 GB/s pero el máximo teórico alcanzado se sitúa realmente en 3,5 GB/s y como finalmente solo es capaz de mantenerlos en picos observa lo que hace el amarillo que es el Samsung 970 Evo con los canales saturados en lectura secuencial PCIeGen3.

Imagen

Puedes observar como en lectura secuencial el SSD cae hasta los 2500 MB/s imposible alcanzar los 64 MB que representan 4k, ya no hablemos con lecturas aleatorias. No los canales PCIeGen4 saturados a los 7GB/s no son sostenibles en el tiempo. Ni tampoco aproximables. Si te fijas en cualquier bechmark o SSD de Gen 3 como aclaracion dire que tanto el azul como el naranja son PCIeGen4 y son capaces de sostener 5 GB/s porque los canales aun no estan saturados, pero el comportamiento sera el mismo cuando saturen.
Es incapaz de mantener durante largos periodos ya que cae por interrupciones del sistema.



Y todo esto haciendo un benchmark SSD to CPU read, no quieras imaginar lo que vas a encontrar agregando una capa de abstracción superior RTX IO y metiendo un proceso de descompresión de por medio.

Y ya por agregar un dato mas, gracias a los hot chip de SX sabemos que usa 2 lineas de pcigen4 cuya capacidad maxima teorica son 4 GB/s cuando la capacidad pico son unos 3GB/s y su sostenida son 2,5 GB/s que curiosamente es la misma sostenida por 4 lineas pcigen3 mostrada en el grafico. Si las lineas PCIeGen4 pudieran mantener 7GB/s de pico la SX tendria 3,5 GB/s de sostenida y no es asi.

Enserio deja de acusar de inventar y revisa tus conocimientos.

Un saludo.
Fernialonso88 escribió:Pues yo fui uno de los polletes q compró una 2080 super en julio, creyendo q saldrian carisimas las amparito, y vaya maldita sorpresa! !
De todas maneras, como a muchos otros del foro, el tema de la vram de la 3080 q es la q me llamaba la atencion por la relacion precio/potencia, me hecha totalmente para atras y me hace olerme una version ti o super para principios d 2021, con mas vram, o eso espero.
Creo q aguantare y ya de paso la amortizaré, pq vaya palo nos han pegado a los tontos como yo, q compramos una 2080super, ya ni te cuento a los de la 2080ti, caguen tooo......!!!!


A quién se le ocurre. Saliesen caras o baratas, era evidente que a dos meses de enseñar las 30XX es una locura comprar gráfica. Especialmente hablando de gráficas caras.
Quisiera intervenir con un apunte para todos los que piensan que la Vram se puede quedar corta, hay que tener en cuenta, que Ampere viene sobrada de Tensor Cores. Dichos tensor cores se usan para comprimir y descomprimir datos, que pueden reducir la memoria de Video (VRAM) entre un 20-40%. Así que en teoría los 8GB de la 3070 rendirían como los 11GB de la 2080ti. Y los 10GB de la 3080 podrían ser equivalentes a 14GB de la gen anterior.
ikemen escribió:Quisiera intervenir con un apunte para todos los que piensan que la Vram se puede quedar corta, hay que tener en cuenta, que Ampere viene sobrada de Tensor Cores. Dichos tensor cores se usan para comprimir y descomprimir datos, que pueden reducir la memoria de Video (VRAM) entre un 20-40%. Así que en teoría los 8GB de la 3070 rendirían como los 11GB de la 2080ti. Y los 10GB de la 3080 podrían ser equivalentes a 14GB de la gen anterior.



Si, en teoría.

A esperar pruebas reales que de momento...

Yo iba pillarme la 3080, pero de momento nanai...

Más le vale a amd hacer algo bueno para acelerar la salida de ti/super de la 3080.

Por cierto.

MSI ya tiene listada una de estas GPUs con su diseño Custom. En esencia, la GeForce RTX 3070 Ti ya se había filtrado en el pasado, pero hasta hoy no se ha podido conocer que era la GPU listada como el modelo PG142-10.

https://elchapuzasinformatico.com/2020/ ... encia/amp/
ikemen escribió:Quisiera intervenir con un apunte para todos los que piensan que la Vram se puede quedar corta, hay que tener en cuenta, que Ampere viene sobrada de Tensor Cores. Dichos tensor cores se usan para comprimir y descomprimir datos, que pueden reducir la memoria de Video (VRAM) entre un 20-40%. Así que en teoría los 8GB de la 3070 rendirían como los 11GB de la 2080ti. Y los 10GB de la 3080 podrían ser equivalentes a 14GB de la gen anterior.


Es cierto que de esto he leido algo por alguna parte:

Vale lo he encontrado en el whitter paper de nvidia, de lo poco que viene es esto.

Imagen

Usando la intuicion parece que se utiliza para mejorar los anchos de banda internos pero no es aplicable a ahorros en la GDDR y no llego a entender porque no, Aun asi no sabria decirte si las GPU de escritorio tienen este metodo o solo es para el A100, chip de IA en servidores.

A no ser que te refieras a descompresion por RTX I/O, esa descompresion debe hacerse practicamente al vuelo y ponerla sin comprimir en la GDDR directamente para el uso de las CUDAS.

Pues si eso es cierto, en el doom no veo casi el doble de diferenca eh, como mucho un 40% más.
Nowcry escribió:Venga voy a jugar tu juego.

Vale todos los algoritmos de compresion sin perdida rondan el ratio 2:1, puesto que la capacidad de trasferencia de PS5 es de 5,5 GB/s en RAW le corresponden 11 GB/s de comprimido con un ratio 2:1 (gracias a oddle textures) y no 9 como ya te he comentado mas arriba.

Oodle Textures se puede utilizar también en PC y XSX, porque va antes de la compresión en bloque, y las mejoras son las mismas que usarlo en PS5.

Claro pero ya ha sido tenida en cuenta con el ratio 2:1 excepto en PS5. Que en Road to PS5 los ratios ofrecidos son sin Oddle Textures porque aun no habia completado su desarrollo. Ya que fue presentado semanas despues.

Oodle Texture no tiene nada que ver con la compresión en bloque, los 9 Gbps vienen de que Kraken da un ratio de compresión sin pérdida media de 1.65:1, por eso he dicho un poco menos de 2:1.

Oodle Texture no entra en la ecuación, porque como digo, los mismos beneficios se aplican al resto de algoritmos de compresión.

Además Oodle Texture no se puede aplicar a modelos y animaciones, y es un algoritmo de compresión con pérdida, por lo que solo interesa aplicarlo a determinadas texturas.

Realmente no se puede estimar una media de lo que aportaría Oodle Texture sin establecer primero que % de texturas comprimidas con pérdida se van a transferir en un determinado tiempo. Y aunque lo determinaramos sería el mismo tamaño en todos los sistemas por lo que la mejora porcentual sería la misma en todos.

Nowcry escribió:En cuanto al SSD a ver como te respondo:

Esto es un benchmark de un Samsung 970 Pro SSD PCIeGen3 cuyo maximo teorico se encuentra en 4 GB/s pero el máximo teórico alcanzado se sitúa realmente en 3,5 GB/s y como finalmente solo es capaz de mantenerlos en picos observa lo que hace el amarillo que es el Samsung 970 Evo con los canales saturados en lectura secuencial PCIeGen3.

Puedes observar como en lectura secuencial el SSD cae hasta los 2500 MB/s, ya no hablemos con lecturas aleatorias. No los canales PCIeGen4 saturados a los 7GB/s no son sostenibles en el tiempo. Ni tampoco aproximables. Si te fijas en cualquier bechmark o SSD de Gen 3 como aclaracion dire que tanto el azul como el naranja son PCIeGen4 y son capaces de sostener 5 GB/s porque los canales aun no estan saturados, pero el comportamiento sera el mismo cuando saturen.
Durante un tiempo pico se sostiene y luego cae por interrupciones del sistema.

Y todo esto haciendo un benchmark SSD to CPU read, no quieras imaginar lo que vas a encontrar agregando una capa de abstracción superior RTX IO y metiendo un proceso de descompresión de por medio.

Enserio deja de acusar de inventar y revisa tus conocimientos.

Un saludo.


Esos picos no son por saturación, el eje X no va ligado al tiempo, es el tamaño de bloque de la operación y para cada tamaño de bloque se testea exactamente la misma transferencia. Lo único que te dice ese benchmark es que si vas a leer un archivo, hazlo en bloques de entre 1 y 8MB, si lo haces de menos o si lo haces de más, el 970 Evo Plus da un rendimiento subóptimo, cosa que por lo que parece es problema de ese SSD en particular.

Atto Disk Benchmark

One of the finest tools available to measure storage performance is ATTO. I love it to death as it is so reliable and produces such accurate results. The great thing about ATTO is that we can test with predefined block sizes. So we can test with a 32 MB sequence of 4 KB files, yet also 32 MB in 1 MB files. This gives us an excellent scope of overall performance with small and large files.


https://www.guru3d.com/articles-pages/h ... iew,6.html

Puede que ese benchmark en concreto muestre un problema de firmware que Samsung solucionó via update, porque puedes ver el mismo test en otras webs donde no tiene ese problema.

Imagen
https://www.kitguru.net/components/ssd- ... -review/5/
Para los pro del tema...
Precio Max por una 2080ti ( 350/400 ) ?? Y que 2080ti es la mejor ?

Una 2080ti con el futuro ryzen 4xxxx de sobra para toda la new gen ¿?
Pulet escribió:

Pues si eso es cierto, en el doom no veo casi el doble de diferenca eh, como mucho un 40% más.

Es que el doble de potencia es con la 2080 no la 2080ti
Pulet escribió:

Pues si eso es cierto, en el doom no veo casi el doble de diferenca eh, como mucho un 40% más.

Es que es la 3080 vs 2080ti, no la 2080. [carcajad]
Pulet escribió:

Pues si eso es cierto, en el doom no veo casi el doble de diferenca eh, como mucho un 40% más.


Aparte de lo que te han comentado, he leido que debe ser fake, ya que el que ha subido el video parece que solo tiene videos con hardware de "baja categoria", y se preguntan de done ha sacado una 3080 para hacer las pruebas.
Supongo que algun fanboy leera esto y dira vaya churro de AMD.
https://elchapuzasinformatico.com/2020/ ... r6-y-hbm2/
Y cierto. Sin lugar a dudas si es asi la big navi no hara mella a la 3090, ni a la 3080. Pero las radeon 6000 si podrian hacer bajar el precio de las 3070 y 3060 aunque tengo mis dudas.

Depende tambien de las capacidades de las tarjetas de AMD. Aunque me parece que lo anunciado por Nvidia les ha debido sentar como un puñetazo directo a la cabeza.

Lo digo por si alguien esta pensando "me espero a big navi a ver si los precios bajan algo" y puede que el efecto sea el contrario.

Ah y otro punto. Muchos por aqui pensabamos que las variantes Ti serian lanzadas cuando AMD lanzara big navi pero lo cierto es que no se para que......no me extraña que la 3070Ti ya haya sido desvelada por varias marcas. Aunque sospecho que pasara ampliamente de los 600€.
Valhan escribió:
Pulet escribió:

Pues si eso es cierto, en el doom no veo casi el doble de diferenca eh, como mucho un 40% más.


Aparte de lo que te han comentado, he leido que debe ser fake, ya que el que ha subido el video parece que solo tiene videos con hardware de "baja categoria", y se preguntan de done ha sacado una 3080 para hacer las pruebas.



Hombre, canta a la legua. Un canal con que? 300 subs? Y esa forma to rara de hacer la comparativa...
31123 respuestas