[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

jiujinkai escribió:
oskilla84 escribió:Supongo que una 3090 junto a un 7700k seria una locura,verdad?

No entiendo por qué? Yo voy a pillarme al final la 3090 con un 8700k, yo creo que estos procesadores son más que suficientes.

si miras el hilo verás que la gente está diciendo que prácticamente necesitas un 3900 para que valga la pena una 3080 o una 3090 [mad] es normal que la gente acabe dudando

incluso con un 6700 tiraría bien dependiendo de la resolución y del framerate al que se quiera llegar
alvaro200 escribió:Sacado de la propia Nvidia en reddit, hablando sobre el tema de la VRAM:

Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

[Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.

In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.

Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.


Fuente


Sacado de la propia que vende el producto, a ver, sería bastante curioso que ellos mismos dijeran que sus gráficas andan cortas de vram xDDD

Lo ideal es una gráfica un 15% más rapida que la 3080 con 16 de vram, que sera la Ti a la semana de que amd saque las suyas.
Y de las 3060 se sabe algo?
wildchild_bcn escribió:
jiujinkai escribió:
oskilla84 escribió:Supongo que una 3090 junto a un 7700k seria una locura,verdad?

No entiendo por qué? Yo voy a pillarme al final la 3090 con un 8700k, yo creo que estos procesadores son más que suficientes.

si miras el hilo verás que la gente está diciendo que prácticamente necesitas un 3900 para que valga la pena una 3080 o una 3090 [mad] es normal que la gente acabe dudando

incluso con un 6700 tiraría bien dependiendo de la resolución y del framerate al que se quiera llegar

Pues no lo entiendo, un 7700k 8700k chuta y sobra para tirar a 4k y las exigencias que tenga, vamos lo digo sin conocimiento, por esta regla de tres necesitaríamos un pc de la NASA para que vaya en armonía con una 3090 [carcajad]
Lemmiwinks escribió:
pdriko31 escribió:Copio y pego la contestación de Nvidia sobre la Vram:
Serie RTX 30
¿Por qué solo 10 GB de memoria para RTX 3080? ¿Cómo se determinó que era un número suficiente, cuando está estancado de la generación anterior?

[Justin Walker] Analizamos constantemente los requisitos de memoria de los juegos más recientes y los revisamos periódicamente con los desarrolladores de juegos para comprender sus necesidades de memoria para los juegos actuales y futuros. El objetivo de 3080 es brindarle un gran rendimiento con una resolución de hasta 4k con todas las configuraciones al máximo al mejor precio posible.

Para hacer esto, necesita una GPU muy potente con memoria de alta velocidad y suficiente memoria para satisfacer las necesidades de los juegos. Algunos ejemplos: si nos fijamos en Shadow of the Tomb Raider, Assassin's Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 y Red Dead Redemption 2 ejecutándose en un 3080 a 4k con la configuración máxima (incluida cualquier alta aplicable res texturas) y RTX On, cuando el juego lo admite, obtienes un rango de 60-100 fps y usas desde 4GB hasta 6GB de memoria.

Siempre es bueno tener memoria adicional, pero aumentaría el precio de la tarjeta gráfica, por lo que debemos encontrar el equilibrio adecuado.

Y cuanto mas hubiera costado sacar una 3080 con 16gb y una 3070 con 12gb? 50€ mas? Yo creo que hubiera sido mucha mejor opcion.
Yo aqui solo veo una estrategia por parte de nvidia para las futuras ti con mas vram. Cada nuevas graficas hay que vender el hype, y esta generacion ha sido la potencia bruta

https://www.noticias3d.com/noticia.asp?idnoticia=81538
Ya se está hablando de una posible 3070 Ti con 16 de vram, pero personalmente para jugar a 1440p60fps con el pc de mi firma yo creo que iré bien con la 3070 normal y aguantar 2 añitos para hacerme con un pc nuevo.
palet escribió:Y de las 3060 se sabe algo?


¿Probablemente las saquen más adelante? La verdad que ni idea.
jmjayme escribió:PREGUNTA IMPORTANTE

Hola, hoy me llega mi nueva MSI 1660 Super, tengo el equipo algo desfasado ya y en el foro me recomendaron que cambiara las memos y la gráfica (tenía una GTX 950) y ya con eso renovaba un añito el PC. En realidad no me hace mucha falta, yo juego en consola, pero quería ugar al Flight Simulator y de paso subir la calidad a los otros pocos juegos que tengo en PC como Anno 1800, Planet Zoo, los Total War...)

Por eso lo que mas me interesaba es que fuera silenciosa (uso el pc sbre todo para navegar), no consuma mucho (mi fuente tiene 400W) y moderadamente potente. Pues justo hoy cuando me llega me dicen en el hilo que devuelva la 1660 y me espere a la Ampere de 500 pavos.

¿QUE HAGO?


Hombre siempre hay que comprar según tus necesidades, esa gráfica es estupenda para lo que quieres, y la diferencia de precio la guardas para cuando montes un equipo acorde a una gráfica de 500€
Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?
@maikel_eol @lucer1 No, si me la voy a pillar, la veo muy buena a un buen precio. No creo que el i7-8700k le de problemas de cuello de botella. Pero el hilo desmoraliza un poco bastante, la verdad.
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


La respuesta a lo de la fuente de alimentación

https://outervision.com/power-supply-calculator

Yo tengo un i5 9600k, 16 gb ddr4, 1ssd, 1 hdd y psu de 700w modular y segun la web me sobra para meterle incluso un i7 10700 a 5.1 con la 3080, así que por la fuente no te preocupes.

Yo seguramente venderé la 2070 cuando salga el cyberpunk y me compraré la 3080, si veo que me hace cuello de botella con la CPU, el año que viene me cambio la placa y el proce.
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


la 3080 en teoria va a ser bastante superior a la 2080ti, pero falta ver analisis reales

con el equipo que tienes vas sobrado para una 3080

la fuente de alimentación tiene suficiente potencia pero habria que ver la calidad de esta... que marca y modelo es?
es muy importante esto ya que hay fuentes maluchas que marcan 700 800 900w y luego cuando le enchufas algo cañero pueden petar
@elamos Muchas gracias por tu respuesta. Voy a bichear la página a ver que tal. Placa espero no cambiar en un tiempo (Me petó la mia y la tuve que cambiar hace unos meses... Con todo lo que eso conlleva).

wildchild_bcn escribió:
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


la 3080 en teoria va a ser bastante superior a la 2080ti, pero falta ver analisis reales

con el equipo que tienes vas sobrado para una 3080

la fuente de alimentación tiene suficiente potencia pero habria que ver la calidad de esta... que marca y modelo es?
es muy importante esto ya que hay fuentes maluchas que marcan 700 800 900w y luego cuando le enchufas algo cañero pueden petar


Esta es

https://www.amazon.es/gp/product/B07S3X ... UTF8&psc=1

A punto estuve de pillar una NFortec de 1000W pero me dijeron que era roña siendo generosos.
Neo-Harkell escribió:@maikel_eol @lucer1 No, si me la voy a pillar, la veo muy buena a un buen precio. No creo que el i7-8700k le de problemas de cuello de botella. Pero el hilo desmoraliza un poco bastante, la verdad.


Bueno yo ya el hilo lo cojo como información para entéreme de cuando salen e
Ir aprendiendo algo, pero vamos yo voy a pillar la mía independiente de las opiniones de muchos y más que nada como digo a día de hoy estoy sin gráfica. Otra cosa es la gente que tiene una y quiere cambiarla pero puede esperar.

Saludos
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


Más que la potencia de esos 850W.. que marca/modelo es la fuente?

No me digas una Tacents , NF o derivados
d2akl escribió:
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


Más que la potencia de esos 850W.. que marca es la fuente?


Corsair RM850

https://www.amazon.es/gp/product/B07S3X ... =cmprd2-21
Daicon escribió:
elamos escribió:El que tenga dudas de si debe cambiarse la fuente de alimentación o no para una 3080 que se meta en la web https://outervision.com/power-supply-calculator y ahí verá si con su equipo actual o futuro necesita cambiarse la psu

En mi caso con mi equipo actual un i5 9600k a 4.6 + RTX 3080 y 16gb de ram me pide una de 650w indicando que la potencia de carga es de 575 W

Actualmente tengo una be quiet 100% modular de 700w plus Gold un buen pepino de fuente así que me quedo tranquilo.

Si cambiase la cpu y le pusiera un i7 10700k a 5.1 me pediria una de 700w siendo la potencia de carga de 621w, así que nada parece que me he librado de renovar psu


Mejor que eso, se compre un enchufe inteligente, por 10 euros.

Le haga un streas al pc, y el máximo que le dé, ya sabe el sobrante que le queda para la gráfica.s



Cuidado que los enchufes inteligentes baratos suelen estar limitados a salida de 10 amperios. Y los algo mejores, suelen limitarse a 16. No valen para cualquier cosa.
i3rk escribió:@elamos Muchas gracias por tu respuesta. Voy a bichear la página a ver que tal. Placa espero no cambiar en un tiempo (Me petó la mia y la tuve que cambiar hace unos meses... Con todo lo que eso conlleva).

wildchild_bcn escribió:
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


la 3080 en teoria va a ser bastante superior a la 2080ti, pero falta ver analisis reales

con el equipo que tienes vas sobrado para una 3080

la fuente de alimentación tiene suficiente potencia pero habria que ver la calidad de esta... que marca y modelo es?
es muy importante esto ya que hay fuentes maluchas que marcan 700 800 900w y luego cuando le enchufas algo cañero pueden petar


Esta es

https://www.amazon.es/gp/product/B07S3X ... UTF8&psc=1

A punto estuve de pillar una NFortec de 1000W pero me dijeron que era roña siendo generosos.


vas sobraisimo con ese PC y esa es una señora fuente... que alegria ver que no es una tacens/nox/mars [beer]
@wildchild_bcn las Mars Gaming son Tacens también. ;)

Saludos.
i3rk escribió:
d2akl escribió:
i3rk escribió:Pregunta para entendidos.

Voy pensando jubilar mi 2070 (normal, no super) por una 3080. Sobre todo la quiero para poder rular en 2k ultra a 60fps cosas de next gen y VR (Actualmente hay algunos juegos que van justos). Iba a aguantar con la 2070 unos años más, pero si de verdad dicen que la 3080 tiene más rendimiento que una 2080 ti, no me lo pienso (No sé si esto será verdad).

Ahora, tengo un i7 8800k y 16GB de RAM, con 4 discos duros (2 SSD) con una fuente de 850W. Preguntas locas que me hago (Soy novato en esto)

¿Tendría que cambiar la placa base para esto?

¿Con la fuente de alimentación que tengo llego a la potencia necesaria?


Más que la potencia de esos 850W.. que marca es la fuente?


Corsair RM850

https://www.amazon.es/gp/product/B07S3X ... =cmprd2-21


Pedirte disculpas, pensé mal.
Vi ( soy novato en esto) fuente 850w sin específicar...Y me saltaron todas las alarmas, el 95% de los casos, es una fuente generica rollo Tacens, NF etcetc.

Tienes buena fuente, 0 problemas. Como me alegro de ver que alguien dice no entender mucho, pero se informo de que la fuente, es un componente PRINCIPAL y por ende, tiene que ser de calidad.

Conservo la esperanza en el ser humano.
Colorful35 escribió:Que guapa la Zotac https://www.coolmod.com/zotac-gaming-ge ... ica-precio y 5 años de garantia



Me gusta mas el otro modelo, el amp extreme, ojala no se vaya mucho de precio, porque es de las que mas me ha gustado de modelos customs.
Colorful35 escribió:Que guapa la Zotac https://www.coolmod.com/zotac-gaming-ge ... ica-precio y 5 años de garantia


Si ya están añadiendo las Zotac, antes estaba la 3070 pero ya han puesto todas. A ver si se anima Amazon también, saludos
Neo-Harkell escribió:Pero el hilo desmoraliza un poco bastante, la verdad.

No te lo creas todo. Hay mucho fantasmon. No tiene ningun sentido empezar a decir que la salida de las nuevas consolas y Ampere va a hacer que en 3 telediarios se ponga obsoleto todo. Son fantasmadas, imaginaciones de gente aburrida. Las nuevas consolas llevan un hardware obsoleto en terminos graficos, es que se quedan más en el nivel maximo de Pascal, graficas de hace 4 años. Vale, las CPU son de 8 nucleos/16 hilos pero eso no significa como con todo lo demas que los juegos aprovechen como en un PC el rendimiento ofrecido al 100%. Porque la consola tiene que funcionar muy bien para una gran variedad de resoluciones, bastante grandes en general.

Y tampoco veo nada que diga que Ampere no va a funcionar bien en una CPU de 6 nucleos/12 hilos. Similar a los millones de Ryzen 5 3600. Si fuera un 4 nucleos. Pues sí, no le iba a poder sacar todo el rendimiento. Pero no hay indicativo de lo contrario. Son todo fantasmadas de gente aburrida.

Y algunos se preguntaran ¿y el RTX IO? pues no es una tecnologia exclusiva de Nvidia. Es algo de Microsoft y su nueva Xbox que pretenden incluir en Windows 10 para usar los juegos de Xbox. En forma de API de Directx 12.

Y tampoco hay ningun indicativo de que sea algo de obligada necesidad para jugar ningun juego en el futuro. Es una opción.

Asi que no hay para desmoralizarse más alla del pensar que las graficas aún tardaran entre problemas de stock y modelos que aún no saldran.

Por cierto ya empezamos a ver diferencias de precio entre mismo modelo.
https://www.coolmod.com/tarjetas-gr%C3% ... RTX%203080
Gigabyte y su gaming.

Personalmente me parece muy atractiva la 3070 de KFA2. No obstante yo quiero ver la 3060. Solo la quiero para 1080p asi que no tiene mucho sentido para mi pillar una 3070.
calloudiano escribió:PD: La PS5 no es equivalente a una 2070 Super, ya que no se pueden comparar Tflops de una arquitectura a otra, y tampoco el nivel de optimizacion de un PC se parece en nada al nivel de optimizacion de una consola.
Posiblemente la PS5 rinda bastante cerca de lo que vas a obtener en una 3070 en un entorno "normal" sin contar con RT y posiblemente se acerque a un rendimiento de una 3080 en un entorno de micropoligono sin contar con RT. Que es por otra parte para lo que ha sido diseñada la consola.

Algunas de las perlas que se leen en el hilo de consolas jajajajaja


Pobres diablos, no saben que su flamante PS5 será la equivalente a una posible 3050ti... Y es mas, si supiesen que su consola en el momento que empiece a tirar de compute (sobre todo para temas de iluminación como con Lumen y RT) se vuelve de 9TFlops [qmparto] [qmparto] . Será como el extraño caso de benjamin button pero con los TFlops, a medida que vayan estrujándola mas y mas, menos TFLops tendrá.
Pero como os gusta exagerar todo de verdad XD

Yo soy pecero a muerte, pero que queréis que os diga, no he visto nada en PC que se asemeje al TLOU2, es una BESTIA gráficamente. Que va a 30fps y no llega a 4k nativos? ok, eso son solo números, el juego se ve mejor que ningún otro que you haya visto.

Cada plataforma tiene sus cosas buenas y sus cosas malas, pero dejar de quitarle merito a las consolas por que hacen muy muy bien lo único que pueden hacer, ejecutar juegos.
Entre unos y otros es lamentable las guerras que teneis montadas.....

Yo aqui mientras esperando con ansias una ps5 independientemente de su hardware e incluso valorando montarme un nuevo pc con una rtx3xxxx, pero vosotros a lo vuestro.
Nomada_Firefox escribió:
Neo-Harkell escribió:Y tampoco veo nada que diga que Ampere no va a funcionar bien en una CPU de 6 nucleos/12 hilos. Similar a los millones de Ryzen 5 3600. Si fuera un 4 nucleos. Pues sí, no le iba a poder sacar todo el rendimiento. Pero no hay indicativo de lo contrario. Son todo fantasmadas de gente aburrida.


Este tema viene más por la arquitectura de las nuevas consolas, por las cuales los nuevos juegos llevarán un formato de 8/16 hilos de procesamiento, y los equipos con menos que eso tendrán que compartir hilos en el mismo nucleo con el consecuente impacto en el rendimiento.
Buxeri escribió:
Colorful35 escribió:Que guapa la Zotac https://www.coolmod.com/zotac-gaming-ge ... ica-precio y 5 años de garantia



Me gusta mas el otro modelo, el amp extreme, ojala no se vaya mucho de precio, porque es de las que mas me ha gustado de modelos customs.


A mi como sea la grafica me la trae un poco al pairo yo la enchufo escondo la torre y al vicio, seguramente caerá la zotac, ahora mismo tengo una 2070 zotac mini y va como la seda.
maikel_eol escribió:
jmjayme escribió:PREGUNTA IMPORTANTE

Hola, hoy me llega mi nueva MSI 1660 Super, tengo el equipo algo desfasado ya y en el foro me recomendaron que cambiara las memos y la gráfica (tenía una GTX 950) y ya con eso renovaba un añito el PC. En realidad no me hace mucha falta, yo juego en consola, pero quería ugar al Flight Simulator y de paso subir la calidad a los otros pocos juegos que tengo en PC como Anno 1800, Planet Zoo, los Total War...)

Por eso lo que mas me interesaba es que fuera silenciosa (uso el pc sbre todo para navegar), no consuma mucho (mi fuente tiene 400W) y moderadamente potente. Pues justo hoy cuando me llega me dicen en el hilo que devuelva la 1660 y me espere a la Ampere de 500 pavos.

¿QUE HAGO?


Hombre siempre hay que comprar según tus necesidades, esa gráfica es estupenda para lo que quieres, y la diferencia de precio la guardas para cuando montes un equipo acorde a una gráfica de 500€


Muchas gracias, es lo que yo pensaba. Me pillo la 1660 que es lo que yo necesito ahora mismo, con mi monitor a 1080, y en un año renuevo placa, cpu, fuente, gráfica 3070 por ejemplo, y hasta monitor.
la 3070 de zotac me gusta, no parece tan grande a ver como va de temperaturas

eso si, es alta de cojines
Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

EDIT: En la pagina principal pone GDDR6 y en las especificaciones de dentro GDDR6X.... menudos....

Saludos.
Zaguer escribió:Pero como os gusta exagerar todo de verdad XD

Yo soy pecero a muerte, pero que queréis que os diga, no he visto nada en PC que se asemeje al TLOU2, es una BESTIA gráficamente. Que va a 30fps y no llega a 4k nativos? ok, eso son solo números, el juego se ve mejor que ningún otro que you haya visto.

Cada plataforma tiene sus cosas buenas y sus cosas malas, pero dejar de quitarle merito a las consolas por que hacen muy muy bien lo único que pueden hacer, ejecutar juegos.

¿Cual es el argumento exactamente de tener un único juego exclusivo que se vea mejor? Porque si es exclusivo no se puede comparar.

Podemos comparar por ejemplo con Horizon Zero Dawn que con una GTX 960 se mueve mejor que en una PS4. Lo mismo en el futuro podemos comparar TLOU2, pero sin estar en PC no aporta nada.
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

Saludos.


En la presentación de Nvidia salía la 3070 GDDR6...

Ahora en la web ponen que es la X??

No entiendo nada.
Con un Ryzen 3700x que gráfica pillaríais para 1080p?

Juegos + Streaming seria el uso a dar
d2akl escribió:
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

Saludos.


En la presentación de Nvidia salía la 3070 GDDR6...

Ahora en la web ponen que es la X??

No entiendo nada.


No, está equivocada su pagina, en la especificacion unica de la 3070 ponme GDDR6x, pero cuando entras enb comparativas o en la pagina principal pone GDDR6. ni eso lo hacen bien... HAHAHA

Entiendo que es GDDR6. Porque además lo dicen en la presentacion.

SAludos.
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

EDIT: En la pagina principal pone GDDR6 y en las especificaciones de dentro GDDR6X.... menudos....

Saludos.


mmmm No veo lo de GDDR6X en la 3070 en ningún sitio

Imagen

Imagen

¿donde lo has visto? Si es en las generales de Ampere, es porque se entiende que la 3080 y 3090 que son las más "representativas / potentes si lo van a llevar, eso lo hacen muchas marcas y luego te ponen el * para que mires cada modelo en particular.
d2akl escribió:
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

Saludos.


En la presentación de Nvidia salía la 3070 GDDR6...

Ahora en la web ponen que es la X??

No entiendo nada.

Lo acabo de mirar, si te vas a especificaciones pone GDDR6, si le das a ver especificaciones completas pone GDDR6X. No entiendo...

@tigerscream
https://www.nvidia.com/es-es/geforce/gr ... /rtx-3070/

Imagen
Neo-Harkell escribió:Joer, iba a pillar la 3080 para sustituir mi vieja 1080, pero lees este hilo y parece que si la compras te estas dejando estafar por Nvidia xD


Yo lo que pienso es que la gente quiere hacer una buena compra que le dure años. Mi 1070 es del 2016 y estoy encantado con ella, me da lo que le pido en estos momentos. Ahora miro la 3070 y veo que tienen la misma Vram que una tarjeta de hace 4 años, y es que la jugada de nvidia es clara, sacan estas tarjetas baratas que se van a quedar obsoletas en 2 años por falta de Vram, y en pocos meses nos meten las versiones Ti con Vram que deberían haber tenido las FE en su lanzamiento.

A mi todo esto me parece un estafa.
Eilex_D escribió:
d2akl escribió:
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

Saludos.


En la presentación de Nvidia salía la 3070 GDDR6...

Ahora en la web ponen que es la X??

No entiendo nada.

Lo acabo de mirar, si te vas a especificaciones pone GDDR6, si le das a ver especificaciones completas pone GDDR6X. No entiendo...

@tigerscream

Imagen


OK; shhhhhhhhhhh que nadie diga nada, mirar para otro lado y si hay suerte y se pueden comprar sin que haya cambiado eso, quizás se pueda reclamar un descuento a quien la compra en la web de nVidia (aunque lo dudo porque se suelen cubrir mucho con estas cosas) pero vaya cagada más gorda, yo no lo había visto.
Panfrismix está baneado por "SPAM"
Luzbel_bcn escribió:
Panfrismix escribió:Vuelvo a repetir lo que he dicho ayer. Estáis dando por hecho que los datos de Nvidia son verdaderos. Creo que deberíamos esperar a los benchmark. Por que el hecho de que una tarjeta de 500 euros rinda mas que una que ahora mismo se está vendiendo por más de 1000 nueva..... Es fácil de creer pero puede que no sea tan así cuando salgan benchmarks de prensa y usuarios.



No se habla de lo que datos que dio Nvidia sino de este vídeo:

https://youtu.be/cWD01yUQdVA


Es evidente el superior rendimiento de una 3080 sobre una 2080. Pero recordemos que tanto la 2080 como la 2070 fueron especialmente pobres en rendimiento. De ahí que salieran los modelos super. La 2080ti entiendo que será inferior a una 3080 pero lo de que sea inferior a una 3070 no lo tengo tan claro. Por eso hay que esperar a más comparativas para dar una conclusión definitiva por qué la verdad es sorprendente de ser así.
josemurcia escribió:.
Oodle Texture no tiene nada que ver con la compresión en bloque, los 9 Gbps vienen de que Kraken da un ratio de compresión sin pérdida media de 1.65:1, por eso he dicho un poco menos de 2:1.

Oodle Texture no entra en la ecuación, porque como digo, los mismos beneficios se aplican al resto de algoritmos de compresión.

Además Oodle Texture no se puede aplicar a modelos y animaciones, y es un algoritmo de compresión con pérdida, por lo que solo interesa aplicarlo a determinadas texturas.

Realmente no se puede estimar una media de lo que aportaría Oodle Texture sin establecer primero que % de texturas comprimidas con pérdida se van a transferir en un determinado tiempo. Y aunque lo determinaramos sería el mismo tamaño en todos los sistemas por lo que la mejora porcentual sería la misma en todos.


No voy a seguir discutiendo tonterías ve a la página oficial y lee las primeras líneas.

http://www.radgametools.com/oodlekraken.htm

Compresión de textura Oodle:
Oodle Texture es un SDK para codificar texturas de GPU a formatos BC1-BC7 que se pueden comprimir mucho más pequeños. Oodle Texture puede hacer codificaciones BCN de máxima calidad que son 5-15% más pequeñas después de la compresión.


Oddle textures es un sistema de codificación que junto con un descompresor ya sea Zlib o Kraken sirve para comprimir texturas en formato BCn (BC1-BC7) lo que que es el equivalente a BCPack solo que SX combina BCpack como codificador y usa Zlib de compresor. Los ratios de compresión 2:1 se alcanzan utilizando el sistema de codificación Oddle/BCpack que solo afecta a texturas organizandolas y un compresor Zlib o Kraken que es de uso general y mejora con el codificador

Puedes usar Oddle textures o BCpack o lo que quieras pero no puedes usar los dos y mucho menos tenerlos en cuenta en los ratios dos veces. El ratio 2:1 son alcanzados
y anunciados son utilizando los codificadores de textura + compresores el que te de la gana. Que por cierto no son con RDO al menos para una compresión del 15-20%, del 20% al 50% es casi imperceptible y es lo que se usa. Oddle textures codification + compresión puede ser descomprimido por CPU, GPU shaders o hardware dedicado de PS5/SX.

El codificador de texturas no se ha tenido en cuenta en Road to Ps5 como nos comenta un desarrollador oficial pero MS si ha tenido en cuenta en SX y Nvidia si lo ha tenido en cuenta en RTXIO.






Y por ello el IO de PS5 llega a 11 GB/s sostenido y con picos de 22 GB/a.

josemurcia escribió:.
Nowcry escribió:En cuanto al SSD a ver como te respondo:

Esto es un benchmark de un Samsung 970 Pro SSD PCIeGen3 cuyo maximo teorico se encuentra en 4 GB/s pero el máximo teórico alcanzado se sitúa realmente en 3,5 GB/s y como finalmente solo es capaz de mantenerlos en picos observa lo que hace el amarillo que es el Samsung 970 Evo con los canales saturados en lectura secuencial PCIeGen3.

Puedes observar como en lectura secuencial el SSD cae hasta los 2500 MB/s, ya no hablemos con lecturas aleatorias. No los canales PCIeGen4 saturados a los 7GB/s no son sostenibles en el tiempo. Ni tampoco aproximables. Si te fijas en cualquier bechmark o SSD de Gen 3 como aclaracion dire que tanto el azul como el naranja son PCIeGen4 y son capaces de sostener 5 GB/s porque los canales aun no estan saturados, pero el comportamiento sera el mismo cuando saturen.
Durante un tiempo pico se sostiene y luego cae por interrupciones del sistema.

Y todo esto haciendo un benchmark SSD to CPU read, no quieras imaginar lo que vas a encontrar agregando una capa de abstracción superior RTX IO y metiendo un proceso de descompresión de por medio.

Enserio deja de acusar de inventar y revisa tus conocimientos.

Un saludo.


Esos picos no son por saturación, el eje X no va ligado al tiempo, es el tamaño de bloque de la operación y para cada tamaño de bloque se testea exactamente la misma transferencia. Lo único que te dice ese benchmark es que si vas a leer un archivo, hazlo en bloques de entre 1 y 8MB, si lo haces de menos o si lo haces de más, el 970 Evo Plus da un rendimiento subóptimo, cosa que por lo que parece es problema de ese SSD en particular.

Atto Disk Benchmark

One of the finest tools available to measure storage performance is ATTO. I love it to death as it is so reliable and produces such accurate results. The great thing about ATTO is that we can test with predefined block sizes. So we can test with a 32 MB sequence of 4 KB files, yet also 32 MB in 1 MB files. This gives us an excellent scope of overall performance with small and large files.


https://www.guru3d.com/articles-pages/h ... iew,6.html

Puede que ese benchmark en concreto muestre un problema de firmware que Samsung solucionó via update, porque puedes ver el mismo test en otras webs donde no tiene ese problema.

Imagen

https://www.kitguru.net/components/ssd- ... -review/5/



Vale ahora que ya he llegado a este punto, utilizo el mismo benchmarkt que sugieres y avanzó por las páginas hasta average read y encontramos esto:

Imagen

Donde el pico máximo corresponde es 2,926.71 MB / s. Siendo 4000 MB/s la capacidad máxima de un canal PCIeGen3 teóricamente y que en la práctica tendrá picos de 3500 MB/s con unos 3000 MB/s de sostenido.

En un SSD PCIEGEN4 obtendrás unos 6000 MB/s de sostenido y unos picos de 7000 MB/s que son los equivalentes a los que te he comentado y todo esto sin sufrir interrupciones ni pasar por una capa de abstracción RTX IO por ser un benchmark.

Vuelvo a decir no acuses de inventar y investiga un poco. Y ya no voy a perder más el tiempo si en realidad todo esto tiene poca o ninguna importancia. Que cada cual investigue y crea lo que quiera creer.
@tigerscream

Si, te van a dar el mismo descuento que cuando la memoria asimetrica de la gtx970. XD
Eilex_D escribió:
d2akl escribió:
vencedor escribió:Hola A todos,

Antes he leido bastantes veces que la memoria incorporada en la 3070 es GDDR6 de 8 GB.

En la pagina Web de Nvidia pone que es memoia GDDR6X de 8 GB, lo qual entiendo que siendo X es una diferencia no?

Saludos.


En la presentación de Nvidia salía la 3070 GDDR6...

Ahora en la web ponen que es la X??

No entiendo nada.

Lo acabo de mirar, si te vas a especificaciones pone GDDR6, si le das a ver especificaciones completas pone GDDR6X. No entiendo...

@tigerscream
https://www.nvidia.com/es-es/geforce/gr ... /rtx-3070/

Imagen


Mira la página inglesa de USA aveces la española tiene erratas que la americana no.
yo lo tengo claro 3090 o nada , no quiero comprar ahora la 3080 y que en un año se quede corta de vram y salga la 3080 Super con 20 GB , juego a 4k así que ese vram extra en juegos de nueva generación pueden hacer falta , la 3080 seguramente ira bien en casi todo para 4k 60 fps pero en vram no le doy mas de un año para ir sobrada
nerkaid escribió:
Nomada_Firefox escribió:
Neo-Harkell escribió:Y tampoco veo nada que diga que Ampere no va a funcionar bien en una CPU de 6 nucleos/12 hilos. Similar a los millones de Ryzen 5 3600. Si fuera un 4 nucleos. Pues sí, no le iba a poder sacar todo el rendimiento. Pero no hay indicativo de lo contrario. Son todo fantasmadas de gente aburrida.


Este tema viene más por la arquitectura de las nuevas consolas, por las cuales los nuevos juegos llevarán un formato de 8/16 hilos de procesamiento, y los equipos con menos que eso tendrán que compartir hilos en el mismo nucleo con el consecuente impacto en el rendimiento.

Mientras vosotros hablais de que todo vendra configurado para la consola. Microsoft y Sony hablan abiertamente de que quieren portear sus juegos de consola a PC para rentabilizar los beneficios.

Ademas. Contais una cosa que no es asi. La consola no va a exprimir al maximo esos 8 nucleos y 16 hilos porque cuando se quisieran dar cuenta su hardware si se que volveria obsoleto. Ni funciona en las frecuencias de un PC ese micro. Es bastante light. Y luego esos 8/16 estan ahi para desahogar a todo lo demas que lleva la consola. Vamos que todo tira de la CPU, desde la APU al almacenamiento, la conectividad, todo.

En fin, estais poniendo que un 6/12 es obsoleto ya y no teneis ni usa prueba de ello. Mientras Intel sacando sus Tiger Lake con configuraciones de 4/8. No deja de ser sorprendente.
@Panfrismix Lo que nos ha vendido Nvidia es que es igual una 3070 a una 2080ti en su presentación, que luego es mentira pues le pueden caer demandas por mentir, que en Estados Unidos no se van con chiquita en estos temas.

Esta claro que lo mejor es esperar benchmark de gente fuera del mundo este, como puede ser gente de aquí del foro que exponga sus resultados, tanto digital foundry como conocidos YouTubers o web “especializada” de internet, hay que cogerlos con pinzas.
El modelo de KFA2 de la 3070 mola bastante y es el mismo precio que la founders(aunque faltaria ver si regalan tambien algun juego y el año de Geforce Now). https://www.coolmod.com/kfa2-geforce-rt ... ica-precio

Lo que si veo es que por ejemplo el PCB de la 3070 de KFA2 es "normal" y no esta recortado como el founders. Pero sin embargo la Zotac 3070 la veo muy enana y no se si ventilará bien. https://www.coolmod.com/zotac-gaming-ge ... ica-precio

¿Que opinais?
Nowcry escribió:No voy a seguir discutiendo tonterías ve a la página oficial y lee las primeras líneas.

http://www.radgametools.com/oodlekraken.htm

Compresión de textura Oodle:
Oodle Texture es un SDK para codificar texturas de GPU a formatos BC1-BC7 que se pueden comprimir mucho más pequeños. Oodle Texture puede hacer codificaciones BCN de máxima calidad que son 5-15% más pequeñas después de la compresión.


Oddle textures es un sistema de codificación que junto con un descompresor ya sea Zlib o Kraken sirve para comprimir texturas en formato BCn (BC1-BC7) lo que que es el equivalente a BCPack solo que SX combina BCpack como codificador y usa Zlib de compresor. Los ratios de compresión 2:1 se alcanzan utilizando el sistema de codificación Oddle/BCpack que solo afecta a texturas organizandolas y un compresor Zlib o Kraken que es de uso general y mejora con el codificador

Puedes usar Oddle textures o BCpack o lo que quieras pero no puedes usar los dos y mucho menos tenerlos en cuenta en los ratios dos veces. El ratio 2:1 son alcanzados
y anunciados son utilizando los codificadores de textura + compresores el que te de la gana. Que por cierto no son con RDO al menos para una compresión del 15-20%, del 20% al 50% es casi imperceptible y es lo que se usa. Oddle textures codification + compresión puede ser descomprimido por CPU, GPU shaders o hardware dedicado de PS5/SX.

El codificador de texturas no se ha tenido en cuenta en Road to Ps5 como nos comenta un desarrollador oficial pero MS si ha tenido en cuenta en SX y Nvidia si lo ha tenido en cuenta en RTXIO.






Y por ello el IO de PS5 llega a 11 GB/s sostenido y con picos de 22 GB/a.


Tienes razón, BCPack es compresión de texturas, no de bloque. En ese caso en XSX se puede usar Oodle Texture + ZLib que dará un rendimiento similar a Oodle Texture + Kraken, pero como te digo no es un rendimiento que puedas extrapolar al aplicar solo a texturas con compresión.

Lo demás como siempre te lo inventas, los ratios 2:1 de Microsoft y NVIDIA son de usar BCn + Zlib o BCPack + ZLib en el caso de Xbox (supuestamente, lo mismo BCPack ofrece una compresión similar a Oodle Texture con compresión).

Nowcry escribió:
Vale ahora que ya he llegado a este punto, utilizo el mismo benchmarkt que sugieres y avanzó por las páginas hasta average read y encontramos esto:

Imagen

Donde el pico máximo corresponde es 2,926.71 MB / s. Siendo 4000 MB/s la capacidad máxima de un canal PCIeGen3 teóricamente y que en la práctica tendrá picos de 3500 MB/s con unos 3000 MB/s de sostenido.

En un SSD PCIEGEN4 obtendrás unos 6000 MB/s de sostenido y unos picos de 7000 MB/s que son los equivalentes a los que te he comentado y todo esto sin sufrir interrupciones ni pasar por una capa de abstracción RTX IO por ser un benchmark.

Vuelvo a decir no acuses de inventar y investiga un poco. Y ya no voy a perder más el tiempo si en realidad todo esto tiene poca o ninguna importancia. Que cada cual investigue y crea lo que quiera creer.

No te basta con publicar un benchmark sin saber interpretarlo si no que ahora pones otro distinto, con otras condiciones distintas y te inventas que es por saturación del PCIe.

Cada benchmark pone a prueba condiciones diferentes que rinden de forrma diferente según la disposición de las memorias, su calidad, el microcontrolador, el firmware, etc.

Si en otro benchmark da peor resultado es porque la velocidad anunciada de los SSD es en condiciones óptimas, como se ve en el benchmark ATTO, en condiciones más parecidas a un uso real siempre darán por debajo por simples limitaciones del propio disco, y puedes ver que pasa lo mismo con todos los SSD, da igual que "saturen" el PCIe o no.

Por ejemplo el Samsung 950 Pro que en ATTO da 2.5Gbps de lectura pero luego en otros tests menos óptimos da 2.

Imagen

Imagen

https://www.anandtech.com/show/9702/sam ... gb-512gb/8

Las evidencias las tienes ahí, puedes seguir inventándote que el PCIe se satura o asumir que con el disco adecuado el ancho de banda en PC será un 30% mayor que el de PS5 sobre PCIe 4.
DaNi_0389 escribió:@tigerscream

Si, te van a dar el mismo descuento que cuando la memoria asimetrica de la gtx970. XD


Eso fue un puntazo enrome!!! jajajaja como haber ganado la lotería en plan premio pequeño claro. Por eso digo a ver si se repite la historia jajajajaja
david14mh escribió:El modelo de KFA2 de la 3070 mola bastante y es el mismo precio que la founders(aunque faltaria ver si regalan tambien algun juego y el año de Geforce Now). https://www.coolmod.com/kfa2-geforce-rt ... ica-precio

Lo que si veo es que por ejemplo el PCB de la 3070 de KFA2 es "normal" y no esta recortado como el founders. Pero sin embargo la Zotac 3070 la veo muy enana y no se si ventilará bien. https://www.coolmod.com/zotac-gaming-ge ... ica-precio

¿Que opinais?

Opino que es curioso que la mayoria de modelos custom esten al mismo precio que las FE. Tengo la mala sospecha que puede significar que en las tiendas al no tener las tarjetas todavia, no saben el precio real.

La mayoria de 2070 Super son de dos ventiladores y el consumo/temperaturas es muy parecido. https://www.nvidia.com/es-es/geforce/gr ... 070-super/
https://www.nvidia.com/es-es/geforce/gr ... /rtx-3070/

La 3070 FE solo es 5º más caliente y tiene un consumo de 5W más. No es mucho que se diga.
31123 respuestas