[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Lo habréis hablado ya mil veces, pero es que no me termino de aclarar. Con un 3600x y una fuente Corsair RM 650X podría meterle una 3080 sin problemas?
Antoniopua está baneado por "saltarse el ban con un clon"
parh escribió:
Antoniopua escribió:Se les dijo una y otra vez a los que pedían consejo sobre si comprar una grafica ahora estando tan cerca las series 3000 de que no lo hiciesen... Por otro lado, yo hubiese vendido antes de salir un nuevo modelo, porque es bien sabido que siempre hay un devaluación mayor cuando se presenta un modelo nuevo. No soy ningún experto en finanzas, pero es lo que yo hubiese hecho [carcajad] [+risas] .

La 3090 me parece mejor compra que la 3080 por la Vram -aunque sea más cara. Y por supuesto para jugar a 4k.

ufff pero es que es doble de precio y yo creo un 25% mas potentes. SI estuviera a unos 1100... seria mi objetivo. Lo mejor sera esperar un poco por si salen esas posibles 3080 Ti con mas RAM. Ademas, AMD aun tiene que presentar su artilleria.

Si, lo más sensato es esperar. Me refería a que me da más tranquilidad 24 Gb que 10 Gb de Vram... no se sabe lo que estar por venir a nivel de juegos, pero seguro que es algo muy gordo.
Comprarse una RTX3080 de 10GB es lo mismo que comprarse un iPhone 12 de 64GB.

Al año se te ha quedado corto.
Yo estoy dudando mucho de si comprar la 3080 o la 3090, eso de los 10 gigas no me gusta mucho.
Antoniopua escribió:Me da a mi que cantidad de Vram va a hacer falta esta generación más que nunca...

No les compremos ninguna grafica a nvidia y asi les obligamos a sacar rapido modelos con mas vram XD
bromutu escribió:Comprarse una RTX3080 de 10GB es lo mismo que comprarse un iPhone 12 de 64GB.

Al año se te ha quedado corto.


Literalmente. Nada por debajo de 16 GB debería ser vendido.
Mi setup va a por la 3090 alguna version OC por la seguridad que me dan los 24 GB y por que soy un amarte del VR.
Tengo intención de empezar con la VR en Navidad o así (me pillaré el kit de Valve). ¿Tanto consume de VRAM?
Me sorprende los números que se hacen aqui comparando con las futuras consolas, las cuales usan hardware que ya ha sido sobrepasado antes de lanzarse Ampere.

Asi que os veo muy obsesionados. Con esa idea de que Ampere es asi y de la noche a la mañana los juegos van a mejorar tanto que los requisitos subiran como la espuma. Pero un motor de un juego tiene un desarrollo de tranquilamente 4 años.

Asi que muchas de estas cosas anunciadas por Nvidia son humo. Pueden ser las bases del futuro pero ya hemos visto que los diseñadores de juegos no suelen añadir muchas de estas cosas si el fabricante, en este caso Nvidia, no lo subvenciona apropiadamente. Asi que todas estas caracteristicas nuevas no me dan ningun miedo.

Y alguien publico un articulo de meristation hecho por alguien que no se molesto en leer nada. Porque dice que la 3070 usa GDDR6X y no es asi, usa GDDR6. Lo cual si considero un tongo. Y más tongo es la Ti que parece usar 16GB pero siguen siendo GDDR6. No creo que cantidad por encima de velocidad sea tan exitoso como si hicieran un modelo con digamos 10GB de GDDR6X. Cosa que tambien podria suceder a juzgar por las variantes registradas por las ensambladoras.

Mi consejo, no os lanceis a comprar sino lo teneis claro y sobretodo sino hay una prisa imperiosa y teneis money de sobra. Que todo apunta a que va a haber un monton de variantes de todos los modelos. Hasta MSI tenia registradas 4 tipos de 3090.
Pues yo soy de los que piensa que los 8 y 10 gigas se van a quedar cortos. Me explico:

Hay gente que tiene pensado comprarse la 3080 con 10 gigas de ram y que le dure toda la generación (6 o 7 años) a 1080p/60fps con raytracing. Pero por los datos esto no parece que vaya a ser realidad. Las gtx1070/1080 ya tenían 8 gigas de ram cuando fueron lanzadas en 2016 y hoy en día son el mínimo que debes tener para jugar a cualquier juego, con todo a full al menos a 1080p/60fps. Las consolas nuevas, ps5 y xbox series x, tienen más vram que los 10 gigas, no sé si la xbox tenía hasta 13,5 (de 16gb gddr6 compartidos) por lo que aunque no juegues a 4K los 10 gigas no serán suficientes cuando empiecen a salir los verdaderos juegos con raytracing completo y no parcial y encima especialmente optimizados para consolas, en pc serán ports (mejor o peor optimizados).

No soy un experto, digo lo que he ido viendo a lo largo del tiempo. Por lo que parece ser, el raytracing es un traga memoria nato, y eso que la mayoría de los juegos no lo tienen completo. Cuando salga un GTA VI con raytracing o similares se van a comer los 10 gigas y más. Y qué queréis que os diga, pero las luces dan un aspecto realista increíble hasta a los juegos más simples (como el Minecraft) y si me compro una nueva gráfica no me gustaría quitarle uno de los avances más bestias en los últimos años. El rtx de la serie 2000 solo fue una fase beta para lo que viene.
battman80 escribió:
Drakenathan escribió:@battman80 tu nos puedes indicar perfectamente teniendo una 2080Ti, que opinas de 10Gb para los próximos 3/4 años?


De todos modos tened todos MUY CLARO, que en un tiempo, no se cuanto, Nvidia va a salir con versiones super o Ti, "algo mejoradas", y muy probablemente la mejora vaya sobre todo en Vram. De hecho creo que ese es el motivo de los precios de ahora. Venden a mansalva estos modelos, luego sacas por 100-200 pavos más los "pro", y otra vez todo dios a estirarse de los pelos, revender e ir a por ellos. Es el viejo truco de venderte lo mismo dos veces, retocandolo un poco [qmparto] .


Eso es lo primero que pensé cuando leí que la 3070 tenia 8gb.

Hay que tener en cuenta que ahora las consolas llevan 16gb, pongamos que para los juegos tienen 13 o 14... 8gb se antoja demasiado poco.
Nowcry escribió:
Gman87 escribió:eolianos con sinceridad , creeis que con esta 3080 de 10 gb y un pc adecuado con su procesador ram disco ssd 4.0 podré aguantar toda la generacion PS5 XBX, A 1080P 60 FPS todo en ultra?


En teoria si pero con matices, he estado investigando un poco.

Si investigas un poco en esta pagina:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Tengo claro que la en cuanto a potencia Tflops, tanto de shaders como de RT o tensor no tengo ninguna duda.

Sin embargo el problema con el RTX IO y el I/O controller y capacidad de la memoria me genera bastantes dudas.
Por ejemplo con 10 GB de GDDR en realidad estas por debajo de lo que estara disponible para juegos en una Consola Next Gen y ademas te deja sin ningun margen .

Me explico:

En la pagina de Nvidia al final del todo pone:

Específicamente, NVIDIA RTX IO ofrece descompresión sin pérdidas basada en GPU, lo que permite que las lecturas a través de DirectStorage permanezcan comprimidas mientras se envían a la GPU para su descompresión. Esto elimina la carga de la CPU, traslada los datos del almacenamiento a la GPU en su forma más eficiente y comprimida, y mejora el rendimiento de E / S en un factor de 2.


El factor de 2 significa que PCIeGen4 tiene un ancho de banda maximo de 7 GB/s y que debido a las compresiones pueden conseguir 14 GB/s. Sin embargo estaríamos hablando de la potencia de I/O pico saturando los 4 canales de PCIeGen4, pero la GPU necesita datos tambien para subsistir no solo de transmisión y el sistema tambien utilizara parte de los canales del SSD para su subsistencia, deduzco que en realidad de los 14 GB/s en realidad podremos aprovechar unos 10 GB/s de pico y el rendimiento como media mas o menos calculo que entre 5-8 GB/s.
Sirve para alcanzar a la SX y superarla posiblemente pero sin embargo quedaría un poco por debajo del I/O de PS5
y las latencias tambien serian mas altas que las de PS5 esto podria simplemente ganarse a base tener una GDDR mas amplia, sin embargo eso no es posible con 10 GB de GDDR.

EL punto es que en realidad esa potencia de I/O restante solo seria aprovechada por los 1st Party. Sin embargo las latencias serian algo comun que podria hacer empeorar la calidad grafica salvo que se cuente con una GDDR amplia para tener margen de tiempo un poco mas amplico que una consola next gen.

Creo que la memoria por debajo de 16 GB de GDDR esta muy justa para aguantar a la siguiente generacion y va a ser el verdadero cuello de botella de esas GPU. 16 GB de GDDR es lo que considero esencial y necesario y si es 20 GB mejor para poder almacenar algunas cosas y asi superar los problemas de I/O que podrían ir sucediendo como latencias o interrupciones del sistema.

Por supuesto todo esto es especulación pero con conocimiento.


Pero vamos a ver, y perdona, porque me parece que te leido en mas de un foro ya. Hazte las pajas mentales, con perdon, que quieras, y las cabalas que quieras. Aqui cada vez que le meten una cornada a las consolas, salen los gurús a explicar por qué la potencia del PC tiene este o aquel problema, y perdona que te diga esto, pero esque te he estado leyendo en el hilo de PS5, a parte de en este, y te ha dado fuerte el tema.

Tu investiga lo que quieras. Dentro de unas cuantas semanas, cuando DE VERDAD salgan los primeros juegos, o se vayas sabiendo cosas, te invito a citarte aqui conmigo, y cuando veamos como Assasins Creed Valhalla mismo, corre en una 3070 a 4k / 60 fps, y una play5 a 4k reescalados y sufriendo para sostener los 30, vienes y me explicas otra vez tus investigaciones.

Te lo digo con mucho respeto en serio, pero esque a estas alturas ya, estar dandole vueltas al torno me parece ridiculo. Ya está mas que dicho que una PS5 a la hora de la verdad, tiene un rendimiento similar al de una 2070/S, que hasta ayer, y aun hoy, es una gráfica de mas de 500 euros. Pero esque una 3070, si nos creemos a Nvidia y salvo mentira monumental, ya está MUY LEJOS de ese rendimiento.

O esque no te das cuenta, que estas buscando pitos y flautas, para intentar meterte con calzador en la cabeza, que PS5 va a rendir como una 2080Ti o algo mas potente¿? Investiga lo que quieras, que ya te digo yo QUE NO.

Pero vamos, un no rotundo y lejano. Algunos de verdad, me confundis mucho, pienso que vais por un lado y resulta que vais absolutamente por el contrario. Tu no te preocupes, que si alguien sabe de arquitectura de hardware, tecnologias de mejora de rendimiento, etc, esa es Nvidia. Piensa siempre que en estos temas, Microsoft y Sony son un cero a la izquierda. Cada vez que Sony intenta hacer algo medio por su cuenta en estos terrenos, por poner un ejemplo, destroza una consola sin necesidad, se medio arruina, o termina haciendo portatiles bomba.

En serio, que tenemos ya una edad, creo yo... [facepalm]

Y ya te digo, como a los demas, que no hay ningun problema por la Vram, van sobradas estas gráficas, para ahora, y para mas adelante. Vienes de una generación con consolas que tienen 8gbs de vram gddr5 desde el dia uno, y no han podido en toda la generacion igualar, ya no te pido superar, igualar el rendimiento de una gpu con 6 gigas.

Y la ram va a seguir presente en el PC, no se va a volver inutil de la noche a la mañana, ni va a dejar de tener influencia en los juegos. Ten eso en cuenta, porque las consolas necesitan su memoria de video "para todo" practicamente. En toda la generación que dejamos atras, viendo lo visto, dudo que nunca, en ningun juego, hayan llegado a consumir mas 4gbs de vram, no lo se, pero lo dudo, viendo que gráficas con esa cantidad de vram les hacen cara sin problema.

En serio, si SOny, o la propia MS, tuviesen ALGO, lo que fuese, con lo que poder medio replicar al mazazo de Nvidia de ayer, hoy nos habriamos levantado con las calles forradas de anuncios al respecto. Lo que hay es silencio absoluto, y eso tiene un por qué, y no es que Sony quiera dinamitar el mundo por sorpresa el último dia antes de lanzar la consola. Eso si, los equipos de marketing de la marca tienen que estar ahora en pleno crunch brutal, sin dormir, inyectandose coca, a ver que se inventan para vender en la campaña de pre lanzamiento, porque estan en una situación muy peliaguda.

Un saludete y lo dicho, ojala nos veamos por los foros cuando empiecen a anunciarse juegos reales, rendimientos reales, y demas, pero vamos, que con los anunciados hasta ahora, creo que ya sobra. El ratchet sin ir mas lejos, que encima es un first con pleno control sobre la maquina y todos sus trucos... Si esque...

[beer]


PD: y otra cosa, para el compañero del 1080 ultra, ten en cuenta que pase lo que pase, el Ultra EN PC de hoy, será el mid de dentro de unos cuantos años, sí, pero seguirá teniendo la calidad del ultra actual. En consolas tres cuartos de lo mismo, su "ultra" será el mismo ahora que al final de su vida, los juegos mejoraran en aspecto porque habran nuevas técnicas y herramientas disponibles, pero te garantizo que un juego de PC de salida de las ampere que a tope se vea mejor que en consolas next gen, sobre la misma franquicia, a final de la gen de las mismas se va a seguir viendo mejor en PC, aunque este en mid, y haya mejorado un webo su aspecto. No se si me explico. A los grandes mitos y leyendas va a haber que sumar el de la "optimizacion" en consolas. Anda que como algun dia se tomen en serio "optimizar" en PC, no se que mas se van a inventar... Y echad la vista atras, que yo conozco a mucha gente que ante la salida de PS4 preguntaba las mismas cosas, "podré aguantar con una 1080 toda la gen de consolas", y yo les decia lo mismo que ahora, "claro que si, y meandote encima de ellas hasta el final".
No os preocupeis tanto por la Vram, que teneis que tener en cuenta que Nvidia trabaja codo con codo con practicamente todas las desarrolladoras de videojuegos que hay, al menos las tochas, con MS, y hasta con Sony cuando hace falta. Saben bien cuanta ram necesitan, y repito el caso de la 1060, que estaba todo quisqui igual, que si con 6 gigas vaya cacafuti es poquisimo...y ahí la tenemos.

La historia está para no estar siempre cometiendo los mismos errores.

PD2: Esque no me quiero enrrollar mas, en serio, yo se que nadie nace sabiendo y de todo hay que aprender, pero de verdad, buscad los que no tengais muy claro la importancia o no de la Vram, cualquier video explocativo o articulo, aunque sea en youtube, para que podais entender que no todo es lo que parece. Dejad de guiaros porque las consolas lleven 16 gigas de vram, porque pueden estar perfectamente pensadas para usar solo 8, o menos, o mas pero en condiciones diferentes y para menesteres diferentes. La arquitectura y forma de funcionar de estas consolas respecto de un PC no son 1:1. En el mercado hay unas cuantas GPUS PARA ENGAÑAR A LA GENTE, que montan el doble de vram de la que nunca pueden llegar a manejar. Porque es un dato chulo, porque por poco dinero subes bastante el precio, y estas vendiendo el mismo producto a dos targets de consumo diferentes. Incluso la Ti, para jugar, pues si, lleva 11 gigas, pero con 8 iria totalmente sobrada para todo lo que hace. No se si me explico, en serio, no me leais en tono inquisidor que lo que pasa es que me desespero cuando quiero explicar cosas que no se explicar sin enrrollarme tres pueblos y dos ciudades. Un saludo [beer]
Quiero comprar una 3090 y meterle bloque de agua para una RL. Cual me recomendais una FE o una custom????
Es que tenemos el ejemplo de no hace mucho.

La gtx770 para su epoca era una potencia bruta increíble pero que pasó? Que envejeció fatal por la escasez de vram.

Yo que queréis que os diga una 3080 por mucho dr6X que sean esos 10gb . Yo me fio menos y nada. Y vamos lo de la 3070 me parece de traca.

Yo iba comprar la3080, pero me espero a la ti/súper con más vram sin duda.
Xelux escribió:
battman80 escribió:
Drakenathan escribió:@battman80 tu nos puedes indicar perfectamente teniendo una 2080Ti, que opinas de 10Gb para los próximos 3/4 años?


De todos modos tened todos MUY CLARO, que en un tiempo, no se cuanto, Nvidia va a salir con versiones super o Ti, "algo mejoradas", y muy probablemente la mejora vaya sobre todo en Vram. De hecho creo que ese es el motivo de los precios de ahora. Venden a mansalva estos modelos, luego sacas por 100-200 pavos más los "pro", y otra vez todo dios a estirarse de los pelos, revender e ir a por ellos. Es el viejo truco de venderte lo mismo dos veces, retocandolo un poco [qmparto] .


Eso es lo primero que pensé cuando leí que la 3070 tenia 8gb.

Hay que tener en cuenta que ahora las consolas llevan 16gb, pongamos que para los juegos tienen 13 o 14... 8gb se antoja demasiado poco.

Las consolas van a tener 16gb compartidos me parecio leer... En un pc esta la ram, y luego la vram... Pero vamos, tampoco soy ningun experto
battman80 escribió:
Nowcry escribió:
Gman87 escribió:eolianos con sinceridad , creeis que con esta 3080 de 10 gb y un pc adecuado con su procesador ram disco ssd 4.0 podré aguantar toda la generacion PS5 XBX, A 1080P 60 FPS todo en ultra?


En teoria si pero con matices, he estado investigando un poco.

Si investigas un poco en esta pagina:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Tengo claro que la en cuanto a potencia Tflops, tanto de shaders como de RT o tensor no tengo ninguna duda.

Sin embargo el problema con el RTX IO y el I/O controller y capacidad de la memoria me genera bastantes dudas.
Por ejemplo con 10 GB de GDDR en realidad estas por debajo de lo que estara disponible para juegos en una Consola Next Gen y ademas te deja sin ningun margen .

Me explico:

En la pagina de Nvidia al final del todo pone:

Específicamente, NVIDIA RTX IO ofrece descompresión sin pérdidas basada en GPU, lo que permite que las lecturas a través de DirectStorage permanezcan comprimidas mientras se envían a la GPU para su descompresión. Esto elimina la carga de la CPU, traslada los datos del almacenamiento a la GPU en su forma más eficiente y comprimida, y mejora el rendimiento de E / S en un factor de 2.


El factor de 2 significa que PCIeGen4 tiene un ancho de banda maximo de 7 GB/s y que debido a las compresiones pueden conseguir 14 GB/s. Sin embargo estaríamos hablando de la potencia de I/O pico saturando los 4 canales de PCIeGen4, pero la GPU necesita datos tambien para subsistir no solo de transmisión y el sistema tambien utilizara parte de los canales del SSD para su subsistencia, deduzco que en realidad de los 14 GB/s en realidad podremos aprovechar unos 10 GB/s de pico y el rendimiento como media mas o menos calculo que entre 5-8 GB/s.
Sirve para alcanzar a la SX y superarla posiblemente pero sin embargo quedaría un poco por debajo del I/O de PS5
y las latencias tambien serian mas altas que las de PS5 esto podria simplemente ganarse a base tener una GDDR mas amplia, sin embargo eso no es posible con 10 GB de GDDR.

EL punto es que en realidad esa potencia de I/O restante solo seria aprovechada por los 1st Party. Sin embargo las latencias serian algo comun que podria hacer empeorar la calidad grafica salvo que se cuente con una GDDR amplia para tener margen de tiempo un poco mas amplico que una consola next gen.

Creo que la memoria por debajo de 16 GB de GDDR esta muy justa para aguantar a la siguiente generacion y va a ser el verdadero cuello de botella de esas GPU. 16 GB de GDDR es lo que considero esencial y necesario y si es 20 GB mejor para poder almacenar algunas cosas y asi superar los problemas de I/O que podrían ir sucediendo como latencias o interrupciones del sistema.

Por supuesto todo esto es especulación pero con conocimiento.


Pero vamos a ver, y perdona, porque me parece que te leido en mas de un foro ya. Hazte las pajas mentales, con perdon, que quieras, y las cabalas que quieras. Aqui cada vez que le meten una cornada a las consolas, salen los gurús a explicar por qué la potencia del PC tiene este o aquel problema, y perdona que te diga esto, pero esque te he estado leyendo en el hilo de PS5, a parte de en este, y te ha dado fuerte el tema.

Tu investiga lo que quieras. Dentro de unas cuantas semanas, cuando DE VERDAD salgan los primeros juegos, o se vayas sabiendo cosas, te invito a citarte aqui conmigo, y cuando veamos como Assasins Creed Valhalla mismo, corre en una 3070 a 4k / 60 fps, y una play5 a 4k reescalados y sufriendo para sostener los 30, vienes y me explicas otra vez tus investigaciones.

Te lo digo con mucho respeto en serio, pero esque a estas alturas ya, estar dandole vueltas al torno me parece ridiculo. Ya está mas que dicho que una PS5 a la hora de la verdad, tiene un rendimiento similar al de una 2070/S, que hasta ayer, y aun hoy, es una gráfica de mas de 500 euros. Pero esque una 3070, si nos creemos a Nvidia y salvo mentira monumental, ya está MUY LEJOS de ese rendimiento.

O esque no te das cuenta, que estas buscando pitos y flautas, para intentar meterte con calzador en la cabeza, que PS5 va a rendir como una 2080Ti o algo mas potente¿? Investiga lo que quieras, que ya te digo yo QUE NO.

Pero vamos, un no rotundo y lejano. Algunos de verdad, me confundis mucho, pienso que vais por un lado y resulta que vais absolutamente por el contrario. Tu no te preocupes, que si alguien sabe de arquitectura de hardware, tecnologias de mejora de rendimiento, etc, esa es Nvidia. Piensa siempre que en estos temas, Microsoft y Sony son un cero a la izquierda. Cada vez que Sony intenta hacer algo medio por su cuenta en estos terrenos, por poner un ejemplo, destroza una consola sin necesidad, se medio arruina, o termina haciendo portatiles bomba.

En serio, que tenemos ya una edad, creo yo... [facepalm]

Y ya te digo, como a los demas, que no hay ningun problema por la Vram, van sobradas estas gráficas, para ahora, y para mas adelante. Vienes de una generación con consolas que tienen 8gbs de vram gddr5 desde el dia uno, y no han podido en toda la generacion igualar, ya no te pido superar, igualar el rendimiento de una gpu con 6 gigas.

Y la ram va a seguir presente en el PC, no se va a volver inutil de la noche a la mañana, ni va a dejar de tener influencia en los juegos. Ten eso en cuenta, porque las consolas necesitan su memoria de video "para todo" practicamente. En toda la generación que dejamos atras, viendo lo visto, dudo que nunca, en ningun juego, hayan llegado a consumir mas 4gbs de vram, no lo se, pero lo dudo, viendo que gráficas con esa cantidad de vram les hacen cara sin problema.

En serio, si SOny, o la propia MS, tuviesen ALGO, lo que fuese, con lo que poder medio replicar al mazazo de Nvidia de ayer, hoy nos habriamos levantado con las calles forradas de anuncios al respecto. Lo que hay es silencio absoluto, y eso tiene un por qué, y no es que Sony quiera dinamitar el mundo por sorpresa el último dia antes de lanzar la consola. Eso si, los equipos de marketing de la marca tienen que estar ahora en pleno crunch brutal, sin dormir, inyectandose coca, a ver que se inventan para vender en la campaña de pre lanzamiento, porque estan en una situación muy peliaguda.

Un saludete y lo dicho, ojala nos veamos por los foros cuando empiecen a anunciarse juegos reales, rendimientos reales, y demas, pero vamos, que con los anunciados hasta ahora, creo que ya sobra. El ratchet sin ir mas lejos, que encima es un first con pleno control sobre la maquina y todos sus trucos... Si esque...

[beer]


PD: y otra cosa, para el compañero del 1080 ultra, ten en cuenta que pase lo que pase, el Ultra EN PC de hoy, será el mid de dentro de unos cuantos años, sí, pero seguirá teniendo la calidad del ultra actual. En consolas tres cuartos de lo mismo, su "ultra" será el mismo ahora que al final de su vida, los juegos mejoraran en aspecto porque habran nuevas técnicas y herramientas disponibles, pero te garantizo que un juego de PC de salida de las ampere que a tope se vea mejor que en consolas next gen, sobre la misma franquicia, a final de la gen de las mismas se va a seguir viendo mejor en PC, aunque este en mid, y haya mejorado un webo su aspecto. No se si me explico. A los grandes mitos y leyendas va a haber que sumar el de la "optimizacion" en consolas. Anda que como algun dia se tomen en serio "optimizar" en PC, no se que mas se van a inventar... Y echad la vista atras, que yo conozco a mucha gente que ante la salida de PS4 preguntaba las mismas cosas, "podré aguantar con una 1080 toda la gen de consolas", y yo les decia lo mismo que ahora, "claro que si, y meandote encima de ellas hasta el final".
No os preocupeis tanto por la Vram, que teneis que tener en cuenta que Nvidia trabaja codo con codo con practicamente todas las desarrolladoras de videojuegos que hay, al menos las tochas, con MS, y hasta con Sony cuando hace falta. Saben bien cuanta ram necesitan, y repito el caso de la 1060, que estaba todo quisqui igual, que si con 6 gigas vaya cacafuti es poquisimo...y ahí la tenemos.

La historia está para no estar siempre cometiendo los mismos errores.



Tu investiga lo que quieras. Dentro de unas cuantas semanas, cuando DE VERDAD salgan los primeros juegos, o se vayas sabiendo cosas, te invito a citarte aqui conmigo, y cuando veamos como Assasins Creed Valhalla mismo, corre en una 3070 a 4k / 60 fps, y una play5 a 4k reescalados y sufriendo para sostener los 30, vienes y me explicas otra vez tus investigaciones.


Yo no estoy hablando de juegos crossgen cuyo uso del I/O es nulo, lo cual demuestra que no te has leído el comentario o no estas entendiendo nada.

Convéncete todo lo que tu quieras, cuando salgan los juegos compatibles con UE5 y nanite activado o equivalente, quedamos nuevamente y me comentas que tal le esta yendo a la RTX3070 de 8 GB y hacemos comparativas.

Assassins Creen Valhalla no es sinónimo de next gen es sinónimo de generación actual y para nada representativo de un juego que usa el I/O en algo. Algunos os pensáis que vamos a estar anclados en el pasado para siempre. El cambio se va a dar si o si, quien controle los micropoligonos controlara los gráficos, las mecanicas de juego novedosas y con ello las ventas y si no quereis verlo no es mi trabajo convenceros, el de Nvidia tampoco el de Nvidia es que os compres esas gráficas para que cuando lleguen los micropoligonos necesitéis comprar las Ti con el VRAM que deberian haber tenido.

Pero vamos que no lo digo yo, lo dice Nvidia, lo dice Microsoft, lo dice Unreal Engine y lo dice Sony. Si quereis mirar para otro lado a mi me da igual. Yo voy a por mi 3090 y vosotros sabreis.

Y por otro lado la diferencia de memoria 14 de GDDR (memoria dedicada para juegos segun rumores de PS5) vs 8 gb de GDDR es demasiado grande para que no afecte a las texturas, la iluminación la 3070 va a ser la ganadora pero sinceramente en texturas y detalles va a ser bastante mierdera en comparacion.

Un saludo.
@Nowcry los micropoligonos y el ciritione. Madre mia [facepalm]

En serio, tienes una pequeña, o gran, confusion, no te lo tomes a mal. Tampoco, como dices, hay que convencer a nadie. A mi desde luego no me tienes que convencer ni de comprar una PS5, ni de no comprar una Ampere.

Igual tú si necesitas convencerte de algo...

Un saludo [oki] [beer]


PD: y lo dicho, en serio, mirate hemeroteca, vete a foros e hilos en fechas de prelanzamiento y lanzamiento de la pasada generación, te sorprenderá leer el mismo tipo de pajas mentales. Y luego la realidad es que desde que salieron, hasta que se van, han ido siempre a remolque del PC, porque es lo logico y lo normal. Te pongas como te pongas. Yo no puedo explicarte el mundo entero ahora en un foro, quisiera si se pudiese, pero no puedo. Ya lo iras viendo tu solo, e insisto en que te hablo muy a buenas y con la mejor de las intenciones. Y sinceramente, no tengo nada claro que vayas a por ninguna 3090, mas bien parece que vas a por una Ps5, en serio. O eres un samaritano que sufre por ver a los de otros hilos y se desvive por consolarlos, o algo [+risas] .
Technoadicto escribió:Quiero comprar una 3090 y meterle bloque de agua para una RL. Cual me recomendais una FE o una custom????

Compra una que no te invalide la garantía al quitarle el disipador de serie.

Mírate las Hydro Copper de EVGA que ya llevan el bloque de agua.
En que precios se podría mover una 3090 no FE?
Drakenathan escribió:En que precios se podría mover una 3090 no FE?

Pues en las actuales gpus, suelen ser 200 euros mas caras. Al menos las de las marcas mas reconocidas.
battman80 escribió:@Nowcry los micropoligonos y el ciritione. Madre mia [facepalm]

En serio, tienes una pequeña, o gran, confusion, no te lo tomes a mal. Tampoco, como dices, hay que convencer a nadie. A mi desde luego no me tienes que convencer ni de comprar una PS5, ni de no comprar una Ampere.

Igual tú si necesitas convencerte de algo...

Un saludo [oki] [beer]


PD: y lo dicho, en serio, mirate hemeroteca, vete a foros e hilos en fechas de prelanzamiento y lanzamiento de la pasada generación, te sorprenderá leer el mismo tipo de pajas mentales. Y luego la realidad es que desde que salieron, hasta que se van, han ido siempre a remolque del PC, porque es lo logico y lo normal. Te pongas como te pongas. Yo no puedo explicarte el mundo entero ahora en un foro, quisiera si se pudiese, pero no puedo. Ya lo iras viendo tu solo, e insisto en que te hablo muy a buenas y con la mejor de las intenciones. Y sinceramente, no tengo nada claro que vayas a por ninguna 3090, mas bien parece que vas a por una Ps5, en serio. O eres un samaritano que sufre por ver a los de otros hilos y se desvive por consolarlos, o algo [+risas] .



Emmmm no se parecen en nada, ni las arquitecturas de las consolas ni de las GPUs. Es como comparar una manzana con un platano.

@Nowcry los micropoligonos y el ciritione. Madre mia


Con ese comentario ya se exactamente lo que sabes de GPU y de los avances que se están haciendo. En serio, tienes una pequeña, o gran, ignorancia que debes resolver, no te lo tomes a mal.

Que tengas buena tarde
@pepetu Lo que tienes que mirar es el ancho de banda y no la cantidad de RAM, y el ancho de banda de la 3070 son 512 gb/s (algo parecido a la Xbox series X), mi 1070 tiene 8 gigas igual y tiene 256 gb/s.

Saludos.
Yo no soy experto, pero desde luego los ingenieros de Nvidia seguro que sí lo son. Indudablemente mucho mas que todos los que estamos aquí. Asi pues, confio en que no se quede toda una 3080 corta de VRAM por un “descuido” o simplemente por tacañeria. Estas gráficas estan diseñadas para lo que se viene, que sin ser para nada consolero, si que considero que son las consolas las que marcan lo que vamos a poder ver graficamente esta proxima gen. Evidentemente mejorado en pc, mejoradisimo en ocasiones, a mayor resolucion y fps.. Pero al final las consolas “dicen” cuando empieza una nueva gen y cuando no. Asi esta el mercado.
Asi que si Nvidia ha sacado estas graficas, habran tenido en cuenta cientos de factores que nosotros ignoramos y por ello, por mi parte, tienen mi confianza.
battman80 escribió:
Drakenathan escribió:En que precios se podría mover una 3090 no FE?

Pues en las actuales gpus, suelen ser 200 euros mas caras. Al menos las de las marcas mas reconocidas.


Que dolor....1.700€ aproximadamente pues...... creo que me iré definitivamente a por la 3080 que para 2 años tengo gráfica de sobras a 1440p y no debería tener problemas de VRAM
Nowcry escribió:
battman80 escribió:@Nowcry los micropoligonos y el ciritione. Madre mia [facepalm]

En serio, tienes una pequeña, o gran, confusion, no te lo tomes a mal. Tampoco, como dices, hay que convencer a nadie. A mi desde luego no me tienes que convencer ni de comprar una PS5, ni de no comprar una Ampere.

Igual tú si necesitas convencerte de algo...

Un saludo [oki] [beer]


PD: y lo dicho, en serio, mirate hemeroteca, vete a foros e hilos en fechas de prelanzamiento y lanzamiento de la pasada generación, te sorprenderá leer el mismo tipo de pajas mentales. Y luego la realidad es que desde que salieron, hasta que se van, han ido siempre a remolque del PC, porque es lo logico y lo normal. Te pongas como te pongas. Yo no puedo explicarte el mundo entero ahora en un foro, quisiera si se pudiese, pero no puedo. Ya lo iras viendo tu solo, e insisto en que te hablo muy a buenas y con la mejor de las intenciones. Y sinceramente, no tengo nada claro que vayas a por ninguna 3090, mas bien parece que vas a por una Ps5, en serio. O eres un samaritano que sufre por ver a los de otros hilos y se desvive por consolarlos, o algo [+risas] .



Emmmm no se parecen en nada, ni las arquitecturas de las consolas ni de las GPUs. Es como comparar una manzana con un platano.

@Nowcry los micropoligonos y el ciritione. Madre mia


Con ese comentario ya se exactamente lo que sabes de GPU y de los avances que se están haciendo. En serio, tienes una pequeña, o gran, ignorancia que debes resolver, no te lo tomes a mal.

Que tengas buena tarde


Hombre, pues me paso la vida renderizando y animando en 3d, fijate lo al dia que puedo estar [+risas] [beer] . En serio, dejemos el tema que untamos el hilo. Como se suele decir, el tiempo dará y quitará razones. Pero ya te digo yo hoy, vamos me la juego, que no te hace falta nada por encima de una 3070 de 8gbs para hacer CUALQUIER COSA que haga una de las nuevas consolas durante toooda la generación. Que para llegar al ULTRA de PC de aqui a tres años, o 2, o 4, te pueda hacer falta mas vram? Puede ser, en segun que condiciones, y sobre todo DEPENDIENDO DE LO LEJOS QUE QUIERAN IR a la hora de separar el resultado de las versiones de PC frente a las de consola en cuanto a RTX. Porque si tu eres de los que crees que las consolas van a poder manejar el RTX como se ha estado y se va a manejar en PC, tanto de parte de Nvidia como de AMD, te vas a llevar un buen chasco me temo, y por desgracia. Ojala me equivoque.

[beer]

@Drakenathan pues fijate que una 3080, que te dure dos años como dices tu, te ha salido a 33 euros al mes gozarla. Yo creo que va bien no? Eso para los economistas domesticos del hilo [bad] [beer] .
A partir de ahora creo que os voy a leer desde detrás de la barrera... Yo definitivamente no me subo al carro de las nuevas Ampere. Tras mucho analizar he decidido volver para atrás y esperar más pacientemente a ver que saca AMD y a ver que saca después de nuevo nVidia. Llevaba ya 3 meses sin gráfica y aunque me gustó bastante la presentación, tras analizar a fondo, hay varias cosas que no me convencen, los TDP, la VRAM, la tecnología IO me parece aún prematura y no creo que sea capaz de suplir la escasez de VRAM, prefiero esperar a modelos de 16GB y a ser posible de GDDR6X. Tampoco creo que muchos juegos aún vayan a implementar las nuevas tecnologías de Raytracing y DLSS, cuando sea un standard quizás me pille una 3000 o una 4000 o lo que haya en ese momento. Las FE me gustan pero prefiero una custom y tampoco me gusta el hecho que apenas las hayan podido testear antes de sacarlas a la venta, me da mal rollo que pase algo parecido a las primeras partidas defectuosas anteriores series.

He aprovechado el tirón para pillarme una 2080Ti con garantía y demás por debajo de 500 e ir viendo tranquilamente como evoluciona todo, así seguro que no me vuelvo loco, porque estaba calentándome demasiado por la 3080 debido a que la 3070 no me acababa de convencer por la VRAM y al final tampoco quiero la 3080 porque la sigo viendo corta de VRAM para lo que vale. Mucho me temo que no van a tardar mucho en presentar las Super o Ti con más VRAM, creo que a finales de este año ya se sabrán todos los detalles y muy posiblemente a primeros de 2021 salgan a la venta (ojo, es mi percepción, no hay fuente fiable que lo diga claro).

Así que iré tirando con la 2080Ti y sus 11GB (que para mi me sobra para lo que buscaba) y cuando vea algo que me convenza de verdad (16GB de VRAM y quizás un salto de rendimiento respecto la 2080 Ti que merezca la pena) daré el salto que quería dar ahora, pero paso de estar más tiempo así... y aunque creo que AMD no tardará demasiado, es que en realidad me conozco y sé que acabaría pillando la que saque nVidia después. Entonces estos meses que restan los pasaré disfrutando en lugar de estar esperando y esperando, esta vez se me ha hecho más largo que otras ocasiones, y tampoco me fío de la pandemia esta y de la posible escasez, que puede retrasar más aún los stocks y demás, que hoy han habido 8.000 casos como ayer y esto huele a cuarentena de nuevo... y no quiero estar sin GPU.

Estaré atento a ver que pasa con las custom, todo irá cogiendo muy buena pinta, ahora que lo veré más tranquilo detrás de la barrera lo disfrutaré más (sin prisas ni monos).
Entonces aquí es que no compre la 3090 los demás estamos tirando el dinero y haciendo el tonto.

Pues nada que le vamos a hacer.
tigerscream escribió:A partir de ahora creo que os voy a leer desde detrás de la barrera... Yo definitivamente no me subo al carro de las nuevas Ampere. Tras mucho analizar he decidido volver para atrás y esperar más pacientemente a ver que saca AMD y a ver que saca después de nuevo nVidia. Llevaba ya 3 meses sin gráfica y aunque me gustó bastante la presentación, tras analizar a fondo, hay varias cosas que no me convencen, los TDP, la VRAM, la tecnología IO me parece aún prematura y no creo que sea capaz de suplir la escasez de VRAM, prefiero esperar a modelos de 16GB y a ser posible de GDDR6X. Tampoco creo que muchos juegos aún vayan a implementar las nuevas tecnologías de Raytracing y DLSS, cuando sea un standard quizás me pille una 3000 o una 4000 o lo que haya en ese momento. Las FE me gustan pero prefiero una custom y tampoco me gusta el hecho que apenas las hayan podido testear antes de sacarlas a la venta, me da mal rollo que pase algo parecido a las primeras partidas defectuosas anteriores series.

He aprovechado el tirón para pillarme una 2080Ti con garantía y demás por debajo de 500 e ir viendo tranquilamente como evoluciona todo, así seguro que no me vuelvo loco, porque estaba calentándome demasiado por la 3080 debido a que la 3070 no me acababa de convencer por la VRAM y al final tampoco quiero la 3080 porque la sigo viendo corta de VRAM para lo que vale. Mucho me temo que no van a tardar mucho en presentar las Super o Ti con más VRAM, creo que a finales de este año ya se sabrán todos los detalles y muy posiblemente a primeros de 2021 salgan a la venta (ojo, es mi percepción, no hay fuente fiable que lo diga claro).

Así que iré tirando con la 2080Ti y sus 11GB (que para mi me sobra para lo que buscaba) y cuando vea algo que me convenza de verdad (16GB de VRAM y quizás un salto de rendimiento respecto la 2080 Ti que merezca la pena) daré el salto que quería dar ahora, pero paso de estar más tiempo así... y aunque creo que AMD no tardará demasiado, es que en realidad me conozco y sé que acabaría pillando la que saque nVidia después. Entonces estos meses que restan los pasaré disfrutando en lugar de estar esperando y esperando, esta vez se me ha hecho más largo que otras ocasiones, y tampoco me fío de la pandemia esta y de la posible escasez, que puede retrasar más aún los stocks y demás, que hoy han habido 8.000 casos como ayer y esto huele a cuarentena de nuevo... y no quiero estar sin GPU.

Estaré atento a ver que pasa con las custom, todo irá cogiendo muy buena pinta, ahora que lo veré más tranquilo detrás de la barrera lo disfrutaré más (sin prisas ni monos).



Creo sinceramente que has tomado una decisión de 10. Salvo que empiecen a sacar benchs y por 550 digamos, tengamos las 3070 marcandose 70 frames en Red Dead 2, 4k y todo el máximo. Porque la Ti, ya veras por ti mismo hasta donde y hasta donde no, puede llegar. Y de paso, si necesitas algun consejo sobre temps o algo así, aqui tienes a un servidor, pero sin saber que modelo es, desde ya te recomiendo que tengas siempre el afterburner con un perfil custom para los ventiladores, y bajaras mucho la temp, porque ahora tienen la mania de dejarlos de casa para que no se muevan hasta que la Ti pilla los 50 grados. Yo la tengo siempre, en tareas de escritorio e idle, a 34. Sin el perfil, pasaba los 45 [facepalm] . [beer]

@lucer1 y el que compre la 2080Ti estando la super, y el que compre la super estando la 2070S, y el que compra la 70S estando la 1080, y el que compra una gpu hubiendo consolas, y etc etc. Es lo hay hijo mio, sí, es lo que hay.

Como aquel burro que le pusieron dos cubos de comida, uno a cada lado, y por no saber de cual comer se murió del hambre. Eso sí, al menos no murío con la pesadumbre de hacer una mala elección. [+risas]
battman80 escribió:
Nowcry escribió:
battman80 escribió:@Nowcry los micropoligonos y el ciritione. Madre mia [facepalm]

En serio, tienes una pequeña, o gran, confusion, no te lo tomes a mal. Tampoco, como dices, hay que convencer a nadie. A mi desde luego no me tienes que convencer ni de comprar una PS5, ni de no comprar una Ampere.

Igual tú si necesitas convencerte de algo...

Un saludo [oki] [beer]


PD: y lo dicho, en serio, mirate hemeroteca, vete a foros e hilos en fechas de prelanzamiento y lanzamiento de la pasada generación, te sorprenderá leer el mismo tipo de pajas mentales. Y luego la realidad es que desde que salieron, hasta que se van, han ido siempre a remolque del PC, porque es lo logico y lo normal. Te pongas como te pongas. Yo no puedo explicarte el mundo entero ahora en un foro, quisiera si se pudiese, pero no puedo. Ya lo iras viendo tu solo, e insisto en que te hablo muy a buenas y con la mejor de las intenciones. Y sinceramente, no tengo nada claro que vayas a por ninguna 3090, mas bien parece que vas a por una Ps5, en serio. O eres un samaritano que sufre por ver a los de otros hilos y se desvive por consolarlos, o algo [+risas] .



Emmmm no se parecen en nada, ni las arquitecturas de las consolas ni de las GPUs. Es como comparar una manzana con un platano.

@Nowcry los micropoligonos y el ciritione. Madre mia


Con ese comentario ya se exactamente lo que sabes de GPU y de los avances que se están haciendo. En serio, tienes una pequeña, o gran, ignorancia que debes resolver, no te lo tomes a mal.

Que tengas buena tarde


Hombre, pues me paso la vida renderizando y animando en 3d, fijate lo al dia que puedo estar [+risas] [beer] . En serio, dejemos el tema que untamos el hilo. Como se suele decir, el tiempo dará y quitará razones. Pero ya te digo yo hoy, vamos me la juego, que no te hace falta nada por encima de una 3070 de 8gbs para hacer CUALQUIER COSA que haga una de las nuevas consolas durante toooda la generación. Que para llegar al ULTRA de PC de aqui a tres años, o 2, o 4, te pueda hacer falta mas vram? Puede ser, en segun que condiciones, y sobre todo DEPENDIENDO DE LO LEJOS QUE QUIERAN IR a la hora de separar el resultado de las versiones de PC frente a las de consola en cuanto a RTX. Porque si tu eres de los que crees que las consolas van a poder manejar el RTX como se ha estado y se va a manejar en PC, tanto de parte de Nvidia como de AMD, te vas a llevar un buen chasco me temo, y por desgracia. Ojala me equivoque.

[beer]

Para nada las consolas van a manejar un RTX como es debido si ademas RDNA2 trae consigo la forma de calculo de rayos que hemos podido ver en SX hot chip, no me gusta nada ni me parece que vayan a poder competir.

Sin embargo en geometría y gestión de datos I/O si que van a dar la batalla. Yo me paso el día con otros cacharros mas grandes, pero el hardware es mi Hobby desde hace 15 años y sigo muy de cerca su funcionamiento a nivel codigo y hardware. He tenido mis contactos con los temas de renderizado y animacion pero mucho mas contacto con el tema de motores graficos unity y UnrealEngine, gestion de memoria y procesado de datos e IA.

Y se que la gestion del datos para hacer funcionar Nanite es mucho mas alta y se que las gestiones de I/O se disparan hasta saturar los canales, lo cual dependerá directamente del numero de polígonos a mostrar en pantalla ligado íntegramente con la resolución mediante un rasterizado en ACE y llenara la memoria de VRAM con lo mostrado en el tiro de camara excepto unos margenes. Tener 8 GB de VRAM simplemente impedirá mostrar los polígonos necesarios y estropeara la experiencia incluso 10 GB de VRAM, si lo que estas buscando es una comparativa que gane en todos los apartados a una consola. Si me preguntas si podrás jugar, te diré que si, pero a nivel de geometría y detalles de texturas no obtendrás una experiencia superior a las consolas. En iluminación y efectos si.

Para poder obtener una experiencia superior a las consolas en un entorno de micropoligonos o equivalente no bajaria mis pretensiones de 16 gb de gddr. Sin embargo este tipo de experiencias no están programadas para este año o para el año que viene. Sin embargo a partir de mediados del año que viene comenzaran los desarrollos ligados a este sistema y posiblemente en 2022 comencemos a verlos y no paren de crecer hasta que simplemente desaparezca el método actual.

Un I/O controller deficiente puede sustituirse por mayor cantidad de VRAM, pero ni el PC tiene un I/O para tirar cohetes ni una 3070 tiene una cantidad de VRAM para poder hacerlo.
@battman80 Si yo creo que es la mejor opción para los que nos gusta trastear, ya que la cambiaremos antes de que este desfasada (además de no tener que soltar el doble de dinero) y nos habrá salido dpm precio/rendimiento como apuntas.

Otra cosa es si juegas a 4k y buscas los máximos hz, entonces si una 3090..... pero para aguantar toda la Gen veo mas interesante pillarse esta 3080 y cambiarla dentro de 2/3 años por otra xx80 moderna ( por el precio que te habrás tenido una 3090 habrás tenido dos xx80, sino se desmadran de nuevo los precios claro).
battman80 escribió:
tigerscream escribió:A partir de ahora creo que os voy a leer desde detrás de la barrera... Yo definitivamente no me subo al carro de las nuevas Ampere. Tras mucho analizar he decidido volver para atrás y esperar más pacientemente a ver que saca AMD y a ver que saca después de nuevo nVidia. Llevaba ya 3 meses sin gráfica y aunque me gustó bastante la presentación, tras analizar a fondo, hay varias cosas que no me convencen, los TDP, la VRAM, la tecnología IO me parece aún prematura y no creo que sea capaz de suplir la escasez de VRAM, prefiero esperar a modelos de 16GB y a ser posible de GDDR6X. Tampoco creo que muchos juegos aún vayan a implementar las nuevas tecnologías de Raytracing y DLSS, cuando sea un standard quizás me pille una 3000 o una 4000 o lo que haya en ese momento. Las FE me gustan pero prefiero una custom y tampoco me gusta el hecho que apenas las hayan podido testear antes de sacarlas a la venta, me da mal rollo que pase algo parecido a las primeras partidas defectuosas anteriores series.

He aprovechado el tirón para pillarme una 2080Ti con garantía y demás por debajo de 500 e ir viendo tranquilamente como evoluciona todo, así seguro que no me vuelvo loco, porque estaba calentándome demasiado por la 3080 debido a que la 3070 no me acababa de convencer por la VRAM y al final tampoco quiero la 3080 porque la sigo viendo corta de VRAM para lo que vale. Mucho me temo que no van a tardar mucho en presentar las Super o Ti con más VRAM, creo que a finales de este año ya se sabrán todos los detalles y muy posiblemente a primeros de 2021 salgan a la venta (ojo, es mi percepción, no hay fuente fiable que lo diga claro).

Así que iré tirando con la 2080Ti y sus 11GB (que para mi me sobra para lo que buscaba) y cuando vea algo que me convenza de verdad (16GB de VRAM y quizás un salto de rendimiento respecto la 2080 Ti que merezca la pena) daré el salto que quería dar ahora, pero paso de estar más tiempo así... y aunque creo que AMD no tardará demasiado, es que en realidad me conozco y sé que acabaría pillando la que saque nVidia después. Entonces estos meses que restan los pasaré disfrutando en lugar de estar esperando y esperando, esta vez se me ha hecho más largo que otras ocasiones, y tampoco me fío de la pandemia esta y de la posible escasez, que puede retrasar más aún los stocks y demás, que hoy han habido 8.000 casos como ayer y esto huele a cuarentena de nuevo... y no quiero estar sin GPU.

Estaré atento a ver que pasa con las custom, todo irá cogiendo muy buena pinta, ahora que lo veré más tranquilo detrás de la barrera lo disfrutaré más (sin prisas ni monos).



Creo sinceramente que has tomado una decisión de 10. Salvo que empiecen a sacar benchs y por 550 digamos, tengamos las 3070 marcandose 70 frames en Red Dead 2, 4k y todo el máximo. Porque la Ti, ya veras por ti mismo hasta donde y hasta donde no, puede llegar. Y de paso, si necesitas algun consejo sobre temps o algo así, aqui tienes a un servidor, pero sin saber que modelo es, desde ya te recomiendo que tengas siempre el afterburner con un perfil custom para los ventiladores, y bajaras mucho la temp, porque ahora tienen la mania de dejarlos de casa para que no se muevan hasta que la Ti pilla los 50 grados. Yo la tengo siempre, en tareas de escritorio e idle, a 34. Sin el perfil, pasaba los 45 [facepalm] . [beer]


[beer] Si, Tengo el Afterburner desde casi sus primeras versiones, efectivamente lo primero que haré será calibrar potencia/temperatura/ruido para que ande más bien fresquita, me sobra potencia y no creo que le haga OC. Así me distraigo mientras va pasando todo esto que tenía el por ejemplo varios juegos a la espera de la nueva GPU y el mono va subiendo y subiendo y al final con la bajada de precios que ha habido con las 2000 ni me lo he pensado.
Es que yo creo que aquí se confunde el que cubre una necesidad/capricho/hobby, con el que habla como si todo lo que no sea lo más top, es una mierda.

Si hay precios, si hay gamas, es para que cada cual se ajuste a lo que más le satisfaga, dentro de lo que pueda pagar. Qué entiendo que si alguien gasta 700 ñapos en una 3080 quiera que sea top ahora y durante años, porque no es poco dinero.....pero es que la cosa no va así. Lo top será lo más caro, ahora la 3090 y dentro de un tiempo, otra que salga.

Así que no digamos que 10Gb son insuficientes porque no van a aguantar 4k en ultra una generación. Es que ese no es el nicho que pretende cubrir una 3080. Para 4k ultra y la capacidad de "meter la patita" en 8k (pero sin fliparse mucho) está la 3090

Salvo que uno quiera/pueda andar soltando 1500-2000€ cada par de años en grafica, micro y demás tecnologías que evolucionen, nunca va a estar en techo gráfico más que de forma puntual. Y cuando no se pueda estar, toca hacer lo que se ha hecho siempre: hacer concesiones. Unos lo harán bajando resolución, otros desactivando RTX o el efecto que sea.....pero eso no es motivo para criticar a la tarjeta o al PC. Es simplemente evolución tecnológica. Leches, si hasta eso lo han heredado las consolas....a ver si las versiones pro no han sido el equivalente de un cambio de grafica a media generación que muchos hacen en su PC.......

Personalmente yo voy a disparar a la 3080, porque el setup que me voy a montar no tiene pretensiones más allá de UFHD en ultra a 75fps, y pienso que para eso dará cuerda un buen tiempo. Pero lo que desde luego no haré, es sentirme engañado con la tarjeta el día que en vez de ultra, tenga que poner alto o medio. Sea por la VRAM o por lo que sea
lucer1 escribió:Entonces aquí es que no compre la 3090 los demás estamos tirando el dinero y haciendo el tonto.

Pues nada que le vamos a hacer.

Comprar la 3090 tambien es tirar el dinero, que son 1500 pavos... [+risas] [+risas] [carcajad]
No ser que te dediques a otra cosa que no sea solo jugar...
Lemmiwinks escribió:
lucer1 escribió:Entonces aquí es que no compre la 3090 los demás estamos tirando el dinero y haciendo el tonto.

Pues nada que le vamos a hacer.

Comprar la 3090 tambien es tirar el dinero, que son 1500 pavos... [+risas] [+risas] [carcajad]
No ser que te dediques a otra cosa que no sea solo jugar...


Pues entonces tú me dirás hagamos lo que hagaMis tiramos el dinero, pero yo estoy sin gráfica.

Saludos
lucer1 escribió:
Lemmiwinks escribió:
lucer1 escribió:Entonces aquí es que no compre la 3090 los demás estamos tirando el dinero y haciendo el tonto.

Pues nada que le vamos a hacer.

Comprar la 3090 tambien es tirar el dinero, que son 1500 pavos... [+risas] [+risas] [carcajad]
No ser que te dediques a otra cosa que no sea solo jugar...


Pues entonces tú me dirás hagamos lo que hagaMis tiramos el dinero, pero yo estoy sin gráfica.

Saludos


Esperate a las versiones OC custom y pillate una 3090 pasada por agua. Quiza alcance los 42 Tflops y le metan tambien OC a la memoria igual llega al 1 TB/s. SI compras ahora una 3080 por ejemplo y tienes que cambiar mas adelante a la 3080 SUper finalmente te habrá salido mas caro aunque la vendas y posiblemente no alcance a la 3090.

Yo soy totalmente partidario de la 3090 pero tambien es verdad que yo hago mas cosas que jugar, ejemplo diseño grafico, diseño de unreal. Y sobre todo uso mucho la VR come mucho de todo.
Nowcry escribió:
battman80 escribió:
Nowcry escribió:

Emmmm no se parecen en nada, ni las arquitecturas de las consolas ni de las GPUs. Es como comparar una manzana con un platano.



Con ese comentario ya se exactamente lo que sabes de GPU y de los avances que se están haciendo. En serio, tienes una pequeña, o gran, ignorancia que debes resolver, no te lo tomes a mal.

Que tengas buena tarde


Hombre, pues me paso la vida renderizando y animando en 3d, fijate lo al dia que puedo estar [+risas] [beer] . En serio, dejemos el tema que untamos el hilo. Como se suele decir, el tiempo dará y quitará razones. Pero ya te digo yo hoy, vamos me la juego, que no te hace falta nada por encima de una 3070 de 8gbs para hacer CUALQUIER COSA que haga una de las nuevas consolas durante toooda la generación. Que para llegar al ULTRA de PC de aqui a tres años, o 2, o 4, te pueda hacer falta mas vram? Puede ser, en segun que condiciones, y sobre todo DEPENDIENDO DE LO LEJOS QUE QUIERAN IR a la hora de separar el resultado de las versiones de PC frente a las de consola en cuanto a RTX. Porque si tu eres de los que crees que las consolas van a poder manejar el RTX como se ha estado y se va a manejar en PC, tanto de parte de Nvidia como de AMD, te vas a llevar un buen chasco me temo, y por desgracia. Ojala me equivoque.

[beer]

Para nada las consolas van a manejar un RTX como es debido si ademas RDNA2 trae consigo la forma de calculo de rayos que hemos podido ver en SX hot chip, no me gusta nada ni me parece que vayan a poder competir.

Sin embargo en geometría y gestión de datos I/O si que van a dar la batalla. Yo me paso el día con otros cacharros mas grandes, pero el hardware es mi Hobby desde hace 15 años y sigo muy de cerca su funcionamiento a nivel codigo y hardware. He tenido mis contactos con los temas de renderizado y animacion pero mucho mas contacto con el tema de motores graficos unity y UnrealEngine, gestion de memoria y procesado de datos e IA.

Y se que la gestion del datos para hacer funcionar Nanite es mucho mas alta y se que las gestiones de I/O se disparan hasta saturar los canales, lo cual dependerá directamente del numero de polígonos a mostrar en pantalla ligado íntegramente con la resolución mediante un rasterizado en ACE y llenara la memoria de VRAM con lo mostrado en el tiro de camara excepto unos margenes. Tener 8 GB de VRAM simplemente impedirá mostrar los polígonos necesarios y estropeara la experiencia incluso 10 GB de VRAM, si lo que estas buscando es una comparativa que gane en todos los apartados a una consola. Si me preguntas si podrás jugar, te diré que si, pero a nivel de geometría y detalles de texturas no obtendrás una experiencia superior a las consolas. En iluminación y efectos si.

Para poder obtener una experiencia superior a las consolas en un entorno de micropoligonos o equivalente no bajaria mis pretensiones de 16 gb de gddr. Sin embargo este tipo de experiencias no están programadas para este año o para el año que viene. Sin embargo a partir de mediados del año que viene comenzaran los desarrollos ligados a este sistema y posiblemente en 2022 comencemos a verlos y no paren de crecer hasta que simplemente desaparezca el método actual.

Un I/O controller deficiente puede sustituirse por mayor cantidad de VRAM, pero ni el PC tiene un I/O para tirar cohetes ni una 3070 tiene una cantidad de VRAM para poder hacerlo.

Leyendote me entran ganas de aguantar un año mas con mi 1070...veremos
@Nowcry ya veremos amigo mio, ya veremos. Pero por muy aerodinamico que sea el chasis, si el otro monoplaza te aplasta en caballos, aunque se le den un poco peor que a ti las curvas, es muy dificil que le ganes ni una sola carrera. Puede ser que Nvidia sepa que no van a dar todo lo desable estas gráficas iniciales, como sabía que las primeras RTX les faltaba un poquito para poder ofrecer un rtx minimamente decente y sacó las super, y esa sea su intención, poder revender la gama dentro de 2 o 3 años, o puede ser que sepa mejor que nadie lo que le va a hacer falta y lo que no, o como va a resolver las cosas. No es una juguetera vendiendo juguetes, es una empresa que ahora mismo tiene en sus laboratorios las soluciones gráficas de dentro de 10 años probablemente, y que colabora con practicamente todo lo que tenga que ver con gráficos, de una u otra manera... Por ejemplo nos brindó la posibilidad de poder usar por fin, trazado de rayos en renders, EN TIEMPO REAL, cuando era algo que parecía que sería imposible por decadas...
Yo me pongo con el Daz mismo, y se me cae la baba soñando como serán los juegos algun dia, y bueno, tengo claro que si tenemos que llegar a eso no va a ser de la mano de Sony precisamente...


Supongo que me entiendes perfectamente [oki] .Y si, yo tambien le doy algo, por hobby, a Unity y al UE, justo ahora estoy como crio con zapatos nuevos con el bridge Daz to UE [boing] [sonrisa] . Pero vamos, es un hobbie mas que otra cosa, quitado algun cartel o alguna cosilla de vez en cuando. Antes tenía mucho tiempo libre para esto, pero ahora cada vez menos :( .

A ver AMD por donde sale.
[beer]
Drakenathan escribió:
battman80 escribió:
Drakenathan escribió:En que precios se podría mover una 3090 no FE?

Pues en las actuales gpus, suelen ser 200 euros mas caras. Al menos las de las marcas mas reconocidas.


Que dolor....1.700€ aproximadamente pues...... creo que me iré definitivamente a por la 3080 que para 2 años tengo gráfica de sobras a 1440p y no debería tener problemas de VRAM

No sé...yo alucino un poco cuando habláis de una 3089 que es un 80% más potente que una 1089ti y decís que "para 2 años" a 1440p.
Pero si la 1080ti tiene para 2 años o mas como poco a 1440p 60hz...Si actualmente lo juego todo en ultra muy por encima de 60fps...

Estamos locos o qué?
yo lo que veo es mucho pobre resentido por no poder pillarse un pc con una nvidia 3000 y conformarse con una consola next gen, que está muy bien si, pero por favor no hagais el ridiculo diciendo que van a rendir lo mismo.
Nowcry escribió:Y por otro lado la diferencia de memoria 14 de GDDR (memoria dedicada para juegos segun rumores de PS5) vs 8 gb de GDDR es demasiado grande para que no afecte a las texturas, la iluminación la 3070 va a ser la ganadora pero sinceramente en texturas y detalles va a ser bastante mierdera en comparacion.

Un saludo.

Claro, porque todo el mundo sabe que la memoria solo la utiliza la GPU. [qmparto]

Nowcry escribió:Sin embargo en geometría y gestión de datos I/O si que van a dar la batalla. Yo me paso el día con otros cacharros mas grandes, pero el hardware es mi Hobby desde hace 15 años y sigo muy de cerca su funcionamiento a nivel codigo y hardware. He tenido mis contactos con los temas de renderizado y animacion pero mucho mas contacto con el tema de motores graficos unity y UnrealEngine, gestion de memoria y procesado de datos e IA.


Pero si hace 6 meses tú mismo decías que no tenías ni idea y que no entendías un pijo de lo que habían hablado en el Road to PS5, esto ya es de chiste.
¿Cuando se pueden comprar? ¿Se puede reservar en algun sitio?
lucer1 escribió:
Lemmiwinks escribió:
lucer1 escribió:Entonces aquí es que no compre la 3090 los demás estamos tirando el dinero y haciendo el tonto.

Pues nada que le vamos a hacer.

Comprar la 3090 tambien es tirar el dinero, que son 1500 pavos... [+risas] [+risas] [carcajad]
No ser que te dediques a otra cosa que no sea solo jugar...


Pues entonces tú me dirás hagamos lo que hagaMis tiramos el dinero, pero yo estoy sin gráfica.

Saludos

Claro que no, la 3070 y la 3080 son tarjetones, pero puede que en dos años cuando empiecen a salir juegos reales de next gen, la vram se quede un pelin corta.
Para mi gastarse 1500€ en una grafica si no es para uso profesional es tirar el dinero, para eso te compras una 3070 y en 3 años una 4070 o 80ti,te va a salir mas barato que esa 3090 y mejor a largo plazo.
Pero bueno depende las necesidades de cada uno. Un saludo
Sería mucha locura pillar una 3080 para jugar 1080p 75hz con todo en ultra y que me aguantase bastantes años?
Para jugar a juegos a 1080p con 3 monitores 10gb de ram puede ser poco? Nada de 4K....solo 3 monitores 144hz
@Garbans Me acabo de enamorar de la Hydro Copper! LA QUIERO! [amor] [amor]
Nowcry escribió:Un I/O controller deficiente puede sustituirse por mayor cantidad de VRAM, pero ni el PC tiene un I/O para tirar cohetes ni una 3070 tiene una cantidad de VRAM para poder hacerlo.


Para cuando los desarrolladores se vayan a cargar la VRAM tendrías DLSS reduciendo la geometría necesaria sustancialmente, ademas de disponer de mas ancho de banda al no compartirlo con una CPU y un buffer RAM que puede servir como apoyo ademas del SSD, no creo que sea tan simple, sobre el I/O, tengo entendido que ni Nvidia ha confirmado como funciona, no entiendo de donde sacas tus conclusiones.
asthar escribió:yo lo que veo es mucho pobre resentido por no poder pillarse un pc con una nvidia 3000 y conformarse con una consola next gen, que está muy bien si, pero por favor no hagais el ridiculo diciendo que van a rendir lo mismo.

Se esta hablando sobre las texturas y todo lo que chupe vram, evidentemente las futuras consolas no tienen nada que hacer con las rt30
joder, como de revolucionado ha dejado el mercado nvidia, he pasado por compra venta y he flipado, aunque yo seguire con mi vega 56 jeje.

eso si, si algo me ha quedado claro es que nvidia ha declarado la guerra a las consolas y esta intentando que mucha gente pase de ps5 y xbsx, al contrario de amd que ha retrasado sus graficas, evidentemente para amd las consolas estan antes que pc, algo que me empieza a parecer feo, ellos sabran.

saludos
josemurcia escribió:
Nowcry escribió:Y por otro lado la diferencia de memoria 14 de GDDR (memoria dedicada para juegos segun rumores de PS5) vs 8 gb de GDDR es demasiado grande para que no afecte a las texturas, la iluminación la 3070 va a ser la ganadora pero sinceramente en texturas y detalles va a ser bastante mierdera en comparacion.

Un saludo.

Claro, porque todo el mundo sabe que la memoria solo la utiliza la GPU. [qmparto]


Nooo lo pone bien 14 GB de GDDR, he restado los 2 GB reservados para el sistema. Siquires mete 1 Gb mas para procesos del juego o incluso mete dos.
hablamos de 12 GB vs 8 GB me parece bastante normal lo que se esta comentando.


@battman80 A ver por donde sale AMD, espero que puedan ser competitivos si tenemos estos precios es por ellos. Aunque nunca he sido muy pro AMD por malas experiencias en el pasado. Se que estan mejorando bastante.

@hh1 En potencia esta perfectas pero cambio de consolas con mas VRAM, logicamente se necesita mas VRAM.

@josemurcia tecnologia nueva, ahora ya me la he estudiado.
31123 respuestas