[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.

https://www.resetera.com/threads/vram-i ... t-51323914


Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall :(
KliKodesh escribió:
willygermo escribió:
KliKodesh escribió:
Depende de la que quieras... por ejemplo esta gente deja reservar una Zotac Holo (Es la superior a la Trinity) para el dia 23 de este mes

https://www.vsgamers.es/product/tarjeta-grafica-zotac-gaming-nvidia-geforce-rtxr-3080-10-gb-gddr6x



A mi me tienta esta, pero tengo a asus tuf oc en pcc para final de mes, pero son 40 euros mas. Esta vendría antes y creo que la tienda cumple mas los plazos. Yo creo que la otra es mejor, no? De esta, he visto super poca información.


Es que de la Holo no hay nada de informacion, la asus tuf oc, se supone que es mejor, si, ya dependera de ti... Yo tengo pedida la Asus Strix Oc en PCComp, pero me dijeron que habia rotura de stock y que el distribuidor no le daba fechas para el envio... asi que he reservado la Zotac y si veo que la otra no me la envian antes de final de mes, me quedo con la Zotac... Si total, al final termino haciendo UV


Eso de que hay rotura de stock y esas cosas, como las sabéis? hablais con ellos por el chat? por que a mi me pone que estará a finales de mes, pero no se mas.
A mi me tira mucho mi asus, que es de las mas fresquitas (si no las mas) de las 3080.
ionesteraX escribió:
josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.

https://www.resetera.com/threads/vram-i ... t-51323914


Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall :(

Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
Hay stock de la Zotac en Pccomponentes, un amigo y yo acabamos de pillarnos una cada uno 739€
nicomillan escribió:Hay stock de la Zotac en Pccomponentes, un amigo y yo acabamos de pillarnos una cada uno 739€


Pues ya diréis qué tal va.
¿Hay una diferencia de rendimiento real entre modelos como el Zotac 3070 y el Zotac 3070 OC? En principio voy a por el normal porque pagar 30 de más por algo insignificante no me apetece.
josemurcia escribió:
ionesteraX escribió:
josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.

https://www.resetera.com/threads/vram-i ... t-51323914


Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall :(

Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?
Una preguntilla

Aparte de las web coolmod, pccomp, amazon y versusgamers en que otras web de confianza se puede mirar si están las gráficas?

Yo busco la ASUS 3080 TUF.. difícil de conseguir pero bueno

Muchas gracias.
Bloodmarks escribió:Por ejemplo en el valhalla tengo una media de 75-90 fps pero el % de cpu y gpu es un baile de ir para arriba y para abajo todo el rato. Normalmente se mantiene la GPU al 95-99% pero de golpe la cpu sube para arriba y la gpu baja y el resultado son 15-20 fps para abajo. Ya se que el valhalla no es una buena referencia porque detras esta Ubisoft y todos sabemos que no saben que es optimizar... vease WD: Legion que es injugable incluso con una 3090.

Un amigo estaba muy contento jugando y haciendo streaming de ese juego con una GTX 1050, ya me dio curiosidad preguntarle cómo le va el juego.
willygermo escribió:
KliKodesh escribió:
willygermo escribió:

A mi me tienta esta, pero tengo a asus tuf oc en pcc para final de mes, pero son 40 euros mas. Esta vendría antes y creo que la tienda cumple mas los plazos. Yo creo que la otra es mejor, no? De esta, he visto super poca información.


Es que de la Holo no hay nada de informacion, la asus tuf oc, se supone que es mejor, si, ya dependera de ti... Yo tengo pedida la Asus Strix Oc en PCComp, pero me dijeron que habia rotura de stock y que el distribuidor no le daba fechas para el envio... asi que he reservado la Zotac y si veo que la otra no me la envian antes de final de mes, me quedo con la Zotac... Si total, al final termino haciendo UV


Eso de que hay rotura de stock y esas cosas, como las sabéis? hablais con ellos por el chat? por que a mi me pone que estará a finales de mes, pero no se mas.
A mi me tira mucho mi asus, que es de las mas fresquitas (si no las mas) de las 3080.



Si, hable con ellos por chat y me comentaron eso, que parece ser que el distribuidor tenia rotura de stock y que no sabian cuando le iban a entrar, que podia ser en 2 dias o en 2 meses, que no podian saber nada. Que me aconsejaban cancelar y coger otra pero que si yo queria me mantenian la reserva
Fair201 escribió:Una preguntilla

Aparte de las web coolmod, pccomp, amazon y versusgamers en que otras web de confianza se puede mirar si están las gráficas?

Yo busco la ASUS 3080 TUF.. difícil de conseguir pero bueno

Muchas gracias.

Aussar,Xtremedia,4 frags,alternate,Vsgamers..
jrdj escribió:
alfye20 escribió:@jrdj sabes cómo funcionan los hilos de cada núcleo? Échale un ojo y luego vienes a despotricar por aquí

Por supuesto que lo se, pero un 8600k no tiene hilos tiene 6 núcleos y fin

Bien! Los mismos núcleos que el Ryzen 3600x!
Insisto, si quieres hablar de hilos, échate un vistazo a como funcionan en relación a los núcleos y luego seguimos en el foro de CPUs.
@alfye20 @jrdj por lo que yo tengo entendido, el i5 8600k tiene 6 nucleos y 6 hilos no? Vamos yo lo compré y pone esa informacion en todos los lados.. a decir verdad, en el msi afterburner no me monitorea los hilos y creo que en otros procesadores si, pero ya no se si es por el msi afb o por mi placa que no me los activa o porque el procesador no los tiene.. ahora que lo decis me poneis en putas dudas.. losiento por el offtopic.. lo que si se es que en 1440p se me queda siempre a alto % la CPU y la 3080 no
aleyalicia21 escribió:@alfye20 @jrdj por lo que yo tengo entendido, el i5 8600k tiene 6 nucleos y 6 hilos no? Vamos yo lo compré y pone esa informacion en todos los lados.. a decir verdad, en el msi afterburner no me monitorea los hilos y creo que en otros procesadores si, pero ya no se si es por el msi afb o por mi placa que no me los activa o porque el procesador no los tiene.. ahora que lo decis me poneis en putas dudas.. losiento por el offtopic.. lo que si se es que en 1440p se me queda siempre a alto % la CPU y la 3080 no


el i5 8600k tiene 6 núcleos sin Hyper threading , lo que hace esta tecnología es dividir los núcleos en 2 procesos independientes con eso se consigue mas rendimiento , es como si tuviera 12 núcleos pero sin ser 12 núcleos reales ya que 12 núcleos reales de la misma arquitectura y mismo proceso de fabricación van a rendir mas pero le da un extra de rendimiento , windows ve un 6 núcleos con hyper threading como si fuese un 12 núcleos:
Imagen

Hace años cuando los juegos no estaban programados para usar la tecnología Hyper Threading era recomendable desactivarla por que daba problemas de stuttering , pero eso es cosa del pasado , el ultimo juego que jugué con este problema fue el Metro 2033 Redux
Antoniopua está baneado por "saltarse el ban con un clon"
alfye20 escribió:
jrdj escribió:
alfye20 escribió:@jrdj sabes cómo funcionan los hilos de cada núcleo? Échale un ojo y luego vienes a despotricar por aquí

Por supuesto que lo se, pero un 8600k no tiene hilos tiene 6 núcleos y fin

Bien! Los mismos núcleos que el Ryzen 3600x!
Insisto, si quieres hablar de hilos, échate un vistazo a como funcionan en relación a los núcleos y luego seguimos en el foro de CPUs.

Vamos a ver compañero Ryzen 5 3600X 6 núcleos 12 hilos, 8600k 6 núcleos y fin no se que parte no entiendes....
Especificaciones AMD Ryzen 5 3600X:
Núcleos de CPU: 6
Hilos: 12

Especificaciones Intel Core i5-8600K
Procesador
Familia de procesador: 8ª generación de procesadores Intel® Core? i5
Frecuencia del procesador: 3,6 GHz
Número de núcleos de procesador: 6
Número de filamentos de procesador: 6
@aleyalicia21 8600k NO tiene hilos son 6 núcleos y ya esta por eso hace cuello de botella no te van aparecer por que no tiene HT (Hyper-Threading)
vmanuelgm escribió:


Podrias haber esperado a que se pudiera ver el video a 1080 antes de publicitarlo! Que os pueden las ansias :P
KliKodesh escribió:
vmanuelgm escribió:


Podrias haber esperado a que se pudiera ver el video a 1080 antes de publicitarlo! Que os pueden las ansias :P



Yo lo dejo ahí para quien quiera verlo, ya se cuenta con el procesado de Youtube, el cual podría evitar haciéndolo yo mismo, pero sólo hay que tener un poco de paciencia.
vmanuelgm escribió:
KliKodesh escribió:
vmanuelgm escribió:


Podrias haber esperado a que se pudiera ver el video a 1080 antes de publicitarlo! Que os pueden las ansias :P



Yo lo dejo ahí para quien quiera verlo, ya se cuenta con el procesado de Youtube, el cual podría evitar haciéndolo yo mismo, pero sólo hay que tener un poco de paciencia.


Ya se puede ver :P
Perdón por el offtopic, pero pensais que mereceria la pena hacer OC al 3600x para quitar un poco de cuello de botella?

No he hecho hasta el momento porque no habia visto muchas ganancias para gaming (5fps aprox.), pero puede que ahora se notase más % de mejoria o estaria en las mismas?
Ludens está baneado por ""
Hola. Solo deciros que parece que Game ha recibido una tanda de RTX y las tienen en venta. Si los precios están subidos o no ya no lo se porque yo estoy más pendiente de AMD pero bueno, mejor avisar y si a alguien le viene bien pues de puta madre. Saludos.
Alguien que juegue a 1440p con una rtx 3070?que tal van? he comprado una esta tarde en pcc y tengo dudas.
Ludens escribió:Hola. Solo deciros que parece que Game ha recibido una tanda de RTX y las tienen en venta. Si los precios están subidos o no ya no lo se porque yo estoy más pendiente de AMD pero bueno, mejor avisar y si a alguien le viene bien pues de puta madre. Saludos.

Han volado en 20 minutos todas
Bio81 escribió:
josemurcia escribió:
ionesteraX escribió:
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall :(

Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.

El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.

Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.

No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.

No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.

@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.

Un saludo a todos [beer] , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...

PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".
Bio81 escribió:pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Esto te lo explico yo rápido, si para que las ovejas compren tu producto y no el de la competencia tienes que poner 20gb en lugar de 10gb, aunque 10gb sean mas que suficientes, pues los pones, les cobras 200e mas y te ríes un rato mientras la gente se hace sus pajas mentales en los foros.

Además comparar los 10gb gddr6x con 10gb gddr6, es algo que para empezar denota que no se tiene ni puta idea de lo que se habla.
@battman80 Compañero, no puedo estar mas deacuerdo contigo... La gente decía que godfall consumía mas de 10GB en 4k y luego ves el juego en 4k y consume 6GB... el AC nuevo igual 6GB de VRAM y así todos...

Sobre lo de la 3090 ya se dijo que no es para jugar... No entiendo la gente que la compra para este menester... Ya vi personas quejándose de que la 3090 no rinde como tiene que hacerlo... Si esas personas se fijasen en cuantos conectores de alimentación tienen y monitorizasen el consumo de Wats de la GPU rápidamente entenderían que es una grafica que consume mucho y le limita los Wats. Generalmente 2 conectores de 8 pines, que ofrecen 150w cada conector + los 50wats (se que puede dar 75w) que consumen por PCI-E y te encuentras con que la grafica no sube mas de 1700mhz a plena carga del juego por que no puede obtener mas wats...
battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Ni en meristation, ni vandal, ni hobby ni nada eso compañero.
Lo leí aquí mismo en EOL en este mismo hilo y lo cité en mi mensaje anterior,.
Raro me parece que no hayas visto el bloque quote donde cite al compañero Bloodmarks que fue el que dijo que con una 3090 era injugable. A lo mejor como tú texto fue largo traías muchas ideas y se te escapó, no lo sé.
Esas otras páginas que mencionas ni las leo ni me voy a quedar lelo, pero gracias por preocuparte. Relajate hombre [beer]
battman80 escribió:
Bio81 escribió:
josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.

El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.

Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.

No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.

No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.

@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.

Un saludo a todos [beer] , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...

PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".


Si inflan los precios es porque saben que venderán igual ya que tienen su legión de fanboys que compran religiosamente cada cosa nueva cual Apple, solo hay que ver como vuelan en minutos cada vez que salen a la venta.
Gnoblis escribió:
battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Ni en meristation, ni vandal, ni hobby ni nada eso compañero.
Lo leí aquí mismo en EOL en este mismo hilo y lo cité en mi mensaje anterior,.
Raro me parece que no hayas visto el bloque quote donde cite al compañero Bloodmarks que fue el que dijo que con una 3090 era injugable. A lo mejor como tú texto fue largo traías muchas ideas y se te escapó, no lo sé.
Esas otras páginas que mencionas ni las leo ni me voy a quedar lelo, pero gracias por preocuparte. Relajate hombre [beer]


Te lo decía con cariño hombre, no me leas alterado que escribía rápido pero en completa paz interior [qmparto] . Pero hombre, que no se puede ser tan así, no puede uno leer por ahi que WD es injugable con una 3090 y tragarselo sin agua ni nada, porque de ser cierto, el juego sería injugable CON NADA.

O dicho de otro modo, por mal que vaya con una 3090, siempre irá, salvo problemas de drivers o juego roto, mucho mejor que en cualquier otra opción, sea consola, sea otra gpu, que en el mejor de los casos como está el panorama, igualaría rendimientos.

Ya te digo yo que WD con la Ti es perfectamente jugable, absolutamente disfrutable, espectacular visualmente a veces, otras veces ridículo (vaya contraste entre WD y Valhalla...), y no te hablo de 1080 ni "resoluciónes dinámicas", con que a la fuerza, con una 3090 tiene que ser mantequilla. Otra cosa es como funcione a 4k, ultra, rtx, etc...La propia UBI ademas, para mas inri, ya ha soltado por su boquita preciosa que esque "está programado para jugarse a 30 frames", con dos cojones. Pero al final es un problema de un juego o una compañía concreta, estos casos siempre ocurren, NO SON EXCLUSIVOS DE PC, y no se puede generalizar con ellos, menos, sin usar el sentido comun.

Es como que alguien se queje de que su Bugatti no pilla los 480 km/h, y eso le resulta una decepcion, una basura de coche, mejor haberse comprado un Dacia, y luego miras el cronometro y va en los 430...casi igual que el Dacia, sí.
Ya me entiendes.

[beer]
battman80 escribió:
Bio81 escribió:
josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.

El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.

Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.

No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.

No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.

@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.

Un saludo a todos [beer] , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...

PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".


con cada nueva generación suben los requisitos de vram y a lo largo de la generación siguen subiendo , no es algo nuevo esto a pasado siempre si no seguiríamos con gpu's de 512 megas , no digo que un juego vaya a consumir 20 GB ni 16 GB pero si mas de 10 GB , alguno habrá que consuma 14 o 15 GB , los juegos en PC la mayoría van a estar por encima de las consolas y eso va a repercutir en que el mismo juego en PC consuma mas vram , en PC obviamente se suma la ram y la vram pero eso no influye en que un futuro juego en 2021 o 2022 pueda consumir mas de 10 GB de vram , obviamente no vas a jugar con una 3080 en 2027 se quedara corta antes no solo de potencia si no también de vram , pero comprar una 3080 y venderla cuando salga la 4080 es un poco arriesgado mas que nada por que los 10 GB no te garantizan que vayas a poder jugar holgadamente durante 1 o 2 años , además no se sabe cuando va a salir la siguiente generación podrían ser mas de 2 años , ni tampoco se sabe cuanta vram tendrá la sustituta de la 3080 , ni tampoco se sabe que precio tendrá , lo mismo sale el tiro por la culata y te hace perder dinero... , para comprar una 3080 con 10 GB compras una 3080 Ti con 20 GB que aunque sea un poco mas cara sabes que por tema de vram no se va a quedar corta ni en 7 años y de potencia pues como toda GPU tope de gama 3 o 4 años a lo sumo jugando con los gráficos en Ultra , la 3090 es la que esta mas enfocada a creadores por eso tiene 24 Gb y NVLink aunque no tiene optimizaciones para programas de uso profesional como la TITAN , por el contrario la 3080 Ti , la RX 6800 XT y RX 6900 XT son graficas para gaming que también sirven para crear contenido y esa vram extra le servirá a mucha gente para esas tareas pero eso no quita todo lo dicho anteriormente , por eso como digo meter 8 GB y 10 GB en tarjetas graficas que van destinadas a mover juegos de nueva generación es reírse en la cara del cliente y mas ahora que se rumorea una RTX 3060 con 12 GB

Un saludo.

@Miklan84

GDDR6 y GDDR6X es lo mismo en cuando a capacidad , la única diferencia es la frecuencia , las GDDR6X son mas rápidas pero 16 GB de GDDR6 y GDDR6X tienen la misma capacidad de almacenamiento , una mayor frecuencia es igual a tener un ancho de banda mayor (aquí influye también el BUS), el ancho de banda sirve para transferir datos y el almacenamiento para guardarlos , cuanto mas rápido se transfieran esos datos menos cuello de botella se va a tener en altas resoluciones , y en el almacenamiento se guarda todo lo relacionado con los efectos gráficos , como texturas , ray tracing , iluminación etc...

la diferencia de vram entre la 3080 Ti con 20 GB y las AMD RX 6000 con 16 GB va ligada al BUS , no es que Nvidia quiera hacer la competencia ahí

Un saludo.
En PC COMPONENTES sospecho que tienen 3080 pero solo sacan 1 o 2 por semana, al doble de lo que vale, y creo que para vender todo el stock de la 2080, y encima suben de precio la vieja.
Cuando no tienen stock ponen el precio normal 750€, pero luego cuando la tienen 1159€ cawento
battman80 escribió:
Bio81 escribió:
josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.

El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.

Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.

No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.

No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.

@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.

Un saludo a todos [beer] , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...

PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".

Te dejo mis dies.
battman80 escribió:
Gnoblis escribió:
battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Ni en meristation, ni vandal, ni hobby ni nada eso compañero.
Lo leí aquí mismo en EOL en este mismo hilo y lo cité en mi mensaje anterior,.
Raro me parece que no hayas visto el bloque quote donde cite al compañero Bloodmarks que fue el que dijo que con una 3090 era injugable. A lo mejor como tú texto fue largo traías muchas ideas y se te escapó, no lo sé.
Esas otras páginas que mencionas ni las leo ni me voy a quedar lelo, pero gracias por preocuparte. Relajate hombre [beer]


Te lo decía con cariño hombre, no me leas alterado que escribía rápido pero en completa paz interior [qmparto] . Pero hombre, que no se puede ser tan así, no puede uno leer por ahi que WD es injugable con una 3090 y tragarselo sin agua ni nada, porque de ser cierto, el juego sería injugable CON NADA.

O dicho de otro modo, por mal que vaya con una 3090, siempre irá, salvo problemas de drivers o juego roto, mucho mejor que en cualquier otra opción, sea consola, sea otra gpu, que en el mejor de los casos como está el panorama, igualaría rendimientos.

Ya te digo yo que WD con la Ti es perfectamente jugable, absolutamente disfrutable, espectacular visualmente a veces, otras veces ridículo (vaya contraste entre WD y Valhalla...), y no te hablo de 1080 ni "resoluciónes dinámicas", con que a la fuerza, con una 3090 tiene que ser mantequilla. Otra cosa es como funcione a 4k, ultra, rtx, etc...La propia UBI ademas, para mas inri, ya ha soltado por su boquita preciosa que esque "está programado para jugarse a 30 frames", con dos cojones. Pero al final es un problema de un juego o una compañía concreta, estos casos siempre ocurren, NO SON EXCLUSIVOS DE PC, y no se puede generalizar con ellos, menos, sin usar el sentido comun.

Es como que alguien se queje de que su Bugatti no pilla los 480 km/h, y eso le resulta una decepcion, una basura de coche, mejor haberse comprado un Dacia, y luego miras el cronometro y va en los 430...casi igual que el Dacia, sí.
Ya me entiendes.

[beer]
pues no me lo trague ni con agua ni sin ella pues como también mencione, mi amigo estaba muy contento jugando y haciendo streaming al mismo tiempo solo con una humilde GTX 1050 (y de CPU creo que tiene un Ryzen 3 de los primeros, ya le costó acordarse que gráfica tenía así que el procesador ni se lo pregunte) en su PC de hace unos dos años como mínimo, Lo que si no se es a cual resolución, calidad y cuadros por segundo estaba jugando pero en su streaming se veía bien aunque con tironcillos.
Ahora ya me dio curiosidad y se lo voy a preguntar por qué no todo es reseñar el tope superior sino también cuánto puede escalar el juego hacia abajo para los simples mortales.
Me encanta como defiende al gente los 10GB de vram, o los 8 de la 3070.

Esta claro que pueden ser suficientes, pero es muy pronto para saberlo, acaban de salir consolas nuevas con hasta 16GB de vram. Desde luego yo no estaria contento con 8GB costando más de 520€ o 10GB costando más de 700€.

Simplemente porque el coste que habria tenido un modelo de 16GB o de 12 habria sido de 30-40€ más.

La realidad es que lo más probable es que envejezcan mucho peor que las de Amd por el simple hecho de racanear con la vram.

Creo que la misma Nvidia es cosciente de que se ha quedado corta y pero es dificil admitirlo.

Ha apostado por una memoria cara como es la GDDR6X, lo cual es muy buena opción, pero no creo que se esperaran la jugada de AMD, utilizar memoria más economica como es la GDDR6 y una amplia cache.

Creo que aqui AMD ha aprendido del pasado, las graficas Vega y radeon VII tenian memoria HBM2, lo que resultaba en unas graficas caras de producir que encima tenian que luchar contra un mejor hardware que era la gama 1000 de Nvidia, que eran más baratas de producir por lo que no podia ni si quiera competir en precio.

Habria que calcular la tasa de acierto de esa cache, pero suponiendo que es alta, posiblemente AMD tenga una tasa de transferencia mucho mayor y encima menor latencia que Nvidia costando menos y teniendo mas cantidad de memoria.

En mi opinion Amd ha tenido un gran acierto en esto.

Puede que luego sus GPUs no sean tan potentes como las de Nvidia, pero si me parece que han acertado en el apartado de memoria y seguramente tengamos una generación de graficas que envejeceran bastante bien.

Y encima asumo que es más barato de producir una 6800xt que una 3080 de Nvidia por lo que si Amd se ve en desventaja puede ajustar los precios más de lo que podría hacer Nvidia.

Y lo del godfall, nose este youtuber esta gastando 12gB de vram https://www.youtube.com/watch?v=lY9OSde ... e=youtu.be

Muy fake no parece.
Bio81 escribió:
josemurcia escribió:
ionesteraX escribió:
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall :(

Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.

Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.
Yo sigo pensando lo mismo, el problema no es la falta de vram, el problema es no querer darle a la opción de que consuma menos vram o el parámetro en cuestión que le vaya bien a tu tarjeta. SIEMPRE va a existir la posibilidad de bajar un parámetro para ejecutar el juego sobradamente. El problema es el mantra "tengo lo último así que lo quiero "a tope"".

No existe "a tope", las cosas se diseñan de una determinada manera y se puede programar MAL, o para una plataforma especifica. Se pueden hacer verdaderas maravillas con pixelacos, a la historia de los juegos me remito. No estoy diciendo que la mejora de recursos de hardware no sea un camino imparable, no seré yo quien contradiga a Moore.

Pero lo que uno tiene que saber es lo que quiere y lo que compra. Por poner un ejemplo análogo, el hardware de Apple siempre ha sido escaso y caro en comparación con la competencia, pero eso no les ha impedido tener soluciones punteras una y otra vez (no es un comentario de applefanboy, he tenido todo apple y hace unos años que lo dejé, yo defiendo lo mejor, no una marca).

Las tarjetas AMD tienen una solución de jerarquía de memoria determinada, las nvidia otra, que la industria del videojuego se decida por una o por otra es impensable, TODOS los juegos, van a correr en ambas plataformas, y sí, en algún caso habrá que tocar un parámetro, lo que no hará una peor experiencia para un ojo normalizado. Otra cosa es que queramos sacar las vergüenzas de cada cual, en una lucha empresarial de marcas y entonces, se dirá que gana una, que gana otra... Insisto, disfrutad de vuestras tarjetas o no las compréis. No hay una compra mejor, la mejor es la que uno compra. Obviamente si te compras ahora una 2080Ti, estas haciendo el canelo amigo, pero me refiero a comprar cualquier tarjeta de última generación.

y claro que saldrán tarjetas con mas vram y con más gpu, y que molen más, esto no va a parar, pero hablar de salidas futuras cuando no se puede conseguir ni la actual es vivir en las nubes. La realidad es ahora, no lo que se rumoree. De hecho en informática siempre ha habido una forma facil de acertar, no te compres nada, siempre habrá algo mejor después.
kaneli escribió:
Bio81 escribió:
josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.

Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.


Toda la razon, y en 2 años, tocará bajar cosas, pero como les tocará bajar a los que tengan una de 16 de vram.
BRAVO ,,


nvidia25 escribió:Yo sigo pensando lo mismo, el problema no es la falta de vram, el problema es no querer darle a la opción de que consuma menos vram o el parámetro en cuestión que le vaya bien a tu tarjeta. SIEMPRE va a existir la posibilidad de bajar un parámetro para ejecutar el juego sobradamente. El problema es el mantra "tengo lo último así que lo quiero "a tope"".

No existe "a tope", las cosas se diseñan de una determinada manera y se puede programar MAL, o para una plataforma especifica. Se pueden hacer verdaderas maravillas con pixelacos, a la historia de los juegos me remito. No estoy diciendo que la mejora de recursos de hardware no sea un camino imparable, no seré yo quien contradiga a Moore.

Pero lo que uno tiene que saber es lo que quiere y lo que compra. Por poner un ejemplo análogo, el hardware de Apple siempre ha sido escaso y caro en comparación con la competencia, pero eso no les ha impedido tener soluciones punteras una y otra vez (no es un comentario de applefanboy, he tenido todo apple y hace unos años que lo dejé, yo defiendo lo mejor, no una marca).

Las tarjetas AMD tienen una solución de jerarquía de memoria determinada, las nvidia otra, que la industria del videojuego se decida por una o por otra es impensable, TODOS los juegos, van a correr en ambas plataformas, y sí, en algún caso habrá que tocar un parámetro, lo que no hará una peor experiencia para un ojo normalizado. Otra cosa es que queramos sacar las vergüenzas de cada cual, en una lucha empresarial de marcas y entonces, se dirá que gana una, que gana otra... Insisto, disfrutad de vuestras tarjetas o no las compréis. No hay una compra mejor, la mejor es la que uno compra. Obviamente si te compras ahora una 2080Ti, estas haciendo el canelo amigo, pero me refiero a comprar cualquier tarjeta de última generación.

y claro que saldrán tarjetas con mas vram y con más gpu, y que molen más, esto no va a parar, pero hablar de salidas futuras cuando no se puede conseguir ni la actual es vivir en las nubes. La realidad es ahora, no lo que se rumoree. De hecho en informática siempre ha habido una forma facil de acertar, no te compres nada, siempre habrá algo mejor después.
kaneli escribió:
Bio81 escribió:
josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.


nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda



pega algunos tirones ¿será tema de optimización o drivers?


Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.

Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.


a que resolución? por que a 4k hay juegos de la generación de ps4 y xbox one que consumen mas de 5 GB , la 3080 Ti al ser mas de el doble de potente que una 1080 Ti (en teoría tendría el rendimiento de una 3090) implica poder subir mas los gráficos a 4k para mantener 60 fps y eso da como resultado un mayor consumo de vram , con esto no quiero decir que todos los juegos que salgan en los próximos 2 años vayan a consumir mas de 10 GB a 4K pero si habrá varios juegos que consuman 11 GB , 12GB o 15GB

Un saludo.
Ya que parece que va a ser casi imposible pillar una asus 3080 TUF o Strix me estoy decantando por las MSI o eVGA.

¿Cuál me recomendáis?
pdriko31 escribió:Alguien que juegue a 1440p con una rtx 3070?que tal van? he comprado una esta tarde en pcc y tengo dudas.

Va muy fina, depende del juego por supuesto pero a tope vas casi siempre por encima de 100 fps en los juegos más demandantes o peor optimizados (los que he probado).
Saludos
leto escribió:BRAVO ,,


nvidia25 escribió:Yo sigo pensando lo mismo, el problema no es la falta de vram, el problema es no querer darle a la opción de que consuma menos vram o el parámetro en cuestión que le vaya bien a tu tarjeta. SIEMPRE va a existir la posibilidad de bajar un parámetro para ejecutar el juego sobradamente. El problema es el mantra "tengo lo último así que lo quiero "a tope"".

No existe "a tope", las cosas se diseñan de una determinada manera y se puede programar MAL, o para una plataforma especifica. Se pueden hacer verdaderas maravillas con pixelacos, a la historia de los juegos me remito. No estoy diciendo que la mejora de recursos de hardware no sea un camino imparable, no seré yo quien contradiga a Moore.

Pero lo que uno tiene que saber es lo que quiere y lo que compra. Por poner un ejemplo análogo, el hardware de Apple siempre ha sido escaso y caro en comparación con la competencia, pero eso no les ha impedido tener soluciones punteras una y otra vez (no es un comentario de applefanboy, he tenido todo apple y hace unos años que lo dejé, yo defiendo lo mejor, no una marca).

Las tarjetas AMD tienen una solución de jerarquía de memoria determinada, las nvidia otra, que la industria del videojuego se decida por una o por otra es impensable, TODOS los juegos, van a correr en ambas plataformas, y sí, en algún caso habrá que tocar un parámetro, lo que no hará una peor experiencia para un ojo normalizado. Otra cosa es que queramos sacar las vergüenzas de cada cual, en una lucha empresarial de marcas y entonces, se dirá que gana una, que gana otra... Insisto, disfrutad de vuestras tarjetas o no las compréis. No hay una compra mejor, la mejor es la que uno compra. Obviamente si te compras ahora una 2080Ti, estas haciendo el canelo amigo, pero me refiero a comprar cualquier tarjeta de última generación.

y claro que saldrán tarjetas con mas vram y con más gpu, y que molen más, esto no va a parar, pero hablar de salidas futuras cuando no se puede conseguir ni la actual es vivir en las nubes. La realidad es ahora, no lo que se rumoree. De hecho en informática siempre ha habido una forma facil de acertar, no te compres nada, siempre habrá algo mejor después.


si estoy muy de acuerdo en muchas cosas que dices , pero si la tarjeta te da para mover el juego a 60 fps a 4k y por falta de vram tienes que bajar los gráficos ¿pues menuda mierda no? para eso me he dejado 720/800 eurazos en una tarjeta grafica? mi filosofía es siempre mejor que sobre a que falte.

sobre el stock aun con la falta de stock que hay bastante gente la a podido comprar incluso a habido gente que a cambiado de modelo... es cuestión de estar atento a las tiendas , cuando salga a la venta la 3080 Ti puede que pase lo mismo con el stock o puede que se empiece a estabilizar , según el CEO de Nvidia a principios de 2021 es cuando se estabilizara y la 3080 Ti se supone que tiene que salir en enero

Un saludo
Las GPUs mantienen los 4K60FPS y no con soltura en juegos que son actualmente medio modernos, en 2 años dudo que puedan, la vram será el menor de los problemas.
Por cierto si alguien tiene un Watch Dogs y no lo quiere estaría interesado en el :)
elcapoprods escribió:Las GPUs mantienen los 4K60FPS y no con soltura en juegos que son actualmente medio modernos, en 2 años dudo que puedan, la vram será el menor de los problemas.


yo creo que conforme vayan mejorando los drivers y los juegos hagan uso del DX12 ultimate muchos juegos en los próximos 2 años se van a mover bien a 4k 60fps en la 3080 , eso si , siempre y cuando esos juegos no consuman mas de 10 GB.

Me puedo equivocar pero me baso en mi experiencia en este mundillo , la GTX 580 se quedo corta de vram en menos de dos años , salió a la venta en noviembre de 2010 y a mediados de 2012 ya había algún juego que consumía mas de 1'5 GB a 1080p , la 3080 puede ser un caso similar
elcapoprods escribió:Las GPUs mantienen los 4K60FPS y no con soltura en juegos que son actualmente medio modernos, en 2 años dudo que puedan, la vram será el menor de los problemas.

Nose si vas con ironia o no, que creo que si.. pero por si acaso no vas con ironia, un juego que no tiene ni un año.. a 3840x2160 mira como se mueve:

Se desenvuelve bastante bien
https://www.youtube.com/watch?v=lY9OSde ... e=youtu.be
Por aquí anda una 3090 también en el Godfall y chupa casi 12 gb de vram.
Aquí pasa algo y hasta que no salga oficialmente no creo que sepamos que es.
Saludos
31123 respuestas