josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.
https://www.resetera.com/threads/vram-i ... t-51323914
KliKodesh escribió:willygermo escribió:KliKodesh escribió:
Depende de la que quieras... por ejemplo esta gente deja reservar una Zotac Holo (Es la superior a la Trinity) para el dia 23 de este mes
https://www.vsgamers.es/product/tarjeta-grafica-zotac-gaming-nvidia-geforce-rtxr-3080-10-gb-gddr6x
A mi me tienta esta, pero tengo a asus tuf oc en pcc para final de mes, pero son 40 euros mas. Esta vendría antes y creo que la tienda cumple mas los plazos. Yo creo que la otra es mejor, no? De esta, he visto super poca información.
Es que de la Holo no hay nada de informacion, la asus tuf oc, se supone que es mejor, si, ya dependera de ti... Yo tengo pedida la Asus Strix Oc en PCComp, pero me dijeron que habia rotura de stock y que el distribuidor no le daba fechas para el envio... asi que he reservado la Zotac y si veo que la otra no me la envian antes de final de mes, me quedo con la Zotac... Si total, al final termino haciendo UV
ionesteraX escribió:josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.
https://www.resetera.com/threads/vram-i ... t-51323914
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall
nicomillan escribió:Hay stock de la Zotac en Pccomponentes, un amigo y yo acabamos de pillarnos una cada uno 739€
josemurcia escribió:ionesteraX escribió:josemurcia escribió:No se si se ha comentado, pero Godfall no llega a los 7GB de VRAM en ultra a 4K.
https://www.resetera.com/threads/vram-i ... t-51323914
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall
Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
Bloodmarks escribió:Por ejemplo en el valhalla tengo una media de 75-90 fps pero el % de cpu y gpu es un baile de ir para arriba y para abajo todo el rato. Normalmente se mantiene la GPU al 95-99% pero de golpe la cpu sube para arriba y la gpu baja y el resultado son 15-20 fps para abajo. Ya se que el valhalla no es una buena referencia porque detras esta Ubisoft y todos sabemos que no saben que es optimizar... vease WD: Legion que es injugable incluso con una 3090.
willygermo escribió:KliKodesh escribió:willygermo escribió:
A mi me tienta esta, pero tengo a asus tuf oc en pcc para final de mes, pero son 40 euros mas. Esta vendría antes y creo que la tienda cumple mas los plazos. Yo creo que la otra es mejor, no? De esta, he visto super poca información.
Es que de la Holo no hay nada de informacion, la asus tuf oc, se supone que es mejor, si, ya dependera de ti... Yo tengo pedida la Asus Strix Oc en PCComp, pero me dijeron que habia rotura de stock y que el distribuidor no le daba fechas para el envio... asi que he reservado la Zotac y si veo que la otra no me la envian antes de final de mes, me quedo con la Zotac... Si total, al final termino haciendo UV
Eso de que hay rotura de stock y esas cosas, como las sabéis? hablais con ellos por el chat? por que a mi me pone que estará a finales de mes, pero no se mas.
A mi me tira mucho mi asus, que es de las mas fresquitas (si no las mas) de las 3080.
Fair201 escribió:Una preguntilla
Aparte de las web coolmod, pccomp, amazon y versusgamers en que otras web de confianza se puede mirar si están las gráficas?
Yo busco la ASUS 3080 TUF.. difícil de conseguir pero bueno
Muchas gracias.
jrdj escribió:alfye20 escribió:@jrdj sabes cómo funcionan los hilos de cada núcleo? Échale un ojo y luego vienes a despotricar por aquí
Por supuesto que lo se, pero un 8600k no tiene hilos tiene 6 núcleos y fin
aleyalicia21 escribió:@alfye20 @jrdj por lo que yo tengo entendido, el i5 8600k tiene 6 nucleos y 6 hilos no? Vamos yo lo compré y pone esa informacion en todos los lados.. a decir verdad, en el msi afterburner no me monitorea los hilos y creo que en otros procesadores si, pero ya no se si es por el msi afb o por mi placa que no me los activa o porque el procesador no los tiene.. ahora que lo decis me poneis en putas dudas.. losiento por el offtopic.. lo que si se es que en 1440p se me queda siempre a alto % la CPU y la 3080 no
alfye20 escribió:jrdj escribió:alfye20 escribió:@jrdj sabes cómo funcionan los hilos de cada núcleo? Échale un ojo y luego vienes a despotricar por aquí
Por supuesto que lo se, pero un 8600k no tiene hilos tiene 6 núcleos y fin
Bien! Los mismos núcleos que el Ryzen 3600x!
Insisto, si quieres hablar de hilos, échate un vistazo a como funcionan en relación a los núcleos y luego seguimos en el foro de CPUs.
vmanuelgm escribió:
Yo lo dejo ahí para quien quiera verlo, ya se cuenta con el procesado de Youtube, el cual podría evitar haciéndolo yo mismo, pero sólo hay que tener un poco de paciencia.
Ludens escribió:Hola. Solo deciros que parece que Game ha recibido una tanda de RTX y las tienen en venta. Si los precios están subidos o no ya no lo se porque yo estoy más pendiente de AMD pero bueno, mejor avisar y si a alguien le viene bien pues de puta madre. Saludos.
Bio81 escribió:josemurcia escribió:ionesteraX escribió:
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall
Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Bio81 escribió:pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Ni en meristation, ni vandal, ni hobby ni nada eso compañero.battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
battman80 escribió:Bio81 escribió:josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.
El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.
Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.
No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.
No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.
@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Un saludo a todos , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...
PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".
Gnoblis escribió:Ni en meristation, ni vandal, ni hobby ni nada eso compañero.battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Lo leí aquí mismo en EOL en este mismo hilo y lo cité en mi mensaje anterior,.
Raro me parece que no hayas visto el bloque quote donde cite al compañero Bloodmarks que fue el que dijo que con una 3090 era injugable. A lo mejor como tú texto fue largo traías muchas ideas y se te escapó, no lo sé.
Esas otras páginas que mencionas ni las leo ni me voy a quedar lelo, pero gracias por preocuparte. Relajate hombre
battman80 escribió:Bio81 escribió:josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.
El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.
Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.
No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.
No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.
@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Un saludo a todos , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...
PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".
battman80 escribió:Bio81 escribió:josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Me temo mucho, por suerte, que te puedes sentar a esperar que eso pase, y si llega a pasar, no va a ser porque los juegos se vuelvan tan alucinantes que se coman toda la Vram, sino porque en PC, o en general, se "fuerce" algun sistema que obligue a depender de grandes cantidades de Vram.
El motivo para asegurar esto es sencillo, LAS NEXT GEN NO DAN PARA MÁS, que lo que hay ahora, de hecho, ambas, sin INCAPACES de mover los juegos mas punteros de los ultimos años, a 4k, a tope de settings graficos, como los mueve una 2080 o una 2080super mismamente. No pueden, fin, no dejan de ser el procesador que sen, con una gpu que en el mejor de los casos rinde como una 5700XT y fin, y por MUUUUUCHo que "optimicen", o se inventen flautas enlatadas, de donde no hay no se puede sacar, y tooodo lo que te cuenten ahora que si van a poder hacer es, sencillamente, MENTIRA, como SIEMPRE. Mira las promesas incumplidas de la anterior generacion, y de la anterior, y de la anterior a esa. Nada va a cambiar en ese sentido. Asi que, o nos hacen juegos dedicados para PC que si consuman todo el despliegue de potencia bruta por encima que tiene el hard de compatibles, o nos quedamos en el limite que estamos.
Muchos nunca teneis en cuenta que cuando estais jugando, y poneis el afterburner mismo, veis 4, 6, 10, no se cuantos gigas de consumo de vram, pero nunca os fijais en el consumo de ram que teneis, que amenudo es similar a la vr o superior. Y no es por "procesos en segundo plano" del mundo del pc, no, tu pc cuando estas moviendo un juego no hace nada extraordinario que esté al margen de esa labor, y en una consolas es igual, y lo que teneis nunca en cuenta es que en un pc tu tienes, por ejemplo, 10gbs de vram de una 3080 + 16/32gbs de ram, y una consola, en el mejor de los casos, de las nuevas, vas a tener 13 gigas de vram para AMBAS FUNCIONES. Echa cuentas, y es facil comprender que en juegos de consola no vas a ver juegos consumiendo 12 gigas de vram para texturas, mismo, porque no, no dan, falta chicha, son lo que son y desde que se planifican van a un minimo, y el resto lo hace el marketing, que esa herramienta que te vende un seat ibiza como si fuese un f480 con unos pedazo anuncios que se te caen los cojones al suelo.
No se a pito de que estan inflando tanto las memorias de la gpus nuevas, salvo que esten usando la tecnica del medimarkt, ya sabes, poner en la ficha de un pc premontado de mierda que tiene 64 gigas de ram, para que los desinformados de turno entiendan eso como que debe un cacharro poderosisimo, cuando luego lleva una 1050 y un dual core. No lo sé. SI SE que tiene un valor añadido para todos los creadores de contenido, tanto los que lo hacemos en plan amateur, como para los que lo hacen profesionalmente. A mi mismo, cuando renderizo escenas en DAZ, los 11 gigas de la 2080Ti se me quedan cortisimos, y mi objetivo es muy seguramente una 3090. Lo usuarios "normales" no pensais en esas cosas, pero mucha gente edita video, o quiere hacer streaming solo con su gpu sin capturadoras externas, etc, y para todos esos menesteres se necesita memoria de video, cuanta mas, mejor. Y ese es, en mi opinión, el sentido que tienen esos numeros en Vram, porque lo que es consumo en juegos, NO VEO POR NINGUN LADO como lo van a consumir, a no ser que se ponga de moda sacar juegos a partir de ahora con unas texturas super nitidas y resolución retina, quitando todos los demas efectos que consumen memoria de video y recursos, porque sino, las consolas, insisto, simplemente no pueden.
No se si me estoy explicando, pero seguro que hay alguien mas capacitado para explicarlo, pero vamos, que sino es a proposito, o para algun escenario muy concreto (packs de texturas especiales, 4k ultra+rtx, etc) no creo que necesites tanta vram, y, si llega el dia que EN PC se quedan cortos 10 gigas de vram, no te preocupes por que gpu has comprado, porque eso va a significar que el resto de la gpu no va a poder mover el juego que te pida tanto consumo de vram, o sea, que para entonces, lo que vas a necesitar va a ser otra gpu mas potente, con la misma vram. O para que se entienda, es el ejemplo de una 1050 con 8 gbs de vram, PARA QUE....que vas a mover jugablemente con esa gpu que consuma 8 gigas de memoria de video....Se ponen como reclamo, y porque, posiblemente, por 20 euros mas de vram, precio coste, le cobras al usuario 50-100 euros más, por una prestación que nunca va a llegar a usar porque la gpu que está comprando no da para consumir tanto. No se si me explico, que voy con prisa y no puedo precisar.
@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Un saludo a todos , y a ver si sueltan info real de ya de una vez de las 6000, sobre todo la 6900, y bajan un poco las 3090, aunque me huele mucho a gato encerrado...
PD: @pdriko31 pues de lujo seguro, la 2080Ti a 2k puede con practicamente todo al maximo sin despeinarse, salvo alguna cosa muy enrevesada como Red dead 2 que tienes que tocar parametros, por aun asi nunca mas a bajar de muy alto/ultra aun en juegos "rotos".
pues no me lo trague ni con agua ni sin ella pues como también mencione, mi amigo estaba muy contento jugando y haciendo streaming al mismo tiempo solo con una humilde GTX 1050 (y de CPU creo que tiene un Ryzen 3 de los primeros, ya le costó acordarse que gráfica tenía así que el procesador ni se lo pregunte) en su PC de hace unos dos años como mínimo, Lo que si no se es a cual resolución, calidad y cuadros por segundo estaba jugando pero en su streaming se veía bien aunque con tironcillos.battman80 escribió:Gnoblis escribió:Ni en meristation, ni vandal, ni hobby ni nada eso compañero.battman80 escribió:@Gnoblis quien te ha dicho que WD es "injugable" con una 3090 tio? Deja de leer meristation, vandal, hooby consolas y todas esas putas mierdas, que te vas a quedar lelo, compañero.
Lo leí aquí mismo en EOL en este mismo hilo y lo cité en mi mensaje anterior,.
Raro me parece que no hayas visto el bloque quote donde cite al compañero Bloodmarks que fue el que dijo que con una 3090 era injugable. A lo mejor como tú texto fue largo traías muchas ideas y se te escapó, no lo sé.
Esas otras páginas que mencionas ni las leo ni me voy a quedar lelo, pero gracias por preocuparte. Relajate hombre
Te lo decía con cariño hombre, no me leas alterado que escribía rápido pero en completa paz interior . Pero hombre, que no se puede ser tan así, no puede uno leer por ahi que WD es injugable con una 3090 y tragarselo sin agua ni nada, porque de ser cierto, el juego sería injugable CON NADA.
O dicho de otro modo, por mal que vaya con una 3090, siempre irá, salvo problemas de drivers o juego roto, mucho mejor que en cualquier otra opción, sea consola, sea otra gpu, que en el mejor de los casos como está el panorama, igualaría rendimientos.
Ya te digo yo que WD con la Ti es perfectamente jugable, absolutamente disfrutable, espectacular visualmente a veces, otras veces ridículo (vaya contraste entre WD y Valhalla...), y no te hablo de 1080 ni "resoluciónes dinámicas", con que a la fuerza, con una 3090 tiene que ser mantequilla. Otra cosa es como funcione a 4k, ultra, rtx, etc...La propia UBI ademas, para mas inri, ya ha soltado por su boquita preciosa que esque "está programado para jugarse a 30 frames", con dos cojones. Pero al final es un problema de un juego o una compañía concreta, estos casos siempre ocurren, NO SON EXCLUSIVOS DE PC, y no se puede generalizar con ellos, menos, sin usar el sentido comun.
Es como que alguien se queje de que su Bugatti no pilla los 480 km/h, y eso le resulta una decepcion, una basura de coche, mejor haberse comprado un Dacia, y luego miras el cronometro y va en los 430...casi igual que el Dacia, sí.
Ya me entiendes.
Bio81 escribió:josemurcia escribió:ionesteraX escribió:
Joer, yo que vendi mi 3080 por no poder jugar a tope al godfall
Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
kaneli escribió:Bio81 escribió:josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.
Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.
nvidia25 escribió:Yo sigo pensando lo mismo, el problema no es la falta de vram, el problema es no querer darle a la opción de que consuma menos vram o el parámetro en cuestión que le vaya bien a tu tarjeta. SIEMPRE va a existir la posibilidad de bajar un parámetro para ejecutar el juego sobradamente. El problema es el mantra "tengo lo último así que lo quiero "a tope"".
No existe "a tope", las cosas se diseñan de una determinada manera y se puede programar MAL, o para una plataforma especifica. Se pueden hacer verdaderas maravillas con pixelacos, a la historia de los juegos me remito. No estoy diciendo que la mejora de recursos de hardware no sea un camino imparable, no seré yo quien contradiga a Moore.
Pero lo que uno tiene que saber es lo que quiere y lo que compra. Por poner un ejemplo análogo, el hardware de Apple siempre ha sido escaso y caro en comparación con la competencia, pero eso no les ha impedido tener soluciones punteras una y otra vez (no es un comentario de applefanboy, he tenido todo apple y hace unos años que lo dejé, yo defiendo lo mejor, no una marca).
Las tarjetas AMD tienen una solución de jerarquía de memoria determinada, las nvidia otra, que la industria del videojuego se decida por una o por otra es impensable, TODOS los juegos, van a correr en ambas plataformas, y sí, en algún caso habrá que tocar un parámetro, lo que no hará una peor experiencia para un ojo normalizado. Otra cosa es que queramos sacar las vergüenzas de cada cual, en una lucha empresarial de marcas y entonces, se dirá que gana una, que gana otra... Insisto, disfrutad de vuestras tarjetas o no las compréis. No hay una compra mejor, la mejor es la que uno compra. Obviamente si te compras ahora una 2080Ti, estas haciendo el canelo amigo, pero me refiero a comprar cualquier tarjeta de última generación.
y claro que saldrán tarjetas con mas vram y con más gpu, y que molen más, esto no va a parar, pero hablar de salidas futuras cuando no se puede conseguir ni la actual es vivir en las nubes. La realidad es ahora, no lo que se rumoree. De hecho en informática siempre ha habido una forma facil de acertar, no te compres nada, siempre habrá algo mejor después.
kaneli escribió:Bio81 escribió:josemurcia escribió:Tú no se, pero hay gente que no se la compró porque decían que 10GB de VRAM no iban a ser suficientes y ponían como ejemplo el Godfall ya que habían anunciado 12GB como requisito mínimo a 4K.
nunca hay que fiarse de lo que dicen los desarrolladores hasta hacer pruebas uno mismo , pero una cosa esta clara 10 GB van a ser insuficientes para juegos de next gen , si no , no tendría sentido la 3080 Ti con 20 GB o las RX 6800 y 6900 con 16 Gb ¿para que poner mas memoria si no se va a utilizar? por eso habrá juegos en los que los 10 GB serán suficientes pero otros en los que no , apunto hacia 2021 y 2022 para que eso suceda
pega algunos tirones ¿será tema de optimización o drivers?
Si que tiene sentido, es puro marketing, generas una necesidad en el comprador que puede no ser real.
Yo llevo 3 años con la 1080Ti con 11 gb de vram y en todo este tiempo ningún juego ha pasado de 4 o 5 gb de vram asignada. Me han sobrado 6 gb de vram todo este tiempo, pues ahora pasara lo mismo con las Ti. Creo que si no haces render en 2 años sigues teniendo tarjeta de sobra con la 3080.
pdriko31 escribió:Alguien que juegue a 1440p con una rtx 3070?que tal van? he comprado una esta tarde en pcc y tengo dudas.
leto escribió:BRAVO ,,nvidia25 escribió:Yo sigo pensando lo mismo, el problema no es la falta de vram, el problema es no querer darle a la opción de que consuma menos vram o el parámetro en cuestión que le vaya bien a tu tarjeta. SIEMPRE va a existir la posibilidad de bajar un parámetro para ejecutar el juego sobradamente. El problema es el mantra "tengo lo último así que lo quiero "a tope"".
No existe "a tope", las cosas se diseñan de una determinada manera y se puede programar MAL, o para una plataforma especifica. Se pueden hacer verdaderas maravillas con pixelacos, a la historia de los juegos me remito. No estoy diciendo que la mejora de recursos de hardware no sea un camino imparable, no seré yo quien contradiga a Moore.
Pero lo que uno tiene que saber es lo que quiere y lo que compra. Por poner un ejemplo análogo, el hardware de Apple siempre ha sido escaso y caro en comparación con la competencia, pero eso no les ha impedido tener soluciones punteras una y otra vez (no es un comentario de applefanboy, he tenido todo apple y hace unos años que lo dejé, yo defiendo lo mejor, no una marca).
Las tarjetas AMD tienen una solución de jerarquía de memoria determinada, las nvidia otra, que la industria del videojuego se decida por una o por otra es impensable, TODOS los juegos, van a correr en ambas plataformas, y sí, en algún caso habrá que tocar un parámetro, lo que no hará una peor experiencia para un ojo normalizado. Otra cosa es que queramos sacar las vergüenzas de cada cual, en una lucha empresarial de marcas y entonces, se dirá que gana una, que gana otra... Insisto, disfrutad de vuestras tarjetas o no las compréis. No hay una compra mejor, la mejor es la que uno compra. Obviamente si te compras ahora una 2080Ti, estas haciendo el canelo amigo, pero me refiero a comprar cualquier tarjeta de última generación.
y claro que saldrán tarjetas con mas vram y con más gpu, y que molen más, esto no va a parar, pero hablar de salidas futuras cuando no se puede conseguir ni la actual es vivir en las nubes. La realidad es ahora, no lo que se rumoree. De hecho en informática siempre ha habido una forma facil de acertar, no te compres nada, siempre habrá algo mejor después.
elcapoprods escribió:Las GPUs mantienen los 4K60FPS y no con soltura en juegos que son actualmente medio modernos, en 2 años dudo que puedan, la vram será el menor de los problemas.
elcapoprods escribió:Las GPUs mantienen los 4K60FPS y no con soltura en juegos que son actualmente medio modernos, en 2 años dudo que puedan, la vram será el menor de los problemas.