ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)
Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.
La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.
O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar
trandeira escribió:ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)
Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.
La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.
O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd
24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo
la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Valkyrjur escribió:trandeira escribió:ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)
Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.
La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.
O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd
24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo
la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
Valkyrjur escribió:trandeira escribió:ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)
Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.
La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.
O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd
24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo
la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
trandeira escribió:Valkyrjur escribió:trandeira escribió:
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd
24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo
la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
has leido mi comentario? lo dicho, que sigan colandonos juegos sin optimizar y que los pacos no se quejen jaja
DD2 es un juego optimizado como el putisimo culo
que es a lo que me referia,si un juego te consume mas de 8gb de VRAM es porque o esta optimizado como el culo o esta hecho en UE5 o incluso las 2 xD
papatuelo escribió:Valkyrjur escribió:trandeira escribió:
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd
24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo
la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
Dragons dogma 2 a 2K/max settings/RT tiene El pico de consumo en 11 gbs
Ravnos87 escribió:Pues la vista...visto el panorama...o tiras a una 5090 (un pasturrial) y una 7900xtx, que tiene mucha más vram...¿que pensáis?
Pq gastarse 800€ para que te quedes corto en vram...
Blackhand15 escribió:papatuelo escribió:Valkyrjur escribió:Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
Dragons dogma 2 a 2K/max settings/RT tiene El pico de consumo en 11 gbs
Ponte el space marine 2 a 4k con el parche de texturas 4k de 17 de vram no te baja 😂
Duron600 escribió:
Tras ver la entrevista que hace Michael Quesada a Frank Azor, responsable de marketing de AMD, en el CES, quiero pensar que en los primeros meses, van a centrar el FSR 4 en las RX9000, teniendo así un valor añadido a las nuevas GPU y hacerlas más atractivas, pero ya ha dejado caer, que se esta trabajando en un FSR 4, que funcionara en las demás graficas. Espero que se le de uso a los aceleradores IA de las rx7000 mas que para el anti lag 2. También menciono que FSR 3 no para de crecer llegando a más juegos, me imagino que saldrán nuevas versiones e ira mejorando. Rendimiento, pues muy cercano a las 7900XTX, con mejor RT e IA, nada mal. Precio más de 300 y menos de 1000$. Lo que nos da una horquilla de 700$, la mitad de la horquilla 350$ + el mínimo de 300$ nos da 650$, pura lógica .
Yo con FSR 3 4k en calidad + FG + Anti lag 2, estoy bastante contento, quizás todos esos fallos que comentáis son en QHD calidad o 4k equilibrado. Pero espero que FSR4 llegue a las 7000.
Saludos
gwallace escribió:StudentOfLife92 escribió:Muy bien lo del fsr 4, ¿verdad? Yo no se si upgradearé mi ordenador este año, y no se si lo haría con una gráfica de amd. No son cosas que tampoco me haya planteado aún.
Pero valve fremont me gustaría pillarmela de cabeza si es una experiencia similar a la de la deck pero en sobremesa y con más potencia.
Y si acaban presentándola y sacandola, me imagino yo que a finales de este año o principios del que viene, en principio debería de montar arquitectura parecida a la de estas gráficas y podría estar muy bien tanto para juegos base como para vr, ¿no?
En verdad con una de estas si salen buenas te puedes hacer tu Fremont, basta con instalar SteamOS en cuanto terminen de liberarlo o incluso Bazzite que es similar y a gozar de la steam machine
yo estoy como loco por montar una gráfica AMD y poder hacer esto la verdad, incluso con mi pc con un 3600XT de procesador y solo 16gb de ram
dunkam82 escribió:porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.
dunkam82 escribió:Duron600 escribió:
Tras ver la entrevista que hace Michael Quesada a Frank Azor, responsable de marketing de AMD, en el CES, quiero pensar que en los primeros meses, van a centrar el FSR 4 en las RX9000, teniendo así un valor añadido a las nuevas GPU y hacerlas más atractivas, pero ya ha dejado caer, que se esta trabajando en un FSR 4, que funcionara en las demás graficas. Espero que se le de uso a los aceleradores IA de las rx7000 mas que para el anti lag 2. También menciono que FSR 3 no para de crecer llegando a más juegos, me imagino que saldrán nuevas versiones e ira mejorando. Rendimiento, pues muy cercano a las 7900XTX, con mejor RT e IA, nada mal. Precio más de 300 y menos de 1000$. Lo que nos da una horquilla de 700$, la mitad de la horquilla 350$ + el mínimo de 300$ nos da 650$, pura lógica .
Yo con FSR 3 4k en calidad + FG + Anti lag 2, estoy bastante contento, quizás todos esos fallos que comentáis son en QHD calidad o 4k equilibrado. Pero espero que FSR4 llegue a las 7000.
Saludos
Haces una interpretación muy optimista, yo también he visto la entrevista la cual que me gustó mucho porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.
La lectura que hice yo de lo que dijo es diferente a la tuya, mi lectura es que lo van a intentar pero que está complicada la cosa y es más probable que no lo consigan a que sí.
Veremos con el paso del tiempo cuál de las 2 interpretaciones ha sido la correcta.
654321 escribió:dunkam82 escribió:porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.
Imaginate que mañana anuncian la Steamdeck y que no era broma !!!
[Alex] escribió:Yo también lo interpreto así.
Duron600 escribió:El tema Vram, es mucho mas complicado, a parte de que los juegos estén peor optimizados o no, que es discutible.
Ya que la primera oleada de juegos que movía a 4k lo hacia con la 1080ti sin problemas, pero pensar que la mayoría eran juegos port de ps4, que de 4k en pc solo tenían la resolución de pantalla, las texturas 4k con alta resolución que buscan llegar al fotorrealismo, se han empezado a utilizar relativamente hace poco, sobre todo con motores como UE5, que si gasta mucha Vram, pero usa texturas de alta resolución y se nota.
Por otro lado, como alguien ha comentado, la Vram no es solo para texturas es para meter todos los datos que la gpu vaya a necesitar, tener más Vram, agiliza el sistema en general, evitando tener que estar cargando y descargando el cache de Vram con la ram, liberando un poco la carga de cpu.
Yo creo que es un error no haber sacado la rx9070XT al menos con 20gb, no descarto para el 2026 una RX9080XT 24GB y una RX9090XTX 32GB., es la única que me interesaría por 1000€
Saludos
Duron600 escribió:¿AMD también va a sacar sus modelos como NVIDIA con las founders edition?
Lo digo porque parece que los precios de las GPU NVIDIA de ensambladores se disparan
¿Los precios que pone AMD ya son precios PVP de ensamblador añadiéndoles el IVA y el cambio de moneda?
Porque parece que las custom de Nvidia tienen carta blanca para pasarse los precios que pone NVIDIA por el forro.
Saludos
licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera
tonicab escribió:licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera
No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.
A finales de mes salen a la venta y el 22 de enero se presentan.
Kubbatta escribió:tonicab escribió:licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera
No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.
A finales de mes salen a la venta y el 22 de enero se presentan.
Si es un poco superior si que es para prenderles fuego.
En teoría la mejora grande viene del lado del RT que es donde más cojos estaban,si sacan a 600 euros lo mismo un poco mejor van por el desfiladero.
A ver si hacen de una vez la presentación,tras la espantada del Ces necesitan algo o directamente abandonar el barco
tonicab escribió:Kubbatta escribió:tonicab escribió:
No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.
A finales de mes salen a la venta y el 22 de enero se presentan.
Si es un poco superior si que es para prenderles fuego.
En teoría la mejora grande viene del lado del RT que es donde más cojos estaban,si sacan a 600 euros lo mismo un poco mejor van por el desfiladero.
A ver si hacen de una vez la presentación,tras la espantada del Ces necesitan algo o directamente abandonar el barco
Lo interesante es que no es la comparación con generaciones pasadas (sean Nvidia o AMD) sino con las actuales 50 (en concreto con el modelo 5070).
Si es similar el rendimiento a la 5070 quizás tener más VRAM puede ser la diferencia. No obstante si la 5070ti termina costando en marcas más baratas como Zotac unos 800 euros, la 9070xt tendría que valer menos de 600 para que yo por ejemplo la comprara en detrimento de la 5070ti.
Duron600 escribió:@dunkam82
En un hilo de Reddit hablan de la entrevista y el FSR 4 en la serie 7000,
hay interpretaciones parecidas a la mía.
Que al principio FSR 4 necesita mucho aprendizaje y los aceleradores IA de las 7000 no son suficientes, pero que cuando FSR 4 este mas asentado y no necesite tanto aprendizaje sacaran una versión para la serie 7000
Saludos
HakiGold escribió:Yo no creo en esta generación AMD saque gama -alta, la 9070xt será 400mm2 redondeando.
Yo creo que AMD va esperar UNDA para volver aventurarse en gama -alta y incluso top, estás gamas incluso en Nvidia vende una mierda y no muestran muchas ganancias, pero tener una arquitectura unificada como Nvidia que diseña un arquitectura base para Tesla, quadro y GeForce y va quitando cosas, hace que se pueda pensar en chip grande de serie y irlo adaptando en los diferentes mercados.
Yo creo volverá buscar eso con GCN y hoy con UNDA crear un chip grande y rentabilizarlo en servidores, profesional y gaming, el modelo actual de tener arquitecturas diferente para cada sector, era más trabajoso y caro para ellos, y no merecía diseñar chips grandes solo para gaming.
654321 escribió:A mi la verdad que me da igual si AMD pasa de sacar gama alta, no pienso gastarme mas de 1000€ en una GPU nunca, y NVIDIA no hace mas que subir el precio de la gama alta, este año hasta unos 2400€ ...
Ojala AMD se centre en sacar tarjetas que tengan mejor relación rendimiento/precio que las tarjetas que NVIDIA saque por debajo de 1000€. Si la 9070XT rinde como la 5070Ti, y la 9070 como la 5070, pero mas baratas, eso es que AMD va por el buen camino, con eso, mejorar raytracing, y clavarla con FSR4, ya habrán hecho lo que tienen que hacer desde el punto de vista técnico.
Gastar recursos intentando competir con la 6090 que costará casi 3000€ me parecería estupido. Si de forma colateral al desarrollar la tarjeta de menos 1000 pavos ven la forma de sacar una de gama alta con poco coste de I+D, pues que la saquen.
AxelStone escribió:De hecho la Radeon RX 6600 fue considerada en su momento la mejor tarjeta en relación frames por euro, es una tarjeta que ha dado muy buen resultado sin tener que rascarse el bolsillo.
Pasa que nVidia marca el camino a seguir y eso siempre le da ventaja. Si ahora dicen que el RT es el mantra, ellos ya llevan tiempo trabajando en él y pilla a las demás con el pie cambiado. Lo mismo pasará con lo que venga detrás, jugarán con ventaja. Aquí están los motores para adaptarse a la diversidad del mercado y no convertir en obligatorio ningún "extra".
dunkam82 escribió:pero si AMD hubiera sacado una tarjeta a la altura de la 5080 pero por debajo de los 1000€ con un buen FSR 4 pues hubiera sido una opción muy interesante para mucha gente entre los que me incluyo.
Duron600 escribió:@dunkam82
Esta solo a una X para un modelo que mejore a la 9070XT, con un 15% más de rendimiento, 384 bits y 24gb ya te pones a la altura de la 5080.
Yo no descarto una futura 9070XTX
AMD es aficionada a potenciar modelos desde las RX500 hasta las RX 6950XT
Saludos
VanSouls escribió:Veremos al final a cuanto llega aqui: https://videocardz.com/newz/retailer-in ... ost-at-600
https://netcodex.ph/product/gigabyte-ra ... hics-card/
654321 escribió:Ojala AMD se centre en sacar tarjetas que tengan mejor relación rendimiento/precio que las tarjetas que NVIDIA saque por debajo de 1000€. Si la 9070XT rinde como la 5070Ti, y la 9070 como la 5070, pero mas baratas, eso es que AMD va por el buen camino, con eso, mejorar raytracing, y clavarla con FSR4, ya habrán hecho lo que tienen que hacer desde el punto de vista técnico.