[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

[Alex] escribió:
MikeFg escribió:@parh La 3080 salió a 600€ y esta sale a 1100€, es el doble de precio, ya depende de lo que valore cada uno.


La 3080 salió a 719€ y duró a ese precio 1-2 meses antes de subir a la luna.

719€ no es la mitad de 1.119€, aunque sea un puto robo.

Querrás decir que duró a ese precio literalmente MINUTOS de los servidores colapsados hasta que los bots se llevaban todo el stock y a esperar a la siguiente remesa en unas semanas, y así 2-4 veces hasta que no había stock en ningún sitio y te tocaba tirar de "scapers" o saltarte la generación. Yo personalmente opté por lo segundo. No tuve narices de conseguir una 3080 al MSRP, ni con grupos de telegram avisando, ni nada. Eso, si no estabas en el paro y 24/7 pendiente del móvil era un unicornio. Algún amigo la consiguió.

Y la 3080 salió barata. Es la primera generación desde la serie 500 (Fermi, año 2010) en la que el modelo -80 lleva el chip grande de salida, aunque sea recortado. Todas las demás generaciones el modelo -80 ha sido el chip con número de modelo terminado en -4 (gama media), para luego sacar la -Ti de turno. En este caso la 4080 no es una excepción.

No justifico las subidas. Creo que las gráficas están insultantemente caras. Todas, las de los dos fabricantes. Pero justamente creo que comparativamente la serie 3000 tenía un precio bastante aceptable, si no hubiera sido por el boom (y posterior topetazo) de la minería. Y nVidia por supuesto llenándose las arcas a costa de todos. A río revuelto, ganancia de pescadores que se suele decir.

La única gráfica interesante de las SUPER es la 4070Ti. A todos los efectos, han bajado 400€ el precio de la 4080, porque es bastante similar en todo, lo cual me parece estupendo. Del resto, ya he dicho alguna vez por el foro, y lo repito: Por loco que pueda sonar, la gráfica más barata de la serie 4000 es la 4090. Porque pagas un Ferrari pero al menos te llevas un Ferrari. Todas las demás, son gamas medias, no hay más que ver el bus de memoria, o la cantidad de TMUs y ROPs. Gamas medias que rinden bastante bien, todo sea dicho.

Saludos
@Pollonidas

como va a ser lo mismo una 4060ti o mi 4070 que una 4080Super, no es el doble una 4080S que mi 4070? no pueden ser a la vez gamas medias ambas, si una vale 599 y otra 1200

pagar 2600 es un ferrari y rinde mejor por euro, pero es tirar el dinero si juegas a 1440 por ejemplo, esa 4090 te da para casi 4 tarjetas 4070, es decir, una te cubre 4-5 años de etapa gaming y la otra opcion podrias cubrir 20 años de etapa gaming.... como va a ser mejor inversion 5 años que 20 jugando al maximo nivel ( asumiendo 2K 120hz)
Strait escribió:
RaD3R escribió:En rendimiento, cuál es la diferencia media entre una 3080 y una 4080S? Más de un 30%? Sin contar con el frame generation.


La 4080 es aprox un 50% más potente que la 3080, así que sí.


Por lo que he visto en vídeos, se mueve entre un 30 y 40% más de rendimiento. Que no está mal. Pero si la serie 5x sale en 2025, y yo no juego a 4k, creo que no daré el salto ahora.
RaD3R escribió:
Strait escribió:
RaD3R escribió:En rendimiento, cuál es la diferencia media entre una 3080 y una 4080S? Más de un 30%? Sin contar con el frame generation.


La 4080 es aprox un 50% más potente que la 3080, así que sí.


Por lo que he visto en vídeos, se mueve entre un 30 y 40% más de rendimiento. Que no está mal. Pero si la serie 5x sale en 2025, y yo no juego a 4k, creo que no daré el salto ahora.


La 3080 tiene una potencia relativa frente a la 4080 de entre un 65% y 67% según reviews de páginas decentes. A día de hoy con optimización de drivers es probable que la diferencia sea algo más. Si partimos de la 3080 tenemos que 100 es un 150% más de 66 (un 50% más para que nos entendamos):

Imagen

Imagen

Fuente techpowerup y guru3d.
PSX22 escribió:@Pollonidas

como va a ser lo mismo una 4060ti o mi 4070 que una 4080Super, no es el doble una 4080S que mi 4070? no pueden ser a la vez gamas medias ambas, si una vale 599 y otra 1200

pagar 2600 es un ferrari y rinde mejor por euro, pero es tirar el dinero si juegas a 1440 por ejemplo, esa 4090 te da para casi 4 tarjetas 4070, es decir, una te cubre 4-5 años de etapa gaming y la otra opcion podrias cubrir 20 años de etapa gaming.... como va a ser mejor inversion 5 años que 20 jugando al maximo nivel ( asumiendo 2K 120hz)

No he dicho que sean lo mismo, he dicho que son gamas medias (en el sentido que desde el punto de vista técnico no es el chip más grande y complejo, en precio opino que el mundo se ha vuelto loco) y lógicamente hay una considerable segmentación incluso dentro de una misma gama. Con eso no quiero decir que ninguna en particular rinda mal, incluso ralentizada la ley de Moore sigue vigente y por suerte una gama media de ahora te permite jugar muy bien a todo o a casi todo a las resoluciones "comunes", mejor que con las tope de gama de hace 2-3 generaciones. No mencioné eso y era bastante importante, disculpa.

Y si quieres que me moje más, te digo que la 4060Ti es de hecho gama media-baja, porque es un chip terminado en 6 (AD106), igual gama que, por ejemplo, la 3050 (GA-106). Y la 4060 a secas, directamente baja (GA-107). No es por un criterio que me haya inventado yo, es por el código interno que tiene cada modelo de GPU, que se puede consultar en la base de datos de techpowerup o en cualquier review que sepa de lo que habla.

nVidia, desde hace mucho tiempo, usa la siguiente nomenclatura para los chips:

[generacion]-[revisión][revisión_menor][gama]

Los dos primeros números ([revisión] y [revisión_menor]) salvo casos muy puntuales, suelen ser 1 y 0 respectivamente.

Si [gama] es 0 o 2, es el chip más grande (en número de transistores y en complejidad) de su generación (Titan, 80Ti, etc. con todo o casi todo el bus de memoria habilitado y con un porcentaje muy alto de los shaders activos). Últimamente el 0 suele estar reservado a las GPUs de IA, así que a efectos prácticos para los consumidores el -2 es la gama alta.

Si es 3 o 4 es el chip intermedio. Cuanto más grande es el número, más recortado. 256/192 bits de bus (salvo que te remontes a hace muchas generaciones, que todas tenían 256 bits de bus y el 3 no se usaba, las -70 y 60Tis eran -4 también). Hay veces que gráficas muy dispares llevan el mismo chip, que se binnea a favor de la gráfica de gama más alta.

Si es 6 es gama media-baja. Y si es 7 es gama baja.

La cuestión es que en la serie 4000 han "bajado" una gama. Por ejemplo, la 3080 es el GA102. G de Geforce (ya no lo usan desde Ada), A de generación (Ampere), Revisión 1, 2=gama alta.

La 4080 lleva el AD103. AD de Ada Lovelace, Revisión 1, 3=gama media-alta. La 4070 (Ti y SUPER incluidas) es el AD104, para más inri. La 4070Ti SUPER lleva el AD103, por eso digo que me parece interesante, aunque sea ligeramente recortado, porque está más cerca de ser una 4080 que de cualquiera de las gráficas con las que comparte nombre.

...que esto no es nuevo. En la serie 600 (Kepler) la mejor gráfica que podías comprar era la GTX680, con chip GK104. La gráfica que lleva el chip grande de esa generación, el GK110, no saldría hasta un año más tarde, en forma de GTX780. Por eso no la cuento, porque es una -80 pero es todavía peor que lo que pasa ahora. Literalmente podrían haber sacado la gama alta un año antes y al mismo precio que vendían la 680, pero no les dio la gana. Y encima tienen el valor de aumentar el primer dígito, vender la 680 con un nuevo nombre (770) y a correr.

Yo suelo decir que son casos en los que a nVidia la gama media le sale "demasiado potente". En el sentido de que puede competir en bastante buenas condiciones con el resto del mercado. Lo mismo pasaba con la GTX680 vs 7970, aunque la segunda envejeció un poco mejor por VRAM y porque la arquitectura duró lo que no está escrito y se mejoró sucesivamente con drivers.

Y calla que a la 4070Ti la querían llamar 4080 12GB, por suerte recibieron un backlash considerable de usuarios y de prensa. Que por rendimiento bueno, tiene un pase, pero por características técnicas, a mi juicio, no.

Al final me he alargado bastante más de lo que quería. Enhorabuena a los que hayan leído desde el principio hasta aquí :)

@PSX22 en lo que comentas de las gamas y aprovechamiento estoy totalmente de acuerdo contigo. Una cosa no quita la otra. Y normalmente para jugar suele tener más sentido irse a gamas medias antes de que empiece el rendimiento decreciente. Pero también es cierto que las gamas altas suelen envejecer mejor.

En su día a mí me dolió pagar lo que valía una 2080Ti... pero si no hubiera comprado esa gráfica con la pandemia y la fiebre de las crypto no me hubiera podido permitir el lujo de saltarme una generación. No tengo mucho tiempo para jugar últimamente, pero sí que me gusta el poco tiempo que saco poner todos los ajustes al máximo y darme el capricho. Lo que quiero decir es que ir a gamas medias te "obliga" a cambiar cada poco tiempo, aunque saques más por lo que pagas. Evidentemente a nadie le voy a recomendar que se compre una 4090 para uso esporádico y a 1080p, aunque le sobre el dinero.

...lo que me parece terrible es que estén cobrando lo que están cobrando por gráficas cuyos costes de fabricación son bajísimos y van a envejecer regular. Es decir, no es que no exista gama media, es que la están vendiendo a 600-900€ tanto nVidia como AMD. Lo que están vendiendo a 300€ es si me apuras mucho gama media-baja. Y la gama baja no existe si no es tirando de segunda mano, aliexpress, o yendo a hardware de punto limpio tipo GT710 si lo único que quieres son salidas de pantalla. Me parece demencial.

Saludos
@PSX22 creo que debes cambiar un poco el chip. Las graficas de PC no son como las consolas. Me refiero a que dices que puedes alargar 4-5 años una 4070... no lo veo la verdad, en menos de 2 años (por no decir año y medio) a una 4070 ya se le empezaran a ver las costuras, y en 5 años como tu dices , ya ni te digo, tendrias que bajar tanto los settings a los juegos que no valdria la pena con respecto a su version consola (que se supone que estamos en PC gaming porque nos gusta jugar con una calidad notoriamente superior a la de la consola de turno)
Strait escribió:
RaD3R escribió:
Strait escribió:
La 4080 es aprox un 50% más potente que la 3080, así que sí.


Por lo que he visto en vídeos, se mueve entre un 30 y 40% más de rendimiento. Que no está mal. Pero si la serie 5x sale en 2025, y yo no juego a 4k, creo que no daré el salto ahora.


La 3080 tiene una potencia relativa frente a la 4080 de entre un 65% y 67% según reviews de páginas decentes. A día de hoy con optimización de drivers es probable que la diferencia sea algo más. Si partimos de la 3080 tenemos que 100 es un 150% más de 66 (un 50% más para que nos entendamos):

Fuente techpowerup y guru3d.


Eso es exactamente lo que he dicho, sí. Entre un 30 y un 40% más de rendimiento, lo que he visto en gameplays comparativos. No está mal, es la diferencia mínima que yo le exigiría a un cambio de GPU.
parh escribió:@PSX22 creo que debes cambiar un poco el chip. Las graficas de PC no son como las consolas. Me refiero a que dices que puedes alargar 4-5 años una 4070... no lo veo la verdad, en menos de 2 años (por no decir año y medio) a una 4070 ya se le empezaran a ver las costuras, y en 5 años como tu dices , ya ni te digo, tendrias que bajar tanto los settings a los juegos que no valdria la pena con respecto a su version consola (que se supone que estamos en PC gaming porque nos gusta jugar con una calidad notoriamente superior a la de la consola de turno)


La optimización juega un papel vital aquí.

Con una consola tienes garantizado un rendimiento X a un precio relativamente contenido durante bastantes años. La relación rendimiento por € es imbatible, especialmente si vemos los precios de las GPU de los últimos años.

En la balanza también habría que poner otras cosas que no voy a comentar por no hacer más offtopic.
RaD3R escribió:
Eso es exactamente lo que he dicho, sí. Entre un 30 y un 40% más de rendimiento, lo que he visto en gameplays comparativos. No está mal, es la diferencia mínima que yo le exigiría a un cambio de GPU.

No estás mirando bien los porcentajes.
No es lo mismo decir que la 3080 es un 35% más lenta que la 4080 que decir que la 4080 es un 35% mas rapida.
Lo que la tabla dice es que la 3080 tiene un 65% del rendimiento de la 4080, es decir que si la 4080 en un juego te da 100fps la 3080 te da 65.
En ese caso 100/65 = 1,538 lo que significa que la 4080 es un 53,8% mas rapida que la 3080, no un 35.
En los porcentajes es muy importante sobre quien se aplican, no son números absolutos sino relativos a algo.
Un ejemplo un poco mas extremo;si la gráfica A da 50 fps y la gráfica B da 100 fps podemos decir que:
-La gráfica A es un 50% mas lenta que la gráfica B
-La gráfica B es un 100% mas rapida que la gráfica A.
Si por ejemplo tuvieses una gráfica C que fuese un 50% mas rapida que la A esa daria 75fps.
parh escribió:@PSX22 creo que debes cambiar un poco el chip. Las graficas de PC no son como las consolas. Me refiero a que dices que puedes alargar 4-5 años una 4070... no lo veo la verdad, en menos de 2 años (por no decir año y medio) a una 4070 ya se le empezaran a ver las costuras, y en 5 años como tu dices , ya ni te digo, tendrias que bajar tanto los settings a los juegos que no valdria la pena con respecto a su version consola (que se supone que estamos en PC gaming porque nos gusta jugar con una calidad notoriamente superior a la de la consola de turno)


perfectamente puedes estar con la 4070 5-7 años, no todo el mundo se dedica al alan wake 2 de turno o al avatar, mucha gente juega a 1-2 juegos competitivos , por ej el CS2, con eso seguro que 5+ años puedes jugarlo a 4K 120hz , mis juegos son de steam desde unreal 1999 a cyberpunk, por ej se que avatar mi 4070 no va bien en 4K ultra, pero no la he comprado para ese tipo de juego, como mucho GTA6 si cuando salga y si va a 60 fps 1440p, si va a 30 fps para eso tengo ps5.

Yo quien tiene ese perfil de todo ultra 4K 8K, y quiere los peores optimizados a tope, tengo claro que cada 3-4 años debe comprarse la 80/90 de turno pero no es mi caso, mi juego mas moderno es cyberpunk y me va sobradisimo este año no sale nada en PC que me interese , el stalker 2 , pero veo que no va a pedir nada del otro mundo, juegos asi yo lo veo para 4-5 años viable 1400p con DLSS y framegen sin RTX tiene que dar hombre, claro esta si para la 6070 el salto es muy grande , pues si rondan 650 las 70 , tampoco lo veria mal el cambio, al final ps5 pro no hace eso ? cada 4 años y tienes todo a mucha calidad en ps5 pro. Lo malo que en pc no vale poner una mejor y ya, la fuente tiene que darte.. o tu cpu debe ser suficiente.... al final gastas mucho mas en PC si vas a los ultimos juegos a ultra 4K





@Pollonidas
La verdad que me ha venido bien el texto para ponerme al dia el chips nomenclatura nvidia y tal, en general comparto lo que dices, pero eso si la gama media te la venden a 600 y te da para 90-100 fps a graficos altos 1440p para 4-5 años, pues oye ni tan mal. No podemos pretender que nos vendan una 4070 a precio de una 7600GT de la epoca, estamos en otras decadas. Las graficas valen el doble, pero las casas o comida no? pues veo natural que crezcan en proporcion a la vida general. Es que lo de pagar 60€ por un juego como cyberpunk en 2023 y los 60 que costaba el Orange BOX de xbox 360, pues no lo veo natural ni logico.

Que por mi podria valer la 4090 600€ como consumidor es una cosa y como alguien que entiende que la economia no se va a congelar es otra cosa.

Como digo a mi por una cantidad de la mitad del SMI me dan 1440 ultra 60+ fps , en 2004 no jugabamos a 1440p 100fps a los juegos top de la epoca por la mitad del SMI de la epoca ( unos 300€).

Lo que no me ha gustado es que rinden muy bien, pero a costa de DLSS y framegeneration , preferiria mas poder de computo crudo que usar trucos de IA, pero supongo que no se puede hacer 100teraflops en 100watts con la tecnologia actual.
Kurosawa42 escribió:Mi sensacion es que el usuario de a pie/ usuario gaming somos algo residual ( Mas ahora que antes ) y que por la parte que toca a Nvidia, el negocio de la IA o similares es lo que les importa porque ahi es donde ganan y mucho.
Nosotros somos migajas ¿A quien le importa unas migajas teniendo un pastel inmenso ?

OJALA fuese tu sensación !!!!

Es la cruda realidad, NVIDIA vale ahora 100 veces mas que hace 10 años, es la sexta compañía mas grande del mundo en capitalación bursatil.
https://companiesmarketcap.com/nvidia/marketcap/

Vamos, que vender el doble de GPUs de gama media, pero mas baratas, pues no les cambiaría nada. [buuuaaaa]

Lo único que nos puede salvar es que alguien saque unos chips de IA mas eficientes que los de NVIDIA ...
654321 escribió:
Kurosawa42 escribió:Mi sensacion es que el usuario de a pie/ usuario gaming somos algo residual ( Mas ahora que antes ) y que por la parte que toca a Nvidia, el negocio de la IA o similares es lo que les importa porque ahi es donde ganan y mucho.
Nosotros somos migajas ¿A quien le importa unas migajas teniendo un pastel inmenso ?

OJALA fuese tu sensación !!!!

Es la cruda realidad, NVIDIA vale ahora 100 veces mas que hace 10 años, es la sexta compañía mas grande del mundo en capitalación bursatil.
https://companiesmarketcap.com/nvidia/marketcap/

Vamos, que vender el doble de GPUs de gama media, pero mas baratas, pues no les cambiaría nada. [buuuaaaa]

Lo único que nos puede salvar es que alguien saque unos chips de IA mas eficientes que los de NVIDIA ...


Han encadenado la burbuja minera con la de la IA

Cuál será la próxima? XD
[Alex] escribió:Cuál será la próxima? XD

La IA ha venido para quedarse, no va a pinchar como la mineria. Me doy con un canto en los dientes si no va a mas en los proximos años, pq podria ser peor, como TSMC y demas fundiciones no den a basto, la cosa podría ir a peor. [buuuaaaa]

Esperemos que con el tema de los peligros y las regulaciones, pues se quede en los niveles actuales, y en vez de sacar GPT5 con mas parametros, se centren hacer IAs eficientes con menos parametros, y que requieran menos potencia para correr.
Cambiando un poco de tema a algo curioso, Minecraft con path tracing y texturas ultrarealistas poniendo de rodillas a una 4090:
A mi me parece que a la mínima que te bajas del "ultra" una 4070 es gráfica de SOBRA para jugar los próximos 5 años a 1440p@60 a todos los títulos.

Muchas veces, un juego bajando la calidad de Ultra a Alta implica ganar fácilmente 10-20 fps, y en la mayoría de la veces es imperceptible el cambio, o es una sombra que tiene un pixel más, algo totalmente invisible al ojo humano con la imagen en movimiento.

Además, las técnicas de reescalado están a la orden del día y verdaderamente ayudan mucho a mantener fps sin a penas sacrificar calidad visual. Si a esto le sumamos la generación de frames.... pues es un buen cóctel. Que sí, que ojalá todo en nativo y en ultra, pero las optimizaciones muchas veces brillan por su ausencia y hay que recurrir a estos trucos.

Ya no hablo de 4k que para mi eso es una liga a la que no llego, pero entiendo que si alguien paga 1.000 euros por una gráfica quiera poner todo al máximo.

Que los precios son caros? Sí.

Pero la mayor parte de los usuarios juegan con una gama "baja" 2060 o 3060 y lo están haciendo sin problemas, más allá de Alan Wake 2 y alguna pendejada más. Hay miles de títulos a jugar como para ceñirse siempre a los cuatro juegos de turno típicos de benchmarks de youtube.
adriano_99 escribió:Cambiando un poco de tema a algo curioso, Minecraft con path tracing y texturas ultrarealistas poniendo de rodillas a una 4090:



pues veo el video super fluido, la calidad es la ostia...
adriano_99 escribió:Cambiando un poco de tema a algo curioso, Minecraft con path tracing y texturas ultrarealistas poniendo de rodillas a una 4090:

la iluminacion es espectacular y lo esta moviendo en nativo alrededor de los 30 fps con DLSS 3.5 deberia haber una subida importante
adriano_99 escribió:
RaD3R escribió:
Eso es exactamente lo que he dicho, sí. Entre un 30 y un 40% más de rendimiento, lo que he visto en gameplays comparativos. No está mal, es la diferencia mínima que yo le exigiría a un cambio de GPU.

No estás mirando bien los porcentajes.
No es lo mismo decir que la 3080 es un 35% más lenta que la 4080 que decir que la 4080 es un 35% mas rapida.
Lo que la tabla dice es que la 3080 tiene un 65% del rendimiento de la 4080, es decir que si la 4080 en un juego te da 100fps la 3080 te da 65.
En ese caso 100/65 = 1,538 lo que significa que la 4080 es un 53,8% mas rapida que la 3080, no un 35.
En los porcentajes es muy importante sobre quien se aplican, no son números absolutos sino relativos a algo.
Un ejemplo un poco mas extremo;si la gráfica A da 50 fps y la gráfica B da 100 fps podemos decir que:
-La gráfica A es un 50% mas lenta que la gráfica B
-La gráfica B es un 100% mas rapida que la gráfica A.
Si por ejemplo tuvieses una gráfica C que fuese un 50% mas rapida que la A esa daria 75fps.


Te agradezco la aclaración. Sobre rendimiento VS rapidez; lo de remarcar que los porcentajes son cantidades relativas no hacía falta ;)
neox3 escribió:
pues veo el video super fluido, la calidad es la ostia...

A ver no pega grandes saltos pero fluido lo que se dice fluido no va, de hecho a mi me empezaba a doler la cabeza cuando ha terminado el video xD

parh escribió:
adriano_99 escribió:Cambiando un poco de tema a algo curioso, Minecraft con path tracing y texturas ultrarealistas poniendo de rodillas a una 4090:

la iluminacion es espectacular y lo esta moviendo en nativo alrededor de los 30 fps con DLSS 3.5 deberia haber una subida importante


Si, seguramente con dlss se podría hacer jugable aunque estamos viendo una sola casa y con todo elementos estáticos.
Esto en un mundo de verdad donde vas a jugar, crear granjas, grandes construcciones y demás seguramente vaya mucho mucho peor.


De todas formas no es una crítica a la 4090 eh? El hecho de que eso se mueva a más de 1fps ya es mucho xD
PSX22 escribió:@Pollonidas
La verdad que me ha venido bien el texto para ponerme al dia el chips nomenclatura nvidia y tal, en general comparto lo que dices, pero eso si la gama media te la venden a 600 y te da para 90-100 fps a graficos altos 1440p para 4-5 años, pues oye ni tan mal. No podemos pretender que nos vendan una 4070 a precio de una 7600GT de la epoca, estamos en otras decadas. Las graficas valen el doble, pero las casas o comida no? pues veo natural que crezcan en proporcion a la vida general. Es que lo de pagar 60€ por un juego como cyberpunk en 2023 y los 60 que costaba el Orange BOX de xbox 360, pues no lo veo natural ni logico.

Que por mi podria valer la 4090 600€ como consumidor es una cosa y como alguien que entiende que la economia no se va a congelar es otra cosa.

Como digo a mi por una cantidad de la mitad del SMI me dan 1440 ultra 60+ fps , en 2004 no jugabamos a 1440p 100fps a los juegos top de la epoca por la mitad del SMI de la epoca ( unos 300€).

Lo que no me ha gustado es que rinden muy bien, pero a costa de DLSS y framegeneration , preferiria mas poder de computo crudo que usar trucos de IA, pero supongo que no se puede hacer 100teraflops en 100watts con la tecnologia actual.

Estoy de acuerdo, y para ser totalmente justo cabe decir que, aparte de la inflación que se puede ver en todas las cosas como bien dices, un chip de gama alta de ahora es proporcionalmente bastante más caro de fabricar que un chip de gama alta en la época de las 7000 o de las 8000, pero de igual manera dura más tiempo pudiendo jugar "bien" (no me refiero necesariamente con todo a tope en las resoluciones más altas sino que los juegos funcionen con un rendimiento que permita disfrutarlos a resolución media-alta y que no haya que andar mirando los requisitos mínimos)

Pero igual que con los móviles hace no tanto tiempo parecía una locura que un modelo de gama alta costara 500€ y hoy en día eso es una gama media tanto en iOS como en Android, con las gráficas veo lo mismo pero incluso más acentuado.

Mi queja no es tanto que como consumidor quiero las cosas baratas (que también), sino que hace unos años ya me parecía mal que sacaran la -80 de turno a 700€ para meses después sacar la -80 Ti de turno por poco más dinero (pienso en la generación 900 y en la 1000), que básicamente significa que, si bien con la -Ti puede que no ganaran tanto, con la -80 tenían unos márgenes escandalosos. Y ahora está pasando lo mismo. La 4070 es una buena gráfica y creo que va a envejecer bien. Pero eso no quita que tanto con ella como con su hermana mayor tengan unos márgenes de beneficios de escándalo. Y con la 4060 que vale "dos duros" de fabricar ni te cuento.

A mí no me parece mal del todo que metan "pijadas" de IA y de escalado. Pienso que en otro caso sería totalmente inaccesible todo el tema de modelos de IA para empresas pequeñas y para particulares. Para juegos, no deja de ser un extra que está ahí, siempre puede alargar la vida de la GPU unos añitos.

Saludos
parh escribió:@PSX22 creo que debes cambiar un poco el chip. Las graficas de PC no son como las consolas. Me refiero a que dices que puedes alargar 4-5 años una 4070... no lo veo la verdad, en menos de 2 años (por no decir año y medio) a una 4070 ya se le empezaran a ver las costuras, y en 5 años como tu dices , ya ni te digo, tendrias que bajar tanto los settings a los juegos que no valdria la pena con respecto a su version consola (que se supone que estamos en PC gaming porque nos gusta jugar con una calidad notoriamente superior a la de la consola de turno)

Estás definiendo el típico caso de ultritis. Si tienes ese "problema" (porque parece que os obligue a cambiar de gráfica y no sepáis jugar en otra config diferente a ultra), es evidente que se debe cambiar el chip. Ahora, si no tienes ese "problema" puedes alargar las gráficas mas de lo que piensas.

La de gente que ha estirado por ejemplo las 970GTX o las 1060GTX sin problema... y hablo al menos de mi caso con la 970GTX, que no juego a competitivos y sin poder tener reescalado ni frame generator aguanté 6 años (desde octubre 2015 hasta diciembre 2021). Pasé de empezar a jugar todo a 1080p en ultra a +60fps a terminar jugando a medio/alto (depende del juego) a unos 40fps.


Luego habláis de ejemplos como Alan Wake 2 como caso puntual de juego muy exigente ¿Es que acaso en consola creéis que está a 4k ultra con ray tracing o path tracing? Claro que no (info). Recuerdo hace unos meses ver la comparación de DF y menudos efectos cutrillos de reflejos debido al no RT que tenia en consola en el agua. La configuración con más calidad en consola comparado con PC es "Medio" con un par de apartados mas bajo todavía. Aquí lo explica DF (donde al principio explica la no-magia de las consolas), comparando su configuración optimizada de PC con el modo rendimiento (60fps) y calidad (30fps) de PS5: https://youtu.be/QrXoDon6fXs?t=686

Una cosa es que en consola salgan los juegos mas optimizados que en PC, y otra que en PC no puedas aguantar mas de 3 años con una misma gráfica competente (no hablo de comprarse una 3060 para jugar a 4k ultra a juegos exigentes).
Rvilla87 escribió:
parh escribió:@PSX22 creo que debes cambiar un poco el chip. Las graficas de PC no son como las consolas. Me refiero a que dices que puedes alargar 4-5 años una 4070... no lo veo la verdad, en menos de 2 años (por no decir año y medio) a una 4070 ya se le empezaran a ver las costuras, y en 5 años como tu dices , ya ni te digo, tendrias que bajar tanto los settings a los juegos que no valdria la pena con respecto a su version consola (que se supone que estamos en PC gaming porque nos gusta jugar con una calidad notoriamente superior a la de la consola de turno)

Estás definiendo el típico caso de ultritis. Si tienes ese "problema" (porque parece que os obligue a cambiar de gráfica y no sepáis jugar en otra config diferente a ultra), es evidente que se debe cambiar el chip. Ahora, si no tienes ese "problema" puedes alargar las gráficas mas de lo que piensas.

La de gente que ha estirado por ejemplo las 970GTX o las 1060GTX sin problema... y hablo al menos de mi caso con la 970GTX, que no juego a competitivos y sin poder tener reescalado ni frame generator aguanté 6 años (desde octubre 2015 hasta diciembre 2021). Pasé de empezar a jugar todo a 1080p en ultra a +60fps a terminar jugando a medio/alto (depende del juego) a unos 40fps.


Luego habláis de ejemplos como Alan Wake 2 como caso puntual de juego muy exigente ¿Es que acaso en consola creéis que está a 4k ultra con ray tracing o path tracing? Claro que no (info). Recuerdo hace unos meses ver la comparación de DF y menudos efectos cutrillos de reflejos debido al no RT que tenia en consola en el agua. La configuración con más calidad en consola comparado con PC es "Medio" con un par de apartados mas bajo todavía. Aquí lo explica DF (donde al principio explica la no-magia de las consolas), comparando su configuración optimizada de PC con el modo rendimiento (60fps) y calidad (30fps) de PS5: https://youtu.be/QrXoDon6fXs?t=686

Una cosa es que en consola salgan los juegos mas optimizados que en PC, y otra que en PC no puedas aguantar mas de 3 años con una misma gráfica competente (no hablo de comprarse una 3060 para jugar a 4k ultra a juegos exigentes).

Es algo que me vuela la cabeza.
En consola se comen lo que sea que les den pero luego esas mismas personas dicen que no juegan en pc porque si ponen ultra el juego no les va a 60fps.
Hay una doble vara de medir respecto lo que se le exige a las consolas y lo que se exige a un pc cualquiera que nunca entenderé.
Rvilla87 escribió:La de gente que ha estirado por ejemplo las 970GTX o las 1060GTX sin problema... y hablo al menos de mi caso con la 970GTX, que no juego a competitivos y sin poder tener reescalado ni frame generator aguanté 6 años (desde octubre 2015 hasta diciembre 2021). Pasé de empezar a jugar todo a 1080p en ultra a +60fps a terminar jugando a medio/alto (depende del juego) a unos 40fps.

La 1060 hay gente que sigue usandola, le van a meter 10 años algunos a los precios que está la cosa.

Lo que tiene que hacer NVIDIA es potenciar la VR, pq yo en plano con la Xbox 360 ya iba sobrado con juegos como el GTA 5, pero en VR, hace falta mucha GPU ... la 3080 se me queda corta para jugar Cyberpunk con el mod VR [qmparto]
kaiserphantom escribió:A mi me parece que a la mínima que te bajas del "ultra" una 4070 es gráfica de SOBRA para jugar los próximos 5 años a 1440p@60 a todos los títulos.




Y además es puro marketing retroalimentado por usuarios en foros como este. La realidad es que no hay necesidad más allá de 2 juegos puntuales (y que encima duran X horas y ya, sin continuidad en el tiempo ninguna) de cambiar desde unas cuantas series. Con FSR3, quien tenga una 2080, no tiene que preocuparse de nada, por ejemplo (amd salvando a las gpu d nvidia que ellos mismos han abandonado ya, curioso). Pero claro, te metes aquí y lees a 4 diciendo que no, que es que Alan Wake es flipante a 300fps con RTX y empieza a germinarte en la cabeza la semillita de “uy, es que mi 2080 ya no vale”.
Luego la realidad es que juegas a 3 juegos al año, uno F2P que mueve una tostadora pero te has gastado 1.000€ en una nueva GPU para no sentirte anticuado.
pues yo acabo de actualizar a un 14600kf, 32gb ram y aun sigo jugando a 1080p con una 2070. No la pienso quitar hasta que le salgan telarañas o pete. Me interesaba pillarme una 4070 este año si bajaban los precios pero asi imposible, o pasarse a Radeon por 1ª vez desde que uso nvidia, y si no a mercado de 2ª mano.
Este año me he terminado (y apurando cada uno casi al 100% del contenido) el Alan Wake 2, Starfield y Howard's Legacy con una 6900xt, sin absolutamente ningún problema.

Mi truco es centrarme en disfrutar del juego, y nunca nunca poner el contador de frames visible.

Entiendo a quienes van a lo más top y me parece genial querer disfrutar de los mejores gráficos con cuántas más tecnologías de iluminación y demás mejor. Ves algunos mods "ultrarealistas" de CP2077 o el GTA5 o Minecraft y es flipante.

Y también entiendo a quienes simplemente quieren disfrutar de los juegos, actuales o no tanto, y no le dan tanta importancia a los gráficos.

En resumen, a cada uno le durará su gráfica lo que le venga en gana. Todo dependerá del gasto que esté dispuesto a afrontar para satisfacer su vicio.

En estos foros creo que lo normal es que abunde más el perfil entusiasta que busca lo más top, lo que puede provocar un sesgo en la percepción de lo que es más habitual, que está claro que no es cambiar de gráfica cada año - generación.
metalero24 escribió:Este año me he terminado (y apurando cada uno casi al 100% del contenido) el Alan Wake 2, Starfield y Howard's Legacy con una 6900xt, sin absolutamente ningún problema.

Mi truco es centrarme en disfrutar del juego, y nunca nunca poner el contador de frames visible.

Entiendo a quienes van a lo más top y me parece genial querer disfrutar de los mejores gráficos con cuántas más tecnologías de iluminación y demás mejor. Ves algunos mods "ultrarealistas" de CP2077 o el GTA5 o Minecraft y es flipante.

Y también entiendo a quienes simplemente quieren disfrutar de los juegos, actuales o no tanto, y no le dan tanta importancia a los gráficos.

En resumen, a cada uno le durará su gráfica lo que le venga en gana. Todo dependerá del gasto que esté dispuesto a afrontar para satisfacer su vicio.

En estos foros creo que lo normal es que abunde más el perfil entusiasta que busca lo más top, lo que puede provocar un sesgo en la percepción de lo que es más habitual, que está claro que no es cambiar de gráfica cada año - generación.

Bueno,es que aunque ya no es una de las 2 o 3 graficas mas potentes del mundo como si fue lo en su salida,sigue siendo una gráfica media alta actual.Que tampoco es ningún hierro.Yo con una gráfica bastante peor(RX 6800)sigo jugando en buenas condiciones.
Al final a mi lo que me importa son los juegos.Me gusta que se vean lo mejor posible,claro...pero si un juego de verdad te divierte no estas mirando si la sombra de un candelabro está mas o menos realista. XD
dicker31 escribió:
metalero24 escribió:Este año me he terminado (y apurando cada uno casi al 100% del contenido) el Alan Wake 2, Starfield y Howard's Legacy con una 6900xt, sin absolutamente ningún problema.

Mi truco es centrarme en disfrutar del juego, y nunca nunca poner el contador de frames visible.

Entiendo a quienes van a lo más top y me parece genial querer disfrutar de los mejores gráficos con cuántas más tecnologías de iluminación y demás mejor. Ves algunos mods "ultrarealistas" de CP2077 o el GTA5 o Minecraft y es flipante.

Y también entiendo a quienes simplemente quieren disfrutar de los juegos, actuales o no tanto, y no le dan tanta importancia a los gráficos.

En resumen, a cada uno le durará su gráfica lo que le venga en gana. Todo dependerá del gasto que esté dispuesto a afrontar para satisfacer su vicio.

En estos foros creo que lo normal es que abunde más el perfil entusiasta que busca lo más top, lo que puede provocar un sesgo en la percepción de lo que es más habitual, que está claro que no es cambiar de gráfica cada año - generación.

Bueno,es que aunque ya no es una de las 2 o 3 graficas mas potentes del mundo como si fue lo en su salida,sigue siendo una gráfica media alta actual.Que tampoco es ningún hierro.Yo con una gráfica bastante peor(RX 6800)sigo jugando en buenas condiciones.
Al final a mi lo que me importa son los juegos.Me gusta que se vean lo mejor posible,claro...pero si un juego de verdad te divierte no estas mirando si la sombra de un candelabro está mas o menos realista. XD


Toda persona que tenga una grafica de la serie 2000 de nvidia o de la 5000 de amd no debe de cambiar de grafica hasta que salga la siguente gen...si es que juega a 1080p claro

Yo voy a aguantar la 3060ti aunque ya me estoy encontrando juegos donde la vram le falta pero no voy a pasar por el aro y si amd saca algo majo en el rango de la gama media nvidia no me vuelve a ver el pelo en un tiempo

Se raja mucho de los drivers de amd pero los de nvidia...tengo un libro para rajar de esos drivers
aim_dll escribió:
dicker31 escribió:
metalero24 escribió:Este año me he terminado (y apurando cada uno casi al 100% del contenido) el Alan Wake 2, Starfield y Howard's Legacy con una 6900xt, sin absolutamente ningún problema.

Mi truco es centrarme en disfrutar del juego, y nunca nunca poner el contador de frames visible.

Entiendo a quienes van a lo más top y me parece genial querer disfrutar de los mejores gráficos con cuántas más tecnologías de iluminación y demás mejor. Ves algunos mods "ultrarealistas" de CP2077 o el GTA5 o Minecraft y es flipante.

Y también entiendo a quienes simplemente quieren disfrutar de los juegos, actuales o no tanto, y no le dan tanta importancia a los gráficos.

En resumen, a cada uno le durará su gráfica lo que le venga en gana. Todo dependerá del gasto que esté dispuesto a afrontar para satisfacer su vicio.

En estos foros creo que lo normal es que abunde más el perfil entusiasta que busca lo más top, lo que puede provocar un sesgo en la percepción de lo que es más habitual, que está claro que no es cambiar de gráfica cada año - generación.

Bueno,es que aunque ya no es una de las 2 o 3 graficas mas potentes del mundo como si fue lo en su salida,sigue siendo una gráfica media alta actual.Que tampoco es ningún hierro.Yo con una gráfica bastante peor(RX 6800)sigo jugando en buenas condiciones.
Al final a mi lo que me importa son los juegos.Me gusta que se vean lo mejor posible,claro...pero si un juego de verdad te divierte no estas mirando si la sombra de un candelabro está mas o menos realista. XD


Toda persona que tenga una grafica de la serie 2000 de nvidia o de la 5000 de amd no debe de cambiar de grafica hasta que salga la siguente gen...si es que juega a 1080p claro

Yo voy a aguantar la 3060ti aunque ya me estoy encontrando juegos donde la vram le falta pero no voy a pasar por el aro y si amd saca algo majo en el rango de la gama media nvidia no me vuelve a ver el pelo en un tiempo

Se raja mucho de los drivers de amd pero los de nvidia...tengo un libro para rajar de esos drivers

Pues mira que yo creo que en drivers es bastante mejor nvidia:No porque no metan la pata,que a veces la meten,sino porque me da la impresión que tardan menos en solucionar las pifias.
@dicker31 Bueno eh...

De primeras te encuentras que nvidia experencie y el panel de control son dos apps distintas...luego si quiero usar nvidia experence me tengo que loguear...es decir si quiero grabar algo o es haciendo login o nada...luego el panel de control de nvidia necesita un repaso, es como pillar un delorean y volver a w95 y luego yo personalmente tengo un problema la mar de gracioso, cuando tengo las dos pantallas encendidas a veces tengo un pantallazo negro en los dos monitores de un segundo y vuelve(el log de windows me tira un crash del driver)

Amd tiene otros problemas pero al menos el driver es en una sola app y es mas vistoso

He estado con las dos marcas y a mi a nivel de driver me dio menos problemas la 480 que la 3060ti
@Pollonidas

sin duda lo veo muy similar a como cuentas en tema moviles y en que la IA se ha hecho accesible , por algo las inversiones en nvdia se han disparado, no es ya un tema profesional de IA, es que en juegos no es lo mismo jugar a 58fps que a 110fps con DLSS y frameGen, para mi de hecho no es opcional ni un extra, una serie 4000 sin DLSS para mi es desperdiciarla, es como ponerle el core voluntariamente -500mhz menos, una salvajada asi. Los tensor cores son la grafica en si para mi, apagar eso es convertirla en otra grafica de hace años.

Yo estoy muy contento con la 4070 , no se va a quedar obsoleta en 3 años como algunos han puesto, y gracias al DLSS y framegen esta casi asegurado 5-6 años como poco, claro no a 4K DLSS sino 1440DLSS y ajustes medios sin RTX activo. y hay tanto salido y por jugar hasta 2024 hacia atras... por ej cyberpunk a tope funciona en "una gama media" , si que el precio es de gama alta estamos de acuerdo, pues la vida como decia sube, pero tambien deben darnos mas por el mismo precio a corto plazo, ( las super por ej acaban de hacer eso) una 4070ti super es un monstruo de GPU por menos de 1000€
aim_dll escribió:@dicker31 Bueno eh...

De primeras te encuentras que nvidia experencie y el panel de control son dos apps distintas...luego si quiero usar nvidia experence me tengo que loguear...es decir si quiero grabar algo o es haciendo login o nada...luego el panel de control de nvidia necesita un repaso, es como pillar un delorean y volver a w95 y luego yo personalmente tengo un problema la mar de gracioso, cuando tengo las dos pantallas encendidas a veces tengo un pantallazo negro en los dos monitores de un segundo y vuelve(el log de windows me tira un crash del driver)

Amd tiene otros problemas pero al menos el driver es en una sola app y es mas vistoso

He estado con las dos marcas y a mi a nivel de driver me dio menos problemas la 480 que la 3060ti

Si,hombre.Yo hablo de estabilidad.Que el panel de nvidia necesita un rediseño está claro.Pero para que te hagas una idea.Cuando compre mi tv resulta que no me funcionaba VRR.Bueno vale,voy a escribir a Sony a ver que me dicen...y Sony me contesta que en las LG y otras marcas tampoco funciona,que no es cosa suya.Bueno,pues na,voy a darles la vara a AMD...Pues me contestan diciendome que son conscientes del problema y que estará proximamente solucionado.Pasan los meses,los drivers y la cosa sigue igual.Les vuelvo a escribir y me contestan que están trabajando en ello...que proximamente estará resuelto...y lo resolvieron.Lo unico es que solo tardaron 8 meses. XD
dicker31 escribió:
aim_dll escribió:@dicker31 Bueno eh...

De primeras te encuentras que nvidia experencie y el panel de control son dos apps distintas...luego si quiero usar nvidia experence me tengo que loguear...es decir si quiero grabar algo o es haciendo login o nada...luego el panel de control de nvidia necesita un repaso, es como pillar un delorean y volver a w95 y luego yo personalmente tengo un problema la mar de gracioso, cuando tengo las dos pantallas encendidas a veces tengo un pantallazo negro en los dos monitores de un segundo y vuelve(el log de windows me tira un crash del driver)

Amd tiene otros problemas pero al menos el driver es en una sola app y es mas vistoso

He estado con las dos marcas y a mi a nivel de driver me dio menos problemas la 480 que la 3060ti

Si,hombre.Yo hablo de estabilidad.Que el panel de nvidia necesita un rediseño está claro.Pero para que te hagas una idea.Cuando compre mi tv resulta que no me funcionaba VRR.Bueno vale,voy a escribir a Sony a ver que me dicen...y Sony me contesta que en las LG y otras marcas tampoco funciona,que no es cosa suya.Bueno,pues na,voy a darles la vara a AMD...Pues me contestan diciendome que son conscientes del problema y que estará proximamente solucionado.Pasan los meses,los drivers y la cosa sigue igual.Les vuelvo a escribir y me contestan que están trabajando en ello...que proximamente estará resuelto...y lo resolvieron.Lo unico es que solo tardaron 8 meses. XD


Ah bueno...errores conocidos que no fixean? Eso pasa en los dos barrios

Truco, da por vculo en reddit y pasa de tickets que por lo que sea los devs de ambos hacen mas caso al sub que a sus propios tickets...
Ja, ja, ja.
Pues yo sigo con mi GTX1080 a 1440p, 60 fps y el RE4 Remake lo mueve de lujo, obviamente bajando algún parámetro pero ahí sigue la Pascal dando la talla.
Lo bonito de PC es que puedes jugar y/o cacharrear como quieres y hasta donde te de el presupuesto
¿Qué tienes ultritis puedes cambiar la gráfica cada año porque la serie anterior ya no es la más top? Pues adelante
¿Qué quieres hacer correr el juego en el hardware más viejo que puedas? Adelante, hasta modificando archivos de configuración del juego o metiéndole mods de FSR si hace falta.
La PC permite ambos extremos y todos los puntos intermedios [beer] y tanto el Low Spec Gamer y el Máster Race están bien si se divierten.
Gnoblis escribió:Lo bonito de PC es que puedes jugar y/o cacharrear como quieres y hasta donde te de el presupuesto
¿Qué tienes ultritis puedes cambiar la gráfica cada año porque la serie anterior ya no es la más top? Pues adelante
¿Qué quieres hacer correr el juego en el hardware más viejo que puedas? Adelante, hasta modificando archivos de configuración del juego o metiéndole mods de FSR si hace falta.
La PC permite ambos extremos y todos los puntos intermedios [beer] y tanto el Low Spec Gamer y el Máster Race están bien si se divierten.


Este es el mejor comentario de todos, sin duda.

Cada uno al final, hace con su dinero lo que quiera y como pueda, sin más.

Noticia de hoy, parece ser que Nvidia está presionando a las marcas de los modelos custom, para que todas al menos saquen algún modelo en cada variante, a precio MSRP.
Gnoblis escribió:Lo bonito de PC es que puedes jugar y/o cacharrear como quieres y hasta donde te de el presupuesto

Pues sí, aunque siempre ha sucedido que hay gente con arrepentimiento que necesitan justificarse ante los demas y que por envidia pura cargan contra quien se gasta sus dineros en esto bastante habitualmente. [sonrisa]

Me recuerda a la loteria de navidad, lo que yo llamo el dia de los envidiosos porque entran 3 en un bar, uno compra loteria del club y todos los demas tambien, no por dar ayudar, sino porque tienen miedo de que el toque al primero y a ellos no. Yo me pongo en la excepción, simplemente me importa un pito y no compro. Y me da igual en que se gaste aqui el dinero la peña, ni tengo necesidad de justificar ninguna de mis compras. ;)
rubencbr escribió:Ja, ja, ja.
Pues yo sigo con mi GTX1080 a 1440p, 60 fps y el RE4 Remake lo mueve de lujo, obviamente bajando algún parámetro pero ahí sigue la Pascal dando la talla.


es que el tema es ese, al final depende de donde cada uno pone el liston. Lo que a unos les puede parecer "jugar de lujo" a otros les puede parecer que es inaceptable. El primer grupo clarmente podra estirar las graficas unos 2, 3 o 4 años mas que el segundo.
@Rvilla87

A mi, la 1080 que tenia me duro 6 años, y la jubile porque si, porque la gráfica aún aguantaba para jugar a casi todo, haciendo ajustes.

Al final me decidí por una 4070Ti, por el RTX y jugar más suelto, con todo Ultra, pero el día que no pueda iré haciendo ajustes para jugar bien, espero que me dure al menos 6 años también.

Un saludo
GF3 escribió:espero que me dure al menos 6 años también.

Pues lo dudo muchisimo si juegas al top 20. La GTX 1080, fue una grafica que como toda la serie 10, tuvo un salto bastante significativo de rendimiento por la llegada de ciertos productos de VR que requerian más chicha. Y luego sí, se ha ido sacando graficas cada 2 años más potentes pero ya no fue tan significativo como para que la GTX 1060 rindiera como una GTX 980. Y ahora sucede que los juegos han aumentado el uso de memoria y de tarjeta grafica porque estamos al final de la vida de las actuales consolas, practicamente casi esperando a las siguientes, asi que de aqui a 2 años van a salir unos juegos muy exigentes.

Asi que tendrias que ser alguien como yo, jugando a cosas más viejunas. De juegos de este año pasado, solo jugare al de Avatar y cuando lo haga puede ser dentro de un año tranquilamente o más. Todavia empece a jugar al Red Dead Redemtion el año pasado y aún no lo termine. Así, si dura una grafica.
Nomada_Firefox escribió:
GF3 escribió:espero que me dure al menos 6 años también.

Pues lo dudo muchisimo si juegas al top 20. La GTX 1080, fue una grafica que como toda la serie 10, tuvo un salto bastante significativo de rendimiento por la llegada de ciertos productos de VR que requerian más chicha. Y luego sí, se ha ido sacando graficas cada 2 años más potentes pero ya no fue tan significativo como para que la GTX 1060 rindiera como una GTX 980. Y ahora sucede que los juegos han aumentado el uso de memoria y de tarjeta grafica porque estamos al final de la vida de las actuales consolas, practicamente casi esperando a las siguientes, asi que de aqui a 2 años van a salir unos juegos muy exigentes.

Asi que tendrias que ser alguien como yo, jugando a cosas más viejunas. De juegos de este año pasado, solo jugare al de Avatar y cuando lo haga puede ser dentro de un año tranquilamente o más. Todavia empece a jugar al Red Dead Redemtion el año pasado y aún no lo termine. Así, si dura una grafica.



Hace poco mas de 3 años del lanzamiento de las nuevas consolas ¿y ya consideras que estamos esperando a las nuevas? Es más, acaban de lanzar la primera revisión seria de ps5...

XBOX 360 unos 8 años
PS3 unos 7 (con revisión a la mitad de su vida)
XBOX ONE 7 años (con revisión a la mitad de su vida)
PS4 7 años (con revisión a la mitad de su vida)

No se... yo diría que teniendo en cuenta todo ello estaríamos llegando ahora a la mitad de su vida.
@Nomada_Firefox

Es que soy de esos, llevo un retraso importante en juegos, y es raro que jugué a lo último, sacando de algún AAA que sea muy llamativo para mi.

Además, soy de los que si tienen que bajar cosas, las bajo, al final el juego lo veo igual o casi igual. Y solo necesito 60 fps para jugar.

Un saludo
Yo prefiero jugar todo en ultra y por encima de 60fps. No me he comprado un monitor gaming para no usarlo. Hasta uso distintos perfiles de color dependiendo de a que juegue. Tampoco me duele usar el FSR, DLSS o lo que haga falta.

Respecto a las consolas actuales. Escribi.
practicamente casi esperando

¿Cuando empezamos a saber de las PS5 y Xbox? Tiempo antes de que fueran lanzadas en 2020 y salieron con muchisimo retraso. Se podria facilmente decir que salieron con algo más de un año de retraso y claramente con tecnologia del 2019 o antes.

Y mirando esa tecnologia, no se puede uno imaginar que las consolas de ahora vayan a durar 7 años en el mercado en un mundo donde las CPUs mejoran un 20% cada año y las GPUs el doble cada 2. Han pasado ya varias generaciones. No estamos en 2013, estamos en 2024, la tecnologia y lo que se puede hacer en un juego, esta como esta, pidiendo más. ;)
Nomada_Firefox escribió:Y mirando esa tecnologia, no se puede uno imaginar que las consolas de ahora vayan a durar 7 años en el mercado en un mundo donde las CPUs mejoran un 20% cada año y las GPUs el doble cada 2. Han pasado ya varias generaciones. No estamos en 2013, estamos en 2024, la tecnologia y lo que se puede hacer en un juego, esta como esta, pidiendo más. ;)

Y por qué no iba a poder durar 7 años en el mercado independientemente de cómo evolucione las CPUs y GPUs? No sé por qué no te vale el ejemplo de la anterior generación, porque la tecnología de las consolas actuales son capaces de usar FSR y (aparentemente) su frame generation.

En consolas no van a tener los gráficos al tope como lo tendrías con un PC y no pasa nada porque todos somos conscientes. No es necesario que saquen una consola cada 4 años (ya sacan el modelo "PRO" con mas potencia por eso para ir a mas fps), que se asume que los gráficos no serán top pero suficiente para quien le gusta las consolas.
Wookiee escribió:
Nomada_Firefox escribió:
GF3 escribió:espero que me dure al menos 6 años también.

Pues lo dudo muchisimo si juegas al top 20. La GTX 1080, fue una grafica que como toda la serie 10, tuvo un salto bastante significativo de rendimiento por la llegada de ciertos productos de VR que requerian más chicha. Y luego sí, se ha ido sacando graficas cada 2 años más potentes pero ya no fue tan significativo como para que la GTX 1060 rindiera como una GTX 980. Y ahora sucede que los juegos han aumentado el uso de memoria y de tarjeta grafica porque estamos al final de la vida de las actuales consolas, practicamente casi esperando a las siguientes, asi que de aqui a 2 años van a salir unos juegos muy exigentes.

Asi que tendrias que ser alguien como yo, jugando a cosas más viejunas. De juegos de este año pasado, solo jugare al de Avatar y cuando lo haga puede ser dentro de un año tranquilamente o más. Todavia empece a jugar al Red Dead Redemtion el año pasado y aún no lo termine. Así, si dura una grafica.



Hace poco mas de 3 años del lanzamiento de las nuevas consolas ¿y ya consideras que estamos esperando a las nuevas? Es más, acaban de lanzar la primera revisión seria de ps5...

XBOX 360 unos 8 años
PS3 unos 7 (con revisión a la mitad de su vida)
XBOX ONE 7 años (con revisión a la mitad de su vida)
PS4 7 años (con revisión a la mitad de su vida)

No se... yo diría que teniendo en cuenta todo ello estaríamos llegando ahora a la mitad de su vida.

Todo depende.
Xbox por lo visto,va a sacar su nueva consola ya en 2026.
A mí me preocupa más el tiempo de desarrollo de los juegos que el tiempo de vida de la generación de consolas, que hay juegos anunciados la década pasada que aún siguen en desarrollo.
Aunque en PC eso de las generaciones no es problema :) pero el tiempo de los desarrollos lo esperamos igual.

hh1 escribió:Todo depende.
Xbox por lo visto,va a sacar su nueva consola ya en 2026.

Si eso es verdad hay varios estudios de desarrollo de los que Microsoft compro que se van a saltar Xbox Series X/S o sacarán como juegos trans-generacionales los juegos que están desarrollando y no se ve para cuando los terminen
Nomada_Firefox escribió:Yo prefiero jugar todo en ultra y por encima de 60fps. No me he comprado un monitor gaming para no usarlo. Hasta uso distintos perfiles de color dependiendo de a que juegue. Tampoco me duele usar el FSR, DLSS o lo que haga falta.

Respecto a las consolas actuales. Escribi.
practicamente casi esperando

¿Cuando empezamos a saber de las PS5 y Xbox? Tiempo antes de que fueran lanzadas en 2020 y salieron con muchisimo retraso. Se podria facilmente decir que salieron con algo más de un año de retraso y claramente con tecnologia del 2019 o antes.

Y mirando esa tecnologia, no se puede uno imaginar que las consolas de ahora vayan a durar 7 años en el mercado en un mundo donde las CPUs mejoran un 20% cada año y las GPUs el doble cada 2. Han pasado ya varias generaciones. No estamos en 2013, estamos en 2024, la tecnologia y lo que se puede hacer en un juego, esta como esta, pidiendo más. ;)



También has dicho literalmente "estamos al final de la vida de las actuales consolas"...

Yo no se que pasará, pero sabiendo lo que ha ocurrido antes, que de momento Sony esta calcando su modus operandi al sacar una revisión a los 3 años, que hay que amortizar la inversión que hacen en el desarrollo de las consolas (no creo que saquen revisión de ps5 para jubilarla en año y medio), y que son las consolas las que hacen los juegos y no los juegos las que hacen las consolas... pues yo diria que nos quedan al menos 3 años de estas consolas, y que los estudios nos seguirán metiendo ports a los peceros sin importarles si nuestros equipos pueden mover juegos a 16k - 240hz o se arrastran con sus ports (a las cutre optimizaciones que sufrimos me remito para ver el peso que tiene el pc).

hh1 escribió:
Wookiee escribió:
Hace poco mas de 3 años del lanzamiento de las nuevas consolas ¿y ya consideras que estamos esperando a las nuevas? Es más, acaban de lanzar la primera revisión seria de ps5...

XBOX 360 unos 8 años
PS3 unos 7 (con revisión a la mitad de su vida)
XBOX ONE 7 años (con revisión a la mitad de su vida)
PS4 7 años (con revisión a la mitad de su vida)

No se... yo diría que teniendo en cuenta todo ello estaríamos llegando ahora a la mitad de su vida.

Todo depende.
Xbox por lo visto,va a sacar su nueva consola ya en 2026.



Para enero de 2026 faltan dos años, casi tres si la sacan en el Q4... Si la Series salio en el Q4 de 2020, daría un mínimo de 6 años de generación, y estaríamos ahora mismo precisamente en la mitad de su vida, no al final.
@parh Totalmente de acuerdo. En mi caso tengo claro que a las texturas no le puedo pedir más para que no se cruja el rendimiento (VRAM). Pero el resto de parámetros está prácticamente arriba y a mi personalmente me sirve y sobra.
Eso sin contar tecnologías extra (RT) que se crujen literalmente el rendimiento.
Bueno, eso de que las graficas doblan potencia cada dos años es matizable, a lo mejor la serie 90 si pero te bajas de la tope de gama y los incrementos se reducen y se reducen. El salto en la serie 60 ha sido ridículo ¬_¬
Gnoblis escribió:Bueno, eso de que las graficas doblan potencia cada dos años es matizable, a lo mejor la serie 90 si pero te bajas de la tope de gama y los incrementos se reducen y se reducen. El salto en la serie 60 ha sido ridículo ¬_¬



yo creo que han tenido encuenta el framegeneration en la 40 y en la 30 no, es decir no se esperaban mods para la 30, por lo que si la 3060 te da 60fps y la 4060 te da 100fps con framegen, ellos contaban con la mejora de fps de software, el tema es que si le pones el mod a la 3060 es verdad que mejora bastante poco.

nadie deberia pasar de la 3060 a 4060 o 3080 a la 4070 , esos 500-600€ son tirados
Yo tengo 2 meses no llega la 4070 pero venia de un portatil con la MX150 para haceros una idea es una 1030 desktop
14374 respuestas