[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

suemrri escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Si fuera asi, se me ocurren 3 cosas:
1) No seria el consumo demasiado alto?
2) Estariamos de una 4060 (gama media/media-baja) que empata con una 3090TI(gama alta de la anterior generacion)?
3) Hay hueco para meter 2 graficas mas: 4080 y 4080 Ti?

El consumo es muy alto porque las frecuencias son muy altas.
La diferencia entre la supuesta 4080 de 16Gb y la 4090 es de un 68% de cudas mientras que entre una 3080 y una 3090 es de solo un 17%.
Y aun así en ese 17% han metido no una sino dos graficas, la 3080 de 12GB y la 3080ti.
Si nvidia quiere hay espacio para 4 graficas xD

FranciscoVG escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Eso según he visto parece que tiene una explicación, lo que parece que han hecho es aumentar mucho la cache l2 que es un tipo de memoria de acceso rápido integrada en el chip, por eso no necesitan un bus tan grande supongo que harán algo tipo a la infinity cache de AMD

La 6950xt tiene el mismo ancho de banda que la 4080 de 12gb, y en rendimiento estarán muy cerca

Eso puede darle sentidos a los bus de cada grafica pero no a la diferencia bestial de cudas con la 4090 ni al tamaño de los chips que coincide con la 3070 y la 3060 respectivamente:
AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2

GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2

3080ti -> 496mm2
??

3090 - 3090ti -> 628mm2
4090 -> 608mm2
Zoids está baneado por "clon troll"
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Lo del bus seria de ver si no es por las rumoreada L2 mas grande. Lo de cudas si podria significar que sea debido a un recorte interno de GPC por cual sea chip inferior destinado a las 4060.

Pero no seria la primera vez Nvidia desde la serie GTX 600-900 uso bastante el chip de las x60 ,para usarlo para las x80, eran las versiones 80ti y titan las que salian con el chip de gama-alta.
Pues justo hoy me ha llegado mi nueva corsair rm1000x, viendo el panorama, ya que me tenia que comprar fuente nueva voy a devolverla y me pillo la de gigabyte compatible con pci5, paso de adaptadores o de comprar a parte el cable de corsair... vaya tinglao que nos han montado... ratataaaa
@Jarinawer si tienes una buen flujo de aire en el pc no tienes problema.

MSI afterburn y te creas la escala de funcionamiento del ventilador respecto a la temperatura de la gráfica y solucionado
adriano_99 escribió:
suemrri escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Si fuera asi, se me ocurren 3 cosas:
1) No seria el consumo demasiado alto?
2) Estariamos de una 4060 (gama media/media-baja) que empata con una 3090TI(gama alta de la anterior generacion)?
3) Hay hueco para meter 2 graficas mas: 4080 y 4080 Ti?

El consumo es muy alto porque las frecuencias son muy altas.
La diferencia entre la supuesta 4080 de 16Gb y la 4090 es de un 68% de cudas mientras que entre una 3080 y una 3090 es de solo un 17%.
Y aun así en ese 17% han metido no una sino dos graficas, la 3080 de 12GB y la 3080ti.
Si nvidia quiere hay espacio para 4 graficas xD

FranciscoVG escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Eso según he visto parece que tiene una explicación, lo que parece que han hecho es aumentar mucho la cache l2 que es un tipo de memoria de acceso rápido integrada en el chip, por eso no necesitan un bus tan grande supongo que harán algo tipo a la infinity cache de AMD

La 6950xt tiene el mismo ancho de banda que la 4080 de 12gb, y en rendimiento estarán muy cerca

Eso puede darle sentidos a los bus de cada grafica pero no a la diferencia bestial de cudas con la 4090 ni al tamaño de los chips que coincide con la 3070 y la 3060 respectivamente:
AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2

GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2

3080ti -> 496mm2
??

3090 - 3090ti -> 628mm2
4090 -> 608mm2



El tema yo creo que al pasar a tsmc, ha sido tan bueno el nodo que se han pasado de listos y al ver que iban a dar demasiado rendimiento por chip, han estirado el chicle,

Realmente lo que han sacado son:

4090
4070
4060ti


Solo que ahora son

4090
4080 16gb
4080 12gb

Dejando margen para

Titan/4090ti --------------- 2500€
4090--------------- 2000€
4080ti 16gb--------------- 1800€
4080super 16gb--------------- 1700€
4080 16gb--------------- 1500€
4080ti 12gb--------------- 1350€
4080 super 12gb--------------- 1200€
4080 12gb--------------- 1100€

El fallo es que deberían de haber sacado solo la 4090 pero la gente no es tonta y el bus, el tamaño del die, todo se sabe al final y claro, queda una jugada que espero que le pase factura

Asi que no me extrañaria que para final de año, si el stock de 3000 baja bastante, nvidia empieze a anunciar la gama media/baja y para final verano/otoño del año que viene las super/ti

El problema serán los precios de la gama media/baja y los cuda que traiga, porque igual se vienen refritos de las 3000 xD
Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.

y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.

un saludo.
hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.

y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.

un saludo.


Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD
bassa escribió:
hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.

y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.

un saludo.


Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD

no me considero fanboy pero ya tuve una rx480 y no me daba nada mas que disgustos desde entonces de graficas solo tiro al verde y a la espera de ver que hace intel y de prisa ninguna a ver si bajan mas y en el bf se puede sacar un precio mas decente por si hay que cambiar algo mas
Zoids está baneado por "clon troll"
hitsu escribió:
bassa escribió:
hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.

y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.

un saludo.


Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD

no me considero fanboy pero ya tuve una rx480 y no me daba nada mas que disgustos desde entonces de graficas solo tiro al verde y a la espera de ver que hace intel y de prisa ninguna a ver si bajan mas y en el bf se puede sacar un precio mas decente por si hay que cambiar algo mas


Si AMD te daba problemas, intel peor con los drivers que han salido las nuevas ARC.

Habran experiencia variadas supungos, yo he tenido mas problemas de drivers con Nvidia que con AMD, es mas hace poco me paso un problemia con el panel de Nvidia que no me lo abría, tuve que buscar y borrar un archivo, y problemas con drivers varios, ya ni me dan ganas de actualizar y cruzo los dedos cada que lo hago al tiempo.
hitsu escribió:
bassa escribió:
hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.

y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.

un saludo.


Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD

no me considero fanboy pero ya tuve una rx480 y no me daba nada mas que disgustos desde entonces de graficas solo tiro al verde y a la espera de ver que hace intel y de prisa ninguna a ver si bajan mas y en el bf se puede sacar un precio mas decente por si hay que cambiar algo mas


Mi experiencia en graficas con amd desde las ati radeon (y sin problemas) es nula la verdad, pero total, amd puede dar el sorpaso al pasar de una gpu monolitica a chiplets, que decepciona, pues la opción verde va a estar ahí, aunque la gente habla bien de la serie 6000, pero cierto es que con nvidia metes la grafica, le pones su driver y te olvidas quitando 2 juegos puntuales, pero creo que estos 6 meses la mejor opción es como bien dices, esperar incluso a intel, hay que ver como explota la burbuja de los precios xD

Asi a bote pronto, mi historia con gpus seria matrox mistique, voodoo banshee, riva tnt 32mb, elsa erazor 3 por las elsa revelator (gafas 3d para crt), ati radeon x300, ati radeon x550, nvidia gts 250 por el combo de gpu+monitor samsung 2233rz con gafas 3d nvidia 3d vision, nvidia gtx 550ti, nvidia gtx 580, nvidia 660ti y aunque seguramente se me olvide alguna, ahora de ultima tengo una 1060, buenos tiempos cuando tenias una torre de medio metro, para sonido tenias que tener una sound blaster y para ver el canal plus una avermedia usando el moretv xD
Shinmei escribió:Hola, no sé si se ha puesto pero os dejo un artículo de Tom's Hardware en el que hablan, entre otras cosas, del motivo de los precios de la nueva serie 4000 y del porqué la 4080 de 12 GB la llamaron 4080 y no 4070.

https://www.tomshardware.com/news/why-n ... -damn-much

Lo comparto porque me ha parecido interesante, yo hasta la serie 6000 no quiero saber nada de gráficas. [carcajad]


Muy interesante, vaya panorama!!
leveju está baneado por "clon de usuario baneado"
JaviGabber escribió:
Shinmei escribió:Hola, no sé si se ha puesto pero os dejo un artículo de Tom's Hardware en el que hablan, entre otras cosas, del motivo de los precios de la nueva serie 4000 y del porqué la 4080 de 12 GB la llamaron 4080 y no 4070.

https://www.tomshardware.com/news/why-n ... -damn-much

Lo comparto porque me ha parecido interesante, yo hasta la serie 6000 no quiero saber nada de gráficas. [carcajad]


Muy interesante, vaya panorama!!

pues AMD le puede meter una ostia bien gorda con la mano abierta como sea cierto lo que dice ese articulo, veremos a ver que pasa con la presentacion de la serie 7000 de AMD y sus precios, puede que empiece a hacerse caquita Nvidia por primera vez en años
Yo si he tenido problemas graves con AMD y sus drivers. Hasta el punto de hace poco tener una RX 6700XT y tener que deshacerme de ella porque tenía stuttering absurdo y aleatorio con títulos DX11, y cuelgues aleatorios en Windows. Insufrible.

La vendí, he pillado una 3060Ti y he vuelto a ser feliz. Por mi parte AMD tiene la cruz, no me sirve.
@colado

Es que al 12900k no hace falta que lo pongas al 100% para que se lleve facil mas de 200w, mas luego el resto de componentes, ventiladores, rl, leds, incluso cosas que tengas conectadas al usb todo eso chupa y tambien pasa por la fuente, hay muchos factores para escoger una fuente que te sobre, primero por que es un componente de larga duracion mucho mas que una cpu o una gpu y si lo tienes al 100% todo el rato por muy preparada que este limitas su vida, a parte la eficiencia que de nuevo es un componente de larga duracion igual un 5% de perdida te parece una tonteria pero calcula ese 5% durante 5 años, hoy en dia si tu target es la gama alta es ridiculo comprarse algo por debajo de los 1000w por ahorrarse 4 duros, si ya lo tienes pues depende de cada caso, pero a lo que voy es que con una fuente como la tuya a dia de hoy tienes que mirar que pones y que haces con dichos componentes, temas de overclock y demas, cuando hace 3 años con esa misma fuente de 750w salvo sli y cosas raras ponias lo que te daba la gana

Tambien te digo no se que clase de prueba de estres habras pasado tu para tener de maximo 480w pero me la juego a que la tienes con undervolt, yo tambien he tenido la 3080 y en ciberpunk mismo que es un juego que exige de stock he tenido picos de casi 600w, con una 3080 simplemente jugando...


@adriano_99

Si yo llevo diciendo que es gama media desde la misma presentacion xd, solo queria aclarar lo del bus, respecto a la 4080 de 16gb esa si que no tengo tan claro que sea una gama media, no se puede comparar unicamente frente a la pasada generacion, la diferencia entre la 2080 y la 2080 ti tambien fue importante

La 4080 de 12gb si que es claramente una gpu de gama media
chrispro escribió:
Jarinawer escribió:
chrispro escribió:
La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio

joer,,, pues dime dónde por favor,,, porque yo no veo buen precio por ningún sitio :(


En la web de Nvidia la 3090ti a estrenar 1300. El precio más barato nueva que yo sepa. Y la founder que me encanta

https://www.bestbuy.com/site/nvidia-geforce-rtx-3090-ti-titanium-and-black/6502626.p?skuId=6502626&intl=nosplash

En Bestbuy $1.1k
Pegcaero de barrio está baneado por "Troll"
FranciscoVG escribió:@colado

Es que al 12900k no hace falta que lo pongas al 100% para que se lleve facil mas de 200w, mas luego el resto de componentes, ventiladores, rl, leds, incluso cosas que tengas conectadas al usb todo eso chupa y tambien pasa por la fuente, hay muchos factores para escoger una fuente que te sobre, primero por que es un componente de larga duracion mucho mas que una cpu o una gpu y si lo tienes al 100% todo el rato por muy preparada que este limitas su vida, a parte la eficiencia que de nuevo es un componente de larga duracion igual un 5% de perdida te parece una tonteria pero calcula ese 5% durante 5 años, hoy en dia si tu target es la gama alta es ridiculo comprarse algo por debajo de los 1000w por ahorrarse 4 duros, si ya lo tienes pues depende de cada caso, pero a lo que voy es que con una fuente como la tuya a dia de hoy tienes que mirar que pones y que haces con dichos componentes, temas de overclock y demas, cuando hace 3 años con esa misma fuente de 750w salvo sli y cosas raras ponias lo que te daba la gana

Tambien te digo no se que clase de prueba de estres habras pasado tu para tener de maximo 480w pero me la juego a que la tienes con undervolt, yo tambien he tenido la 3080 y en ciberpunk mismo que es un juego que exige de stock he tenido picos de casi 600w, con una 3080 simplemente jugando...


@adriano_99

Si yo llevo diciendo que es gama media desde la misma presentacion xd, solo queria aclarar lo del bus, respecto a la 4080 de 16gb esa si que no tengo tan claro que sea una gama media, no se puede comparar unicamente frente a la pasada generacion, la diferencia entre la 2080 y la 2080 ti tambien fue importante

La 4080 de 12gb si que es claramente una gpu de gama media

Yo tengo el 12900K y salvo en test de stress no me llega al consumo que dices ni de coña. Suele rondar los 120 y pico W... si hago algo muy pesado sube un poco pero vaya... los 200W salvo en stress jamás los he visto.

He visto esta imagen:

Imagen

¿Estos juegos solamente soportan el DLSS 3 y será compatible con las 4000 o cualquiera con una 2000 y 3000 podrá jugarlos aún teniendo DLSS 2.4? Es que me jode porque hay varios juegos de ahí que los tengo pendientes y con DLSS seguramente los mueva muy bien.
Pegcaero de barrio escribió:
FranciscoVG escribió:@colado

Es que al 12900k no hace falta que lo pongas al 100% para que se lleve facil mas de 200w, mas luego el resto de componentes, ventiladores, rl, leds, incluso cosas que tengas conectadas al usb todo eso chupa y tambien pasa por la fuente, hay muchos factores para escoger una fuente que te sobre, primero por que es un componente de larga duracion mucho mas que una cpu o una gpu y si lo tienes al 100% todo el rato por muy preparada que este limitas su vida, a parte la eficiencia que de nuevo es un componente de larga duracion igual un 5% de perdida te parece una tonteria pero calcula ese 5% durante 5 años, hoy en dia si tu target es la gama alta es ridiculo comprarse algo por debajo de los 1000w por ahorrarse 4 duros, si ya lo tienes pues depende de cada caso, pero a lo que voy es que con una fuente como la tuya a dia de hoy tienes que mirar que pones y que haces con dichos componentes, temas de overclock y demas, cuando hace 3 años con esa misma fuente de 750w salvo sli y cosas raras ponias lo que te daba la gana

Tambien te digo no se que clase de prueba de estres habras pasado tu para tener de maximo 480w pero me la juego a que la tienes con undervolt, yo tambien he tenido la 3080 y en ciberpunk mismo que es un juego que exige de stock he tenido picos de casi 600w, con una 3080 simplemente jugando...


@adriano_99

Si yo llevo diciendo que es gama media desde la misma presentacion xd, solo queria aclarar lo del bus, respecto a la 4080 de 16gb esa si que no tengo tan claro que sea una gama media, no se puede comparar unicamente frente a la pasada generacion, la diferencia entre la 2080 y la 2080 ti tambien fue importante

La 4080 de 12gb si que es claramente una gpu de gama media

Yo tengo el 12900K y salvo en test de stress no me llega al consumo que dices ni de coña. Suele rondar los 120 y pico W... si hago algo muy pesado sube un poco pero vaya... los 200W salvo en stress jamás los he visto.

He visto esta imagen:

Imagen

¿Estos juegos solamente soportan el DLSS 3 y será compatible con las 4000 o cualquiera con una 2000 y 3000 podrá jugarlos aún teniendo DLSS 2.4? Es que me jode porque hay varios juegos de ahí que los tengo pendientes y con DLSS seguramente los mueva muy bien.



Según el chino juan pasar de dlss 2 al 3 es muy sencillo para las compañías... Por lo que imagino tendrá dlss 2 almenos esos juegos... Y posibilidad del 3


Me gustaría ver una rtx 3000 ejecutando el dlss 3... Veremos si no nos llevamos una sorpresa..

Hay dos opciones, que detecte que es una serie 3000 y no te deje activarlo, que esto sería la guarrada ya definitiva o que deje activarlo pero el rendimiento decaiga, que ya sería lo normal... Pero si no dejan activarlo me olerá sospechoso... XD
Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa
Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar [carcajad] [+risas] .

3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo

"Tres unidades de EVGA 3080... muy poco uso" [carcajad] [+risas]

"Se vende 3080 TI, que solo a salido de la caja para minar" [+risas]

Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).
No me extrañaria nada ver chinos vendiendo en wallapop.

Si fueran 100€, pues todavia pero 400.........para eso coges una piedra de un camino y hace mismo efecto sin nada de coste.

@chrispro Que pasen juegos de DLSS 2 a 3, en juegos ya lanzados dependera del grado de ventas del juego y si los desarrolladores estan activos. Total solo hay 50 juegos con DLSS...... creo que para nosotros es más interesante que el FSR mejore y se siga pudiendo usar en graficas que no son AMD.
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar [carcajad] [+risas] .

3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo

"Tres unidades de EVGA 3080... muy poco uso" [carcajad] [+risas]

"Se vende 3080 TI, que solo a salido de la caja para minar" [+risas]

Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).


Yo te voy a decir una cosa, mientras me den facturita de garantía... 500 euros una 3080ti es un chollo.

Venga de donde venga
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Sin entrar en detalles técnicos que ya se ha comentado antes en este hilo, no acabo de entender esta argumentación de Tomshardware.

El de Nvidia dice que la 4080 de 12GB se merece la clase 80 porque es mejor que la 3090 Ti. Vamos, está diciendo básicamente que una clase inferior de la nueva generación (4080) es mejor que una clase superior de anterior generación (3090 Ti).

Tomshardware dice que eso que dice Nvidia es una mierda de respuesta ya que es normal las nuevas sean más rápidas. Pero pone como ejemplo que la 1070 era mas rápida que la 980 Ti... y pone mas ejemplos iguales pero de otras generaciones. Es decir, que dice lo mismo que el de Nvidia, que una clase inferior de la nueva generación (3070) es mejor que una clase superior de anterior generación (2080 Ti).

Alguien me puede explicar el razonamiento de Tomshardware? Seguro que saben de lo que hablan pero es que no les entiendo, no veo lógica en su argumento.

Si hubieran dicho que en la nueva generación una de clase inferior (4080) es igual o inferior (y por lo tanto NO es mejor) a una de clase superior de anterior generación (3090 Ti) podría entender su argumentación, ya que sería muy claro el timo de las 4080. Pero no veo que hayan dicho eso.

Yo insisto que hasta que no vea rendimientos en juegos no me creo nada, me da igual que los números hagan mas o menos evidente el timo de las 4080, que hasta que no se demuestre paso de estar perdiendo el tiempo teorizando con nada. Las decisiones de compra las tomo con tests objetivos (que para mi nunca lo son los que hace el vendedor), no con teorías.
Rvilla87 escribió:
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Sin entrar en detalles técnicos que ya se ha comentado antes en este hilo, no acabo de entender esta argumentación de Tomshardware.

El de Nvidia dice que la 4080 de 12GB se merece la clase 80 porque es mejor que la 3090 Ti. Vamos, está diciendo básicamente que una clase inferior de la nueva generación (4080) es mejor que una clase superior de anterior generación (3090 Ti).

Tomshardware dice que eso que dice Nvidia es una mierda de respuesta ya que es normal las nuevas sean más rápidas. Pero pone como ejemplo que la 1070 era mas rápida que la 980 Ti... y pone mas ejemplos iguales pero de otras generaciones. Es decir, que dice lo mismo que el de Nvidia, que una clase inferior de la nueva generación (3070) es mejor que una clase superior de anterior generación (2080 Ti).

Alguien me puede explicar el razonamiento de Tomshardware? Seguro que saben de lo que hablan pero es que no les entiendo, no veo lógica en su argumento.

Si hubieran dicho que en la nueva generación una de clase inferior (4080) es igual o inferior (y por lo tanto NO es mejor) a una de clase superior de anterior generación (3090 Ti) podría entender su argumentación, ya que sería muy claro el timo de las 4080. Pero no veo que hayan dicho eso.

Yo insisto que hasta que no vea rendimientos en juegos no me creo nada, me da igual que los números hagan mas o menos evidente el timo de las 4080, que hasta que no se demuestre paso de estar perdiendo el tiempo teorizando con nada. Las decisiones de compra las tomo con tests objetivos (que para mi nunca lo son los que hace el vendedor), no con teorías.

No se porque tantas vueltas si el problema de fondo es el mismo de las demas. El precio a secas. El precio de esa, el precio de la más potente y el precio de la 4070.

Si fueran más baratas, seguro que nadie protestaba. [sonrisa]
Rvilla87 escribió:
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Sin entrar en detalles técnicos que ya se ha comentado antes en este hilo, no acabo de entender esta argumentación de Tomshardware.

El de Nvidia dice que la 4080 de 12GB se merece la clase 80 porque es mejor que la 3090 Ti. Vamos, está diciendo básicamente que una clase inferior de la nueva generación (4080) es mejor que una clase superior de anterior generación (3090 Ti).

Tomshardware dice que eso que dice Nvidia es una mierda de respuesta ya que es normal las nuevas sean más rápidas. Pero pone como ejemplo que la 1070 era mas rápida que la 980 Ti... y pone mas ejemplos iguales pero de otras generaciones. Es decir, que dice lo mismo que el de Nvidia, que una clase inferior de la nueva generación (3070) es mejor que una clase superior de anterior generación (2080 Ti).

Alguien me puede explicar el razonamiento de Tomshardware? Seguro que saben de lo que hablan pero es que no les entiendo, no veo lógica en su argumento.

Si hubieran dicho que en la nueva generación una de clase inferior (4080) es igual o inferior (y por lo tanto NO es mejor) a una de clase superior de anterior generación (3090 Ti) podría entender su argumentación, ya que sería muy claro el timo de las 4080. Pero no veo que hayan dicho eso.

Yo insisto que hasta que no vea rendimientos en juegos no me creo nada, me da igual que los números hagan mas o menos evidente el timo de las 4080, que hasta que no se demuestre paso de estar perdiendo el tiempo teorizando con nada. Las decisiones de compra las tomo con tests objetivos (que para mi nunca lo son los que hace el vendedor), no con teorías.

lo que critica es que a una supuesta XX70 se haya renombrado a 80 con el consecuente aumento de precio. Si hubiese mantenido el nomenclatura XX70 seria mas barata. Y lo critica diciendo que siempre una gama inferior de nueva generacion ha sido mas potente que otra de mayor gama de pasada generacion y parece que para Nvidia esa es la excusa. Tu como comprador que se haya llamado XX70 o XX80 no ganas nada (a nivel de rendimiento), en cambio como comprador que se llame XX80 si te afecta a nivel de precio que si se llamara XX70
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Un poco cogido con hilos eso de la 2070 y la 1080Ti.
Más bien eran 2080Ti y 1080Ti.
Ni siquiera la 2070S era mejor que la 1080Ti.No sé si "al final de suu vida",antes e la salida de las 3000,logró alcanzarla.
La 2070 normal ,ni de coña.
@Pegcaero de barrio

Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 40 FPS y en el aire a partir de unos 3000 pies a 45 - 50 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.
Dejando de un lado el precio, se puede concluir a falta de reviews y con los datos que tenemos ahora mismo, que en el avance en esta generacion es bastante significativo. Y que vamos a pagar el precio del estado de la economia general.
hh1 escribió:
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Un poco cogido con hilos eso de la 2070 y la 1080Ti.
Más bien eran 2080Ti y 1080Ti.
Ni siquiera la 2070S era mejor que la 1080Ti.No sé si "al final de suu vida",antes e la salida de las 3000,logró alcanzarla.
La 2070 normal ,ni de coña.

2070S y 1080Ti iban codo con codo.
La 2070 era un 5-10% más lenta, lo mismo que ocurrió con la 2080Ti y la 3070.
Lo de esta generación no hay por dónde cogerlo.
Nomada_Firefox escribió:@chrispro Que pasen juegos de DLSS 2 a 3, en juegos ya lanzados dependera del grado de ventas del juego y si los desarrolladores estan activos. Total solo hay 50 juegos con DLSS...... creo que para nosotros es más interesante que el FSR mejore y se siga pudiendo usar en graficas que no son AMD.


Que solo hay 50 juegos con DLSS es mentira, hay bastante más.
DLSS da mejores resultados que FSR , es una tecnología superior y con más futuro ¿Cómo va a ser mejor que para los que tenemos envidia sea mejor que mejore FSR?

Hay más juegos con DLSS que con FSR.

https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/

https://www.amd.com/es/technologies/radeon-software-fidelityfx-supported-games

juanpedro79 escribió:@Pegcaero de barrio

Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 50 FPS y en el aire a partir de unos 3000 pies a 55 - 60 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.


Y seguramente no tengas más ganancia por limitación de CPU que es otra cosa que va a "arreglar" DLSS 3, por eso el ejemplo de FS.
suemrri escribió:Dejando de un lado el precio, se puede concluir a falta de reviews y con los datos que tenemos ahora mismo, que en el avance en esta generacion es bastante significativo. Y que vamos a pagar el precio del estado de la economia general.

hombre significativo significativo. Depende. Es significativo si incluyes el dlss3 (que aun está por ver). Raster puro no lo veo tan claro y por eso quiero ver las reviews
Pegcaero de barrio está baneado por "Troll"
juanpedro79 escribió:@Pegcaero de barrio

Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 40 FPS y en el aire a partir de unos 3000 pies a 45 - 50 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.

¿Solo 15 fps? Espero que no tiren por la borda el DLSS 2.4 porque se ganaba mucho más de 15 FPS...

¿Qué equipo tienes al completo?
Pegcaero de barrio escribió:
juanpedro79 escribió:@Pegcaero de barrio

Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 40 FPS y en el aire a partir de unos 3000 pies a 45 - 50 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.

¿Solo 15 fps? Espero que no tiren por la borda el DLSS 2.4 porque se ganaba mucho más de 15 FPS...

¿Qué equipo tienes al completo?


Como he dicho arriba sera por limitacion de CPU por eso Nvidia puso el ejemplo de FS , para demortrar otra de las ventajas de DLSS 3.
En battlefield 2042 si activo DLSS no gano nada por lo mismo, por ejemplo.
silenius escribió:lo que critica es que a una supuesta XX70 se haya renombrado a 80 con el consecuente aumento de precio. Si hubiese mantenido el nomenclatura XX70 seria mas barata. Y lo critica diciendo que siempre una gama inferior de nueva generacion ha sido mas potente que otra de mayor gama de pasada generacion y parece que para Nvidia esa es la excusa. Tu como comprador que se haya llamado XX70 o XX80 no ganas nada (a nivel de rendimiento), en cambio como comprador que se llame XX80 si te afecta a nivel de precio que si se llamara XX70

Sí, eso lo entiendo, si la nueva 4080 se llamase 4070 debería ser mas barata, y al llamarla 4080 de cara al comprador va a ser mas cara (aunque el rendimiento quizás no mejore tanto).

Pero sigo sin ver lógica a lo que dice Tomshardware ya que si la excusa de Nvidia es algo que han aplicado siempre, lejos de excusa, se trata de algo en lo que se han basado en todas las generaciones, no? Acaso las clases (50, 60, 70, 80, 90) se diferenciaban por otro motivo?

Si hubieran hecho menos potente la 4090 y no tuviera tanta diferencia con la 4080, ¿habría este debate del timo de las 4080 que parecen 4070?
Viendo que habéis sacado el tema de las fuentes de alimentación.
Tengo una Corsair hx modular 650.
Mi micro es un i5 12400f con un módulo de RAM 16gb 3200 y placa MSI PRO B66M
Qué máximo de tarjeta gráfica podria montar sin tener que cambiar de fuente de alimentación?.
Resolución a la que juego es a 1440p. Estaba pensando en una 3070ti o la 3070, porque ya me veo que las 4060 cuando las saquen estarán por las nubes de precio.
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar [carcajad] [+risas] .

3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo

"Tres unidades de EVGA 3080... muy poco uso" [carcajad] [+risas]

"Se vende 3080 TI, que solo a salido de la caja para minar" [+risas]

Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).


Puedes pasar los links de la esas 3080ti a 400€? Que las compro todas
@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.
Jhonny escribió:
hh1 escribió:
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".

Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.


Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso [plas] [plas] [plas]

Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio. ratataaaa

Un poco cogido con hilos eso de la 2070 y la 1080Ti.
Más bien eran 2080Ti y 1080Ti.
Ni siquiera la 2070S era mejor que la 1080Ti.No sé si "al final de suu vida",antes e la salida de las 3000,logró alcanzarla.
La 2070 normal ,ni de coña.

2070S y 1080Ti iban codo con codo.
La 2070 era un 5-10% más lenta, lo mismo que ocurrió con la 2080Ti y la 3070.
Lo de esta generación no hay por dónde cogerlo.

Pues ahí es donde iba.
Y cuando salieron, había más distancia ,porque recuerdo que la que ruavlizaba con la 1080Ti era la 2080,no la 2070.

Le echan mucha cara cuando quieren.
@JaviGabber

No acabo de entender lo de la limitación de CPU. Monto un I9-9900K y en Flight Simulator no pasa con DLSS del 25-30% de uso. O al menos eso me marca. Es que en juegos jamás he visto mi CPU funcionando a más del 50 %. Pero todo el mundo está con lo del bottleneck. No sé si es que se me escapa algo a mí.

Edito: quizás pueda ser porque no se usan todos los núcleos y me mide menos de lo que debería. Es decir, que lo mismo tiene seis núcleos al 100% y el resto al 0%. Pero me dice que la CPU esta al 30 % de uso en global.
Ah, y tengo 32 Gb de RAM 3600 Mhz. De todas formas te digo que FS2020 es muy especialito. Por ejemplo, en tierra lo mismo pone a 25 FPS y la GPU funcionando al 50% porque le da la gana. Y cuando despegas se pone la GPU al 100 % (que de paso es otro indicador de que no tengo cuello de botella, al menos en el aire).
@juanpedro79 Ahí está, es lo que dices en el edit.

El FS da pena en ese aspecto, la gráfica se toca la gaita porque el juego no aprovecha la CPU. Y encima ahora tengo CTD's cada 2x3, cuando con mi equipo viejo, I7 3770, 16 DDR3 me pegaba horas y horas sin crasheos.

Pero luego por otro lado tenemos el Spider-man que sí que aprieta a la CPU y la peña se queja porque dicen que no es normal en un juego así.
JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.

Eso es lo que nos dicen [+risas]. Vuelvo a recordar que se les pilló capando los drivers para que la generación anterior rindiese menos y comprases una nueva
@Shinmei
Claro es eso, yo es que con FS2020 ya ni me molesto.
Es que te pillas el último Ryzen y luego resulta que el FS te usa cuatro nucleos y sigue haciendo bottleneck. XD
Con esta mecánica de ventas, nos van a colar la futura RTX5050 con el nombre de RTX5080, porque la 5050 rendirá más que una 4080. Y pondrán esa “RTX5080” a 1200€.
silenius escribió:
JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.

Eso es lo que nos dicen [+risas]. Vuelvo a recordar que se les pilló capando los drivers para que la generación anterior rindiese menos y comprases una nueva


¿capar drivers? No recuerdo que haya pasado algo asi.... Si me puedes pasar algun enlace...

juanpedro79 escribió:@JaviGabber

No acabo de entender lo de la limitación de CPU. Monto un I9-9900K y en Flight Simulator no pasa con DLSS del 25-30% de uso. O al menos eso me marca. Es que en juegos jamás he visto mi CPU funcionando a más del 50 %. Pero todo el mundo está con lo del bottleneck. No sé si es que se me escapa algo a mí.

Edito: quizás pueda ser porque no se usan todos los núcleos y me mide menos de lo que debería. Es decir, que lo mismo tiene seis núcleos al 100% y el resto al 0%. Pero me dice que la CPU esta al 30 % de uso en global.
Ah, y tengo 32 Gb de RAM 3600 Mhz. De todas formas te digo que FS2020 es muy especialito. Por ejemplo, en tierra lo mismo pone a 25 FPS y la GPU funcionando al 50% porque le da la gana. Y cuando despegas se pone la GPU al 100 % (que de paso es otro indicador de que no tengo cuello de botella, al menos en el aire).


Con el 9900k tienes cuello, segun la GPU que tengas claro. Como te han dicho es lo que dices, en la mayoria de juegos CPU dependientes no se requiere de muchos nucleos/hilos si no de IPC. Por eso para jugar no se recomiendan las CPU top por que esos nucleos/hilos extras no se aprovechan.
El problema es de Nvidia. Si hubiera llamado 4080 y 4080 Super la gente se callaria.. o ante la duda 4080ti

Porque no lo hizo? Porque tiene otra gráfica preparada entre la 4080 y la 4090 anunciada..

A mi esto me parece una guarrada desde el primer día.

Por ejemplo si quiero la mejor 4080 resulta que me la compro y me sacan otra mejor en meses... O si quiero la mejor gráfica que hay.. ahora van y me sacan la 4090ti por la cara .
Coño trasparencia!! Sacar hoja de ruta si tenéis cojones... Y veamos cual es la que queremos comprar... Aunque tengamos que esperar...

Pero bueno, pedirle a una compañía cómo Nvidia que es líder en esto y no tiene el monopolio pero le falta poco, que nos facilite las cosas... Vamos apañaos

Edito: @Pegcaero de barrio Ojo que hoy crítico a Nvidia eh!! Mañana lo mismo ni la compro jajjaaja

Saludos
El mayor problema que tiene nvidia ahora mismo es la obsoleta gpu monolitica, que incluso con el proceso de tsmc, no le salen las cuentas para venderlas al msrp tradicional, de ahí a que jesen avise de que cuidado con los precios, asi que esta generacion y la 3000 serán las que paguen la financiacion para transicionar a chiplets.

Al final ada lovelance es otro refrito más de ampere, subida de vueltas y con un proceso mejor (nm)

Veremos a amd con chiplets y a intel en su liga

Cita de jesen
La Ley de Moore está muerta. La capacidad de la Ley de Moore para ofrecer el doble de rendimiento al mismo costo, o el mismo rendimiento a la mitad de precio cada año y medio, se acabó. Se acabó por completo. Por lo que la idea de que un chip va a bajar de costo con el tiempo, desafortunadamente, es una historia del pasado. La informática no es un problema de chip; es un problema de software y chip

Vamos que están en modo intel defendiendo los 14nm y que no os extrañe que en 2 años vuelvan a estirar el chicle ampere un poco más


JaviGabber escribió:
silenius escribió:
JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.

Eso es lo que nos dicen [+risas]. Vuelvo a recordar que se les pilló capando los drivers para que la generación anterior rindiese menos y comprases una nueva


¿capar drivers? No recuerdo que haya pasado algo asi.... Si me puedes pasar algun enlace...

Buff, hace ya un tiempo no se si fue a la serie 900 o antes. Cuando busco solo me salen capados pero de Geforce Now pero recuerdo que hubo un driver cuando salió una generacion y hubo una caida de rendimiento importante de la anterior en todos los modelos. Luego creo que salió nvidia y dijo que eea driver defectuoso
ditifet escribió:
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar [carcajad] [+risas] .

3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo

"Tres unidades de EVGA 3080... muy poco uso" [carcajad] [+risas]

"Se vende 3080 TI, que solo a salido de la caja para minar" [+risas]

Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).


Puedes pasar los links de la esas 3080ti a 400€? Que las compro todas

¿No sueles mirar por curiosidad de vez en cuando en...?:



Salen a la primera... Una veces salen unas, y luego otras. Van rotando. Ahora... ya se sabe... siempre hay que mirar con letra pequeña, y andar con mucho cuidado ( como dije... ya llevaran lo suyo si estuvieron minando, y contando con que no sean estafas...) . Bueno... en realidad solo vi esas dos TI a esos precios ( eso si, ojo). La que son para flipar, es las EVGA que he visto, con un mes de uso demostrable con factura... a 849 euros... Eso es la bomba.
adriano_99 escribió:
mikedevil99 escribió:
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!


Llámalas como quieras, pero aunque saquen las Ti, la realidad es la que es.

No entiendo tu comentario. Que realidad?
Que tiene eso que ver con el hecho de que envidia ha cogido chips que deberían de haber ido a la gama media/media alta y las ha puesto en la gama alta?
Es precisamente lo que hizo con la gama 600 en que se guardó los chips de gama alta para la serie 700 y lanzó el de gama media como la GTX 680.
Es decir, 1500 euros por una 4080 es una barbaridad pero por una 4070 es reírse en nuestras caras.


La realidad de que son muy caras XD
Antoniopua1 escribió:
ditifet escribió:
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar [carcajad] [+risas] .

3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo

"Tres unidades de EVGA 3080... muy poco uso" [carcajad] [+risas]

"Se vende 3080 TI, que solo a salido de la caja para minar" [+risas]

Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).


Puedes pasar los links de la esas 3080ti a 400€? Que las compro todas

¿No sueles mirar por curiosidad de vez en cuando en...?:



Salen a la primera... Una veces salen unas, y luego otras. Van rotando. Ahora... ya se sabe... siempre hay que mirar con letra pequeña, y andar con mucho cuidado ( como dije... ya llevaran lo suyo si estuvieron minando, y contando con que no sean estafas...) .


Reservadas las 2, normal :(
14371 respuestas