suemrri escribió:adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
Si fuera asi, se me ocurren 3 cosas:
1) No seria el consumo demasiado alto?
2) Estariamos de una 4060 (gama media/media-baja) que empata con una 3090TI(gama alta de la anterior generacion)?
3) Hay hueco para meter 2 graficas mas: 4080 y 4080 Ti?
FranciscoVG escribió:adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
Eso según he visto parece que tiene una explicación, lo que parece que han hecho es aumentar mucho la cache l2 que es un tipo de memoria de acceso rápido integrada en el chip, por eso no necesitan un bus tan grande supongo que harán algo tipo a la infinity cache de AMD
La 6950xt tiene el mismo ancho de banda que la 4080 de 12gb, y en rendimiento estarán muy cerca
adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
adriano_99 escribió:suemrri escribió:adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
Si fuera asi, se me ocurren 3 cosas:
1) No seria el consumo demasiado alto?
2) Estariamos de una 4060 (gama media/media-baja) que empata con una 3090TI(gama alta de la anterior generacion)?
3) Hay hueco para meter 2 graficas mas: 4080 y 4080 Ti?
El consumo es muy alto porque las frecuencias son muy altas.
La diferencia entre la supuesta 4080 de 16Gb y la 4090 es de un 68% de cudas mientras que entre una 3080 y una 3090 es de solo un 17%.
Y aun así en ese 17% han metido no una sino dos graficas, la 3080 de 12GB y la 3080ti.
Si nvidia quiere hay espacio para 4 graficas xDFranciscoVG escribió:adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
Eso según he visto parece que tiene una explicación, lo que parece que han hecho es aumentar mucho la cache l2 que es un tipo de memoria de acceso rápido integrada en el chip, por eso no necesitan un bus tan grande supongo que harán algo tipo a la infinity cache de AMD
La 6950xt tiene el mismo ancho de banda que la 4080 de 12gb, y en rendimiento estarán muy cerca
Eso puede darle sentidos a los bus de cada grafica pero no a la diferencia bestial de cudas con la 4090 ni al tamaño de los chips que coincide con la 3070 y la 3060 respectivamente:
AD104 (RTX4080@12Gb) = die 294.5 mm2
GA106 (RTX3060@12Gb) = 276 mm2
GA104 (RTX3070@8Gb) = 392mm2
AD103 (RTX4080@16Gb) = 378mm2
3080ti -> 496mm2
??
3090 - 3090ti -> 628mm2
4090 -> 608mm2
hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.
y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.
un saludo.
bassa escribió:hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.
y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.
un saludo.
Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD
hitsu escribió:bassa escribió:hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.
y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.
un saludo.
Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD
no me considero fanboy pero ya tuve una rx480 y no me daba nada mas que disgustos desde entonces de graficas solo tiro al verde y a la espera de ver que hace intel y de prisa ninguna a ver si bajan mas y en el bf se puede sacar un precio mas decente por si hay que cambiar algo mas
hitsu escribió:bassa escribió:hitsu escribió:Así como duda, tengo una gtx1080 que llevo con ella desde el 17 y ya estaba pensando en jubilarla lo que no se es si aprovechar que estoy viendo bajas de precio alguna 3080/3090 incluso alguna ti para tirar a 1440p 165hz que alcanza mi monitor(aunque algun dia podria pasar a 4k) o si por el contrario esperar a las 4xxx y ver que tal es el magico dlss3 que anunciaban por ahí aunque veo que estan saliendo caras y con muchas trampas como esa 4080 de 12gb que a veces se le cae la pegatina del 8 para mostrar un 6.
y de paso queria saber si las msi tienen alguna tara ya que he visto alguna 3090ti a precio de 3090 rebajada y alguna 3080 mas barata que las demas en esta marca.
un saludo.
Si no tienes prisa, ya total, espera a ver como rinden y tambien a amd con su rdna3 con chiplets, total... xD
no me considero fanboy pero ya tuve una rx480 y no me daba nada mas que disgustos desde entonces de graficas solo tiro al verde y a la espera de ver que hace intel y de prisa ninguna a ver si bajan mas y en el bf se puede sacar un precio mas decente por si hay que cambiar algo mas
Shinmei escribió:Hola, no sé si se ha puesto pero os dejo un artículo de Tom's Hardware en el que hablan, entre otras cosas, del motivo de los precios de la nueva serie 4000 y del porqué la 4080 de 12 GB la llamaron 4080 y no 4070.
https://www.tomshardware.com/news/why-n ... -damn-much
Lo comparto porque me ha parecido interesante, yo hasta la serie 6000 no quiero saber nada de gráficas.
JaviGabber escribió:Shinmei escribió:Hola, no sé si se ha puesto pero os dejo un artículo de Tom's Hardware en el que hablan, entre otras cosas, del motivo de los precios de la nueva serie 4000 y del porqué la 4080 de 12 GB la llamaron 4080 y no 4070.
https://www.tomshardware.com/news/why-n ... -damn-much
Lo comparto porque me ha parecido interesante, yo hasta la serie 6000 no quiero saber nada de gráficas.
Muy interesante, vaya panorama!!
chrispro escribió:Jarinawer escribió:chrispro escribió:
La verdad que hay 3090 y 3090 ti a muy buen precio por ahí que tientan demasio
joer,,, pues dime dónde por favor,,, porque yo no veo buen precio por ningún sitio
En la web de Nvidia la 3090ti a estrenar 1300. El precio más barato nueva que yo sepa. Y la founder que me encanta
FranciscoVG escribió:@colado
Es que al 12900k no hace falta que lo pongas al 100% para que se lleve facil mas de 200w, mas luego el resto de componentes, ventiladores, rl, leds, incluso cosas que tengas conectadas al usb todo eso chupa y tambien pasa por la fuente, hay muchos factores para escoger una fuente que te sobre, primero por que es un componente de larga duracion mucho mas que una cpu o una gpu y si lo tienes al 100% todo el rato por muy preparada que este limitas su vida, a parte la eficiencia que de nuevo es un componente de larga duracion igual un 5% de perdida te parece una tonteria pero calcula ese 5% durante 5 años, hoy en dia si tu target es la gama alta es ridiculo comprarse algo por debajo de los 1000w por ahorrarse 4 duros, si ya lo tienes pues depende de cada caso, pero a lo que voy es que con una fuente como la tuya a dia de hoy tienes que mirar que pones y que haces con dichos componentes, temas de overclock y demas, cuando hace 3 años con esa misma fuente de 750w salvo sli y cosas raras ponias lo que te daba la gana
Tambien te digo no se que clase de prueba de estres habras pasado tu para tener de maximo 480w pero me la juego a que la tienes con undervolt, yo tambien he tenido la 3080 y en ciberpunk mismo que es un juego que exige de stock he tenido picos de casi 600w, con una 3080 simplemente jugando...
@adriano_99
Si yo llevo diciendo que es gama media desde la misma presentacion xd, solo queria aclarar lo del bus, respecto a la 4080 de 16gb esa si que no tengo tan claro que sea una gama media, no se puede comparar unicamente frente a la pasada generacion, la diferencia entre la 2080 y la 2080 ti tambien fue importante
La 4080 de 12gb si que es claramente una gpu de gama media
Pegcaero de barrio escribió:FranciscoVG escribió:@colado
Es que al 12900k no hace falta que lo pongas al 100% para que se lleve facil mas de 200w, mas luego el resto de componentes, ventiladores, rl, leds, incluso cosas que tengas conectadas al usb todo eso chupa y tambien pasa por la fuente, hay muchos factores para escoger una fuente que te sobre, primero por que es un componente de larga duracion mucho mas que una cpu o una gpu y si lo tienes al 100% todo el rato por muy preparada que este limitas su vida, a parte la eficiencia que de nuevo es un componente de larga duracion igual un 5% de perdida te parece una tonteria pero calcula ese 5% durante 5 años, hoy en dia si tu target es la gama alta es ridiculo comprarse algo por debajo de los 1000w por ahorrarse 4 duros, si ya lo tienes pues depende de cada caso, pero a lo que voy es que con una fuente como la tuya a dia de hoy tienes que mirar que pones y que haces con dichos componentes, temas de overclock y demas, cuando hace 3 años con esa misma fuente de 750w salvo sli y cosas raras ponias lo que te daba la gana
Tambien te digo no se que clase de prueba de estres habras pasado tu para tener de maximo 480w pero me la juego a que la tienes con undervolt, yo tambien he tenido la 3080 y en ciberpunk mismo que es un juego que exige de stock he tenido picos de casi 600w, con una 3080 simplemente jugando...
@adriano_99
Si yo llevo diciendo que es gama media desde la misma presentacion xd, solo queria aclarar lo del bus, respecto a la 4080 de 16gb esa si que no tengo tan claro que sea una gama media, no se puede comparar unicamente frente a la pasada generacion, la diferencia entre la 2080 y la 2080 ti tambien fue importante
La 4080 de 12gb si que es claramente una gpu de gama media
Yo tengo el 12900K y salvo en test de stress no me llega al consumo que dices ni de coña. Suele rondar los 120 y pico W... si hago algo muy pesado sube un poco pero vaya... los 200W salvo en stress jamás los he visto.
He visto esta imagen:
¿Estos juegos solamente soportan el DLSS 3 y será compatible con las 4000 o cualquiera con una 2000 y 3000 podrá jugarlos aún teniendo DLSS 2.4? Es que me jode porque hay varios juegos de ahí que los tengo pendientes y con DLSS seguramente los mueva muy bien.
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar .
3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo
"Tres unidades de EVGA 3080... muy poco uso"
"Se vende 3080 TI, que solo a salido de la caja para minar"
Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
Rvilla87 escribió:Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
Sin entrar en detalles técnicos que ya se ha comentado antes en este hilo, no acabo de entender esta argumentación de Tomshardware.
El de Nvidia dice que la 4080 de 12GB se merece la clase 80 porque es mejor que la 3090 Ti. Vamos, está diciendo básicamente que una clase inferior de la nueva generación (4080) es mejor que una clase superior de anterior generación (3090 Ti).
Tomshardware dice que eso que dice Nvidia es una mierda de respuesta ya que es normal las nuevas sean más rápidas. Pero pone como ejemplo que la 1070 era mas rápida que la 980 Ti... y pone mas ejemplos iguales pero de otras generaciones. Es decir, que dice lo mismo que el de Nvidia, que una clase inferior de la nueva generación (3070) es mejor que una clase superior de anterior generación (2080 Ti).
Alguien me puede explicar el razonamiento de Tomshardware? Seguro que saben de lo que hablan pero es que no les entiendo, no veo lógica en su argumento.
Si hubieran dicho que en la nueva generación una de clase inferior (4080) es igual o inferior (y por lo tanto NO es mejor) a una de clase superior de anterior generación (3090 Ti) podría entender su argumentación, ya que sería muy claro el timo de las 4080. Pero no veo que hayan dicho eso.
Yo insisto que hasta que no vea rendimientos en juegos no me creo nada, me da igual que los números hagan mas o menos evidente el timo de las 4080, que hasta que no se demuestre paso de estar perdiendo el tiempo teorizando con nada. Las decisiones de compra las tomo con tests objetivos (que para mi nunca lo son los que hace el vendedor), no con teorías.
Rvilla87 escribió:Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
Sin entrar en detalles técnicos que ya se ha comentado antes en este hilo, no acabo de entender esta argumentación de Tomshardware.
El de Nvidia dice que la 4080 de 12GB se merece la clase 80 porque es mejor que la 3090 Ti. Vamos, está diciendo básicamente que una clase inferior de la nueva generación (4080) es mejor que una clase superior de anterior generación (3090 Ti).
Tomshardware dice que eso que dice Nvidia es una mierda de respuesta ya que es normal las nuevas sean más rápidas. Pero pone como ejemplo que la 1070 era mas rápida que la 980 Ti... y pone mas ejemplos iguales pero de otras generaciones. Es decir, que dice lo mismo que el de Nvidia, que una clase inferior de la nueva generación (3070) es mejor que una clase superior de anterior generación (2080 Ti).
Alguien me puede explicar el razonamiento de Tomshardware? Seguro que saben de lo que hablan pero es que no les entiendo, no veo lógica en su argumento.
Si hubieran dicho que en la nueva generación una de clase inferior (4080) es igual o inferior (y por lo tanto NO es mejor) a una de clase superior de anterior generación (3090 Ti) podría entender su argumentación, ya que sería muy claro el timo de las 4080. Pero no veo que hayan dicho eso.
Yo insisto que hasta que no vea rendimientos en juegos no me creo nada, me da igual que los números hagan mas o menos evidente el timo de las 4080, que hasta que no se demuestre paso de estar perdiendo el tiempo teorizando con nada. Las decisiones de compra las tomo con tests objetivos (que para mi nunca lo son los que hace el vendedor), no con teorías.
Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
hh1 escribió:Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
Un poco cogido con hilos eso de la 2070 y la 1080Ti.
Más bien eran 2080Ti y 1080Ti.
Ni siquiera la 2070S era mejor que la 1080Ti.No sé si "al final de suu vida",antes e la salida de las 3000,logró alcanzarla.
La 2070 normal ,ni de coña.
Nomada_Firefox escribió:@chrispro Que pasen juegos de DLSS 2 a 3, en juegos ya lanzados dependera del grado de ventas del juego y si los desarrolladores estan activos. Total solo hay 50 juegos con DLSS...... creo que para nosotros es más interesante que el FSR mejore y se siga pudiendo usar en graficas que no son AMD.
juanpedro79 escribió:@Pegcaero de barrio
Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 50 FPS y en el aire a partir de unos 3000 pies a 55 - 60 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.
suemrri escribió:Dejando de un lado el precio, se puede concluir a falta de reviews y con los datos que tenemos ahora mismo, que en el avance en esta generacion es bastante significativo. Y que vamos a pagar el precio del estado de la economia general.
juanpedro79 escribió:@Pegcaero de barrio
Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 40 FPS y en el aire a partir de unos 3000 pies a 45 - 50 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.
Pegcaero de barrio escribió:juanpedro79 escribió:@Pegcaero de barrio
Sobre el DLSS te puedo confirmar que por lo menos Flight Simulator ya está disponible la actualización y soporta DLSS 2.
Yo lo he probado con mi 2080 Ti y le he ganado más o menos 15 FPS en modo calidad. Se ve prácticamente igual que sin DLSS a excepción de textos pequeños que pierden nitidez. En tierra me va de 30 a 40 FPS y en el aire a partir de unos 3000 pies a 45 - 50 sin DLSS. Con DLSS me va a 50-55 en tierra y en el aire entre 55 y 70 FPS con el DLSS en modo calidad. En los otros modos noto que se resienten mucho los textos de los instrumentos en cabina y cuesta leerlos. Uso resolución Ultrawide 3440x1440 y lo tengo en calidad gráfica Ultra.
Así que supongo que cuando a un juego le meten DLSS lo hacen para cualquier versión del mismo.
¿Solo 15 fps? Espero que no tiren por la borda el DLSS 2.4 porque se ganaba mucho más de 15 FPS...
¿Qué equipo tienes al completo?
silenius escribió:lo que critica es que a una supuesta XX70 se haya renombrado a 80 con el consecuente aumento de precio. Si hubiese mantenido el nomenclatura XX70 seria mas barata. Y lo critica diciendo que siempre una gama inferior de nueva generacion ha sido mas potente que otra de mayor gama de pasada generacion y parece que para Nvidia esa es la excusa. Tu como comprador que se haya llamado XX70 o XX80 no ganas nada (a nivel de rendimiento), en cambio como comprador que se llame XX80 si te afecta a nivel de precio que si se llamara XX70
Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar .
3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo
"Tres unidades de EVGA 3080... muy poco uso"
"Se vende 3080 TI, que solo a salido de la caja para minar"
Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).
Jhonny escribió:hh1 escribió:Kin escribió:Justin Walker, director sénior de gestión de productos de Nvidia, dijo: "La 4080 de 12 GB es una GPU de muy alto rendimiento. Ofrece un rendimiento considerablemente más rápido que una 3080 de 12 GB... es más rápida que una 3090 Ti, y realmente creemos que se merece una Producto de clase 80".
Francamente, esa es una respuesta de mierda. ¡Claro que es más rápido! Es un nuevo chip y una nueva arquitectura; se supone que es más rápido. ¿Recuerdas cuando salió la GTX 1070 y era más rápida que una 980 Ti? Supongo que eso no era "merecedor" de un nombre de producto de clase 80. Tampoco lo fue la RTX 2070 cuando coincidió con la 1080 Ti, ni la 3070 cuando coincidió con la 2080 Ti.
Esto esta sacado del articulo que habéis puesto de Tomshardware, siempre cada arquitectura su evolución natural a sido 980Ti/1070 1080Ti/2070 (un poco justa ya que la 1080Ti era un pelin mejor que la RTX 2070) y 2080Ti/3070, pero el subnormal de justin walker (mas bien johnnie walker de los whiskcazos que se mete el puto cabron diciendo sandeces) dice que la 4080 12GB es un "Producto clase 80" y no clase 70 como tendría que ser y por eso te la vendo mas cara remarcada a clase 80, bravo payaso
Escusas llorando como dice el articulo que como las obleas son mas caras, nada menos que el doble segun dicen, pues te cobro el doble de su precio.
Un poco cogido con hilos eso de la 2070 y la 1080Ti.
Más bien eran 2080Ti y 1080Ti.
Ni siquiera la 2070S era mejor que la 1080Ti.No sé si "al final de suu vida",antes e la salida de las 3000,logró alcanzarla.
La 2070 normal ,ni de coña.
2070S y 1080Ti iban codo con codo.
La 2070 era un 5-10% más lenta, lo mismo que ocurrió con la 2080Ti y la 3070.
Lo de esta generación no hay por dónde cogerlo.
JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.
silenius escribió:JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.
Eso es lo que nos dicen . Vuelvo a recordar que se les pilló capando los drivers para que la generación anterior rindiese menos y comprases una nueva
juanpedro79 escribió:@JaviGabber
No acabo de entender lo de la limitación de CPU. Monto un I9-9900K y en Flight Simulator no pasa con DLSS del 25-30% de uso. O al menos eso me marca. Es que en juegos jamás he visto mi CPU funcionando a más del 50 %. Pero todo el mundo está con lo del bottleneck. No sé si es que se me escapa algo a mí.
Edito: quizás pueda ser porque no se usan todos los núcleos y me mide menos de lo que debería. Es decir, que lo mismo tiene seis núcleos al 100% y el resto al 0%. Pero me dice que la CPU esta al 30 % de uso en global.
Ah, y tengo 32 Gb de RAM 3600 Mhz. De todas formas te digo que FS2020 es muy especialito. Por ejemplo, en tierra lo mismo pone a 25 FPS y la GPU funcionando al 50% porque le da la gana. Y cuando despegas se pone la GPU al 100 % (que de paso es otro indicador de que no tengo cuello de botella, al menos en el aire).
JaviGabber escribió:silenius escribió:JaviGabber escribió:@Pegcaero de barrio Y por cierto no pueden tirar por la borda DLSS 2.4 entre otras cosas por que los que tengamos serie 2000 y 3000 utilizaremos tambien el DLSS 3 con sus respectivas mejoras de escalado. Obviamente no nos aprovecharemos de la feature de generar FPS fake.
Eso es lo que nos dicen . Vuelvo a recordar que se les pilló capando los drivers para que la generación anterior rindiese menos y comprases una nueva
¿capar drivers? No recuerdo que haya pasado algo asi.... Si me puedes pasar algun enlace...
ditifet escribió:Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar .
3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo
"Tres unidades de EVGA 3080... muy poco uso"
"Se vende 3080 TI, que solo a salido de la caja para minar"
Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).
Puedes pasar los links de la esas 3080ti a 400€? Que las compro todas
adriano_99 escribió:mikedevil99 escribió:adriano_99 escribió:Ojo que según Linus en el último directo LAS DOS 4080 SERÍAN FAKE.
La de 16Gb debería de haber sido la 4070 y la de 12 la 4060/ti.
No solo por los chips y por la cantidad de cuda cores sino por el bus.
La 4080 de 16GB tiene un bus de 256 bits y la de 12GB de 192, la 3080 tiene un bus de 320, la 3070 de 256 y la 3060 de 192.
Así que nvidia está vendiendo la 4070 por 1500 euros y la 4060/4060ti por 1100.
Por eso hay una diferencia tan enorme de mas de un 60% de cuda cores entre la 4090 y la 4080 de 16GB!
Llámalas como quieras, pero aunque saquen las Ti, la realidad es la que es.
No entiendo tu comentario. Que realidad?
Que tiene eso que ver con el hecho de que envidia ha cogido chips que deberían de haber ido a la gama media/media alta y las ha puesto en la gama alta?
Es precisamente lo que hizo con la gama 600 en que se guardó los chips de gama alta para la serie 700 y lanzó el de gama media como la GTX 680.
Es decir, 1500 euros por una 4080 es una barbaridad pero por una 4070 es reírse en nuestras caras.
Antoniopua1 escribió:ditifet escribió:Antoniopua1 escribió:Se ven anuncios curiosos de ventas de la serie 3000, que "juran y perduran" que no han sido usadas para minar .
3080 TI a 400 Euros... y otras por 550... así estarán las pobres. Compraría una para "cacharrear", para ya se han llevado lo suyo
"Tres unidades de EVGA 3080... muy poco uso"
"Se vende 3080 TI, que solo a salido de la caja para minar"
Pero ojo, que luego también hay 3080 TI, compradas hace un mes con factura por 850 euros que esa es la ganga del siglo ( y con buenas valoraciones de los vendedores).
Puedes pasar los links de la esas 3080ti a 400€? Que las compro todas
¿No sueles mirar por curiosidad de vez en cuando en...?:
Salen a la primera... Una veces salen unas, y luego otras. Van rotando. Ahora... ya se sabe... siempre hay que mirar con letra pequeña, y andar con mucho cuidado ( como dije... ya llevaran lo suyo si estuvieron minando, y contando con que no sean estafas...) .