[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Raurkand escribió:Por curiosidad... yo creo que sí pero yo que sé. Estoy mirando de pillar la asus TUF 4070 de 3 ventiladores, pero no sé si entra en mi torre (diría que sí pero me dejo caer en manos de los que sabéis, yo soy un puto novato)


Modelo de torre: Nox Hummer TGX Rainbow RGB 3.0 USB (Dimensiones Profundidad: 500 mm Altura: 515 mm , Altura máxima de la CPU: 17,5 cm Máxima longitud de la tarjeta de gráficos: 43 cm)

Imagen fabricante: https://gyazo.com/f3c2cca8e31141174448cfb1b7b22a06


Tarjeta grafica, dimensiones: Profundidad: 133 mm , Altura: 64 mm , Ancho: 303 mm


¿Debería entrar bien o soy yo que estoy paranoico? [360º]

si las medidas estan bien te sobran 13cm [+risas]
Teniendo en cuenta que le cabe una AIO de 420mm, le cabe de sobra.
silenius escribió:
Raurkand escribió:Por curiosidad... yo creo que sí pero yo que sé. Estoy mirando de pillar la asus TUF 4070 de 3 ventiladores, pero no sé si entra en mi torre (diría que sí pero me dejo caer en manos de los que sabéis, yo soy un puto novato)


Modelo de torre: Nox Hummer TGX Rainbow RGB 3.0 USB (Dimensiones Profundidad: 500 mm Altura: 515 mm , Altura máxima de la CPU: 17,5 cm Máxima longitud de la tarjeta de gráficos: 43 cm)

Imagen fabricante: https://gyazo.com/f3c2cca8e31141174448cfb1b7b22a06


Tarjeta grafica, dimensiones: Profundidad: 133 mm , Altura: 64 mm , Ancho: 303 mm


¿Debería entrar bien o soy yo que estoy paranoico? [360º]

si las medidas estan bien te sobran 13cm [+risas]

Creo que el problema con las recientes gráficas tan grandes no suele ser en lo largo de la tarjeta (30cm vs 43cm que soporta la caja) sino mas bien en la profundidad de la misma (13,3cm vs 17,5cm de la caja).

Solo le sobra 4 cm, que le tiene que dar para el conector y si encima usa el adaptador pulpo (si no tiene fuente PCIE 5.0) complica más la cosa. Y precisamente esa medida es jodida porque como conecte con presión la gráfica y por no caber de forma sobrada el conector no haga contacto completamente (al doblarse) puede acabar quemando el conector y cargándose la gráfica.

Y a nivel de altura ya es un tema mas personal, dependiendo de si quiere otras tarjetas PCI/PCIE y la placa base puede tener problemas o no con los monstruos de algunas de las tarjetas gráficas actuales.
@Rvilla87 pero eso pasaba con la 4090 y 4080 porque eran monstruos, las 4070 están en los estandares de las 3000 (mas o menos). La Tuf seguramente un poco mas que las demas. Ademas la 4070 tuf es 1x8, no lleva conector de 12 pines (la Ti si lo lleva). La verdad es que tampoco me acordaba ya de la problematica de las alturas [+risas]
Oh entonces en principio sí que entraría, ¡Nice, gracias!

La fuente no es muy allá: EVGA BQ 750W 80 Plus Bronze Semi Modular , el conector es de 4+4 si no recuerdo mal

La placa es: MSI MPG X570 Gaming Plus [360º]
silenius escribió:@Rvilla87 pero eso pasaba con la 4090 y 4080 porque eran monstruos, las 4070 están en los estandares de las 3000 (mas o menos). La Tuf seguramente un poco mas que las demas. Ademas la 4070 tuf es 1x8, no lleva conector de 12 pines (la Ti si lo lleva)

Es verdad, la gráfica que vi con el conector de 12+4 pines era la TUF 4070 Ti, no me fijé en lo de Ti.

Aún así no lo dije, pero esos 4 cm incluso con el pulpo no lo veía tan mal, y ahora con lo que me has dicho lo veo todavía mejor, así que no veo problema alguno.

@Raurkand sí, como dice silenius, con la 4070 (la que no es Ti) no necesitas el nuevo conector ni adaptador puesto que son los 8 pines de toda la vida así que ningún problema.
@Rvilla87 ¡Gracias! De hecho me daba miedo coger la TI porque además del precio suponía que era demasiado para la fuente

Pues... en 1-2 semanas me pillo esa 4070 tuf, la mamona es tan grande que impresiona y me daba miedo intentar meterla en la torre sin más xDDD

Gracias peña XD
Raurkand escribió:Por curiosidad... yo creo que sí pero yo que sé. Estoy mirando de pillar la asus TUF 4070 de 3 ventiladores, pero no sé si entra en mi torre (diría que sí pero me dejo caer en manos de los que sabéis, yo soy un puto novato)


Modelo de torre: Nox Hummer TGX Rainbow RGB 3.0 USB (Dimensiones Profundidad: 500 mm Altura: 515 mm , Altura máxima de la CPU: 17,5 cm Máxima longitud de la tarjeta de gráficos: 43 cm)

Imagen fabricante: https://gyazo.com/f3c2cca8e31141174448cfb1b7b22a06


Tarjeta grafica, dimensiones: Profundidad: 133 mm , Altura: 64 mm , Ancho: 303 mm


¿Debería entrar bien o soy yo que estoy paranoico? [360º]


Te cabe de sobra, tengo una 4090 en una caja más pequeña [+risas]
@RC9 ¡Gracias! La verdad que me quedo más tranquilo preguntando ;)
parh escribió:Pero si ya hay 4080 a 1200 euros nueva sin temores de que haya problemas....

A mi todavía me siguen dando miedo a ese precio :p le siguen sobrando como unos 200 - 300€ para que se pueda dejar de considerar un timo.
Buenas, actualmente tengo de GPU una 2080 super y de placa base una Asus ROG Crosshair VIII Dark Hero. Me he pillado una 4090 FE que debería llegar pronto.
La cosa es que yo a la 2080 super, tengo enchufados 2 monitores (1 por DP y otro por HDMI), además de una tele (HDMI) y una pequeña pantalla dentro del PC para ver temperaturas y demás (HDMI).
Pero he visto que la 4090 FE tiene 2 puertos HDMI y 3 DP.

¿Sería posible tener la 4090 y una segunda GPU (sería una 1060 creo, se la voy a cambiar a mi hermano por la 2080 super) sin problemas?
La segunda GPU estaría para conectar la mini pantalla LCD con las temperaturas y demás.

De fuente tengo una Corsair RM850.

Gracias.
@Draguxen Compra un cable DP a HDMI y acabas antes, lo metes por la rendija que se quita de la caja y listo.
Draguxen escribió:Buenas, actualmente tengo de GPU una 2080 super y de placa base una Asus ROG Crosshair VIII Dark Hero. Me he pillado una 4090 FE que debería llegar pronto.
La cosa es que yo a la 2080 super, tengo enchufados 2 monitores (1 por DP y otro por HDMI), además de una tele (HDMI) y una pequeña pantalla dentro del PC para ver temperaturas y demás (HDMI).
Pero he visto que la 4090 FE tiene 2 puertos HDMI y 3 DP.

¿Sería posible tener la 4090 y una segunda GPU (sería una 1060 creo, se la voy a cambiar a mi hermano por la 2080 super) sin problemas?
La segunda GPU estaría para conectar la mini pantalla LCD con las temperaturas y demás.

De fuente tengo una Corsair RM850.

Gracias.


Como dice @elcapoprods un DP>HDMI y listo, menos complicaciones

Yo tengo:

DP > monitor
HDMI > tv
y en otro DP un adaptador a DVI y para un segundo monitor de 15" para las herramientas de chopeo y cad pero tu caso es el mismo solo que sería a DP a HDMI para la pequeña de monitorero
Por curiosidad, qué Graphics score os sale en 3DMark Time Spy? Me salen unos 35k con la RTX 4090 sin tocar nada y no sé si es buen resultado. Me estoy mosqueando porque no sé, no me parece que esté rindiendo al máximo en los juegos y no sé si es la CPU, la RAM o los juegos en sí...
RC9 escribió:Por curiosidad, qué Graphics score os sale en 3DMark Time Spy? Me salen unos 35k con la RTX 4090 sin tocar nada y no sé si es buen resultado. Me estoy mosqueando porque no sé, no me parece que esté rindiendo al máximo en los juegos y no sé si es la CPU, la RAM o los juegos en sí...

Buscando "time spy" en este hilo he flipao la cantidad de posts que hay comentando tests de... la serie 3000 y 2000 en este hilo de las 4000 :Ð

El 1º que he encontrado en una búsqueda rápida es precisamente el que hice hace unos meses: hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s8750#p1753642092

En todo caso fíjate en lo que puse, solo tocando config de BIOS de CPU me cambiaba el rendimiento de la gráfica, cosa que no acabo de entender porque se supone que el resultado de la gráfica debería hacerse de forma la cual aún con una CPU no muy buena no difiera mucho. Si a mi con la misma CPU solo cambiando unos parámetros de BIOS de la CPU me cambia 1k de rendimiento de GPU pues como que no tendría muy en cuenta lo de valoración CPU y GPU de forma separada y pensaría que incluso la puntuación de la GPU puede verse limitada por una CPU no muy potente (cosa que no veo muy lógico ya que el programa además da la valoración total global por algo).

Supongo que habrá algún test menos CPU dependiente, porque al menos por mis pruebas no me convenció del todo.
Rvilla87 escribió:
RC9 escribió:Por curiosidad, qué Graphics score os sale en 3DMark Time Spy? Me salen unos 35k con la RTX 4090 sin tocar nada y no sé si es buen resultado. Me estoy mosqueando porque no sé, no me parece que esté rindiendo al máximo en los juegos y no sé si es la CPU, la RAM o los juegos en sí...

Buscando "time spy" en este hilo he flipao la cantidad de posts que hay comentando tests de... la serie 3000 y 2000 en este hilo de las 4000 :Ð

El 1º que he encontrado en una búsqueda rápida es precisamente el que hice hace unos meses: hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s8750#p1753642092

En todo caso fíjate en lo que puse, solo tocando config de BIOS de CPU me cambiaba el rendimiento de la gráfica, cosa que no acabo de entender porque se supone que el resultado de la gráfica debería hacerse de forma la cual aún con una CPU no muy buena no difiera mucho. Si a mi con la misma CPU solo cambiando unos parámetros de BIOS de la CPU me cambia 1k de rendimiento de GPU pues como que no tendría muy en cuenta lo de valoración CPU y GPU de forma separada y pensaría que incluso la puntuación de la GPU puede verse limitada por una CPU no muy potente (cosa que no veo muy lógico ya que el programa además da la valoración total global por algo).

Supongo que habrá algún test menos CPU dependiente, porque al menos por mis pruebas no me convenció del todo.


Es posible, noto que la cpu no está rindiendo al máximo, a veces, se calienta en exceso y hace thermal throttling (no en gaming, no llega a tanto quizás a 60-70 grados) y con esta placa no tengo muchas opciones.
RC9 escribió:Por curiosidad, qué Graphics score os sale en 3DMark Time Spy? Me salen unos 35k con la RTX 4090 sin tocar nada y no sé si es buen resultado. Me estoy mosqueando porque no sé, no me parece que esté rindiendo al máximo en los juegos y no sé si es la CPU, la RAM o los juegos en sí...


Acabo de pasarle el time spy a mi pc para ver que tal va ahora, porque también llevaba yo ya tiempo sin pasarlo.

35748 puntuación de la gpu, que está de serie quitando el undervolt que suelo tenerle puesto.
12389 puntuación de la cpu, a la que le tengo hecho un poco de overclock ahora mismo.
27866 puntuación total del test, que no sé como la calculará el programa porque una media de las dos anteriores no es.

En fin, espero que te sirvan estos datos.

PD1: Que curioso, he vuelto a probar aplicando el undervolt a la gráfica y es que apenas ha bajado la cosa. De todas formas no estoy pendiente de otros valores, como el consumo y la temperatura. En la segunda cadena están echando la amenaza de Andrómeda y estoy más pendiente de la película que del ordenador.

35681 gpu, 12260 cpu y total 27733.
¿No hay noticias de que vayan a ampliar la promo de diablo iv a las 4060/ti no?

70€ euros de "descuento" sería una muy buena buena oferta en esta categoría pero no he visto nada sobre el tema
Mirando en esta tienda veo esta 4060 Ti Palit que supongo será de las más baratas por 439€

https://infomaxparis.com/fr/carte-graph ... 43925.html

En ninguna tienda he visto digan nada de promoción alguna con Diablo IV pero vamos sería una buena promo.
stan01 escribió:¿No hay noticias de que vayan a ampliar la promo de diablo iv a las 4060/ti no?

70€ euros de "descuento" sería una muy buena buena oferta en esta categoría pero no he visto nada sobre el tema

Comprar eso por ese precio con sus 8GB........... [fiu] no es ninguna maravilla.
Nomada_Firefox escribió:
stan01 escribió:¿No hay noticias de que vayan a ampliar la promo de diablo iv a las 4060/ti no?

70€ euros de "descuento" sería una muy buena buena oferta en esta categoría pero no he visto nada sobre el tema

Comprar eso por ese precio con sus 8GB........... [fiu] no es ninguna maravilla.


Nadie ha dicho que sea una maravilla, pero un "descuento" de 70€ sobre una tarjeta de 449€ es más atractivo que un descuento de una de 669€, ya sabes, las matemáticas y eso.
Schencho escribió:
parh escribió:Pero si ya hay 4080 a 1200 euros nueva sin temores de que haya problemas....

A mi todavía me siguen dando miedo a ese precio :p le siguen sobrando como unos 200 - 300€ para que se pueda dejar de considerar un timo.


+100000 Totalmente de acuerdo, yo tengo un Suprim x 3080 10gb ,no pienso tragar,aunque pueda permitirmelo ( Como muchos supongo ); Posiblemente estemos ante la peor serie por sus precios ( Imposible de justificar ) y espero que las bajas ventas sea una bofetada para esta gente para la proxima serie ; Porque si esto no cambia, el PC Gaming va a entrar en una crisis muy seria, tiempo al tiempo.

Saludos [beer]
stan01 escribió:Nadie ha dicho que sea una maravilla, pero un "descuento" de 70€ sobre una tarjeta de 449€ es más atractivo que un descuento de una de 669€, ya sabes, las matemáticas y eso.

Es que sigue siendo una estafa.

Ya sabes las matematicas y eso. ;)
Schencho escribió:
parh escribió:Pero si ya hay 4080 a 1200 euros nueva sin temores de que haya problemas....

A mi todavía me siguen dando miedo a ese precio :p le siguen sobrando como unos 200 - 300€ para que se pueda dejar de considerar un timo.

Yo siempre lo dije.
La 4080 empieza a estar aceptable en 1000€ ,siendo un precio más acorde unos 850-900€.

Yo caí por 1100€ porque no tenía pinta alguna de bajar.

@Kurosawa42
Se llevan cargando el kc Gaming desde la pandemia.
Eso lo saben

Están vendiendo una mierda ,y aún así, están resistiendo demasiado a bass de precio considerables.

Les está ahora comiendo terreno AMD y siguen en sus 13.

Pero para la siguiente ya han visto las orejas al lobo.
Dudo que se marquen una como esta.
Cómo mucho, sacarán precios similares en las 5000 o algo más bajos ,a cambio de no ganar mucho rendimiento con respecta a las actuales.
Ya lo verás.

Si hacen lo mismo, se están cagando su propia tumba.
@hh1 vender menos pero ganar mas. Estrategia Apple. Veremos si a la larga les vale

Respecto a las reviews de la 4060ti, un 10% de media con la 3060ti. La caida a 1440p y 4k respecto a la 3060ti en algunos juegos, evidencia el tema de la reduccion del bus
Madre mia la 4060ti 16gb, a precio de 3070 de salida y no rinde ni parecido [facepalm]
silenius escribió:@hh1 vender menos pero ganar mas. Estrategia Apple. Veremos si a la larga les vale

Respecto a las reviews de la 4060ti, un 10% de media con la 3060ti. La caida a 1440p y 4k respecto a la 3060ti en algunos juegos, evidencia el tema de la reduccion del bus

Lamentable esa 4060Ti.

Y es que ahora ,encima ,de lo mal que lo han hecho, hay que mirar cómo rinde "respecto a" ,teniendo en cuenta la resolución o el RT, ya que en 1080P puede ser mejor y en 1440p o 4K, no.

Lamentable es poco

Yo tengo un follón con todo eso que no veas.Ya no sabes qué es mejor o no, qué merece la pena o no.
elcapoprods escribió:Madre mia la 4060ti 16gb, a precio de 3070 de salida y no rinde ni parecido [facepalm]

16GB?

@hh1 a ver en este caso, a cualquier resolucion es mejor que la 3060ti pero en muchos juegos la diferencia es ridicula y encima no mejora ni a la 3070. Y encima subir de resolucion en algunos juegos penaliza mas que en otros. Conclusión? Todo fiado al dlss3 y el FG y me da que va a ser la norma a partir de ahora para las siguientes generaciones
este canal sigue con su cruzada particular anti nvidia. En los test pasan completamente de DLSS 3.0.

hh1 escribió:
Schencho escribió:
parh escribió:Pero si ya hay 4080 a 1200 euros nueva sin temores de que haya problemas....

A mi todavía me siguen dando miedo a ese precio :p le siguen sobrando como unos 200 - 300€ para que se pueda dejar de considerar un timo.

Yo siempre lo dije.
La 4080 empieza a estar aceptable en 1000€ ,siendo un precio más acorde unos 850-900€.

Yo caí por 1100€ porque no tenía pinta alguna de bajar.

@Kurosawa42
Se llevan cargando el kc Gaming desde la pandemia.
Eso lo saben

Están vendiendo una mierda ,y aún así, están resistiendo demasiado a bass de precio considerables.

Les está ahora comiendo terreno AMD y siguen en sus 13.

Pero para la siguiente ya han visto las orejas al lobo.
Dudo que se marquen una como esta.
Cómo mucho, sacarán precios similares en las 5000 o algo más bajos ,a cambio de no ganar mucho rendimiento con respecta a las actuales.
Ya lo verás.

Si hacen lo mismo, se están cagando su propia tumba.


Mira yo soy un potencial usuario para comprar una 4080/4090 juego en un G9 Odyssey 5120x1440 , soy el primero en en estar siempre a la ultima, me puede como a muchos,pero uno no tiene dinero /gana dinero siendo tonto o sin pararse a pensar ; La Suprim 3080 RTX mia tuve la suerte de pillarla a su precio por enchufe, 860€ ( No es un regalo tampoco eh ) y ahora la nueva Suprim X , la 4080 vale el doble, ¿Nos hemos vuelto gilipollas?¿Nos toman por idiotas?Tiene pinta de que si o parecido eh.

Como no cambie esto,el PC Gaming va a perder cuota porque es muy logico pase, de cajon y que algunos usuarios pues "paren /congelen" sus PC o se pasen a consola porque te estan invitando a eso ( No sera mi caso ) y ojo con esas graficas de precios desorbitados de verguenza, no te garantiza el juego te vaya de cine y en consonancia al paston que te gastas, porque estan saliendo unas optimizaciones de mierda en titulos importantes.

Se puede decir tranquilamente ya, a 23/05/2023 que el PC Gaming no pasa pòr su mejor momento ,ni por asomo, esta lejos de su mejor momento y si esto no lo cambian pronto, se estan cavando su propita tumba en el gaming como dijiste.

Si lo que les interesa es vender graficas para IA , otros sectores y el gaming fuera, pues es el camino.
Como la serie 5000 sigan esta dinamica y no cambien....Blanco y en botella.

Saludos [beer]
Una consulta, ¿Creen que a corto plazo, no se, de aquí a unas dos generaciones más de gráficas, en las versiones de alta gama se tenga la potencia para estandarizar el 8k?

Pregunto esto por qué he estado haciendo pruebas y en varios juegos he conseguido resultados bastante notables, por ejemplo, metal gear solid 5 va a 8k/60 frames estables como putas rocas incluso con el mod extra high settings, que es un mod que desbloquea opciones gráficas por encima de las opciones ultra que están ocultas por defecto (similar al primer whatch dogs, que venía con las opciones gráficas ocultas de aquella demo del e3) y el rendimiento es bestial

Claro, esto también tiene su explicación por qué MGS5 tiene una optimización impresionante, pero he probado en muchos otros juegos y no parece que sea un problema alcanzar estás resoluciones y mantener una tasa de frames alta, hay otros eso si, dónde por encima de 6k la interfaz se buguea y se deforma completamente

Lo pregunto más que nada por curiosidad y por como va a avanzar la tecnología a futuro, me imagino que de aquí a unos años los televisores 8k se van a estandarizar, aunque también desconozco si realmente habrá una mejora de imágen que sea realmente notable y que no suponga gastar recursos a lo loco, al menos con DSR y una pantalla 4k la diferencia se nota bastante, pero es que también yo tengo un ojo entrenado, igual en una pantalla nativa a 8k no es una diferencia que valga la pena el gasto de recursos, por qué al menos de 1080p a 4k la diferencia es bastante notable, pero entiendo que a más "k" menos visible es la diferencia
@Kurosawa42 la rebaja está al caer y si no cae, tampoco queda mucho para que podamos cambiar para la siguiente generación [360º] Sinceramente, para mi que termine en XX80 o no es lo de menos, si me pones delante una 5060 con 16GB de VRAM que rinda como la actual 4080 y después de ver cómo está el mercado en ese futuro momento, lo mismo hasta me vale. Desde hace años una infinidad de juegos ya escupen centenares de FPS a resoluciones bastantes altas, no hay necesidad real de caer en el timo de los precios actuales como años atrás donde cualquier nueva generación salía para alcanzar los 60fps a 1080p en los juegos más punteros. Por suerte hace años ya de eso y más ahora con tecnologías como el DLSS, FSR y demás.
parh escribió:este canal sigue con su cruzada particular anti nvidia. En los test pasan completamente de DLSS 3.0.


Imagen
_revan_ escribió:Una consulta, ¿Creen que a corto plazo, no se, de aquí a unas dos generaciones más de gráficas, en las versiones de alta gama se tenga la potencia para estandarizar el 8k?

Pregunto esto por qué he estado haciendo pruebas y en varios juegos he conseguido resultados bastante notables, por ejemplo, metal gear solid 5 va a 8k/60 frames estables como putas rocas incluso con el mod extra high settings, que es un mod que desbloquea opciones gráficas por encima de las opciones ultra que están ocultas por defecto (similar al primer whatch dogs, que venía con las opciones gráficas ocultas de aquella demo del e3) y el rendimiento es bestial

Claro, esto también tiene su explicación por qué MGS5 tiene una optimización impresionante, pero he probado en muchos otros juegos y no parece que sea un problema alcanzar estás resoluciones y mantener una tasa de frames alta, hay otros eso si, dónde por encima de 6k la interfaz se buguea y se deforma completamente

Lo pregunto más que nada por curiosidad y por como va a avanzar la tecnología a futuro, me imagino que de aquí a unos años los televisores 8k se van a estandarizar, aunque también desconozco si realmente habrá una mejora de imágen que sea realmente notable y que no suponga gastar recursos a lo loco, al menos con DSR y una pantalla 4k la diferencia se nota bastante, pero es que también yo tengo un ojo entrenado, igual en una pantalla nativa a 8k no es una diferencia que valga la pena el gasto de recursos, por qué al menos de 1080p a 4k la diferencia es bastante notable, pero entiendo que a más "k" menos visible es la diferencia

Ahí le andará,pero creo que dos generaciones es justito si hablamos de 8K nativo sin DLSS ni FSR.
No lo veo muy claro.

Tampoco le veo el sentido si ya cuesta ver diferencias entre 1440p y 4K.Entre 4K 8 K vas a necesitar un ojo biónico.
Estoy viendo el analisis de Steve de HN y se está quedando a gusto. La está dejando a la altura del betún
hh1 escribió:
_revan_ escribió:Una consulta, ¿Creen que a corto plazo, no se, de aquí a unas dos generaciones más de gráficas, en las versiones de alta gama se tenga la potencia para estandarizar el 8k?

Pregunto esto por qué he estado haciendo pruebas y en varios juegos he conseguido resultados bastante notables, por ejemplo, metal gear solid 5 va a 8k/60 frames estables como putas rocas incluso con el mod extra high settings, que es un mod que desbloquea opciones gráficas por encima de las opciones ultra que están ocultas por defecto (similar al primer whatch dogs, que venía con las opciones gráficas ocultas de aquella demo del e3) y el rendimiento es bestial

Claro, esto también tiene su explicación por qué MGS5 tiene una optimización impresionante, pero he probado en muchos otros juegos y no parece que sea un problema alcanzar estás resoluciones y mantener una tasa de frames alta, hay otros eso si, dónde por encima de 6k la interfaz se buguea y se deforma completamente

Lo pregunto más que nada por curiosidad y por como va a avanzar la tecnología a futuro, me imagino que de aquí a unos años los televisores 8k se van a estandarizar, aunque también desconozco si realmente habrá una mejora de imágen que sea realmente notable y que no suponga gastar recursos a lo loco, al menos con DSR y una pantalla 4k la diferencia se nota bastante, pero es que también yo tengo un ojo entrenado, igual en una pantalla nativa a 8k no es una diferencia que valga la pena el gasto de recursos, por qué al menos de 1080p a 4k la diferencia es bastante notable, pero entiendo que a más "k" menos visible es la diferencia

Ahí le andará,pero creo que dos generaciones es justito si hablamos de 8K nativo sin DLSS ni FSR.
No lo veo muy claro.

Tampoco le veo el sentido si ya cuesta ver diferencias entre 1440p y 4K.Entre 4K 8 K vas a necesitar un ojo biónico.

Pienso yo que debe ser distinto ver 8k escalado con DSR en una pantalla 4k, a verlo en una pantalla nativa que sea 8k, es lo mismo si ves contenido reescalado en 4k en una pantalla que sea 1080p, la imagen mejora pero no ves la diferencia real hasta que lo haces en una pantalla nativa, mi duda es si la diferencia realmente se nota o no

De cualquier forma, MGS5 tiene un problema con el antialiasing, y aunque pongas el juego a 4k se siguen viendo unos dientes de sierra asquerosos y no es algo que se pueda forzar ni con reshade ni con el panel de nvidia, para tratar de mitigarlo la única solución es subir resolución a lo bestia, incluso a 8k se siguen notando dientes, pero ya es mucho (muchísimo) menos visible, supongo que aquel mito que dice que "el antialiasing es innecesario en 4k" es falso, al menos en un buen puñado de juegos

De todas formas, solo es una simple curiosidad, supongo que en algún punto la resolución se va a estancar y no será necesario añadir más k y llegará un punto en que no se podrá vender ni por marketing cosas como 16k y demases
silenius escribió:Estoy viendo el análisis de Steve de HN y se está quedando a gusto. La está dejando a la altura del betún

No es para menos , lo que le saca a la 3060ti es vergonzoso.
Y encima, por más que nvidia y más de uno haya insistido en que no se pueden comparar buses de diferentes arquitecturas, su rendimiento decaiga en cuanto subes de 1080p haciendo que llegue a rendir MENOS que la 3060ti.
Meter un menor bus les permite hacer los chips más pequeños y encima limitar el uso de la gráfica para resoluciones en las que debería ser viable por la potencia de su núcleo.
Pero nada se ríen de nosotros y aun algunos les defienden.
Por lo que veo mi 3060TI Gdd6X se queda muy cerca de la 4060TI, por lo menos si no me equivoco es la que analiza Torotocho.

Asi que yo pasando de esta, si cambio tiene que ser minimo a la 4070 y a ver si sacan algun modelo con mas Vram.

Saludos
adriano_99 escribió:
silenius escribió:Estoy viendo el análisis de Steve de HN y se está quedando a gusto. La está dejando a la altura del betún

No es para menos , lo que le saca a la 3060ti es vergonzoso.
Y encima, por más que nvidia y más de uno haya insistido en que no se pueden comparar buses de diferentes arquitecturas, su rendimiento decaiga en cuanto subes de 1080p haciendo que llegue a rendir MENOS que la 3060ti.
Meter un menor bus les permite hacer los chips más pequeños y encima limitar el uso de la gráfica para resoluciones en las que debería ser viable por la potencia de su núcleo.
Pero nada se ríen de nosotros y aun algunos les defienden.

En el video hay un montón de palabras que definen la tarjeta como insulto o vergüenza (y hay bastantes mas) pero hay una frase completamente lapidaria. Hablando de la caida a medida que subimos la resolucion dice que si a lo mejor el truco es bajar a 360p o incluso 144p para ver un salto generacional [carcajad]

El mensaje de Nvidia a los poseedores de una 3060/3060TI es que por 450-500€ te quedas igual
silenius escribió:
adriano_99 escribió:
silenius escribió:Estoy viendo el análisis de Steve de HN y se está quedando a gusto. La está dejando a la altura del betún

No es para menos , lo que le saca a la 3060ti es vergonzoso.
Y encima, por más que nvidia y más de uno haya insistido en que no se pueden comparar buses de diferentes arquitecturas, su rendimiento decaiga en cuanto subes de 1080p haciendo que llegue a rendir MENOS que la 3060ti.
Meter un menor bus les permite hacer los chips más pequeños y encima limitar el uso de la gráfica para resoluciones en las que debería ser viable por la potencia de su núcleo.
Pero nada se ríen de nosotros y aun algunos les defienden.

En el video hay un montón de palabras que definen la tarjeta como insulto o vergüenza (y hay bastantes mas) pero hay una frase completamente lapidaria. Hablando de la caida a medida que subimos la resolucion dice que si a lo mejor el truco es bajar a 360p o incluso 144p para ver un salto generacional [carcajad]

El mensaje de Nvidia a los poseedores de una 3060/3060TI es que por 450-500€ te quedas igual

Buah, y si renderizamos un pixel?
Imagen
VíctorXD está baneado por "clon de usuario baneado"
10% mas que la RTX3060ti, y 500 pavos la buena de 16GB jajaja, grande Nvidia.

Imagen

PD:La 6700XT ronda abajo de los $400 y con 12GB...
Chaquetero está baneado por "troll"
La 5060 ti será igual o peor, y no habrá 6060 ti.

Se está liando bastante, casi todos los techtubers, excepto Gamers Nexus y HUB, han dado una buena calificación a esta 4060ti con la boca pequeña obviamente amenazados por Nvidia. Lo de Der8auer ha sido lo más lamentable que he visto en mi vida con la alta estima que le tenía.

Linus siendo la mierda de canal que acostumbra ser, y Jay2cents ha borrado el vídeo del bombardeo de insultos merecidos que estaba recibiendo al calificar a la gráfica de "nuevo rey de la gama media"...

Esto se acaba. En primer lugar, una cosa es reírte de la gente, estafarla, e ir de listo, y otra cosa es grangearte el ODIO extremo de centenares de millones de personas que es lo que está consiguiendo Nvidia en los últimos meses. Se están pasando de la raya al llevar su plan de acabar con la gama baja demasiado rápido.

Por recapitular por si alguien se ha quedado con la duda, la 4060ti rinde PEOR que la 3060ti cuando va exigida, del mismo modo que la 3080 rinde más que la 4070, y eso sí la pones en un equipo pcie 4.0, si encima la pones en un equipo 3.0 al estar limitada a x8 y con esa mierda de bus rendirá un 10-15% menos.

Ha llegado puntual el comercial de nvidia que defiende y alaba a esta empresa por encima de todas las cosas. Que vergüenza ajena y que mal pinta el futuro.
VíctorXD escribió:10% mas que la RTX3060ti, y 500 pavos la buena de 16GB jajaja, grande Nvidia.

Imagen

PD:La 6700XT ronda abajo de los $400 y con 12GB...

450-550€ la de 8gb, la de 16gb seran de 560 a 650€ seguramente. Eso sí no las bajan desde ya [carcajad]

Edit - salvo que estés hablando en dolares claro
La review del melenas es pa verla, se queda agustísimo con la aberración que es esta 4060 Ti. Me quedo con su frase de:

"Lo han hecho, Nvidia ha conseguido lanzar la peor mejora generacional en la historia de esta industria"
[qmparto] [qmparto] [qmparto]
garbaje_de_potanzos escribió:La review del melenas es pa verla, se queda agustísimo con la aberración que es esta 4060 Ti. Me quedo con su frase de:

"Lo han hecho, Nvidia ha conseguido lanzar la peor mejora generacional en la historia de esta industria"
[qmparto] [qmparto] [qmparto]

El video tiene un montón de frases para enmarcarlas
silenius escribió:
garbaje_de_potanzos escribió:La review del melenas es pa verla, se queda agustísimo con la aberración que es esta 4060 Ti. Me quedo con su frase de:

"Lo han hecho, Nvidia ha conseguido lanzar la peor mejora generacional en la historia de esta industria"
[qmparto] [qmparto] [qmparto]

El video tiene un montón de frases para enmarcarlas


Seguramente lo único bueno que sacar de estas gamas 4060 de Nvidia, los vídeos que se va marcando el melenas [carcajad]

En el fondo me da rabia porque yo suelo ser consumidor de estas gamas y ver que son una decepción total jode un poco, pero por otro lado que le jodan y bien a Nvidia, las 4060 pintaban que iban a salir muy recortadas, pero joder tanto que casi siquiera mejora lo que ya habia mas de 2 años atrás?? Es de risa
Pero amo a ve,si han descatalogado de sopeton la 3060 Ti sera por algo,a mi me da la impresion que en esta gen estan renombrando las gamas a la alza para cobrar mas por ellas,la 4060 deberia ser una 4050…
La verdad que.... es una forma bastante DIGNA..... de salir a dar lástima... [buuuaaaa]
en américa supuestamente van a bajar 100 dolares las 3060 con la salida de las 4060 ojala ver aqui una bajada asi
14371 respuestas