ditifet escribió:devh escribió:En LDLC no compraría ni aunque me descontaran un 20%.
A nada que tengas un problemilla se van a desentender, están en Francia y no te hacen ni facturas normales.
Intenté devolver algo según me llegó, como ellos me indicaron, pero dejaron el paquete al portero y no pude rechazarlo. Pues luego no me quisieron tramitar la devolución y eso que no había ni abierto el paquete y estaba dentro de los 14 días. Me dijeron que lo vendiera yo
Y ponte a reclamar algo, hasta intenté mirarlo en consumo, no vi nada fácil para hacerlo.
La factura es perfectamente normal, con su 21% de IVA y su garantia europea de 3 años
y las devoluciones aquí hay una de las que hice en 2022, en 48h de su recepción tenia la pasta en mi banco de vuelta
en 2 dias les llegó, mandada por mi por correos express, Francia no es Laponia ni China
@tonicab, si vas a la web de nvidia española y eliges UNA DE ENSAMBLADOR te llevará a tiendas españolas, en el momento que elijas una FOUNDER EDITION te llevará a LDLC
HakiGold escribió:La 5090 ha pegado un salto de un 30% respecto a la 4090 con 50% más de Cudas y mayores frecuencia clock y memoria.
Lo va tener chungo la 5070 para superar aunque sea auna 4070S no, básicamente que tanto haya apretado las frecuencia determinará el rendimiento de la 5070.
Veremos porque el golpe de realidad que se puede llevar mucha gente cuando salga las review sin Fakes Frames puede ser curiosa.
Pacorrr escribió:Si compras a Nvidia directamente la garantía la puedes tramitar con Nvidia, no hace falta que la tramites con LDLC, éstos sólo se encargan de la logística, es decir, preparar el paquete y enviarlo a la dirección que toque.
Yo tuve que tramitar la garantía de mi 4090 FE y lo hice directamente con Nvidia, me enviaron una reaco pero le faltaban unos tornillos, al final peleándolo un poco me enviaron una nueva precintada en su caja.
olbhap escribió:Pacorrr escribió:Si compras a Nvidia directamente la garantía la puedes tramitar con Nvidia, no hace falta que la tramites con LDLC, éstos sólo se encargan de la logística, es decir, preparar el paquete y enviarlo a la dirección que toque.
Yo tuve que tramitar la garantía de mi 4090 FE y lo hice directamente con Nvidia, me enviaron una reaco pero le faltaban unos tornillos, al final peleándolo un poco me enviaron una nueva precintada en su caja.
Gracias, estaremos pendientes en nvidia el día 30. Lo que no tengo claro es sobre qué hora suelen lanzar stock
gojesusga escribió:HakiGold escribió:La 5090 ha pegado un salto de un 30% respecto a la 4090 con 50% más de Cudas y mayores frecuencia clock y memoria.
Lo va tener chungo la 5070 para superar aunque sea auna 4070S no, básicamente que tanto haya apretado las frecuencia determinará el rendimiento de la 5070.
Veremos porque el golpe de realidad que se puede llevar mucha gente cuando salga las review sin Fakes Frames puede ser curiosa.
Yo me ciño por el tdp una 5070 tiene 250w y una 4070 super también. Asi que si han mejorado la arquitectura será mejor la primera, parecida a una 4070ti si no, será igual pero con las nuevas tecnologias a una 4070 super
paxama escribió:Tengo una duda pues estoy sin pc pues vendí la 3060TI y el el ryzen 5900x no tiene gráfica integrada.
Me ofrecen una 4080 Super por 750 eur con factura del 28 de octubre del 2024.Que opináis?Lo que más me interesa es para jugar en VR en pc,todo lo demás lo juego en ps5 pro.
Saludos
hh1 escribió:Pero de momento, solo hay que ver qué en lo único que ganan la 5079Ti y 5080, es en núcleos de IA y no por mucho a la 4080.
Palman en raster ,en núcleos RT y en VRAM .
Y para superar a la 4090 necesitan de magia dlss4 + fg, saliendo de menores frames ,con la consiguiente perdida de calidad ,y como decimos ,de input lag.
Que oye ,por el precio que tienen está muy bien?Sí.
P or no son mejro s a ,mí modo de ver que la 4090.
Gamer1974 escribió:paxama escribió:Tengo una duda pues estoy sin pc pues vendí la 3060TI y el el ryzen 5900x no tiene gráfica integrada.
Me ofrecen una 4080 Super por 750 eur con factura del 28 de octubre del 2024.Que opináis?Lo que más me interesa es para jugar en VR en pc,todo lo demás lo juego en ps5 pro.
Saludos
piensa que si compras la de nvidia de la serie 5000, tu placa es pcie 4.0 y la de nvidia es ya pcie 5.0. Algo bajara de rendimiento. Si ves bien la 4080 pues
HakiGold escribió:La 5090 ha pegado un salto de un 30% respecto a la 4090 con 50% más de Cudas y mayores frecuencia clock y memoria.
Lo va tener chungo la 5070 para superar aunque sea auna 4070S no, básicamente que tanto haya apretado las frecuencia determinará el rendimiento de la 5070.
Veremos porque el golpe de realidad que se puede llevar mucha gente cuando salga las review sin Fakes Frames puede ser curiosa.
dunkam82 escribió:hh1 escribió:Pero de momento, solo hay que ver qué en lo único que ganan la 5079Ti y 5080, es en núcleos de IA y no por mucho a la 4080.
Palman en raster ,en núcleos RT y en VRAM .
Y para superar a la 4090 necesitan de magia dlss4 + fg, saliendo de menores frames ,con la consiguiente perdida de calidad ,y como decimos ,de input lag.
Que oye ,por el precio que tienen está muy bien?Sí.
P or no son mejro s a ,mí modo de ver que la 4090.
Si fuéramos de la misma ciudad me apostaba una cerveza contigo a que la 5080 va a superar a la 4090.
¿En qué me baso? Pues muy sencillo en que una 4070Ti iguala o supera a una 3090
Ahora si nos vamos a los datos:
RTX 3090 tiene 10496 núcleos CUDA y una RTX 4070Ti tiene 7680, que según tu razonamiento no podría ser posible pero ahí tienes el vídeo.
Estás obviando muchas cosas como que tanto los núcleos CUDA como los núcleos RT de la 5080 son de una nueva generación (mejores) que los de la serie 4000, a parte el tema de que en núcleos de IA a parte de ser de nueva generación los de la 5080 también lleva un buen chorro más que la 4090.
dunkam82 escribió:hh1 escribió:Pero de momento, solo hay que ver qué en lo único que ganan la 5079Ti y 5080, es en núcleos de IA y no por mucho a la 4080.
Palman en raster ,en núcleos RT y en VRAM .
Y para superar a la 4090 necesitan de magia dlss4 + fg, saliendo de menores frames ,con la consiguiente perdida de calidad ,y como decimos ,de input lag.
Que oye ,por el precio que tienen está muy bien?Sí.
P or no son mejro s a ,mí modo de ver que la 4090.
Si fuéramos de la misma ciudad me apostaba una cerveza contigo a que la 5080 va a superar a la 4090.
¿En qué me baso? Pues muy sencillo en que una 4070Ti iguala o supera a una 3090
Ahora si nos vamos a los datos:
RTX 3090 tiene 10496 núcleos CUDA y una RTX 4070Ti tiene 7680, que según tu razonamiento no podría ser posible pero ahí tienes el vídeo.
Estás obviando muchas cosas como que tanto los núcleos CUDA como los núcleos RT de la 5080 son de una nueva generación (mejores) que los de la serie 4000, a parte el tema de que en núcleos de IA a parte de ser de nueva generación los de la 5080 también lleva un buen chorro más que la 4090.
dunkam82 escribió:hh1 escribió:Pero de momento, solo hay que ver qué en lo único que ganan la 5079Ti y 5080, es en núcleos de IA y no por mucho a la 4080.
Palman en raster ,en núcleos RT y en VRAM .
Y para superar a la 4090 necesitan de magia dlss4 + fg, saliendo de menores frames ,con la consiguiente perdida de calidad ,y como decimos ,de input lag.
Que oye ,por el precio que tienen está muy bien?Sí.
P or no son mejro s a ,mí modo de ver que la 4090.
Si fuéramos de la misma ciudad me apostaba una cerveza contigo a que la 5080 va a superar a la 4090.
¿En qué me baso? Pues muy sencillo en que una 4070Ti iguala o supera a una 3090
Ahora si nos vamos a los datos:
RTX 3090 tiene 10496 núcleos CUDA y una RTX 4070Ti tiene 7680, que según tu razonamiento no podría ser posible pero ahí tienes el vídeo.
Estás obviando muchas cosas como que tanto los núcleos CUDA como los núcleos RT de la 5080 son de una nueva generación (mejores) que los de la serie 4000, a parte el tema de que en núcleos de IA a parte de ser de nueva generación los de la 5080 también lleva un buen chorro más que la 4090.
parh escribió:olbhap escribió:Pacorrr escribió:Si compras a Nvidia directamente la garantía la puedes tramitar con Nvidia, no hace falta que la tramites con LDLC, éstos sólo se encargan de la logística, es decir, preparar el paquete y enviarlo a la dirección que toque.
Yo tuve que tramitar la garantía de mi 4090 FE y lo hice directamente con Nvidia, me enviaron una reaco pero le faltaban unos tornillos, al final peleándolo un poco me enviaron una nueva precintada en su caja.
Gracias, estaremos pendientes en nvidia el día 30. Lo que no tengo claro es sobre qué hora suelen lanzar stock
suscribete en la web de nvidia para que te avisen apenas haya stock disponible
Ricardo__ escribió:Supongo que el DLSS 4 no nos lo van a dejar probar hasta el lanzamiento de la serie 5000, ¿no? Y se sabe si se podrá sustituir el DLL para juegos que usen al menos DLSS 3 y ver las mejoras en juegos antiguos?
Yo me voy a quedar finalmente con la 4090 porque para mí no merece la pena el salto, y más viendo esa tabla. Ya volveré para la 6090 cuando tengan más pulido todo el tema de la IA y pueda notar más diferencia en raster.
Bitrubio escribió:parh escribió:olbhap escribió:
Gracias, estaremos pendientes en nvidia el día 30. Lo que no tengo claro es sobre qué hora suelen lanzar stock
suscribete en la web de nvidia para que te avisen apenas haya stock disponible
Yo tuve experiencia cuando había especulación con la minería y me puse hacer con una 3060ti founders y una 3070 founders y si esperas que te avise en Nvidia cuando hay stock, lo llevas claro de que te avise ya llevará tiempo sin haber stock. No se cómo será está generación de tarjetas pero a juzgar por el interés que hay, hacerse con una será tanto o más difícil que en aquellas 3000. Lo necesario, registro en ldlc, estar en bots de Telegram que refresquen cada 5 o 10 segundos y avisen de stock, loghearse y tener funciones de auto completado de datos y métodos de pago y aún con todo no es seguro de que se vaya a conseguir. No se qué volumen tendrán de stock pero no suele haber demasiado y si no se consigue en la primera "hornada" en las sucesivas suele haber menos y llega un momento en que ya ni las fabrican y hay que ir a ensamblador. Espero esto os sirva si queréis conseguir una pero se va a saturar la web seguro y será una lotería prácticamente
Gamer1974 escribió:HakiGold escribió:La 5090 ha pegado un salto de un 30% respecto a la 4090 con 50% más de Cudas y mayores frecuencia clock y memoria.
Lo va tener chungo la 5070 para superar aunque sea auna 4070S no, básicamente que tanto haya apretado las frecuencia determinará el rendimiento de la 5070.
Veremos porque el golpe de realidad que se puede llevar mucha gente cuando salga las review sin Fakes Frames puede ser curiosa.
seguro que no la limitan? yo tengo un ryzen 9 5900x y no sabia si cambiar a los ryzen 9, o no se.
dunkam82 escribió:hh1 escribió:Pero de momento, solo hay que ver qué en lo único que ganan la 5079Ti y 5080, es en núcleos de IA y no por mucho a la 4080.
Palman en raster ,en núcleos RT y en VRAM .
Y para superar a la 4090 necesitan de magia dlss4 + fg, saliendo de menores frames ,con la consiguiente perdida de calidad ,y como decimos ,de input lag.
Que oye ,por el precio que tienen está muy bien?Sí.
P or no son mejro s a ,mí modo de ver que la 4090.
Si fuéramos de la misma ciudad me apostaba una cerveza contigo a que la 5080 va a superar a la 4090.
¿En qué me baso? Pues muy sencillo en que una 4070Ti iguala o supera a una 3090
Ahora si nos vamos a los datos:
RTX 3090 tiene 10496 núcleos CUDA y una RTX 4070Ti tiene 7680, que según tu razonamiento no podría ser posible pero ahí tienes el vídeo.
Estás obviando muchas cosas como que tanto los núcleos CUDA como los núcleos RT de la 5080 son de una nueva generación (mejores) que los de la serie 4000, a parte el tema de que en núcleos de IA a parte de ser de nueva generación los de la 5080 también lleva un buen chorro más que la 4090.
papatuelo escribió:¿Q digo yo y si los fakes frames se ven bien q mas da como lo hagan?
Xq lo q ha mostrado digital foundry se ve muy bien.
El frame generation X4 se ve mejor q lo q hemos estado viendo con dlss 3 y la gente no se hacia el hará kiri por jugar así.
Bitrubio escribió:Quien todavía siga pensando que la 5080 va a igualar o superar en rasterizado a la 4090 que se lo quite de la cabeza. Si solo basta ver la tabla que han pasado de los tflops entre las 4000 y las nuevas 5000 y sabiendo que el nuevo nodo es un pelín más refinado a costa de tener más consumo que en las 4000 y teniendo las mismas frecuencias prácticamente.
Es más, ya me extrañaría que la 5080 se despegara más de un 5% de la 4080 super en potencia bruta
adriano_99 escribió:papatuelo escribió:¿Q digo yo y si los fakes frames se ven bien q mas da como lo hagan?
Xq lo q ha mostrado digital foundry se ve muy bien.
El frame generation X4 se ve mejor q lo q hemos estado viendo con dlss 3 y la gente no se hacia el hará kiri por jugar así.
Pues por el input lag.
El método actual mete menos imput lag y ya lo considero insufrible en la mayoría de juegos.
Bitrubio escribió:Quien todavía siga pensando que la 5080 va a igualar o superar en rasterizado a la 4090 que se lo quite de la cabeza. Si solo basta ver la tabla que han pasado de los tflops entre las 4000 y las nuevas 5000 y sabiendo que el nuevo nodo es un pelín más refinado a costa de tener más consumo que en las 4000 y teniendo las mismas frecuencias prácticamente.
Es más, ya me extrañaría que la 5080 se despegara más de un 5% de la 4080 super en potencia bruta
parh escribió:AxelStone escribió:@katatsumuri Lo cierto es que se ve de lujo y si realmente mantiene esos 30fps rocosos pues mira, se deja jugar bien. Como digo nos están generando necesidades artificiales que están jubilando prematuramente a las consolas. Soy feliz usuario de X y S, pero me da mucha pena que juegazos como el Immortals of Aveum tengan esa resolución traída de los infiernos.
para mi es imposible "jugar bien" a 30fps. MInimo 50 fps y haciendo un esfuerzo.
parh escribió:pero superar como? con FGx4 en la 5080, por supuesto que el contador de FPS va a volar en la 5080 (luego otra cosa es la degradacion en la calidad visual e input lag), la duda es bajo los escenarios de ambas en FGx2 y ambas en nativo. De momento, con la info que tenemos parece que no va a ser asi. Pero esta claro que se debera confirmar.
FranciscoVG escribió:El que esta obviando cosas eres tu, mira ese mismo video que tu has puesto, mira la frecuencia a la que funciona cada una
3090 1800mhz
4070ti 28000mhz
Por esto aunque tenga menos cudas rinden lo mismo, no es cosa de la arquitectura es de la frecuencia
La serie 5000 tiene la MISMA frecuencia que la serie 4000 por lo que NO va a pasar eso que tu estas diciendo, los nucleos cuda van a rendir prácticamente lo mismo por mucho que sean de generaciones distintas
Os vais a llevar una ostia cuando salgan las reviews....
P.D. Yo me apuesto 1000 euros contigo a que en raster la 5080 NO va a superar a la 4090 ¿aceptas?
hh1 escribió:En raster con el mismo nodo?
Imposible.
Esa que pones son nodos distintos.
Pasas ese detalle por alto.
Si fuésemos de la misma ciudad ,las perdias
Por algo digo que el salto vendrá en las 6000 con nuevo nodo.
Bitrubio escribió:Quien todavía siga pensando que la 5080 va a igualar o superar en rasterizado a la 4090 que se lo quite de la cabeza. Si solo basta ver la tabla que han pasado de los tflops entre las 4000 y las nuevas 5000 y sabiendo que el nuevo nodo es un pelín más refinado a costa de tener más consumo que en las 4000 y teniendo las mismas frecuencias prácticamente.
Es más, ya me extrañaría que la 5080 se despegara más de un 5% de la 4080 super en potencia bruta
papatuelo escribió:adriano_99 escribió:papatuelo escribió:¿Q digo yo y si los fakes frames se ven bien q mas da como lo hagan?
Xq lo q ha mostrado digital foundry se ve muy bien.
El frame generation X4 se ve mejor q lo q hemos estado viendo con dlss 3 y la gente no se hacia el hará kiri por jugar así.
Pues por el input lag.
El método actual mete menos imput lag y ya lo considero insufrible en la mayoría de juegos.
6.33 ms de media se inccrementa el input lag.
De los 50.97 ms a las 57,30. Eso es inperceptible.
Intenta pararlo en 6 milisegundos:
https://humanbenchmark.com/tests/reactiontime.
SECHI escribió:Bitrubio escribió:Quien todavía siga pensando que la 5080 va a igualar o superar en rasterizado a la 4090 que se lo quite de la cabeza. Si solo basta ver la tabla que han pasado de los tflops entre las 4000 y las nuevas 5000 y sabiendo que el nuevo nodo es un pelín más refinado a costa de tener más consumo que en las 4000 y teniendo las mismas frecuencias prácticamente.
Es más, ya me extrañaría que la 5080 se despegara más de un 5% de la 4080 super en potencia bruta
Bueno no todo son cudas y tflops, las 5000 tambien llevan gddr7 con mayor velocidad aunque el bus sea inferior y luego como han dicho mas arriba, si han mejorado el FG X2 que no notas si es inventado o no, que mas da? Al final lo importante es lo que uno ve y siente, no la manera de como lo consigue.
Nos guste o no, la IA es el futuro y ha llegado para quedarse y evolucionar.
hh1 escribió:SECHI escribió:Bitrubio escribió:Quien todavía siga pensando que la 5080 va a igualar o superar en rasterizado a la 4090 que se lo quite de la cabeza. Si solo basta ver la tabla que han pasado de los tflops entre las 4000 y las nuevas 5000 y sabiendo que el nuevo nodo es un pelín más refinado a costa de tener más consumo que en las 4000 y teniendo las mismas frecuencias prácticamente.
Es más, ya me extrañaría que la 5080 se despegara más de un 5% de la 4080 super en potencia bruta
Bueno no todo son cudas y tflops, las 5000 tambien llevan gddr7 con mayor velocidad aunque el bus sea inferior y luego como han dicho mas arriba, si han mejorado el FG X2 que no notas si es inventado o no, que mas da? Al final lo importante es lo que uno ve y siente, no la manera de como lo consigue.
Nos guste o no, la IA es el futuro y ha llegado para quedarse y evolucionar.
La GDDR7 no mejora tanto en rendimiento.
La clave es esa ,ver qué tal está implementado.No tiene más.
Si oye ,meten un x4 y no se nota ,que más da?
Ni tan mal.
La cuestión es que muchos creemos que si se va a notar.
A parte de que ese x4 ,no se habla pero...se necesita modo rendimiento del DLSS o es independiente de este?
Xq entre DLSS calidad y rendimiento, va un cojon en calidad de imagen.Que esa es otra.
Si mejoran el X2 ,será también para las 4000.
Sicopro escribió:parh escribió:AxelStone escribió:@katatsumuri Lo cierto es que se ve de lujo y si realmente mantiene esos 30fps rocosos pues mira, se deja jugar bien. Como digo nos están generando necesidades artificiales que están jubilando prematuramente a las consolas. Soy feliz usuario de X y S, pero me da mucha pena que juegazos como el Immortals of Aveum tengan esa resolución traída de los infiernos.
para mi es imposible "jugar bien" a 30fps. MInimo 50 fps y haciendo un esfuerzo.
Justamente en el primer God of War casi me da un soponcio por jugarlo en la PS4 a 30 FPS. Más que nada en el combate con la reina valquiria, un combate muy chungo, más que ningún boss de la saga souls que haya jugado. Tenía el juego en máxima dificultad y ese combate a 30 FPS era terrible.
Para ponerlo en contexto, me acuerdo que Malenia me la hice al séptimo try en PC a 60 FPS, y con la valquiria me tire horas wipeando, en gran medida por la falta de responsividad, era como si el personaje pesara una tonelada. No vuelvo a jugar a 30 FPS un juego de ese estilo en mi vida, al menos no a dificultad máxima.
adriano_99 escribió:papatuelo escribió:adriano_99 escribió:Pues por el input lag.
El método actual mete menos imput lag y ya lo considero insufrible en la mayoría de juegos.
6.33 ms de media se inccrementa el input lag.
De los 50.97 ms a las 57,30. Eso es inperceptible.
Intenta pararlo en 6 milisegundos:
https://humanbenchmark.com/tests/reactiontime.
La cosa no funciona así.
No se trata de que puedas hacer algo en menos de 6ms se trata de que todas las acciones que hagas van a tener esos 6ms extra.
Y son 6ms extra sobre un input que ya es demasiado alto de por si.
Todo lo que haces se nota mucho menos responsivo y menos suave, todo.
Hasta el simple hecho de girar la cámara.
Yo lo he probado en 5 juegos y en 4 de ellos lo considero injugable.
Así que no, no quiero para nada algo que es peor incluso en ese sentido.
hh1 escribió:@dunkam82
Es imposible que con el mismo DLSS y mismo FG ,sean superiores porque al final tiran de raster para luego reescalar y generar .
Si por ejemplo ,ojímetro ,una 4090 empieza un juego en 90fps la 5080 lo hará en 75.
Si le mismos mismo DLSS y mismo multiplicador ,es inviable
Solo pueden superarla con el x4, que ya veremos ,l calidad que tiene ,que está por ver.
Peor todo reescalado y FG ,necesita raster .
Rasterizado no lo ju ha ni dios.Muy pocos ,pero es w necesario para pesar a "tirar " de punto inicial.
Siempre dije que sí es un DLSS 4 con calidad y reescalando con más fps ,mejor .Es ael futuro.
Peor claro, ni caí que iban a necesitar de FG x4,y eso lo cambia todo ,porque mientras sel DLSS está muy avanzado y casi que a veces ,es hasta mejor que nativo y en validsd ,otorga fps extras ,ya el FG cambia la cosa.
La ganancia de frames es mayor ,pero ya entramos en más inconvenientes como posibles errores gráficos , input lag ,ghosting ,etc...
Por eso ,hasta que no haya reviews ,no sabemos el nivel de esto.
Y obviamente , a priori ,el problema del FG se agrava cuato más multiplique ,porque más pixels se inventa
Y luego, que es lo que digo digo.Y los juegos que ko lo lleven?
dunkam82 escribió:hh1 escribió:SECHI escribió:
Bueno no todo son cudas y tflops, las 5000 tambien llevan gddr7 con mayor velocidad aunque el bus sea inferior y luego como han dicho mas arriba, si han mejorado el FG X2 que no notas si es inventado o no, que mas da? Al final lo importante es lo que uno ve y siente, no la manera de como lo consigue.
Nos guste o no, la IA es el futuro y ha llegado para quedarse y evolucionar.
La GDDR7 no mejora tanto en rendimiento.
La clave es esa ,ver qué tal está implementado.No tiene más.
Si oye ,meten un x4 y no se nota ,que más da?
Ni tan mal.
La cuestión es que muchos creemos que si se va a notar.
A parte de que ese x4 ,no se habla pero...se necesita modo rendimiento del DLSS o es independiente de este?
Xq entre DLSS calidad y rendimiento, va un cojon en calidad de imagen.Que esa es otra.
Si mejoran el X2 ,será también para las 4000.
De lo visto y leído creo que te puedo responder a tus preguntas:
1º El Multi Frame Generation es independiente de que uses DLSS Calidad o DLSS Rendimiento, creo que tanto NVIDIA en sus gráficas como Digital Foundry por petición de NVIDIA han usado DLSS Rendimiento para abultar más los números de FPS y las diferencias
2º El DLSS 4 en Rendimiento está por encima en calidad visual del DLSS 3 en Calidad solo tienes que ver el video de Digital Foundry del Cyberpunk 2077
hh1 escribió:Claro, a eso me refiero.
Que los datos que dan ,serán los máximos ,con modo ultra rendimiento, aje se ve como el ojal.
Y si con eso ,una 5070 igual a la 4090...
Pues no ,no son iguales
Tú crees que se vídeo no está "trucado".
Vamos ,si se ve así DLSS 4 rendimiento, me quito el sombrero
Y oye ,que ojalá sea así eh?Que nos beneficiamos todos los de las 4000 también.
dunkam82 escribió:hh1 escribió:Claro, a eso me refiero.
Que los datos que dan ,serán los máximos ,con modo ultra rendimiento, aje se ve como el ojal.
Y si con eso ,una 5070 igual a la 4090...
Pues no ,no son iguales
Tú crees que se vídeo no está "trucado".
Vamos ,si se ve así DLSS 4 rendimiento, me quito el sombrero
Y oye ,que ojalá sea así eh?Que nos beneficiamos todos los de las 4000 también.
No el video no está trucado, lo único que como dijo cierto YouTuber que ahora no recuerdo los de Digital Foundry no le buscan las costuras al Multi Frame Generation haciendo movimientos bruscos de cámara, que es todo movimiento lineal que es más fácil inventarse frames que si haces movimientos brucos y cambias radicalmente la escena.
Pero vamos que la subida de calidad en DLSS 4 ha sido brutal porque como digo para mi el DLSS 4 en Rendimiento que se ve en el video del Cyberpunk 2077 se ve mejor que el DLSS 3 Calidad que tenemos ahora.
dunkam82 escribió:Por cierto aprovecho para preguntar, mi intención inicial sería pillar una 5080 Founder Edition, pero si no consiguiera pillar una, de las 5080 normalitas sin excentricidades y modelos más premium como la Asus Rog Astral o la Gigabyte AORUS que ya hay listadas en la web de LDLC ...
... entre una Asus PRIME y una MSI Ventus 3X que parecen las más normalitas (económicas) por el ensamble que llevan ¿cuál pillaríais?
papatuelo escribió:
Supongo que tienes una 4090, no?
dunkam82 escribió:Pero vamos que la subida de calidad en DLSS 4 ha sido brutal porque como digo para mi el DLSS 4 en Rendimiento que se ve en el video del Cyberpunk 2077 se ve mejor que el DLSS 3 Calidad que tenemos ahora.
adriano_99 escribió:dunkam82 escribió:Por cierto aprovecho para preguntar, mi intención inicial sería pillar una 5080 Founder Edition, pero si no consiguiera pillar una, de las 5080 normalitas sin excentricidades y modelos más premium como la Asus Rog Astral o la Gigabyte AORUS que ya hay listadas en la web de LDLC ...
... entre una Asus PRIME y una MSI Ventus 3X que parecen las más normalitas (económicas) por el ensamble que llevan ¿cuál pillaríais?
Es imposible de saber hasta que no salgan reviews.
A veces un modelo es la polla y otras veces ese modelo sale un cagarro.
Antes de la serie 30 las tuf las evitaban todos como a la peste pero salieron super buenas en esa generación y desde entonces han subido de categoría.papatuelo escribió:
Supongo que tienes una 4090, no?
Si.
Y precisamente cuantos mas fps de base tienes luego el resultado del frame generación es mejor así que mi input lag es mejor del que tendrá cualquiera con una 5070.
Y aun así lo considero demasiado alto.
gjazz escribió:Ese input lag para jugar a triplesA ni se nota... otra cosa es que juegues competitivo, entonces es que deberías tener todas estas tecnologías desactivadas
adriano_99 escribió:dunkam82 escribió:Por cierto aprovecho para preguntar, mi intención inicial sería pillar una 5080 Founder Edition, pero si no consiguiera pillar una, de las 5080 normalitas sin excentricidades y modelos más premium como la Asus Rog Astral o la Gigabyte AORUS que ya hay listadas en la web de LDLC ...
... entre una Asus PRIME y una MSI Ventus 3X que parecen las más normalitas (económicas) por el ensamble que llevan ¿cuál pillaríais?
Es imposible de saber hasta que no salgan reviews.
A veces un modelo es la polla y otras veces ese modelo sale un cagarro.
Antes de la serie 30 las tuf las evitaban todos como a la peste pero salieron super buenas en esa generación y desde entonces han subido de categoría.
hh1 escribió:Artefactos ,blur ,12ms de input lag añadido...
Y eso, con lo que te pone ayer Nvidia ,que no sabemos ni equipo, no oresets ,ni nada.
Comoara 4090 vs 5080 con x4
nikocrazy escribió:Viendo que FSR4 de AMD es exclusivo de las nuevas GPU no me queda claro si es así en las nuevas de Nvidia, todas las mejoras que desarrollaron de DLSS 4 es exclusivo de las RTX 50 o solo la característica Multi FG x4 de rendimiento?
adriano_99 escribió:gjazz escribió:Ese input lag para jugar a triplesA ni se nota... otra cosa es que juegues competitivo, entonces es que deberías tener todas estas tecnologías desactivadas
Yo no juego a nada online y lo noto que flipas.
dunkam82 escribió:Bueno por el ensamble que parece bastante más gruesa la TUF descartada porque intuyo que va a ser más cara que las dos que te menciono.
Sin tener reviews entre la Asus Prime y la MSI Ventus 3X si tu tuvieras que comprar ¿cuál eligirías?
Es imposible de saber hasta que no salgan reviews.