Librería DLSS (versión 3.1.13): https://www.techpowerup.com/download/nvidia-dlss-dll/
Librería DLSS 3 Frame Generation (versión 3.1.13): https://www.techpowerup.com/download/nv ... ation-dll/
- Destacar que ambas librerías pasaron, de repente, a la versión 3. DLSS pasó de la 2.5.1 a la 3.1.1 y la del FG pasó de la 1.0.7 a la misma 3.1.1.
Rvilla87 escribió:@adriano_99 no me puedes justificar que porque la librería tenga ahora la versión 3 sea lo mismo que hablar de DLSS 3. Como tu mismo dices, es un simple nombre de compilación, eso no contradice lo que digo.
Al principio del DLSS 3 como tecnología/producto (y no como versión de una librería) teníamos:DLSS 3 = FG 1.0 + Super Resolution 2.5 + Reflex x
¿Verdad que no decíamos que con una RTX 3000 podíamos tener DLSS 3? Decíamos DLSS 2 porque no soporta FG.
Ahora tenemos:DLSS 3 = FG 3 + Super Resolution 3 + Reflex x
¿Y en cambio ahora sí decimos que con una RTX DLSS 3 tenemos DLSS 3? ¿Qué sentido tiene decir eso ahora? No me parece válido, eso no es DLSS 3 de verdad, es la versión 3 del Super Resolution + Reflex, cosa distinta. Y si tienen la misma versión es simplemente porque han unificado la versión, que perfectamente podrían haber seguido como versionaban antes.
Si según Nvidia FG es parte del DLSS 3 (como tecnología, no como versión de una librería), no podemos llamar DLSS 3 a algo que NO tiene FG, no?
Creo que nadie que tenga una RTX 3000 o anterior puede decir que usa DLSS 3 como tecnología (que es a lo que nos referimos siempre), la versión de la librería no significa nada. Como si mañana le suben a la versión 10.0 porque no saben versionar, seguirán usando DLSS 2 como tecnología porque la 3000 no soporta FG y por lo tanto no soporta DLSS 3 (la tecnología).
Más datos de las librerías:Librería DLSS (versión 3.1.13): https://www.techpowerup.com/download/nvidia-dlss-dll/
Librería DLSS 3 Frame Generation (versión 3.1.13): https://www.techpowerup.com/download/nv ... ation-dll/
- Destacar que ambas librerías pasaron, de repente, a la versión 3. DLSS pasó de la 2.5.1 a la 3.1.1 y la del FG pasó de la 1.0.7 a la misma 3.1.1.
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.
VíctorXD escribió:Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.
A lo mejor te has confundido en la cita, pero la caché no aumenta la capacidad de memoria, si no el ancho de banda, al tener más datos en caché usa menos el ancho de banda de memoria.
Pero tener caché no significa tener el doble de capacidad de VRAM porque necesitarías una caché de 8GB(ya no sería caché) y la L2 solo se aumento en 96mb.
En pruebas con una variedad de juegos y puntos de referencia sintéticos, el caché L2 de 32 MB redujo el tráfico del bus de memoria en un poco más del 50% en promedio en comparación con el rendimiento de un caché L2 de 2 MB. Ve los accesos reducidos a VRAM en el diagrama del subsistema de memoria Ada anterior.
Esta reducción del tráfico del 50% permite que la GPU use su ancho de banda de memoria el doble de eficientemente. Como resultado, en este escenario, aislando el rendimiento de la memoria, una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda de memoria máximo. En una variedad de juegos y pruebas sintéticas, las tasas de aciertos mucho mayores mejoran las tasas de fotogramas hasta en un 34%.
Kavezacomeback escribió:VíctorXD escribió:Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.
A lo mejor te has confundido en la cita, pero la caché no aumenta la capacidad de memoria, si no el ancho de banda, al tener más datos en caché usa menos el ancho de banda de memoria.
Pero tener caché no significa tener el doble de capacidad de VRAM porque necesitarías una caché de 8GB(ya no sería caché) y la L2 solo se aumento en 96mb.
Lo sé, pero no es eso exactamente lo que venden y como lo venden, mira una esta cita y el enlace de donde procede.
En pruebas con una variedad de juegos y puntos de referencia sintéticos, el caché L2 de 32 MB redujo el tráfico del bus de memoria en un poco más del 50% en promedio en comparación con el rendimiento de un caché L2 de 2 MB. Ve los accesos reducidos a VRAM en el diagrama del subsistema de memoria Ada anterior.
Esta reducción del tráfico del 50% permite que la GPU use su ancho de banda de memoria el doble de eficientemente. Como resultado, en este escenario, aislando el rendimiento de la memoria, una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda de memoria máximo. En una variedad de juegos y pruebas sintéticas, las tasas de aciertos mucho mayores mejoran las tasas de fotogramas hasta en un 34%.
https://www.nvidia.com/es-la/geforce/ne ... explained/
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.
Kavezacomeback escribió:@Rvilla87 total que me has corregido indebidamente
Me da igual hombre, llamemos a todo como dices. El tema es que ellos venden la 4060 GB como si fuera una 3060 16GB aunque no son tan explícitos.
En la mayoría de los juegos, ambas versiones de GeForce RTX 4060 Ti (8 GB y 16 GB) pueden jugar con la configuración máxima y ofrecerán el mismo rendimiento..
Kavezacomeback escribió:@VíctorXD me voy a citar a ver si así aclaramos, que se físicamente no va a tener másKavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.Kavezacomeback escribió:@Rvilla87 total que me has corregido indebidamente
Me da igual hombre, llamemos a todo como dices. El tema es que ellos venden la 4060 GB como si fuera una 3060 16GB aunque no son tan explícitos.
Ellos dicen que no se puede comparar la gestión de memoria entre generaciones por cuestiones de eficiencia, que ahora con la nueva cache L2 dan un ancho de banda muy superior "una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda"
Ninguna 3060 ofrece esos números, la 3060 8GB normal tiene 240 GB/s vamos algo menos de la mitad. De ahí que hay una legión de fanboys diciendo equivale a 16GB de la generación anterior (bueno legión no sé, alguno que otros por los foros guiris).
-----------------------------------------------------------En la mayoría de los juegos, ambas versiones de GeForce RTX 4060 Ti (8 GB y 16 GB) pueden jugar con la configuración máxima y ofrecerán el mismo rendimiento..
https://www.nvidia.com/es-la/geforce/ne ... explained/
Eso para el que espere la de 16GB
javier español escribió:@[_-+-_] ¿El mismo rendimiento? Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento. Si te refieres a relación precio/rendimiento, pues puede ser, pero rinde más, con lo cual si cuesta más, pero rinde también más, para quien quiera un extra de rendimiento yo creo que merece la pena, y si ponemos en juego el DLSS3, pues más todavía.
https://www.techpowerup.com/review/msi- ... -x/32.html
https://www.techpowerup.com/review/asus ... oc/32.html
En esa misma web hay varias reviews más de otros modelos y la comparativa es respecto a la RTX 3060 de 12 GB, o sea que en su gama no importa tanto tener más VRAM.
Saludos.
GALIAGALATEA escribió:@Kavezacomeback habrá que enterarse ,seré paranoica los 1700 del cielo no me han llovido del cielo .
primero tienda y luego ensamblador y si se lavan las manos a disfrutar del oled y jugar con la ps5 .
Valhan escribió:Esto es como el gordo de Navidad.
Cada año tienes la ilusión, y llegado el momento la decepción, pero te consuelas pensando en el siguiente.
Miedo me da la serie 5000, porque desde que compré la 1080 (la mejor GPU que he tenido), cada GPU que saca nVidia me parece una maldita broma.
Y en la serie 3000 tuve que tragar con la 70 porque me tiré meses intentando pescar una 80 sin suerte, lo que hacia que esperara esta serie con más ganas porque se me queda corta, pero me cambio de acera porque no hay por donde coger ninguna, ya sea por precio, como por rendimiento.
Valhan escribió:@adriano_99 No estoy de acuerdo.
Estás obviando la disponibilidad (bueno, esto no, que lo has mencionado), la VRAM absurda, y los precios a los que llegaron esas GPUs a los usuarios (a los que pudieron hacerse con una).
Sin duda no es la peor serie que recuerdo, pero está muy lejos de ser, ya no muy buena, como dices, sino buena a secas.
adriano_99 escribió:Rvilla87 escribió:Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.
Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.
DLSS 3 + FG creo que está mal dicho, es DLSS 2 + FG (el mal llamado DLSS 3), son 2 cosas diferentes.
Que eso de vender como el doble de VRAM lo digan cuando no ha habido análisis, pues muy bien por ellos con su marketing con humo, quizás engaña a alguien (aunque sin poder comprarla será difícil que engañe de verdad a nadie). Pero cuando salen los análisis, se hacen comparaciones con las 3000 y las 4000 quedan en ridículo ya no tiene sentido ni ponerse a mirar qué dijo el fabricante.
Aún así todo esto de comprar un producto se suele basar en lo mismo, por mucho que el fabricante o los usuarios digan A o B, lo que siempre funciona es esperar a los análisis del producto que potencialmente te vas a comprar para ver si vale la pena el precio que estás dispuesto a pagar por el rendimiento que te va a dar.
De hecho con las 4000 si solo por el FG ya le vale la pena a alguno porque es algo que las 3000 no tienen, por mucho que en rendimiento sin FG las 4000 puedan quedar en evidencia, si con FG ganan en relación precio/rendimiento a las 3000 (que no sé) y el usuario no ve problemas en la calidad de imagen, pues perfecto para ese usuario. Que tiene que estar jodido estar en esa situación en la que solo el FG te podría hacer decidir si comprarla o no, porque para ver la calidad de imagen del FG o lo pruebas en persona o dudo que puedas saber con seguridad por comentarios de los usuarios (hay de todo).
No, DLSS3 y frame generation son dos cosas diferentes.
DLSS3 es una actualización del DLSS normal al igual que el 2 o 2.1 o 2.4.
Si no me equivoco la última versión es la 3.1.13.0
ivan95 escribió:No fue tan buena las RTX 3000.
Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....
Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣
hh1 escribió:ivan95 escribió:No fue tan buena las RTX 3000.
Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....
Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣
Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.
Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.
hh1 escribió:ivan95 escribió:No fue tan buena las RTX 3000.
Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....
Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣
Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.
Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.
ivan95 escribió:@DaNi_0389 pues seria la GTX 980, yo recuerdo que el precio de una tope de gama reciente fue ese, lo mismo me bailo una generacion🤣🤣🤣
Gracias por corregirmelo😉
ivan95 escribió:hh1 escribió:ivan95 escribió:No fue tan buena las RTX 3000.
Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....
Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣
Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.
Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.
A mi no me parece que hoy dia una RTX XX70 por 500€ sea un bombazo, puede tener el rendimiento que quiera.
Aqui no se paga por rendimiento como tal, se paga por I+D y coste de materiales, una RTX 4090 cual puede ser su coste, teniendo en cuenta que se filtro que la RTX 4080 les rondaba los 300€.......
La RTX 3070 paso de ser gama alta a media en el momento que salen las RTX XX90 del tiron, ademas de bajarla de escalon, la subieron al precio de una GTX 1080 de salida, cuando esta fue BUQUE INSIGNIA de la marca (aunque despues salio la TI, lo tipico), sigo sin ver el bombazo, no por lo menos de manera positiva, de forma negativa si podria ser llamado bombazo, fue cuando se dieron cuenta de que nos la pueden meter doblada y sin lubricante que no nos quejamos, les aplaudimos y hasta le defendemos como si un familiar nuestro fuera🤣
apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.
La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.
La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.
javier español escribió:Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento
LorK escribió:A 1080 puedo jugar a todo poniendo gráficos en alto y me está costando mucho cambiar (demasiado desembolso para la mejora proporcional). No me convence prácticamente nada.
calloudiano escribió:Uno de los comportamientos mas usuales en la mayoria de usuarios que arman una nueva PC es dejar stock sus componentes, sumado a subestimar la pieza mas importante del equipo que es el CPU, despues vienen los posts de porque no consiguen los frames y benchs que otros usuarios con equipos correctamente afinados, amen de no tener esa estabilidad/fluidez que deberian para haberse dejado $2000 o mas en los componentes.
Consejos basicos
Hacer OC a la RAM y encontrar los timings correctos, o por lo menos, ectivar el perfil XMP en la bios.
OC a la GPU, ojo con subestimar el valor de la memory clock, la mayoria suben lo maximo posible el core clock y dejan el MC en default o en +1000, yo siempre recomiendo un perfil de CC mas conservador como puede ser +170 y un MC de +1800, nada de UV, por el contrario, subir la curva de power a 110% o el tope que permita tu GPU, sincronizando con el tope termico, suele ser 88c en la serie 40 y un perfil manual de ventiladores, finalmente hacer los tests pertinentes en tu bateria de juegos, recomiendo aquellos GPU dependientes como CP 2077, Witcher 3 etc. usar preferentemente resoluciones 4K o 1440p aumentando la escala de resolucion, probar un par de horas hasta encontrar unos valores en donde no tengan crash.
UV al CPU y subir frecuencias para su pertinente OC y lograr disminuir el thermal throttling y de paso el consumo en Watts
El chip de mi 4080 ASUS TUF es del monton, pero he logrado un aumento de entre 7 y 11 FPS en juegos mejorando tambien los minimos por ende la estabilidad y fluidez durante sesiones de gaming con un perfil "conservador" en el MSI AB.
Core clock +167
Memory clock +1600
Las frecuencias de la GPU se mantienen planas a entre 2970 y 2980Mhz con el 99% de uso de la tarjeta, con un power limit en 110% (el maximo que me permite este modelo de GPU) manteniendo buenas temperaturas y consumiendo entre 330 y 350w a full uso, algunos lo podrian considerar alto ese consumo, no me importa esto y NO me gusta hacer UV a mis GPUs, para el CPU si que obra maravillas.
Si tu chip es bueno puedes subir al territorio de los +3000Mhz y MC a +1800 o +2000, pero para que no tengas crash con tales valores necesitas ganar el chip lottery, los modelos ASUS strix o sus similares de otras marcas tienen mas posibilidades de lograr esto pero sin ser un dogma, muchisima gente con GPUs mas caras con chips del monton, por eso es una loteria.
Kavezacomeback escribió:Mucho esperar y pequeño veo yo el salto. De una 1070 pienso yo que a una 4070 o equivalente.
La 6700XT es una buena gpu, pero yo a 350€ pues no.
Kavezacomeback escribió:Mucho esperar y pequeño veo yo el salto. De una 1070 pienso yo que a una 4070 o equivalente.
La 6700XT es una buena gpu, pero yo a 350€ pues no.
Kavezacomeback escribió:@LorK es cierto que tienen sobreprecio, pero bueno igualmente si no te importa y buscas encuentras algunas 3080 de segunda a precio razonable.
Yo pagué por la 6700XT 250€ y 260€ es el límite que me auto impuse por que 350€ no me parecía justo.
654321 escribió:javier español escribió:Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento
A 4K hay mucha menos diferencia ... por mucha cache que hayan puesto, el poco ancho de banda de las memorias de esta serie les pasa factura a resoluciones altas. A ver si las Super no son tan fraude.
Abianv escribió:apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.
La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.
La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.
Hola!!! Tal cual, no hay nada que merezca la pena. Aquí otro con una 1070 con la ilusión de que la 4060ti 16gb se quede a buen precio, porque si no se la van a comer con patatas como la versión de 8gb.
Lo que sí que me está costando es no pillar la 6700xt por 350€ con stardfield de regalo 😅, al final no voy a esperar ni a ver qué nos trae la 7700/7800 ni el precio de la 4060ti 16gb ni nada. Viendo lo visto...
(Iría a por la 6800xt de cabeza pero es verdad que no baja de 600€ ni por asomo, pica soltar 600€, veo tambien que tiene demasiado sobreprecio).
Saludos.
VíctorXD escribió:Abianv escribió:apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.
La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.
La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.
Hola!!! Tal cual, no hay nada que merezca la pena. Aquí otro con una 1070 con la ilusión de que la 4060ti 16gb se quede a buen precio, porque si no se la van a comer con patatas como la versión de 8gb.
Lo que sí que me está costando es no pillar la 6700xt por 350€ con stardfield de regalo 😅, al final no voy a esperar ni a ver qué nos trae la 7700/7800 ni el precio de la 4060ti 16gb ni nada. Viendo lo visto...
(Iría a por la 6800xt de cabeza pero es verdad que no baja de 600€ ni por asomo, pica soltar 600€, veo tambien que tiene demasiado sobreprecio).
Saludos.
350€ con starfield (300€) estás tardando en comprarla, en rendimiento la 4060ti con la 6700xt son prácticamente iguales y te llevas 12GB vs 8GB.
El Prime day en EEUU está una 6800xt + Starfield por $479 menuda ganga para los anglosajones.