[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@adriano_99 no me puedes justificar que porque la librería tenga ahora la versión 3 sea lo mismo que hablar de DLSS 3. Como tu mismo dices, es un simple nombre de compilación, eso no contradice lo que digo.

Al principio del DLSS 3 como tecnología/producto (y no como versión de una librería) teníamos:
    DLSS 3 = FG 1.0 + Super Resolution 2.5 + Reflex x
¿Verdad que no decíamos que con una RTX 3000 podíamos tener DLSS 3? Decíamos DLSS 2 porque no soporta FG.

Ahora tenemos:
    DLSS 3 = FG 3 + Super Resolution 3 + Reflex x
¿Y en cambio ahora sí decimos que con una RTX DLSS 3 tenemos DLSS 3? ¿Qué sentido tiene decir eso ahora? No me parece válido, eso no es DLSS 3 de verdad, es la versión 3 del Super Resolution + Reflex, cosa distinta. Y si tienen la misma versión es simplemente porque han unificado la versión, que perfectamente podrían haber seguido como versionaban antes.

Si según Nvidia FG es parte del DLSS 3 (como tecnología, no como versión de una librería), no podemos llamar DLSS 3 a algo que NO tiene FG, no?

Creo que nadie que tenga una RTX 3000 o anterior puede decir que usa DLSS 3 como tecnología (que es a lo que nos referimos siempre), la versión de la librería no significa nada. Como si mañana le suben a la versión 10.0 porque no saben versionar, seguirán usando DLSS 2 como tecnología porque la 3000 no soporta FG y por lo tanto no soporta DLSS 3 (la tecnología).


Más datos de las librerías:
Librería DLSS (versión 3.1.13): https://www.techpowerup.com/download/nvidia-dlss-dll/
Librería DLSS 3 Frame Generation (versión 3.1.13): https://www.techpowerup.com/download/nv ... ation-dll/

- Destacar que ambas librerías pasaron, de repente, a la versión 3. DLSS pasó de la 2.5.1 a la 3.1.1 y la del FG pasó de la 1.0.7 a la misma 3.1.1.
Rvilla87 escribió:@adriano_99 no me puedes justificar que porque la librería tenga ahora la versión 3 sea lo mismo que hablar de DLSS 3. Como tu mismo dices, es un simple nombre de compilación, eso no contradice lo que digo.

Al principio del DLSS 3 como tecnología/producto (y no como versión de una librería) teníamos:
    DLSS 3 = FG 1.0 + Super Resolution 2.5 + Reflex x
¿Verdad que no decíamos que con una RTX 3000 podíamos tener DLSS 3? Decíamos DLSS 2 porque no soporta FG.

Ahora tenemos:
    DLSS 3 = FG 3 + Super Resolution 3 + Reflex x
¿Y en cambio ahora sí decimos que con una RTX DLSS 3 tenemos DLSS 3? ¿Qué sentido tiene decir eso ahora? No me parece válido, eso no es DLSS 3 de verdad, es la versión 3 del Super Resolution + Reflex, cosa distinta. Y si tienen la misma versión es simplemente porque han unificado la versión, que perfectamente podrían haber seguido como versionaban antes.

Si según Nvidia FG es parte del DLSS 3 (como tecnología, no como versión de una librería), no podemos llamar DLSS 3 a algo que NO tiene FG, no?

Creo que nadie que tenga una RTX 3000 o anterior puede decir que usa DLSS 3 como tecnología (que es a lo que nos referimos siempre), la versión de la librería no significa nada. Como si mañana le suben a la versión 10.0 porque no saben versionar, seguirán usando DLSS 2 como tecnología porque la 3000 no soporta FG y por lo tanto no soporta DLSS 3 (la tecnología).


Más datos de las librerías:
Librería DLSS (versión 3.1.13): https://www.techpowerup.com/download/nvidia-dlss-dll/
Librería DLSS 3 Frame Generation (versión 3.1.13): https://www.techpowerup.com/download/nv ... ation-dll/

- Destacar que ambas librerías pasaron, de repente, a la versión 3. DLSS pasó de la 2.5.1 a la 3.1.1 y la del FG pasó de la 1.0.7 a la misma 3.1.1.

La cosa es que prácticamente nadie usa el nombre de "super resolution", incluso la mayoría de los juegos llaman a eso DLSS.
Con la definición del diccionario en la mano no es 100% correcto?No.
Pero tampoco lo son cosas como el 4k para 3840x2160, ni decir que tu ram es de 4000 Mhz en vez de megatransferencias por segundo.
Está bastante asimilado tanto a nivel de usuario como de desarrolladoras el llamar DLSS al super resolution y ya casi nadie dice que su gráfica no soporta DLSS3 sino que no soporta frame generation.
Y a fin de cuentas lo que es DLSS 3 y lo que es super resolution no dejan de ser nombres elegidos a dedo por personas, si la mayoría de la industria acepta como bueno DLSS es una tontería luchar contra eso.
@Rvilla87 total que me has corregido indebidamente [burla2]

Me da igual hombre, llamemos a todo como dices. El tema es que ellos venden la 4060 GB como si fuera una 3060 16GB aunque no son tan explícitos.
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.


A lo mejor te has confundido en la cita, pero la caché no aumenta la capacidad de memoria, si no el ancho de banda, al tener más datos en caché usa menos el ancho de banda de memoria.

Pero tener caché no significa tener el doble de capacidad de VRAM porque necesitarías una caché de 8GB(ya no sería caché) y la L2 solo se aumento en 96mb.
@[_-+-_] ¿El mismo rendimiento? Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento. Si te refieres a relación precio/rendimiento, pues puede ser, pero rinde más, con lo cual si cuesta más, pero rinde también más, para quien quiera un extra de rendimiento yo creo que merece la pena, y si ponemos en juego el DLSS3, pues más todavía.

https://www.techpowerup.com/review/msi- ... -x/32.html

Imagen


https://www.techpowerup.com/review/asus ... oc/32.html

Imagen

En esa misma web hay varias reviews más de otros modelos y la comparativa es respecto a la RTX 3060 de 12 GB, o sea que en su gama no importa tanto tener más VRAM.

Saludos.
VíctorXD escribió:
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.


A lo mejor te has confundido en la cita, pero la caché no aumenta la capacidad de memoria, si no el ancho de banda, al tener más datos en caché usa menos el ancho de banda de memoria.

Pero tener caché no significa tener el doble de capacidad de VRAM porque necesitarías una caché de 8GB(ya no sería caché) y la L2 solo se aumento en 96mb.


Lo sé, pero no es eso exactamente lo que venden y como lo venden, mira una esta cita y el enlace de donde procede.


En pruebas con una variedad de juegos y puntos de referencia sintéticos, el caché L2 de 32 MB redujo el tráfico del bus de memoria en un poco más del 50% en promedio en comparación con el rendimiento de un caché L2 de 2 MB. Ve los accesos reducidos a VRAM en el diagrama del subsistema de memoria Ada anterior.

Esta reducción del tráfico del 50% permite que la GPU use su ancho de banda de memoria el doble de eficientemente. Como resultado, en este escenario, aislando el rendimiento de la memoria, una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda de memoria máximo. En una variedad de juegos y pruebas sintéticas, las tasas de aciertos mucho mayores mejoran las tasas de fotogramas hasta en un 34%.


https://www.nvidia.com/es-la/geforce/ne ... explained/
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:
VíctorXD escribió:
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.


A lo mejor te has confundido en la cita, pero la caché no aumenta la capacidad de memoria, si no el ancho de banda, al tener más datos en caché usa menos el ancho de banda de memoria.

Pero tener caché no significa tener el doble de capacidad de VRAM porque necesitarías una caché de 8GB(ya no sería caché) y la L2 solo se aumento en 96mb.


Lo sé, pero no es eso exactamente lo que venden y como lo venden, mira una esta cita y el enlace de donde procede.


En pruebas con una variedad de juegos y puntos de referencia sintéticos, el caché L2 de 32 MB redujo el tráfico del bus de memoria en un poco más del 50% en promedio en comparación con el rendimiento de un caché L2 de 2 MB. Ve los accesos reducidos a VRAM en el diagrama del subsistema de memoria Ada anterior.

Esta reducción del tráfico del 50% permite que la GPU use su ancho de banda de memoria el doble de eficientemente. Como resultado, en este escenario, aislando el rendimiento de la memoria, una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda de memoria máximo. En una variedad de juegos y pruebas sintéticas, las tasas de aciertos mucho mayores mejoran las tasas de fotogramas hasta en un 34%.


https://www.nvidia.com/es-la/geforce/ne ... explained/


Es que lo que esta vendiendo en esa cita es justamente lo que comento, y es más ancho de banda , no más capacidad de memoria. Por eso te comenté que a lo mejor habías citado mal o lo interprestaste mal.

La VRam de la 4060 es 8GB y el aumento de caché no va influir en nada su capacidad de memoria, no va tener más.
@VíctorXD me voy a citar a ver si así aclaramos, que se físicamente no va a tener más :p


Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.


Kavezacomeback escribió:@Rvilla87 total que me has corregido indebidamente [burla2]

Me da igual hombre, llamemos a todo como dices. El tema es que ellos venden la 4060 GB como si fuera una 3060 16GB aunque no son tan explícitos.


Ellos dicen que no se puede comparar la gestión de memoria entre generaciones por cuestiones de eficiencia, que ahora con la nueva cache L2 dan un ancho de banda muy superior "una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda"

Ninguna 3060 ofrece esos números, la 3060 8GB normal tiene 240 GB/s vamos algo menos de la mitad. De ahí que hay una legión de fanboys diciendo equivale a 16GB de la generación anterior (bueno legión no sé, alguno que otros por los foros guiris).


-----------------------------------------------------------

En la mayoría de los juegos, ambas versiones de GeForce RTX 4060 Ti (8 GB y 16 GB) pueden jugar con la configuración máxima y ofrecerán el mismo rendimiento..


https://www.nvidia.com/es-la/geforce/ne ... explained/

Eso para el que espere la de 16GB [qmparto]
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:@VíctorXD me voy a citar a ver si así aclaramos, que se físicamente no va a tener más :p


Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.


Kavezacomeback escribió:@Rvilla87 total que me has corregido indebidamente [burla2]

Me da igual hombre, llamemos a todo como dices. El tema es que ellos venden la 4060 GB como si fuera una 3060 16GB aunque no son tan explícitos.


Ellos dicen que no se puede comparar la gestión de memoria entre generaciones por cuestiones de eficiencia, que ahora con la nueva cache L2 dan un ancho de banda muy superior "una GPU Ada con 288 GB/s de ancho de banda de memoria máximo tendría un rendimiento similar a una GPU Ampere con 554 GB/s de ancho de banda"

Ninguna 3060 ofrece esos números, la 3060 8GB normal tiene 240 GB/s vamos algo menos de la mitad. De ahí que hay una legión de fanboys diciendo equivale a 16GB de la generación anterior (bueno legión no sé, alguno que otros por los foros guiris).


-----------------------------------------------------------

En la mayoría de los juegos, ambas versiones de GeForce RTX 4060 Ti (8 GB y 16 GB) pueden jugar con la configuración máxima y ofrecerán el mismo rendimiento..


https://www.nvidia.com/es-la/geforce/ne ... explained/

Eso para el que espere la de 16GB [qmparto]


Es que estás confundiendo términos Velocidad y capacidad de memoria son cosas distintas, la cita de Nvidia es bastante clara y está vendiendo velocidad, no capacidad que las 4060 de 8 equivalgan 16GB, es un interpretación errónea.

Y Nvidia por si las dudas tampoco está vendiendo el doble de velocidad, porque técnicamente no hay el doble de ancho de banda, por eso usa la palabra "equivalencia".
Mi caso es simple acabo de gastarme un pastizal en una 4090 y una oled ya que no tengo vicios y quiero distraerme como lo hacía antes en el mundillo del pc .
Al leer mierdas de nuevos conectores ..que si esto o aquello me mosquea ,luego que sí pillar unos cables mejores que los que trae nvidia que son una full, comprar adaptador de cablemod ,etc .

Entonces si me toca la china y se me quema a los tres días palmo 1700 o nvidia hace algo?
o deja con el culo al aire al consumidor ?
@VíctorXD Yo creo que lo interpreto correctamente.

Ellos dicen que al aumentar la L2 tienen una tasa de aciertos mayor, no varia ningún otro parámetro, y que eso les permite procesar más con menos y que por lo tanto la comparativa 8GB VS 16 GB de la anterior generación carece de sentido desde el punto de vista gaming.

Ni más ni menos.
javier español escribió:@[_-+-_] ¿El mismo rendimiento? Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento. Si te refieres a relación precio/rendimiento, pues puede ser, pero rinde más, con lo cual si cuesta más, pero rinde también más, para quien quiera un extra de rendimiento yo creo que merece la pena, y si ponemos en juego el DLSS3, pues más todavía.

https://www.techpowerup.com/review/msi- ... -x/32.html

Imagen


https://www.techpowerup.com/review/asus ... oc/32.html

Imagen

En esa misma web hay varias reviews más de otros modelos y la comparativa es respecto a la RTX 3060 de 12 GB, o sea que en su gama no importa tanto tener más VRAM.

Saludos.





Dije, literalmente, "el mismo precio/rendimiento", asi que si, me referia a eso.

Y ya te dije que lo de la VRAM lo decia por lo que tu mismo decias que la gente preferia Nvidia, que es verdad: CUDA.
En muchas aplicaciones que usan CUDA la VRAM es mas importante que en videojuegos.
@GALIAGALATEA te cubre lo mismo que si le tiras una jarra de agua encima al PC [qmparto] en serio; dependera del ensamblador y tienda pienso yo.

@VíctorXD por si acaso en la conversación se nos quedo algo te aclaro que eso le entiendo yo a Nvidia, no que este de acuerdo yo con que sean lo mismo, de hecho la review que pusieron arriba al final le da leña por esto a nvidia.

@Kavezacomeback habrá que enterarse ,seré paranoica los 1700 del cielo no me han llovido del cielo .
primero tienda y luego ensamblador y si se lavan las manos a disfrutar del oled y jugar con la ps5 .
GALIAGALATEA escribió:@Kavezacomeback habrá que enterarse ,seré paranoica los 1700 del cielo no me han llovido del cielo .
primero tienda y luego ensamblador y si se lavan las manos a disfrutar del oled y jugar con la ps5 .


Yo aquí no he leído a nadie que le haya ocurrido, con esto no quiero decir de ninguna de las maneras que si ocurre seas tu el responsable, pero estoy contigo de que si gastas esa cantidad deberían dar ciertas garantías.
Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.

La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.

La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.
@apalizadorx tranki. Ya estás viendo que las gráficas bajan de precio a la semana de salir.... Amd no ha sacado sus 7800, y nvidia pal año que viene creo que las súper...

Es buen momento para poner el típico meme de las palomitas y jugar trankilo si con lo que tienes vas bien.

Estoy por comprar una hucha para cuando salga la 5080.
Esto es como el gordo de Navidad.

Cada año tienes la ilusión, y llegado el momento la decepción, pero te consuelas pensando en el siguiente.

Miedo me da la serie 5000, porque desde que compré la 1080 (la mejor GPU que he tenido), cada GPU que saca nVidia me parece una maldita broma.

Y en la serie 3000 tuve que tragar con la 70 porque me tiré meses intentando pescar una 80 sin suerte, lo que hacia que esperara esta serie con más ganas porque se me queda corta, pero me cambio de acera porque no hay por donde coger ninguna, ya sea por precio, como por rendimiento.
Valhan escribió:Esto es como el gordo de Navidad.

Cada año tienes la ilusión, y llegado el momento la decepción, pero te consuelas pensando en el siguiente.

Miedo me da la serie 5000, porque desde que compré la 1080 (la mejor GPU que he tenido), cada GPU que saca nVidia me parece una maldita broma.

Y en la serie 3000 tuve que tragar con la 70 porque me tiré meses intentando pescar una 80 sin suerte, lo que hacia que esperara esta serie con más ganas porque se me queda corta, pero me cambio de acera porque no hay por donde coger ninguna, ya sea por precio, como por rendimiento.

A ver, la serie 30 fué muy buena, hubo escasez pero como hardware es la polla.
Y lo mismo la 1000.
Las que han salido ranas son la 2000 y 4000, no es como si fuese la tónica general cada generación.
No fue tan buena las RTX 3000.

Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....

Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣
La verdad es que en general le están dando mucha caña a nvidia por parte de los medios, merecida pero sabemos de qué vive esta gente, Hardware unboxed de hecho ya a tenido problemas por esto y no se están cortando un pelo, me parto con los videos que sacan

Me sorprende que quitando algún canal suelto todo es hate pero del contundente, al cuello, de toda esta situación sin duda los que más vergüenza ajena dan son los vende humos, como el canal de Varo, todas las semanas te saca algún video con que los precios van a caer, nvidia contra las cuerdas o paridas del estilo cuando la situación ya sabemos como está, llevo siguiendo la 4070 el mínimo de lanzamiento eran 600 euros y 3 meses después no se a movido de ahí...
@adriano_99 No estoy de acuerdo.
Estás obviando la disponibilidad (bueno, esto no, que lo has mencionado), la VRAM absurda, y los precios a los que llegaron esas GPUs a los usuarios (a los que pudieron hacerse con una).

Sin duda no es la peor serie que recuerdo, pero está muy lejos de ser, ya no muy buena, como dices, sino buena a secas.
Valhan escribió:@adriano_99 No estoy de acuerdo.
Estás obviando la disponibilidad (bueno, esto no, que lo has mencionado), la VRAM absurda, y los precios a los que llegaron esas GPUs a los usuarios (a los que pudieron hacerse con una).

Sin duda no es la peor serie que recuerdo, pero está muy lejos de ser, ya no muy buena, como dices, sino buena a secas.

Yo me hice con una a su precio casi 3 meses después de su lanzamiento y hubo disponibilidad esporádica de las founders a su precio.
Lo de la vram te lo compro pero supusieron todas un buen salto respecto a la serie 2000 en potencia con un buen consumo.
adriano_99 escribió:
Rvilla87 escribió:
Kavezacomeback escribió:Con la 4060 nvidia lo que vende es el aumento de cache, dicen equivale a tener el doble de memoria vram que la serie anterior, y el DLSS 3 + FG.

Igual si logran meter esto en todos los juegos se salen con la suya, el tiempo lo dirá.

DLSS 3 + FG creo que está mal dicho, es DLSS 2 + FG (el mal llamado DLSS 3), son 2 cosas diferentes.

Que eso de vender como el doble de VRAM lo digan cuando no ha habido análisis, pues muy bien por ellos con su marketing con humo, quizás engaña a alguien (aunque sin poder comprarla será difícil que engañe de verdad a nadie). Pero cuando salen los análisis, se hacen comparaciones con las 3000 y las 4000 quedan en ridículo ya no tiene sentido ni ponerse a mirar qué dijo el fabricante.

Aún así todo esto de comprar un producto se suele basar en lo mismo, por mucho que el fabricante o los usuarios digan A o B, lo que siempre funciona es esperar a los análisis del producto que potencialmente te vas a comprar para ver si vale la pena el precio que estás dispuesto a pagar por el rendimiento que te va a dar.

De hecho con las 4000 si solo por el FG ya le vale la pena a alguno porque es algo que las 3000 no tienen, por mucho que en rendimiento sin FG las 4000 puedan quedar en evidencia, si con FG ganan en relación precio/rendimiento a las 3000 (que no sé) y el usuario no ve problemas en la calidad de imagen, pues perfecto para ese usuario. Que tiene que estar jodido estar en esa situación en la que solo el FG te podría hacer decidir si comprarla o no, porque para ver la calidad de imagen del FG o lo pruebas en persona o dudo que puedas saber con seguridad por comentarios de los usuarios (hay de todo).

No, DLSS3 y frame generation son dos cosas diferentes.
DLSS3 es una actualización del DLSS normal al igual que el 2 o 2.1 o 2.4.
Si no me equivoco la última versión es la 3.1.13.0


Nvidia es una putera con las nomenclaturas, muy hdp tambien.

En realidad dlls 3 es el dlss 2 + FG y todo el paquete renombrado como dlss3 para la serie 4000.
ivan95 escribió:No fue tan buena las RTX 3000.

Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....

Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣

Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.

Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.
hh1 escribió:
ivan95 escribió:No fue tan buena las RTX 3000.

Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....

Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣

Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.

Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.


si, pero con 11 gigas vs 8 de la 3070.... que ya se, que por rendimiento/precio la 280ti fue un desproposito, pero el mismo desproposito que esta siendo ahora la serie 4000
hh1 escribió:
ivan95 escribió:No fue tan buena las RTX 3000.

Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....

Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣

Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.

Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.


A mi no me parece que hoy dia una RTX XX70 por 500€ sea un bombazo, puede tener el rendimiento que quiera.

Aqui no se paga por rendimiento como tal, se paga por I+D y coste de materiales, una RTX 4090 cual puede ser su coste, teniendo en cuenta que se filtro que la RTX 4080 les rondaba los 300€.......

La RTX 3070 paso de ser gama alta a media en el momento que salen las RTX XX90 del tiron, ademas de bajarla de escalon, la subieron al precio de una GTX 1080 de salida, cuando esta fue BUQUE INSIGNIA de la marca (aunque despues salio la TI, lo tipico), sigo sin ver el bombazo, no por lo menos de manera positiva, de forma negativa si podria ser llamado bombazo, fue cuando se dieron cuenta de que nos la pueden meter doblada y sin lubricante que no nos quejamos, les aplaudimos y hasta le defendemos como si un familiar nuestro fuera🤣
A ver que sacan por debajo de 300€ nvidia (bueno y amd) además de la 4050 por que ahí hay muchísima gente. Algunos piensan no habrá más GTX y yo estoy convencido que algo como lo de ahora sacaran.
@ivan95

La 1080 no costaba 500€ de salida eh, que yo me pille una el día de lanzamiento y me salió por 757€
@DaNi_0389 pues seria la GTX 980, yo recuerdo que el precio de una tope de gama reciente fue ese, lo mismo me bailo una generacion🤣🤣🤣

Gracias por corregirmelo😉
ivan95 escribió:@DaNi_0389 pues seria la GTX 980, yo recuerdo que el precio de una tope de gama reciente fue ese, lo mismo me bailo una generacion🤣🤣🤣

Gracias por corregirmelo😉



Jeje la 980 si, 500€ eran.
ivan95 escribió:
hh1 escribió:
ivan95 escribió:No fue tan buena las RTX 3000.

Una RTX 3070 por 500€ duele, no mucho antes por eso te llevabas una GTX 1080.....

Eran caras, no tanto como a futuro se puso todo, pero eran carillas🤣

Depende de cómo se.mkre.
La 3070 rinde colo una 2080Ti que valía +1000€ y la genias por 519€.
Vamos ,fue un jodido bombazo.

Ectrapolandolo a algo actual ,es como si ahora sacan la 5070 por 500€ con el rendimiento de la 4080.
Qué he parecería?
Pues un bombazo.


A mi no me parece que hoy dia una RTX XX70 por 500€ sea un bombazo, puede tener el rendimiento que quiera.

Aqui no se paga por rendimiento como tal, se paga por I+D y coste de materiales, una RTX 4090 cual puede ser su coste, teniendo en cuenta que se filtro que la RTX 4080 les rondaba los 300€.......

La RTX 3070 paso de ser gama alta a media en el momento que salen las RTX XX90 del tiron, ademas de bajarla de escalon, la subieron al precio de una GTX 1080 de salida, cuando esta fue BUQUE INSIGNIA de la marca (aunque despues salio la TI, lo tipico), sigo sin ver el bombazo, no por lo menos de manera positiva, de forma negativa si podria ser llamado bombazo, fue cuando se dieron cuenta de que nos la pueden meter doblada y sin lubricante que no nos quejamos, les aplaudimos y hasta le defendemos como si un familiar nuestro fuera🤣

Solo te digo que si sacan hoy,y te digo hoy, como he digo en un año, ,una gráfica ,llamala como quieres ,a 519€ que rinda ecomo una 4080, se inflan a vender.
Bombazo

Y bueno...yo también compraba en su día la alta de gama a 350€.Por ejemplo la 7900GT.
Pero el tiempo pasa.
Uno de los comportamientos mas usuales en la mayoria de usuarios que arman una nueva PC es dejar stock sus componentes, sumado a subestimar la pieza mas importante del equipo que es el CPU, despues vienen los posts de porque no consiguen los frames y benchs que otros usuarios con equipos correctamente afinados, amen de no tener esa estabilidad/fluidez que deberian para haberse dejado $2000 o mas en los componentes.

Consejos basicos

Hacer OC a la RAM y encontrar los timings correctos, o por lo menos, ectivar el perfil XMP en la bios.

OC a la GPU, ojo con subestimar el valor de la memory clock, la mayoria suben lo maximo posible el core clock y dejan el MC en default o en +1000, yo siempre recomiendo un perfil de CC mas conservador como puede ser +170 y un MC de +1800, nada de UV, por el contrario, subir la curva de power a 110% o el tope que permita tu GPU, sincronizando con el tope termico, suele ser 88c en la serie 40 y un perfil manual de ventiladores, finalmente hacer los tests pertinentes en tu bateria de juegos, recomiendo aquellos GPU dependientes como CP 2077, Witcher 3 etc. usar preferentemente resoluciones 4K o 1440p aumentando la escala de resolucion, probar un par de horas hasta encontrar unos valores en donde no tengan crash.

UV al CPU y subir frecuencias para su pertinente OC y lograr disminuir el thermal throttling y de paso el consumo en Watts

El chip de mi 4080 ASUS TUF es del monton, pero he logrado un aumento de entre 7 y 11 FPS en juegos mejorando tambien los minimos por ende la estabilidad y fluidez durante sesiones de gaming con un perfil "conservador" en el MSI AB.

Core clock +167
Memory clock +1600

Las frecuencias de la GPU se mantienen planas a entre 2970 y 2980Mhz con el 99% de uso de la tarjeta, con un power limit en 110% (el maximo que me permite este modelo de GPU) manteniendo buenas temperaturas y consumiendo entre 330 y 350w a full uso, algunos lo podrian considerar alto ese consumo, no me importa esto y NO me gusta hacer UV a mis GPUs, para el CPU si que obra maravillas.

Si tu chip es bueno puedes subir al territorio de los +3000Mhz y MC a +1800 o +2000, pero para que no tengas crash con tales valores necesitas ganar el chip lottery, los modelos ASUS strix o sus similares de otras marcas tienen mas posibilidades de lograr esto pero sin ser un dogma, muchisima gente con GPUs mas caras con chips del monton, por eso es una loteria.
@calloudiano si bueno gastar un 30% mas en componentes para obtener un 5% mas en rendimiento es toda una hazaña… del que le sobra claro porque carece de sentido alguno.

El OC antaño era algo de los 4 frikis, ahora es gastar pasta en componentes para tener lo mejor y darle a un botón o activar un perfil…
@Kavezacomeback

Pues es que es precisamente el objetivo, sacar el maximo provecho al hardware por el que has pagado. Pero llevas razon en que los componentes ya no escalan tanto con el OC como en el pasado, creo que aun le queda algo de magia al cacharreo, sobre todo cuando se juega a algun shooter competitivo, fuera de ahi, usualmente no compensa.

Aunque 10fps gratis no estan nada mal, sobre todo cuando pasa el tiempo y tu gpu comienza a mostrar su edad.
apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.

La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.

La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.


Hola!!! Tal cual, no hay nada que merezca la pena. Aquí otro con una 1070 con la ilusión de que la 4060ti 16gb se quede a buen precio, porque si no se la van a comer con patatas como la versión de 8gb.

Lo que sí que me está costando es no pillar la 6700xt por 350€ con stardfield de regalo 😅, al final no voy a esperar ni a ver qué nos trae la 7700/7800 ni el precio de la 4060ti 16gb ni nada. Viendo lo visto...

(Iría a por la 6800xt de cabeza pero es verdad que no baja de 600€ ni por asomo, pica soltar 600€, veo tambien que tiene demasiado sobreprecio).

Saludos.
Otro exactamente igual con una 1070 por aquí.
A 1080 puedo jugar a todo poniendo gráficos en alto y me está costando mucho cambiar (demasiado desembolso para la mejora proporcional). No me convence prácticamente nada.

Eso si, estoy pensándome mucho esa 6700xt con el starfield ...
Mucho esperar y pequeño veo yo el salto. De una 1070 pienso yo que a una 4070 o equivalente.

La 6700XT es una buena gpu, pero yo a 350€ pues no.
javier español escribió:Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento

A 4K hay mucha menos diferencia ... por mucha cache que hayan puesto, el poco ancho de banda de las memorias de esta serie les pasa factura a resoluciones altas. A ver si las Super no son tan fraude.


LorK escribió:A 1080 puedo jugar a todo poniendo gráficos en alto y me está costando mucho cambiar (demasiado desembolso para la mejora proporcional). No me convence prácticamente nada.

Muchos estais pensando lo mismo, y eso va a hacer a NVIDIA ponerse de rodillas, y tendran que sacar esas Super que se rumorean que sí merecen la pena.

Por mucha pasta que esten ganando con la IA, no van a pasar del mercado Gamer, saben que es un valor seguro, la IA podria desincharse de golpe por culpa de regulaciones, chips especificos, etc ...
calloudiano escribió:Uno de los comportamientos mas usuales en la mayoria de usuarios que arman una nueva PC es dejar stock sus componentes, sumado a subestimar la pieza mas importante del equipo que es el CPU, despues vienen los posts de porque no consiguen los frames y benchs que otros usuarios con equipos correctamente afinados, amen de no tener esa estabilidad/fluidez que deberian para haberse dejado $2000 o mas en los componentes.

Consejos basicos

Hacer OC a la RAM y encontrar los timings correctos, o por lo menos, ectivar el perfil XMP en la bios.

OC a la GPU, ojo con subestimar el valor de la memory clock, la mayoria suben lo maximo posible el core clock y dejan el MC en default o en +1000, yo siempre recomiendo un perfil de CC mas conservador como puede ser +170 y un MC de +1800, nada de UV, por el contrario, subir la curva de power a 110% o el tope que permita tu GPU, sincronizando con el tope termico, suele ser 88c en la serie 40 y un perfil manual de ventiladores, finalmente hacer los tests pertinentes en tu bateria de juegos, recomiendo aquellos GPU dependientes como CP 2077, Witcher 3 etc. usar preferentemente resoluciones 4K o 1440p aumentando la escala de resolucion, probar un par de horas hasta encontrar unos valores en donde no tengan crash.

UV al CPU y subir frecuencias para su pertinente OC y lograr disminuir el thermal throttling y de paso el consumo en Watts

El chip de mi 4080 ASUS TUF es del monton, pero he logrado un aumento de entre 7 y 11 FPS en juegos mejorando tambien los minimos por ende la estabilidad y fluidez durante sesiones de gaming con un perfil "conservador" en el MSI AB.

Core clock +167
Memory clock +1600

Las frecuencias de la GPU se mantienen planas a entre 2970 y 2980Mhz con el 99% de uso de la tarjeta, con un power limit en 110% (el maximo que me permite este modelo de GPU) manteniendo buenas temperaturas y consumiendo entre 330 y 350w a full uso, algunos lo podrian considerar alto ese consumo, no me importa esto y NO me gusta hacer UV a mis GPUs, para el CPU si que obra maravillas.

Si tu chip es bueno puedes subir al territorio de los +3000Mhz y MC a +1800 o +2000, pero para que no tengas crash con tales valores necesitas ganar el chip lottery, los modelos ASUS strix o sus similares de otras marcas tienen mas posibilidades de lograr esto pero sin ser un dogma, muchisima gente con GPUs mas caras con chips del monton, por eso es una loteria.

Para mí, .vno compensa el gasto extra de dinero de cpu en cuanto a diferencia de rendimiento llegados a x nivel.

Igual que no compensa la ganancia d erendimiento en una GPU con oc con respecto auna con UV+OC umy menor consumo
Kavezacomeback escribió:Mucho esperar y pequeño veo yo el salto. De una 1070 pienso yo que a una 4070 o equivalente.

La 6700XT es una buena gpu, pero yo a 350€ pues no.



Bueno el tema es que una 4070 son mínimo 600€ (la gigabyte) y me parece demasiado cara para la diferencia de rendimiento.
Y eso que siempre fui de ir saltando a cada xx70 de generación en generación hasta que llegó la locura con las series 2000/3000.
@LorK es cierto que tienen sobreprecio, pero bueno igualmente si no te importa y buscas encuentras algunas 3080 de segunda a precio razonable.

Yo pagué por la 6700XT 250€ y 260€ es el límite que me auto impuse por que 350€ no me parecía justo.
Kavezacomeback escribió:Mucho esperar y pequeño veo yo el salto. De una 1070 pienso yo que a una 4070 o equivalente.

La 6700XT es una buena gpu, pero yo a 350€ pues no.


Nueva, con 3 años de garantía, y con Starfield.

Probablemente la mejor opción actual en rendimiento por €.
Kavezacomeback escribió:@LorK es cierto que tienen sobreprecio, pero bueno igualmente si no te importa y buscas encuentras algunas 3080 de segunda a precio razonable.

Yo pagué por la 6700XT 250€ y 260€ es el límite que me auto impuse por que 350€ no me parecía justo.


No si todos estamos de acuerdo en que están super caras XD
Al final miro gráficas cada 2x3 y acabo echándome para atrás simplemente por el precio. Ya que la 1070 aún tira decentemente y con estos precios acabo pensando que al final las cambio por antojo y me quedo con lo que tengo jajaja.

Pero claro, la 6700xt veo que rinde bastante más que la mía, que no es un precio exagerado ... ¡y encima viene con el juego starfield! Mi corazoncito sufre [carcajad]


Y de la segunda mano actualmente paso, sinceramente. Porque si ya nuevas me parecen caras no te imaginas lo que me parece la segunda mano xD
@LorK hombre intento que de segunda tengan garantía y que además en esta ecuación no metí el juego, es que ni me acordé de la promo [carcajad]

Visto así no sale mal.
Pues nada, soy débil.

Me la acabo de comprar en pccomponentes XD
Total restando lo que vale el juego (starfield) la vga "sale" por 279€ :P


EDIT: Bueno, veamos que tal mi vuelta a las ATI después de casi 17 años que tuve la última (no cuento portátiles) XD
654321 escribió:
javier español escribió:Hay una diferencia de entre el 15-19% de diferencia, según el modelo que se trate, no lo llamaría yo el mismo rendimiento

A 4K hay mucha menos diferencia ... por mucha cache que hayan puesto, el poco ancho de banda de las memorias de esta serie les pasa factura a resoluciones altas. A ver si las Super no son tan fraude.

Es que esas gráficas no son para 4K, hombre, son gráficas para 1080p o como mucho 2K sin muchas exigencias.

Saludos.
VíctorXD está baneado por "clon de usuario baneado"
Abianv escribió:
apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.

La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.

La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.


Hola!!! Tal cual, no hay nada que merezca la pena. Aquí otro con una 1070 con la ilusión de que la 4060ti 16gb se quede a buen precio, porque si no se la van a comer con patatas como la versión de 8gb.

Lo que sí que me está costando es no pillar la 6700xt por 350€ con stardfield de regalo 😅, al final no voy a esperar ni a ver qué nos trae la 7700/7800 ni el precio de la 4060ti 16gb ni nada. Viendo lo visto...

(Iría a por la 6800xt de cabeza pero es verdad que no baja de 600€ ni por asomo, pica soltar 600€, veo tambien que tiene demasiado sobreprecio).

Saludos.


350€ con starfield (300€) estás tardando en comprarla, en rendimiento la 4060ti con la 6700xt son prácticamente iguales y te llevas 12GB vs 8GB.

El Prime day en EEUU está una 6800xt + Starfield por $479 menuda ganga para los anglosajones.
VíctorXD escribió:
Abianv escribió:
apalizadorx escribió:Qué porquería de generación tanto Nvidia cómo AMD, aunque está última se salva la Rx 6600 por 200€ y la 6700xt y por 12gb lo demás es pura basura.

La 3060 de 12gb está por 280€ pero el rendimiento deja bastante que desear, la 4060 sin FG/dlss 3 se hunde en la miseria, si tuviese almenos 10gb y el precio rondará los 270€ podría ser una opción a tener en cuenta, pero 320/340€ con 8gb miserables en 2023 menuda tomadura de pelo, a menos que se quiera usar para uso mixto jugar y uso profesional no le veo mucho sentido.

La Rx 6800/xt y 4070 si nos ceñimos estrictamente al rendimiento no están nada mal pero con ese precio inflado es un disparate, voy a seguir con mi vega 64 hasta 2024/2025 no veo aliciente en renovar la gráfica y eso que apetece darme algun capricho pero con éste panorama va ser que no.


Hola!!! Tal cual, no hay nada que merezca la pena. Aquí otro con una 1070 con la ilusión de que la 4060ti 16gb se quede a buen precio, porque si no se la van a comer con patatas como la versión de 8gb.

Lo que sí que me está costando es no pillar la 6700xt por 350€ con stardfield de regalo 😅, al final no voy a esperar ni a ver qué nos trae la 7700/7800 ni el precio de la 4060ti 16gb ni nada. Viendo lo visto...

(Iría a por la 6800xt de cabeza pero es verdad que no baja de 600€ ni por asomo, pica soltar 600€, veo tambien que tiene demasiado sobreprecio).

Saludos.


350€ con starfield (300€) estás tardando en comprarla, en rendimiento la 4060ti con la 6700xt son prácticamente iguales y te llevas 12GB vs 8GB.

El Prime day en EEUU está una 6800xt + Starfield por $479 menuda ganga para los anglosajones.


Con impuestos se quedará parecido a los 550€ de aquí

Esos $479 son sin impuestos
El prime day está siendo increíble, hay tantas ofertas de gráficas que ahora mismo no se cual coger
14352 respuestas