[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

valorblanco escribió:
elcapoprods escribió:
valorblanco escribió:
Aún estoy a tiempo de devolverla, en pc componentes tienen la rx 6700 xt en 339 , que con un bono se me quedaría en 330 y me regalan starfield. Pero también me tienta una rx 6800 y tendría creo que cambiar de fuente ya que tengo una de 650w

La 6800XT es como una 3080/4070 asi que el salto es bastante considerable, recomienda una fuente de 650W asi que si es de calidad no tendrias problemas.

Yo tengo una de 750 con la 4080 que pide minimo 750 y me sobran W por todos lados.


Opciónes

La rx 6700 a 330eurs
La rx 6800 a 519 eue

Y la 3080 a 568 está reacondicionada


Depende un poco de tu equipo y lo que hagas con la gráfica, pero yo desaconsejo la 3080 esa
hola gente estoy entre la 6950 xt y la rtx 4070 ,me gusta los 16 gb de ram y la potencia bruta de la 6950 xt .

Alguien tiene datos o algún link donde se vea donde queda la 4070 con el dlss3 activado frente a la 6950xt .

No creo que amd mejore su FSR o por lo menos aún queda por lo que dicen , en cambio nvidia si que puede darle un empujón mas con el dlss 3.5 si supuestamente es verdad que lo activen para la serie 4000 y no la guarden para la 5000.

gracias y un saludo
Goncatin escribió:
valorblanco escribió:
elcapoprods escribió:La 6800XT es como una 3080/4070 asi que el salto es bastante considerable, recomienda una fuente de 650W asi que si es de calidad no tendrias problemas.

Yo tengo una de 750 con la 4080 que pide minimo 750 y me sobran W por todos lados.


Opciónes

La rx 6700 a 330eurs
La rx 6800 a 519 eue

Y la 3080 a 568 está reacondicionada


Depende un poco de tu equipo y lo que hagas con la gráfica, pero yo desaconsejo la 3080 esa


Gracias
virtus escribió:hola gente estoy entre la 6950 xt y la rtx 4070 ,me gusta los 16 gb de ram y la potencia bruta de la 6950 xt .

Alguien tiene datos o algún link donde se vea donde queda la 4070 con el dlss3 activado frente a la 6950xt .

No creo que amd mejore su FSR o por lo menos aún queda por lo que dicen , en cambio nvidia si que puede darle un empujón mas con el dlss 3.5 si supuestamente es verdad que lo activen para la serie 4000 y no la guarden para la 5000.

gracias y un saludo


Con DLSS por encima seguro, en cualquier review lo puedes ver, el tema es si los juegos lo implementan te interesan y ademas de FSR 3 no se sabe nada. Comentan que igual con Starlink lanzan FSR 3 así que yo al menos esperaría a su lanzamiento, esta noche comienza la Gamescom que dura 3 días y se espera saber algo sobre esto según rumores.
valorblanco escribió:
elcapoprods escribió:
valorblanco escribió:Tengo una 4060 ti de 16 gb, la pille por 430 euros, iba por una rx 6700 pero se puso a Tiro esta por ese precio, tengo un Ryzen 5 5600x y un monitor de 49 pulgadas curvo, juego a resolución 5140x1440, el caso es que con el dlss3 si le saco partido, pero en juegos sin él pues no, y no se si pillar algo más potente

Tenias la 6700XT por 100€ menos y rindiendo mejor que la 4060ti.


A esa resolucion una 4060ti se queda corta si no bajas cosas.


Aún estoy a tiempo de devolverla, en pc componentes tienen la rx 6700 xt en 339 , que con un bono se me quedaría en 330 y me regalan starfield. Pero también me tienta una rx 6800 y tendría creo que cambiar de fuente ya que tengo una de 650w


Ese cupón es tuyo personal?

Gracias @valorblanco
[Alex] escribió:
valorblanco escribió:
elcapoprods escribió:Tenias la 6700XT por 100€ menos y rindiendo mejor que la 4060ti.


A esa resolucion una 4060ti se queda corta si no bajas cosas.


Aún estoy a tiempo de devolverla, en pc componentes tienen la rx 6700 xt en 339 , que con un bono se me quedaría en 330 y me regalan starfield. Pero también me tienta una rx 6800 y tendría creo que cambiar de fuente ya que tengo una de 650w


Ese cupón es tuyo personal?

Gracias @valorblanco

Si
Están saliendo los primeros juegos que hacen uso del unreal engine 5.2 (Fort Solis y Immortals of Aveum).

Y la conclusión que he sacado es que cualquier juego de estos necesitará como minimo una 3080 con dlss 2.0 activado para llegar a 1440p@60.

Y que el frame generation será indispensable para plantearse los 4K con estos títulos con unas 4080/4090 con tasas por encima de los 60fps...

Recalcar que estos dos titulos en consolas ni por asomo llegan a los 1440p (el Inmortals rinde a 847p en series x) reescalando con fsr 2.0.
virtus escribió:hola gente estoy entre la 6950 xt y la rtx 4070 ,me gusta los 16 gb de ram y la potencia bruta de la 6950 xt .

Alguien tiene datos o algún link donde se vea donde queda la 4070 con el dlss3 activado frente a la 6950xt .

No creo que amd mejore su FSR o por lo menos aún queda por lo que dicen , en cambio nvidia si que puede darle un empujón mas con el dlss 3.5 si supuestamente es verdad que lo activen para la serie 4000 y no la guarden para la 5000.

gracias y un saludo

Yo no elegiría basando la elección en DLSS 3.
En poquitos juegos en lo he encontrado.
Diría que de Diciembre a aquí, de todo lo que he jugado, que no ha sido poco, solo lo vi en A Plague Tale Requiem y en Remnant 2.


Tampoco elegiría gráficas , basándome en el vende humos del RT.

Lo mismo tu tienes más suerte con lo que juegues,porque yo....

Otra cosa es que prefieras DLSS 2 y tal, que ese sí está más presente y lo encuentro en la mayoría de juegos.
virtus escribió:hola gente estoy entre la 6950 xt y la rtx 4070 ,me gusta los 16 gb de ram y la potencia bruta de la 6950 xt .

Alguien tiene datos o algún link donde se vea donde queda la 4070 con el dlss3 activado frente a la 6950xt .

No creo que amd mejore su FSR o por lo menos aún queda por lo que dicen , en cambio nvidia si que puede darle un empujón mas con el dlss 3.5 si supuestamente es verdad que lo activen para la serie 4000 y no la guarden para la 5000.

gracias y un saludo



Yo elegí la 6950XT.
Yo ahora mismo no elegiría nada.

Esperaría al menos hasta el 25, y vería cómo se mueve la cosa con las 7700/7800XT

En el peor de los casos se quedará como está.
[Alex] escribió:Yo ahora mismo no elegiría nada.

Esperaría al menos hasta el 25, y vería cómo se mueve la cosa con las 7700/7800XT

En el peor de los casos se quedará como está.


O hasta el 2030 mejor
_anVic_ está baneado por "clon de usuario baneado"
Japvil26 escribió:
_anVic_ escribió:
elcapoprods escribió:Las Asus tienen coil whine, mas o menos pero tienen, MSI no tiene, recomiendo la Suprim o la Gaming X, la Ventus tiene limitado el power limit a 320W por lo que no puedes hacerle OC en caso de querer.

Mirate bien las specs de cada una, todas son buenas y frescas pero ya va a depender de tus exigencias el modelo.

De gigabyte huiria tras ver como el PCB se quiebra por el diseño que tienen.

Las otras marcas tambien son buenas.



Bueno lo de que las msi no tengan coil no es del todo cierto. Al final es una puta lotería. Yo he tenido de momento tres 4090, la primera Suprim X con bastante coil, la segunda tiene menos pero algo tiene y la más baratera que fue una palit es la que menos coil tuvo [+risas]

En Asus hay de todo, las hay con más o menos coil pero al final la mayoría de ensambles van a tener algo de coil en función de los voltajes que metas y a los fps que vayas. ( especialmente si son altos )

Buenas compañero.

Perdona que te aborde, aprovechando que mencionas la 4090 de Palit, ¿qué modelo tenías, la GameRock a secas o la GameRock Omniblack?, que esta sería la más básica y creo que no tiene cámara de vapor. Lo menciono porque, tal como están los precios actualmente y siendo la Omniblack la más barata que se puede encontrar por aquí, estaba interesado en, si fuese el caso, conocer cual era tu opinión al respecto de rendimiento, OC, UV, temperaturas, ruido ventiladores en comparación a las otras que mencionas, por si la tuviese que terminar finalmente descartando o no, ya que poca info he encontrado por internet de la misma.

Gracias, un saludo.


Tuve la normal e iba muy bien.

Imagen

Lo único que le faltaba era más headroom en el PL. Salió buena en overclock , buen undervolt, muy poco coil, buenas temperaturas y me sorprendió gratamente la robustez de los ventiladores ( aunque eran más ruidosos que los de la Surpim x )

Po los 1600€ que pagué la verdad que muy buena compra. Aunque al final me quedé con la Suprim X .
Pues se confirma el DLSS 3.5 para todas las RTX,pero va a ser un lio cuando el 3.0 solo funciona en las RTX40,no?
chris76 escribió:Pues se confirma el DLSS 3.5 para todas las RTX,pero va a ser un lio cuando el 3.0 solo funciona en las RTX40,no?

Yo también estoy en la duda, si es así, NVIDIA se quedo con todo el mundo con la serie 4060
@Kavezacomeback hola compañero las review y videos de youtube que he visto con dlss activado en la 4070 sigue por debajo , se acerca en los juegos compatibles con dlss pero no la súpera ,pero a saber en los videos si van con oc ,etc y respecto a review que he visto es la de guru3d , etc

Por eso preguntaba si había algún compañero con resultados más fiables .

claro elegir gráfica en base al dlss al menos para mi no tiene sentido , es curiosidad .
por los resultados con el rt ni pregunto me parece una chorrada , que se concentren en hacer ports medianamente jugables .
virtus escribió:@Kavezacomeback hola compañero las review y videos de youtube que he visto con dlss activado en la 4070 sigue por debajo , se acerca en los juegos compatibles con dlss pero no la súpera ,pero a saber en los videos si van con oc ,etc y respecto a review que he visto es la de guru3d , etc

Por eso preguntaba si había algún compañero con resultados más fiables .

claro elegir gráfica en base al dlss al menos para mi no tiene sentido , es curiosidad .
por los resultados con el rt ni pregunto me parece una chorrada , que se concentren en hacer ports medianamente jugables .


@virtus con dlss2 pudiera ser, sobre todo si la otra va con fsr 2 en la comparativa, pero con el dlss3 (me refiero a dlss+fg) la supera.

https://www.techpowerup.com/review/pny- ... 70/35.html
@valorblanco @chris76 lo que funciona en todas las RTX el es DLSS del Ray Tracking, pero el Frame Generation sigue siendo exclusivo de las 4000. Que son tecnologías que puedes habilitar de forma independiente.


Salu2
Er_Garry escribió:@valorblanco @chris76 lo que funciona en todas las RTX el es DLSS del Ray Tracking, pero el Frame Generation sigue siendo exclusivo de las 4000. Que son tecnologías que puedes habilitar de forma independiente.


Salu2



Gracias !!!
@Kavezacomeback gracias por el enlace , vamos a ver que pasa con el dlss 3.5 , el fsr 3.
Manda huevos que tengas que echar mano a cualquiera de estas herramientas gastándote más de 600 euros en una gráfica.
Que vendan menos humo y bajen precios
_anVic_ escribió:
Japvil26 escribió:
_anVic_ escribió:

Bueno lo de que las msi no tengan coil no es del todo cierto. Al final es una puta lotería. Yo he tenido de momento tres 4090, la primera Suprim X con bastante coil, la segunda tiene menos pero algo tiene y la más baratera que fue una palit es la que menos coil tuvo [+risas]

En Asus hay de todo, las hay con más o menos coil pero al final la mayoría de ensambles van a tener algo de coil en función de los voltajes que metas y a los fps que vayas. ( especialmente si son altos )

Buenas compañero.

Perdona que te aborde, aprovechando que mencionas la 4090 de Palit, ¿qué modelo tenías, la GameRock a secas o la GameRock Omniblack?, que esta sería la más básica y creo que no tiene cámara de vapor. Lo menciono porque, tal como están los precios actualmente y siendo la Omniblack la más barata que se puede encontrar por aquí, estaba interesado en, si fuese el caso, conocer cual era tu opinión al respecto de rendimiento, OC, UV, temperaturas, ruido ventiladores en comparación a las otras que mencionas, por si la tuviese que terminar finalmente descartando o no, ya que poca info he encontrado por internet de la misma.

Gracias, un saludo.


Tuve la normal e iba muy bien.

Imagen

Lo único que le faltaba era más headroom en el PL. Salió buena en overclock , buen undervolt, muy poco coil, buenas temperaturas y me sorprendió gratamente la robustez de los ventiladores ( aunque eran más ruidosos que los de la Surpim x )

Po los 1600€ que pagué la verdad que muy buena compra. Aunque al final me quedé con la Suprim X .

La tuya salió algo mejor que la míi PNY,que se supone que es peor.

@Japvil26
Yo Tengo la PNY que es teóricamente de las peores , y va de sobra.Con buen UV y buenas temperaturas.
Estate tranquilo.

@virtus
Es que ,lo del RT es de los mayores humanos que conozco en este mundillo.
Muchos juegos no lo llevan.
De los que lo llevan , la mitad no se nota.
Otra buena parte de esos , viene roto o injugable.
Una pequeña parte notoria y decente ,a costa de comerse mucho rendimiento.
Y el path tracing, que es el bueno, te zampa absolutamente todo el rendimiento.

Esa es la realidad del RT
Menuda moto venden
virtus escribió:@Kavezacomeback gracias por el enlace , vamos a ver que pasa con el dlss 3.5 , el fsr 3.
Manda huevos que tengas que echar mano a cualquiera de estas herramientas gastándote más de 600 euros en una gráfica.
Que vendan menos humo y bajen precios

Totalmente, aquellos tiempos de la 1080 ti , no que ahora te compras una 4060 ti 16 gb por 430 euros que ya es ofertaza y me estoy planteando comprar una rx6800 o las nueva 7800, en fin ahora mismo está complicado acertar comprando una gráfica
chris76 escribió:Pues se confirma el DLSS 3.5 para todas las RTX,pero va a ser un lio cuando el 3.0 solo funciona en las RTX40,no?

El lío ya hace tiempo que existe, al menos desde el momento en el que Nvidia empieza a versionar el propio desarrollo base del DLSS (SR o super resolution) como versión "3" al igual que el FG (Frame Generation) y lo iguala al versionado de marketing de la tecnología DLSS 3 que básicamente es añadir el Frame Generation y encima es incompatible con anteriores gráficas (es exclusivo de las RTX 4000) en lugar de llamarlo SR + FG o simplemente inventarse otro nombre que signifique SR + FG.

De hecho lo estuvimos discutiendo hace unas semanas, expliqué lo que me parecía una mierda de nomenclatura en este post. Y mira qué casualidad, que con este frankenstein 3.5 dejan aún mas claro el bodrio de nomenclatura que han creado y es justo lo que expliqué en ese post:

Imagen

A modo resumen y sin entrar en detalles, si no me equivoco:
    - DLSS (1 y 2) es el SR (Super Resolution), vamos, el escalado de toda la vida y funciona desde las RTX 2000.
    - DLSS 3 añadió el FG (Frame Generation) que se medio inventa frames y es exclusivo de las RTX 4000.
    - DLSS 3.5 añade RR (Ray Reconstruction) para mejorar el ray tracing y funciona desde las RTX 2000.

Con esto y revisando la imagen de Nvidia, por si no estuviera ya mal la cosa con la nomenclatura, ahora lo surreal del asunto es que llaman DLSS 3.5 a SR + FG + RR pero quien no tenga una 4000 o simplemente no quiera activar el FG se supone que debería poder tener SR + RR... y cómo llamaría a eso Nvidia? DLSS 2.5? [facepalm]
No, para ellos ahora mismo todo es versión 3.5, DLSS tiene esos 3 "módulos/librerías" grandes (y otros como Reflex) y si tu gráfica no soporta alguno de ellos (como FG) pues tendrás el 3.5 pero sin poder activar ese módulo.

Y eso es lo que me parece una mierda de esta nomenclatura, porque si siguen con este sinsentido podremos llegar a un hipotético DLSS 8.5 con 10 módulos que podremos disfrutar de forma completa con una hipotética RTX 9000 pero en cambio con una RTX 4000 quizás solo podríamos activar 3 de ellos (SR, FG y RR)... pero seguiremos diciendo que tenemos DLSS 8.5 con nuestra RTX 4000 aunque en la práctica sea como tener DLSS 3.5 :Ð

Para mi la solución pasa por hablar de los diferentes módulos por separado y con su versionado específico, pero a saber por qué Nvidia no lo hace. Por mucho que quieran vender un pack a modo marketing, una cosa es esa y otra que el versionado de cada componente/librería tenga la misma versión entre ellos (spoiler del final de este mensaje), a eso último no le veo ningún sentido, pero tampoco conozco cómo lo han programado así que sin saber los motivos no puedo opinar mas.
La nomenclatura es basura la verdad, no tiene sentido. Pero bueno yo lo veo con buenos ojos ese DLSS 3.5... un poco de mejora de rendimiento y mejor calidad de imagen... realmente está pensado para la serie 4000 pero como tampoco da mucho lo activan para todos y ya.
@_anVic_
@hh1
Buenos modelos entonces tanto la Palit como PNY, que también contemplé y veo que llevan el mismo tipo de VRM, únicamente la Palit tiene un poco más de margen en este aspecto, pero ambas cumplen de sobra al respecto y además vienen con el PL limitado a 450W. Estaré atento a ver si mejora algo el stock y se encuentran a mejores precios que actualmente, dentro de su contexto.

Gracias a ambos, un saludo.
basterwol escribió:Están saliendo los primeros juegos que hacen uso del unreal engine 5.2 (Fort Solis y Immortals of Aveum).

Y la conclusión que he sacado es que cualquier juego de estos necesitará como minimo una 3080 con dlss 2.0 activado para llegar a 1440p@60.

Y que el frame generation será indispensable para plantearse los 4K con estos títulos con unas 4080/4090 con tasas por encima de los 60fps...

Recalcar que estos dos titulos en consolas ni por asomo llegan a los 1440p (el Inmortals rinde a 847p en series x) reescalando con fsr 2.0.

Mi 4070ti llega a 100 fps jugando a 4k con dlss en calidad y el frame generation. No es necesaria una 4080 en adelante y te digo mas, a 2k llega y pasa los 120 fps.
Hoy puse el f1 22, calidad maxima resolucion 5140x1440 fps 30 con dlss 60 fps ,si le bajo la calidad a alta se dispara con dlss a 120 fps una locura, me estoy planteando en quedármela, juego mucho al f1 al cyberpunk, lo chungo será con el starfield jajajjajaj sin ayudas,
_anVic_ está baneado por "clon de usuario baneado"
La 4090 a 4k ultra más dlss calidad no llega a 100fps , esta más entre los 80/90 y sin dlss a 4k nativo no llega ni a 60fps de media. No quiero ni imaginar como podrá ir tu 4070ti siendo entre un 50 y un 60 % menos potente...

Yo hoy he terminado el Fort Solis y sin dlss ni FG hay zonas que la 4090 se va al carajo, igual que el renmant 2 a 4k nativo. Miedo me da como va a venir de roto starfield



Minuto 19 rendimiento de la 4090 a 4k ultra nativo , luego con dlss calidad . También a 1440p y 1080p para el que le interese

Minuto 18:00 la 3080 de 12gb a 4k ultra con dlss calidad no llega a 60 fps ... la 4070ti anda cerca de la 3080 de 12gb en rendimiento.

Imagino que con FG obtienes un boost adicional pero la retícula tiene ghosting por ejemplo si usas FG . Lo tienen que parchear.
@_anVic_ Tal cual te comenté y no exagero, te sugiero que juegues con las configuraciones porque si te pasas del cpu te hace cuello de botella.
_anVic_ está baneado por "clon de usuario baneado"
No lo he jugado aún. Hoy he acabado el Fort Solis , quizá otro día lo pruebe . No me extrañaría nada tener stuttering en el inmortals, en el Fort Solis he tenido algunos dips bastante feos. Y ambos usan unreal engine 5 ... en fin ya veré si lo cato. No me llama demasiado.

El que si me apetece es el lies of p. Que se de antemano por la demo que no va a estar roto de salida.
_anVic_ escribió:La 4090 a 4k ultra más dlss calidad no llega a 100fps , esta más entre los 70/80 y sin dlss a 4k nativo no llega ni a 60fps de media. No quiero ni imaginar como podrá ir tu 4070ti siendo entre un 50 y un 60 % menos potente...

Yo hoy he terminado el Fort Solis y sin dlss ni FG hay zonas que la 4090 se va al carajo, igual que el renmant 2 a 4k nativo. Miedo me da como va a venir de roto starfield



Minuto 19 rendimiento de la 4090 a 4k ultra nativo , luego con dlss calidad . También a 1440p y 1080p para el que le interese

Minuto 18:00 la 3080 de 12gb a 4k ultra con dlss calidad no llega a 60 fps ... la 4070ti anda cerca de la 3080 de 12gb en rendimiento.

Imagino que con FG obtienes un boost adicional pero la retícula tiene ghosting por ejemplo si usas FG . Lo tienen que parchear.


Vamos, que te gastas más de 1500 euros en una gráfica y como no le pongas dlss ni los 60fps mantiene. Pues parece que esta generación está a medio gas, porque tira muy bien pero de juegos "pasados".
_anVic_ está baneado por "clon de usuario baneado"
En juegos nuevos especialmente con unreal 5 el rendimiento es nefasto. Pero ojo si es así en la 4090 imagínate en el resto de gpu menos potentes...

Por cierto dejo video del Alan wake II , el cual implementará ya en octubre Dlss 3.5 y RT con path tracing

FranciscoVG escribió:Imagen

Imagen

Que grandes xd

Los mamones no dicen que esos +100fps es con Frame Generation seguramente [qmparto] luego va alguien con una rtx 2000/3000 y no llega ni a 60.
elcapoprods escribió:
FranciscoVG escribió:Imagen

Imagen

Que grandes xd

Los mamones no dicen que esos +100fps es con Frame Generation seguramente [qmparto] luego va alguien con una rtx 2000/3000 y no llega ni a 60.

Deja que farden de FG, que para un juego que, quizá, lo implemente bien como puede ser AW2... [carcajad]

Qué pereza de generación de gráficas, mi GTX 1080 está pidiendo tierra, pero se me quitan las ganas de cambiarla viendo el panorama.
_anVic_ está baneado por "clon de usuario baneado"
Evidentemente será con FG y en una 4090 ya que están usando path tracing

Estoy probando el Immortals of Aveum y no va nada mal con FG + dlss calidad , el problema es el ghosting de la retícula... se puede jugar bien por encima 100fps a solo 2600mhz de core con uv .Pero si quitas dlss y FG se va a la mierda el rendimiento.

Veo bugs en texturas y las latencias usando FG son bastante decentes. En cuanto le metan un par de parches el juego debería ir mejor.

No le han implementado soporte de HDR nativo aunque si funciona con HDR auto en windows 11
ionic_slasher escribió:
elcapoprods escribió:
FranciscoVG escribió:Imagen

Imagen

Que grandes xd

Los mamones no dicen que esos +100fps es con Frame Generation seguramente [qmparto] luego va alguien con una rtx 2000/3000 y no llega ni a 60.

Deja que farden de FG, que para un juego que, quizá, lo implemente bien como puede ser AW2... [carcajad]

Qué pereza de generación de gráficas, mi GTX 1080 está pidiendo tierra, pero se me quitan las ganas de cambiarla viendo el panorama.

Y tanto...solo me lo he encontrado en dos juegos el FG.
Y ya ,si lleva un buen RT ,vamos ,lo bordamos eh?
Porque otra cosa que o no está en los juegos ,o si está no se nota ,o si está ,está rota...
Baja desastre y vaya vende humos son.

Si e Path Tracing, pues bueno ha de ser.

@_anVic_
Por algo yo sigo pasando del 4K.
En monitores no noto nada de diferencia con 1450p.Debo tener la vista jodido.
Y orgiero más rendimiento (fps) y no tener SIEMRLE la necesidad de una gráfica mega top ,por lo que pueda pasar.

El 4K SIEMPRE es caro de mantener.
Sacan un motor nuevo y chao chao.
Y eso que la 4090 es lo .as bestia en rendimiento de una época ,que yo creo que he visto nunca.

Si este motor sale en la época de la 3090...se cae con todo el equipo y casi a cambiar de gráfica.
Yo con tanta gráfica ya me agobio y solo probé 4 ,1650 de 4g, rx 6600 8 gb y 4060 de 8gb y la última 4060 ti de 16gb y hay me planto, juego a resolución como ya comenté 5140x1440 el monitor es de 49 pulgadas curvo y va a 120hz , no se si en 2 k o 4k mi resolución, pero al final me dado cuenta que comprar una gráfica en un cambio de generación es un caos total , y la verdad si me costo la 4060 ti 16gb por 430 euros será un chollo porque cuesta 550
valorblanco escribió:Yo con tanta gráfica ya me agobio y solo probé 4 ,1650 de 4g, rx 6600 8 gb y 4060 de 8gb y la última 4060 ti de 16gb y hay me planto, juego a resolución como ya comenté 5140x1440 el monitor es de 49 pulgadas curvo y va a 120hz , no se si en 2 k o 4k mi resolución, pero al final me dado cuenta que comprar una gráfica en un cambio de generación es un caos total , y la verdad si me costo la 4060 ti 16gb por 430 euros será un chollo porque cuesta 550

Tú estás jugando a calidad Qhd básicamente .no confundir con 2k, la cual es menor y se utilizar para denominar el QHD de mala manera.
Tus píxeles verticales son 1440p, los mismo que un monitor QHD.
Un 4K serían 2160p.
Lo único, que al ser tu monitor ultrawude ,los horizontales son más ,obviamente ,ya que es más ancho, y eso requiere más recursos (+ gráfica) que si fuese un QHD convencional

Que tú monitor vaya a 120hz ,no quiere decir que estés jugando a 120 fps.
Según que juego, podras o no
Con una 4060Ti, dudo que a QHD+ juegues a todo a 120 fps
Dependerá del juego

Que está bien que te plantes y no gastes más,pero creo que es mucho monitor iara tan "poca"gráfica .
En parte ,lo estarás desaprovechando en según qué juegos
hh1 escribió:
valorblanco escribió:Yo con tanta gráfica ya me agobio y solo probé 4 ,1650 de 4g, rx 6600 8 gb y 4060 de 8gb y la última 4060 ti de 16gb y hay me planto, juego a resolución como ya comenté 5140x1440 el monitor es de 49 pulgadas curvo y va a 120hz , no se si en 2 k o 4k mi resolución, pero al final me dado cuenta que comprar una gráfica en un cambio de generación es un caos total , y la verdad si me costo la 4060 ti 16gb por 430 euros será un chollo porque cuesta 550

Tú estás jugando a calidad Qhd básicamente .no confundir con 2k, la cual es menor y se utilizar para denominar el QHD de mala manera.
Tus píxeles verticales son 1440p, los mismo que un monitor QHD.
Un 4K serían 2160p.
Lo único, que al ser tu monitor ultrawude ,los horizontales son más ,obviamente ,ya que es más ancho, y eso requiere más recursos (+ gráfica) que si fuese un QHD convencional

Que tú monitor vaya a 120hz ,no quiere decir que estés jugando a 120 fps.
Según que juego, podras o no
Con una 4060Ti, dudo que a QHD+ juegues a todo a 120 fps
Dependerá del juego

Que está bien que te plantes y no gastes más,pero creo que es mucho monitor iara tan "poca"gráfica .
En parte ,lo estarás desaprovechando en según qué juegos



Gracias por contestar y sacarme de dudas sobre la resolución, mira que hoy estuve tentado en una rx 6900 hoy, juego sobretodo a simracing. Aún estoy a tiempo de devolver la 4060ti, veo que entiendes , un grafica me recomendarías ???
valorblanco escribió:
hh1 escribió:
valorblanco escribió:Yo con tanta gráfica ya me agobio y solo probé 4 ,1650 de 4g, rx 6600 8 gb y 4060 de 8gb y la última 4060 ti de 16gb y hay me planto, juego a resolución como ya comenté 5140x1440 el monitor es de 49 pulgadas curvo y va a 120hz , no se si en 2 k o 4k mi resolución, pero al final me dado cuenta que comprar una gráfica en un cambio de generación es un caos total , y la verdad si me costo la 4060 ti 16gb por 430 euros será un chollo porque cuesta 550

Tú estás jugando a calidad Qhd básicamente .no confundir con 2k, la cual es menor y se utilizar para denominar el QHD de mala manera.
Tus píxeles verticales son 1440p, los mismo que un monitor QHD.
Un 4K serían 2160p.
Lo único, que al ser tu monitor ultrawude ,los horizontales son más ,obviamente ,ya que es más ancho, y eso requiere más recursos (+ gráfica) que si fuese un QHD convencional

Que tú monitor vaya a 120hz ,no quiere decir que estés jugando a 120 fps.
Según que juego, podras o no
Con una 4060Ti, dudo que a QHD+ juegues a todo a 120 fps
Dependerá del juego

Que está bien que te plantes y no gastes más,pero creo que es mucho monitor iara tan "poca"gráfica .
En parte ,lo estarás desaprovechando en según qué juegos



Gracias por contestar y sacarme de dudas sobre la resolución, mira que hoy estuve tentado en una rx 6900 hoy, juego sobretodo a simracing. Aún estoy a tiempo de devolver la 4060ti, veo que entiendes , un grafica me recomendarías ???

Es que eso depende de muchos factores.
Tú exigencia , como quieres jugar , si quieres siempre esos 120 fps y que te diré años ,si te vale con que se acerque en fps en unos y otros no, si querés jugar a máxima calidad ,si te importa el Raytracing ,tipo de juegos que juegas,y sobre todo ,cuanto estás dispuesto a gastar
hh1 escribió:
valorblanco escribió:
hh1 escribió:Tú estás jugando a calidad Qhd básicamente .no confundir con 2k, la cual es menor y se utilizar para denominar el QHD de mala manera.
Tus píxeles verticales son 1440p, los mismo que un monitor QHD.
Un 4K serían 2160p.
Lo único, que al ser tu monitor ultrawude ,los horizontales son más ,obviamente ,ya que es más ancho, y eso requiere más recursos (+ gráfica) que si fuese un QHD convencional

Que tú monitor vaya a 120hz ,no quiere decir que estés jugando a 120 fps.
Según que juego, podras o no
Con una 4060Ti, dudo que a QHD+ juegues a todo a 120 fps
Dependerá del juego

Que está bien que te plantes y no gastes más,pero creo que es mucho monitor iara tan "poca"gráfica .
En parte ,lo estarás desaprovechando en según qué juegos



Gracias por contestar y sacarme de dudas sobre la resolución, mira que hoy estuve tentado en una rx 6900 hoy, juego sobretodo a simracing. Aún estoy a tiempo de devolver la 4060ti, veo que entiendes , un grafica me recomendarías ???

Es que eso depende de muchos factores.
Tú exigencia , como quieres jugar , si quieres siempre esos 120 fps y que te diré años ,si te vale con que se acerque en fps en unos y otros no, si querés jugar a máxima calidad ,si te importa el Raytracing ,y sobre todo ,cuanto estás dispuesto a gastar


Estado mirando 3080 ti y rx 6900 y rx7900
valorblanco escribió:
hh1 escribió:
valorblanco escribió:

Gracias por contestar y sacarme de dudas sobre la resolución, mira que hoy estuve tentado en una rx 6900 hoy, juego sobretodo a simracing. Aún estoy a tiempo de devolver la 4060ti, veo que entiendes , un grafica me recomendarías ???

Es que eso depende de muchos factores.
Tú exigencia , como quieres jugar , si quieres siempre esos 120 fps y que te diré años ,si te vale con que se acerque en fps en unos y otros no, si querés jugar a máxima calidad ,si te importa el Raytracing ,y sobre todo ,cuanto estás dispuesto a gastar


Estado mirando 3080 ti y rx 6900 y rx7900

Que Rx 7900?
XT o XTX?

Yo hasta unos 675€...creo que pillaría una RxX 6950XT,siempre que el RT te dé igual y el DLSS3,que en mi opinión ,hoy por hoy, no deberían ser lo primero en una elección de gráfica.

Pro sin decirme nada a las preguntas anteriores ,difícil responderte con certeza
4070 ti nueva de trinca (posiblemente la zotac)
o me busco una 3080ti de 500-600 euros de segunda zarpa?
zarcelo_2 escribió:4070 ti nueva de trinca (posiblemente la zotac)
o me busco una 3080ti de 500-600 euros de segunda zarpa?


Las 3080 y 3090 son las peores gráficas para comprar de segunda mano
FranciscoVG escribió:
zarcelo_2 escribió:4070 ti nueva de trinca (posiblemente la zotac)
o me busco una 3080ti de 500-600 euros de segunda zarpa?


Las 3080 y 3090 son las peores gráficas para comprar de segunda mano

Porque razón ?
valorblanco escribió:
FranciscoVG escribió:
zarcelo_2 escribió:4070 ti nueva de trinca (posiblemente la zotac)
o me busco una 3080ti de 500-600 euros de segunda zarpa?


Las 3080 y 3090 son las peores gráficas para comprar de segunda mano

Porque razón ?


-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa
FranciscoVG escribió:
valorblanco escribió:
FranciscoVG escribió:
Las 3080 y 3090 son las peores gráficas para comprar de segunda mano

Porque razón ?


-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa



Much gracias crack por la info
_anVic_ está baneado por "clon de usuario baneado"
FranciscoVG escribió:
valorblanco escribió:
FranciscoVG escribió:
Las 3080 y 3090 son las peores gráficas para comprar de segunda mano

Porque razón ?


-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa



Las más usadas para minar eran las 3070 y 3060ti por su eficiencia en Ethash/w . Eran con diferencia las mejores. Se usaban las 3080 sí pero en menor medida. Y las 3090 aun mucho menos.

Yo mismo tuve una 3080 evga ftw3 ultra minando 15k horas ( en 2 años ) y aun a día de hoy funciona perfectamente.

De hecho hay un compañero por aquí con una 3070 que nunca la uso para minar, la ha cuidado bien, pues bien yo tuve ese mismo modelo 2 años minando otras 15k h, la vendí y aun funciona perfectamente pero la suya ha empezado a fallar con muchísimas menos horas de uso . Al final cualquier gpu puede fallar. En al minería, el que entiende y hace el mantenimiento bien haciendo lo que toca, puede tener una gpu minando años sin problema. Fíjate tu que no tuve ni que reemplazar un solo ventilador ni en la 3080 ni en la 3070.
FranciscoVG escribió:
valorblanco escribió:
FranciscoVG escribió:
Las 3080 y 3090 son las peores gráficas para comprar de segunda mano

Porque razón ?


-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa


No

Yo tenía 2 rigs de 14 graficas cada uno, o sea 28 y no tuve NINGUNA 3080, todas eran 3060ti, 3070 y 1660S

@_anVic_ lo ha explicado perfectamente
_anVic_ escribió:
FranciscoVG escribió:
valorblanco escribió:Porque razón ?


-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa



Las más usadas para minar eran las 3070 y 3060ti por su eficiencia en Ethash/w . Eran con diferencia las mejores. Se usaban las 3080 sí pero en menor medida. Y las 3090 aun mucho menos.

Yo mismo tuve una 3080 evga ftw3 ultra minando 15k horas ( en 2 años ) y aun a día de hoy funciona perfectamente.

De hecho hay un compañero por aquí con una 3070 que nunca la uso para minar, la ha cuidado bien, pues bien yo tuve ese mismo modelo 2 años minando otras 15k h, la vendí y aun funciona perfectamente pero la suya ha empezado a fallar con muchísimas menos horas de uso . Al final cualquier gpu puede fallar. En al minería, el que entiende y hace el mantenimiento bien haciendo lo que toca, puede tener una gpu minando años sin problema. Fíjate tu que no tuve ni que reemplazar un solo ventilador ni en la 3080 ni en la 3070.


Sabía que alguno tenía que saltar xd, yo no he dicho que fuesen las más usadas eso depende de cuantas se hayan vendido, hablo de la demanda, cuando salian a la venta en ldlc eran las que menos duraban junto con la 3060ti, y eran junto con esa la que más sobreprecio tenían con la ventaja de que sacas más por cada gpu lo que ahorra en placas, la 3090 si que se usaría menos y la 3080ti que salió más tarde igual pero lo que es innegable son las temperaturas que cogían todas en las memorias, y como la mayoría de modelos sufrían de lo lindo en verano, muchísimo peor de lo que se ve ahora con las 4080 y 4090, esto es estadística, y una gpu que a funcionado 2 años a 100 grados es más probable que falle que la que a estado a 60, y cuando tú compras algo salvo que sea de confianza no tienes ni puta idea de por qué a pasado esa gpu por mucho que este te diga, y si te lo crees es que el gilipollas eres tu

Todo lo que dije es cierto, que tu tengas o pepito tenga otra que funciona bien no quita nada de lo que dije, yo es un consejo que le doy al chaval, tu estás lavando algo que igual en algún momento querrás vender, por tu propio beneficio, no es el primer minero que viene aquí con ese cuento
14374 respuestas