[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

_anVic_ está baneado por "clon de usuario baneado"
FranciscoVG escribió:
_anVic_ escribió:
FranciscoVG escribió:
-Por qué eran las más deseadas en la mineria, con lo que pocas hay que no lo hayan hecho.

-Por qué eran las que en peores condiciones minaban al ser las que más se calentaban, ya que muchísimas por no decir la mayoría tenían las memorias 24/7 trabajando a 100 grados o más.

-Y por qué la mayoría de los ensambles de estos modelos son deficientes para lo que consumen, mira como ahora la 4080 tiene disipadores tochos

A día de hoy para mi son gráficas que solo vale comprar si la encuentras muy tirada de precio, a la mínima duda me iría a otra cosa



Las más usadas para minar eran las 3070 y 3060ti por su eficiencia en Ethash/w . Eran con diferencia las mejores. Se usaban las 3080 sí pero en menor medida. Y las 3090 aun mucho menos.

Yo mismo tuve una 3080 evga ftw3 ultra minando 15k horas ( en 2 años ) y aun a día de hoy funciona perfectamente.

De hecho hay un compañero por aquí con una 3070 que nunca la uso para minar, la ha cuidado bien, pues bien yo tuve ese mismo modelo 2 años minando otras 15k h, la vendí y aun funciona perfectamente pero la suya ha empezado a fallar con muchísimas menos horas de uso . Al final cualquier gpu puede fallar. En al minería, el que entiende y hace el mantenimiento bien haciendo lo que toca, puede tener una gpu minando años sin problema. Fíjate tu que no tuve ni que reemplazar un solo ventilador ni en la 3080 ni en la 3070.


Sabía que alguno tenía que saltar xd, yo no he dicho que fuesen las más usadas eso depende de cuantas se hayan vendido, hablo de la demanda, cuando salian a la venta en ldlc eran las que menos duraban junto con la 3060ti, y eran junto con esa la que más sobreprecio tenían con la ventaja de que sacas más por cada gpu lo que ahorra en placas, la 3090 si que se usaría menos y la 3080ti que salió más tarde igual pero lo que es innegable son las temperaturas que cogían todas en las memorias, y como la mayoría de modelos sufrían de lo lindo en verano, muchísimo peor de lo que se ve ahora con las 4080 y 4090, esto es estadística, y una gpu que a funcionado 2 años a 100 grados es más probable que falle que la que a estado a 60, y cuando tú compras algo salvo que sea de confianza no tienes ni puta idea de por qué a pasado esa gpu por mucho que este te diga, y si te lo crees es que el gilipollas eres tu

Todo lo que dije es cierto, que tu tengas o pepito tenga otra que funciona bien no quita nada de lo que dije, yo es un consejo que le doy al chaval, tu estás lavando algo que igual en algún momento querrás vender, por tu propio beneficio, no es el primer minero que viene aquí con ese cuento


De 100 grados nada , al menos no en mi caso. Tj memory en la 3080 no llegaba ni a 80 grados y en las 3070 o 3060ti eran aun inferiores porque usan Gddr6 y no Gddr6x como la 3070ti ,3080 ... en adelante... Depende mucho de la temp ambiente de como tuneas el undervolt. los fans etc. Pero vamos yo nunca llegue a 80 grados en el hot spot.

Imagen

Reporte de 4h 51 minutos minando eth
Con los fans al 50 o 60 % y teniendo la 3080 a solo 99/100 mh/s y la 3070 a 60mh/s sin forzar tanto andaban en las mismas temps . Y en invierno pues 10 grados menos de media.

reporte de un dia y la 3070 en remojo y la 3080 en aire

https://i.imgur.com/muEKc1h.png
a ver si el problema no s que sea o no de minería
el problema es cuando no te lo dicen
yo mismo pille en su día antes de la salida de la serie 4 una 3060ti por 200 a un minero y me salió muy buena sin ningún problema
si a mi me dicen hoye que es de mineria no pasa nada
pero la pregunta es en cuanto a rendimiento
creo que voy a ir a por una 4070ti de trinca y que le den
al menos así estoy con garantía de 3 años y tranquilo que si pasa algo pues que se haga cargo la garantía al final voy a pillar la gigabyte
espero que entre en la caja.....
zarcelo_2 escribió:a ver si el problema no s que sea o no de minería
el problema es cuando no te lo dicen
yo mismo pille en su día antes de la salida de la serie 4 una 3060ti por 200 a un minero y me salió muy buena sin ningún problema
si a mi me dicen hoye que es de mineria no pasa nada
pero la pregunta es en cuanto a rendimiento
creo que voy a ir a por una 4070ti de trinca y que le den
al menos así estoy con garantía de 3 años y tranquilo que si pasa algo pues que se haga cargo la garantía al final voy a pillar la gigabyte
espero que entre en la caja.....


En el cex tienen las 3080 a 400€, con sus 3 años de garantía, por si tienes miedo de lo que dice el cuñado de joderse si han minado.

Que pareado me ha salido XD XD
no que va si la 3080 la tengo descartada por sus 10 gb de ram
me pillo la 4070ti y listo y tiro a 2k hasta que reviente
zarcelo_2 escribió:no que va si la 3080 la tengo descartada por sus 10 gb de ram
me pillo la 4070ti y listo y tiro a 2k hasta que reviente


Tienes las 3080 12gb
@Arquetipico

Yo tengo un 6700K con una 4070Ti, y si que hay juegos a 2K que me hacen cuello de botella, pero la gráfica se disfruta muchísimo, porque no hay nada a lo que no puedas jugar.

Un saludo
ditifet escribió:
zarcelo_2 escribió:a ver si el problema no s que sea o no de minería
el problema es cuando no te lo dicen
yo mismo pille en su día antes de la salida de la serie 4 una 3060ti por 200 a un minero y me salió muy buena sin ningún problema
si a mi me dicen hoye que es de mineria no pasa nada
pero la pregunta es en cuanto a rendimiento
creo que voy a ir a por una 4070ti de trinca y que le den
al menos así estoy con garantía de 3 años y tranquilo que si pasa algo pues que se haga cargo la garantía al final voy a pillar la gigabyte
espero que entre en la caja.....


En el cex tienen las 3080 a 400€, con sus 3 años de garantía, por si tienes miedo de lo que dice el cuñado de joderse si han minado.

Que pareado me ha salido XD XD



Lo que te a salido es una parida, como de costumbre

Estoy convencido de que tu esas 28 graficas de minería las vendiste en wallapop "como nuevas solo para jugar al fornite de vez en cuando" si es que no hay mas que ver como te inventas chorradas e intentas negar la realidad que todos vivimos aqui durante la serie 3000, con decenas de personas quejándose de las temperaturas de las memorias, donde muchos (yo incluido) las abrimos para intentar paliar esas temperaturas, donde era casi imposible pillar una 3080 a precio decente, son pruebas que están ahí pero tu a decir gilipolleces, simplemente para lavar tu imagen o beneficiarte a ti mismo, que es lo único que te importa realmente, las "pruebas" que poneis como no son chorradas, por que donde tu tenias 28 y no eran ninguna 3080 habrian granjas enteras de ellas, y tu vienes aqui como minero de pacotilla como si fueses el único que lo hacia, o como intentar negar la temperatura que alcanzan las memorias algo que se ha hablado aqui decenas y decenas de veces

Es pura desinformación por interes, no por ser tonto por que de eso creo que no sufres demasiado, si no por ser absoluta escoria ególatra, ale, buenos tardes y un gusto volver a hablar contigo :)
Parece que se confirma Fsr3 compatible con todas la graficas y mientras tanto Nvidia bloqueando el DLSS3 en la gamas 2000 y 3000 [qmparto]

Imagen
Imagen

https://www.eurogamer.net/digitalfoundr ... 1dx12-game
FranciscoVG escribió:
ditifet escribió:
zarcelo_2 escribió:a ver si el problema no s que sea o no de minería
el problema es cuando no te lo dicen
yo mismo pille en su día antes de la salida de la serie 4 una 3060ti por 200 a un minero y me salió muy buena sin ningún problema
si a mi me dicen hoye que es de mineria no pasa nada
pero la pregunta es en cuanto a rendimiento
creo que voy a ir a por una 4070ti de trinca y que le den
al menos así estoy con garantía de 3 años y tranquilo que si pasa algo pues que se haga cargo la garantía al final voy a pillar la gigabyte
espero que entre en la caja.....


En el cex tienen las 3080 a 400€, con sus 3 años de garantía, por si tienes miedo de lo que dice el cuñado de joderse si han minado.

Que pareado me ha salido XD XD



Lo que te a salido es una parida, como de costumbre

Estoy convencido de que tu esas 28 graficas de minería las vendiste en wallapop "como nuevas solo para jugar al fornite de vez en cuando" si es que no hay mas que ver como te inventas chorradas e intentas negar la realidad que todos vivimos aqui durante la serie 3000, con decenas de personas quejándose de las temperaturas de las memorias, donde muchos (yo incluido) las abrimos para intentar paliar esas temperaturas, donde era casi imposible pillar una 3080 a precio decente, son pruebas que están ahí pero tu a decir gilipolleces, simplemente para lavar tu imagen o beneficiarte a ti mismo, que es lo único que te importa realmente, las "pruebas" que poneis como no son chorradas, por que donde tu tenias 28 y no eran ninguna 3080 habrian granjas enteras de ellas, y tu vienes aqui como minero de pacotilla como si fueses el único que lo hacia, o como intentar negar la temperatura que alcanzan las memorias algo que se ha hablado aqui decenas y decenas de veces

Es pura desinformación por interes, no por ser tonto por que de eso creo que no sufres demasiado, si no por ser absoluta escoria ególatra, ale, buenos tardes y un gusto volver a hablar contigo :)


Imagen



Donde digo que no se calientan las 3080?

Porque lo hacen ya sea jugando o minando, tu mismo lo has confirmado.

Es que ya ni leer sabes imagínate escribir [facepalm]
Foxhound 85 escribió:Parece que se confirma Fsr3 compatible con todas la graficas y mientras tanto Nvidia bloqueando el DLSS3 en la gamas 2000 y 3000 [qmparto]

Imagen
Imagen

https://www.eurogamer.net/digitalfoundr ... 1dx12-game

Si es gratis el fsr3, no será tan Bueno
Foxhound 85 escribió:Parece que se confirma Fsr3 compatible con todas la graficas y mientras tanto Nvidia bloqueando el DLSS3 en la gamas 2000 y 3000 [qmparto]

Imagen
Imagen

https://www.eurogamer.net/digitalfoundr ... 1dx12-game



Nomada_Firefox escribió:
El FSR2 va en las Nvidia, de hecho funciona hasta en las GTX pero.........el FSR3 no va a ir. Lo unico que no hay confirmado es si funcionara en las RX 6000, absolutamente no hay nada confirmado pese a que alguien diga que no.


Nomada, no decías que el FSR 3 seria exclusivo de AMD?
Si esto es cierto se están burlando de NVIDIA????Imagen
ditifet escribió:
FranciscoVG escribió:
ditifet escribió:
En el cex tienen las 3080 a 400€, con sus 3 años de garantía, por si tienes miedo de lo que dice el cuñado de joderse si han minado.

Que pareado me ha salido XD XD



Lo que te a salido es una parida, como de costumbre

Estoy convencido de que tu esas 28 graficas de minería las vendiste en wallapop "como nuevas solo para jugar al fornite de vez en cuando" si es que no hay mas que ver como te inventas chorradas e intentas negar la realidad que todos vivimos aqui durante la serie 3000, con decenas de personas quejándose de las temperaturas de las memorias, donde muchos (yo incluido) las abrimos para intentar paliar esas temperaturas, donde era casi imposible pillar una 3080 a precio decente, son pruebas que están ahí pero tu a decir gilipolleces, simplemente para lavar tu imagen o beneficiarte a ti mismo, que es lo único que te importa realmente, las "pruebas" que poneis como no son chorradas, por que donde tu tenias 28 y no eran ninguna 3080 habrian granjas enteras de ellas, y tu vienes aqui como minero de pacotilla como si fueses el único que lo hacia, o como intentar negar la temperatura que alcanzan las memorias algo que se ha hablado aqui decenas y decenas de veces

Es pura desinformación por interes, no por ser tonto por que de eso creo que no sufres demasiado, si no por ser absoluta escoria ególatra, ale, buenos tardes y un gusto volver a hablar contigo :)


Imagen



Donde digo que no se calientan las 3080?

Porque lo hacen ya sea jugando o minando, tu mismo lo has confirmado.

Es que ya ni leer sabes imagínate escribir [facepalm]


No voy a entrar en el ciclo degenerativo que tu sueles marcar, donde yo digo algo, tu aunque sepas que es verdad lo niegas con chorradas y sin educación, te contesto como te mereces, y entonces se convierte en el yo dije, tu dijiste, esto se embarra se sacan cosas de contexto y se vuelve aun mas estúpido de lo que ya de principio es, asi que voy a ahorrar toda esa parte por mi salud mental y la de los demás exceptuándote a ti que no tienes, me estas haciendo la contra de algo demostrado centenas de veces, esa parte que haces mención la digo por el compañero que a puesto la imagen, pero solo esa los cumplidos y todo lo demas es solo para tu disfrute con todo mi cariño como respuesta al que tu repartes
FranciscoVG escribió:
ditifet escribió:
FranciscoVG escribió:

Lo que te a salido es una parida, como de costumbre

Estoy convencido de que tu esas 28 graficas de minería las vendiste en wallapop "como nuevas solo para jugar al fornite de vez en cuando" si es que no hay mas que ver como te inventas chorradas e intentas negar la realidad que todos vivimos aqui durante la serie 3000, con decenas de personas quejándose de las temperaturas de las memorias, donde muchos (yo incluido) las abrimos para intentar paliar esas temperaturas, donde era casi imposible pillar una 3080 a precio decente, son pruebas que están ahí pero tu a decir gilipolleces, simplemente para lavar tu imagen o beneficiarte a ti mismo, que es lo único que te importa realmente, las "pruebas" que poneis como no son chorradas, por que donde tu tenias 28 y no eran ninguna 3080 habrian granjas enteras de ellas, y tu vienes aqui como minero de pacotilla como si fueses el único que lo hacia, o como intentar negar la temperatura que alcanzan las memorias algo que se ha hablado aqui decenas y decenas de veces

Es pura desinformación por interes, no por ser tonto por que de eso creo que no sufres demasiado, si no por ser absoluta escoria ególatra, ale, buenos tardes y un gusto volver a hablar contigo :)


Imagen



Donde digo que no se calientan las 3080?

Porque lo hacen ya sea jugando o minando, tu mismo lo has confirmado.

Es que ya ni leer sabes imagínate escribir [facepalm]


No voy a entrar en el ciclo degenerativo que tu sueles marcar, donde yo digo algo, tu aunque sepas que es verdad lo niegas con chorradas y sin educación, te contesto como te mereces, y entonces se convierte en el yo dije, tu dijiste, esto se embarra se sacan cosas de contexto y se vuelve aun mas estúpido de lo que ya de principio es, asi que voy a ahorrar toda esa parte por mi salud mental y la de los demás exceptuándote a ti que no tienes, me estas haciendo la contra de algo demostrado centenas de veces, esa parte que haces mención la digo por el compañero que a puesto la imagen, pero solo esa los cumplidos y todo lo demas es solo para tu disfrute con todo mi cariño como respuesta al que tu repartes



Ya, como el consumo de varios millones de watios que decías que consumirían las 4090 XD
hh1 escribió:
valorblanco escribió:
hh1 escribió:Es que eso depende de muchos factores.
Tú exigencia , como quieres jugar , si quieres siempre esos 120 fps y que te diré años ,si te vale con que se acerque en fps en unos y otros no, si querés jugar a máxima calidad ,si te importa el Raytracing ,y sobre todo ,cuanto estás dispuesto a gastar


Estado mirando 3080 ti y rx 6900 y rx7900

Que Rx 7900?
XT o XTX?

Yo hasta unos 675€...creo que pillaría una RxX 6950XT,siempre que el RT te dé igual y el DLSS3,que en mi opinión ,hoy por hoy, no deberían ser lo primero en una elección de gráfica.

Pro sin decirme nada a las preguntas anteriores ,difícil responderte con certeza



Al final me pillado por Amazon Asrock Phantom Gaming RX 6900 XT 16G OC por 510 euros reacondicionada a ver qué tal llega ponía estado como nuevo
GF3 escribió:@Arquetipico

Yo tengo un 6700K con una 4070Ti, y si que hay juegos a 2K que me hacen cuello de botella, pero la gráfica se disfruta muchísimo, porque no hay nada a lo que no puedas jugar.

Un saludo


Gracias! ;-)
valorblanco escribió:
hh1 escribió:
valorblanco escribió:
Estado mirando 3080 ti y rx 6900 y rx7900

Que Rx 7900?
XT o XTX?

Yo hasta unos 675€...creo que pillaría una RxX 6950XT,siempre que el RT te dé igual y el DLSS3,que en mi opinión ,hoy por hoy, no deberían ser lo primero en una elección de gráfica.

Pro sin decirme nada a las preguntas anteriores ,difícil responderte con certeza



Al final me pillado por Amazon Asrock Phantom Gaming RX 6900 XT 16G OC por 510 euros reacondicionada a ver qué tal llega ponía estado como nuevo

Pues sí está bien,nada mal [beer]
A ver si alguien me puede echar un cable....

Mi GPU tiene 3 salidas DP y una HDMI y tengo 4 monitores, 3 de ellos por DP y el tercero que va independiente, por fuerza lo tengo que tener con el HDMI, pero en este monitor por hdmi solo saca 60hz.

He visto que hay adaptadores tipo este;

https://www.amazon.es/dp/B00EDT0072/ref ... RhaWw&th=1



Pero....Esto funciona a la inversa?
Pone que es de DP a HDMI y según la descripción pues eso, para conectarlo a la salida DP de la consola PC y enchufarlo a la entrada HDMI de la tele.


[beer]
fluzo escribió:A ver si alguien me puede echar un cable....

Mi GPU tiene 3 salidas DP y una HDMI y tengo 4 monitores, 3 de ellos por DP y el tercero que va independiente, por fuerza lo tengo que tener con el HDMI, pero en este monitor por hdmi solo saca 60hz.

He visto que hay adaptadores tipo este;

https://www.amazon.es/dp/B00EDT0072/ref ... RhaWw&th=1



Pero....Esto funciona a la inversa?
Pone que es de DP a HDMI y según la descripción pues eso, para conectarlo a la salida DP de la consola PC y enchufarlo a la entrada HDMI de la tele.


[beer]


No, los DP solo tienen 1 dirección, aunque me suena haber visto recientemente bidireccionales, en tal caso el que tu necesitas es de HDMI > DP

https://www.amazon.es/Adaptador-Display ... 95&sr=1-11
@ditifet

Algo así me puede valer sip...
Ese USB, es solo alimentación y puede ir a una toma usb que tengo en la pared o ha de ir conectada al PC si o si para otras funciones?

Edit,

No no me sirve [+risas]

Tengo al PC conectado un cable HDMI de 7 metros que me costo una pasta, por lo que el adaptador tendria que ser para el otro extremo, si no deberia cambiar el cable y me costo una pasta en su dia, ademas de tener que volver a pasarlo bien por detras de todo y toda la parafernalia [sonrisa]
fluzo escribió:@ditifet

Algo así me puede valer sip...
Ese USB, es solo alimentación y puede ir a una toma usb que tengo en la pared o ha de ir conectada al PC si o si para otras funciones?

Edit,

No no me sirve [+risas]

Tengo al PC conectado un cable HDMI de 7 metros que me costo una pasta, por lo que el adaptador tendria que ser para el otro extremo, si no deberia cambiar el cable y me costo una pasta en su dia, ademas de tener que volver a pasarlo bien por detras de todo y toda la parafernalia [sonrisa]





Si te sirve, le tienes que conectar a continuación un HDMI macho macho y listo



Si lo haces al revés no te funcionará como te he dicho antes
No habia caido en eso [+risas]
No afectara tanto empalme?
Y el usb?
No es necesario en el PC entoces?
Bueno, llevo 3 meses con mi nuevo PC con una flamante 4090, y me surge ahora este duda. En mi tarjeta, que es una Founders Edition, los ventiladores están siempre funcionando. ¿Hay alguna forma de poner modo pasivo, de forma que solo se activen cuando llegue a cierta temperatura? ¿O no es posible con este modelo? Si es posible, ni idea de dónde sería, en el panel de control de Nvidia parece que no.
GordonFreeman escribió:Bueno, llevo 3 meses con mi nuevo PC con una flamante 4090, y me surge ahora este duda. En mi tarjeta, que es una Founders Edition, los ventiladores están siempre funcionando. ¿Hay alguna forma de poner modo pasivo, de forma que solo se activen cuando llegue a cierta temperatura? ¿O no es posible con este modelo? Si es posible, ni idea de dónde sería, en el panel de control de Nvidia parece que no.


Tienes activado el modo máximo rendimiento de Windows o en el panel de control de Nvidia "Modo control de energía: Máximo rendimiento"? Porque es lo único que se me ocurre.
GordonFreeman escribió:Bueno, llevo 3 meses con mi nuevo PC con una flamante 4090, y me surge ahora este duda. En mi tarjeta, que es una Founders Edition, los ventiladores están siempre funcionando. ¿Hay alguna forma de poner modo pasivo, de forma que solo se activen cuando llegue a cierta temperatura? ¿O no es posible con este modelo? Si es posible, ni idea de dónde sería, en el panel de control de Nvidia parece que no.

Con el msi afterburner puedes hacerte tu perfil de ventilación, prueba a ver si te sirve
@GordonFreeman a parte de lo que te han dicho (aunque lo del afterburner hay una opción de zero fan), también puede ser un tema de tener mucho consumo ya sea porque tengas multimonitor o similar, aquí lo explican con un ejemplo (pasando de 144hz a 120hz): https://youtu.be/dTwie1pxuro?t=468

En mi caso solo tengo conectada 1 TV, recuerdo tenerla a 144hz en su momento y ahora la tengo a 120hz y está a 0 rpm por defecto. Bueno, uso el programa https://getfancontrol.com/ pero no sé si configuré algo concreto a diferencia del afterburner que sí lo hice (ya no lo uso para el tema ventilador).
Una pregunta sobre el FSR 3, se sabe algo de cómo va a funcionar el FSR 3?

Con el Frame generator de nvidia, lo que se hace es que mediante una IA tienes la imagen anterior y posterior y la IA se encarga de calcular lo que sería una imagen intermedia y la añade. O esto es lo que tengo entendido, si no es así corregirme.

AMD va a conseguir esto sin IA y sin nada?

Porque vamos, pienso que la calidad dejará que desear, para mí estas tecnologías lo que deben hacer es dar la misma calidad o mejor que lo que sería una imagen nativa, sin dan peor calidad tampoco tiene mucho sentido. Que es lo que le pasa al FSR2, no funciona mal y para no usar IA hace su función pero se notan problemas en la imagen, mientras que DLSS da menos, eso sí, les ha costado años y aún sigue dando algunos problemas pero está más cerca de la imagen nativa.

El frame generator habrá que ver cómo está en comparación pero parece complicado que saquen algo igual.
eric_14 escribió:Una pregunta sobre el FSR 3, se sabe algo de cómo va a funcionar el FSR 3?

Con el Frame generator de nvidia, lo que se hace es que mediante una IA tienes la imagen anterior y posterior y la IA se encarga de calcular lo que sería una imagen intermedia y la añade. O esto es lo que tengo entendido, si no es así corregirme.

AMD va a conseguir esto sin IA y sin nada?

Porque vamos, pienso que la calidad dejará que desear, para mí estas tecnologías lo que deben hacer es dar la misma calidad o mejor que lo que sería una imagen nativa, sin dan peor calidad tampoco tiene mucho sentido. Que es lo que le pasa al FSR2, no funciona mal y para no usar IA hace su función pero se notan problemas en la imagen, mientras que DLSS da menos, eso sí, les ha costado años y aún sigue dando algunos problemas pero está más cerca de la imagen nativa.

El frame generator habrá que ver cómo está en comparación pero parece complicado que saquen algo igual.

Ni idea.a
Se dice que irá a nivel de controladores .Vamos ,que estará en casi todos los juegos.

Habrá que ver qué tal es,porque eso de que esté en casi todos los juegos ,es un puntazo.Precisamente ,es lo que más le ctitco a Nvidia con el DlSS 2/3 y no digamos ,el FG.
El DLSS 2 ya se ve en bastantes juegos h ahí ha mejorado....por el FG?
Tanto rollo y bombo ,y de Diciembre a aquí, mira que he jugador juegos y solo 2 lo han llevado : £A Plague Tale : Réquiem y Remnant 2.
Ya está.
Es hjnkti del bueno.

Y con DLSS 3.5, que oí ya genial, me huele a lo mismo.
4 juegos contados y ya.
Y encima ,de esos 4 juegos ,algunos sin los de siempre o "antiguos".En juegos novedades ,pocos.
@eric_14 eso es, según dice AMD, sin IA lo consigue. En el hilo de AMD RX 7000 lo comentamos, en este post, cuando escribo "pero en la 2º que hablas de AMD" comentamos justo sobre eso, la diferencia de cómo consigue el frame generation cada una: Nvidia vía hardware dedicado y AMD vía software

Otra cosa que veo importante es por ejemplo lo que comenta Kavezacomeback sobre que la característica exclusiva de las AMD RX 7000 es el Anti-lag+ (y no el frame generation como en Nvidia con las 4000).

Yo tengo dudas ya no en la calidad del frame generado como dices, sino en el hecho que la característica exclusiva en el caso de AMD es el sistema de reducción de latencia para sus RX 7000, haciendo que en el resto de tarjetas quizás haya demasiada latencia (lo que vería una opción mucho peor que la que hizo Nvidia con sus 4000 haciendo exclusivo el frame generation). En este post respondiendo a Kavezacomeback escribí mi opinión de este tema con mas detalle.

Pero vamos, que aún quedan varias dudas, hasta que no lo veamos en movimiento y lo pueda analizar algún medio profesional o nosotros podamos verlo en persona la verdad que casi mejor no creerse mucho de lo que han dicho. Aunque esto también lo vayan a disfrutar los que tengan tarjetas Nvidia (aunque parcialmente, al menos por el Anti-lag+), entiendo que lo recomendable para estar informado de este tema es seguir ese hilo de AMD: hilo_amd-rdna3-rx-7000-gpu_2447149
Gracias, probaré las cosas que decís. El caso es que no sé si debería hacerlo de forma automática, sin ningún otro programa, porque en las reviews decían que tiene modo pasivo. Recuerdo ver los ventiladores apagados la primera vez que inicié el PC, luego ya siempre están activados.

RC9 escribió:
GordonFreeman escribió:Bueno, llevo 3 meses con mi nuevo PC con una flamante 4090, y me surge ahora este duda. En mi tarjeta, que es una Founders Edition, los ventiladores están siempre funcionando. ¿Hay alguna forma de poner modo pasivo, de forma que solo se activen cuando llegue a cierta temperatura? ¿O no es posible con este modelo? Si es posible, ni idea de dónde sería, en el panel de control de Nvidia parece que no.


Tienes activado el modo máximo rendimiento de Windows o en el panel de control de Nvidia "Modo control de energía: Máximo rendimiento"? Porque es lo único que se me ocurre.


Sí, tengo activado el máximo rendimiento tanto en Windows como en el panel de control de Nvidia.
@Rvilla87 @hh1 gracias, era solo que no tenía claro si se me escapaba algo. Bueno ya se verá cuando salga.

Sobre el FG la verdad que sí falta que lo añadan en más juegos pero supongo que pasará como el SR... al principio tampoco había muchos y practicamente lo podías activar en uno o dos y si podías, porque como usara la versión 1 se veía borroso, pero ahora ya lo suelen poner en todos quitando de alguna excepción y siempre es recomendable activarlo. Con el FG supongo que en un tiempo se verá bastante más, porque según nvidia hay que adaptar los juegos y por eso no está en todos (si no nos mienten).
_anVic_ está baneado por "clon de usuario baneado"
AMD lleva copiando a los verdes desde hace años, no solo con el freesync ( vs g-sync ) o Ray tracing , también con FSR para competir con DLSS, el antilag + con el Reflex , ahora FSR 3 con DLSS3 ( FG ). Nvidia saca en octubre DLSS 3.5 para añadir RR (Ray Reconstruction) para mejorar el ray tracing, un año después vendrá AMD con algo similar. En fin llevan así años a rebufo de los verdes ... a ver cuando sacan ellos algo antes... Haremos una fiesta !!!

Que se pongan las pilas como con Mantle que a pesar de su corto ciclo de vida, la API solo tuvo 7 juegos que lo utilizaron en PC, entre ellos, el Ashes of the Singularity de Oxide Games. Pero puede considerarse como un precursor de las modernas APIs gráficas como DirectX 12 y Vulkan, una fuerza que pretendía impulsar el desarrollo de juegos más allá de DirectX 11 y OpenGL.

Aunque el desarrollo de esta API terminó en 2015, su legado perdura en Vulkan, que es una API derivada de Mantle del Grupo Kronos. AMD contribuyó con su API Mantle al Grupo Kronos, sabiendo que su API nunca recibiría una adopción generalizada debido a su naturaleza exclusiva. Utilizando Mantle como base, Kronos creó la API de Vulkan, que se ha utilizado para crear juegos como DOOM (2016), RAGE 2, Wolfenstein: The New Colossus y mejorar el rendimiento de títulos como DOTA 2 y No Man’s Sky...

Yo no pienso que el FSR3 será mejor que el FG en ningún aspecto. Creo que tampoco han dicho si FSR 3 como técnica de escalado ( sin activar los fake frames ) vaya a mejorar la calidad de imagen respecto al FSR 2 lo cual seria muy conveniente y necesario, diria que casi obligatorio.

En fin ya veremos como acaba la cosa, espero equivocarme y que sea la leche marinera... aunque yo no tengo ningún hype. Tampoco me espero una maravilla del Ray Reconstruction.
Con la competencia entre los verdes y los rojos ganamos todos. Quien se copie de quien no importa, lo que debería de preocuparnos es que mediante estas técnicas de escalado se esta invirtiendo menos de lo necesario en mejorar la potencia bruta de las nuevas gráficas. No hay mas que hacer la prueba de poner juegos AAA sin DLSS/FSR activado y ver a la poca cantidad de frames que consiguen generar. Es un despropósito que para poder lograr una cantidad de frames razonables tengamos que hacer uso si o si de estas tecnologías de escalado. Esta situación no hace mas que empeorar con el paso del tiempo.
_anVic_ está baneado por "clon de usuario baneado"
iGarikoitz escribió:Con la competencia entre los verdes y los rojos ganamos todos. Quien se copie de quien no importa, lo que debería de preocuparnos es que mediante estas técnicas de escalado se esta invirtiendo menos de lo necesario en mejorar la potencia bruta de las nuevas gráficas. No hay mas que hacer la prueba de poner juegos AAA sin DLSS/FSR activado y ver a la poca cantidad de frames que consiguen generar. Es un despropósito que para poder lograr una cantidad de frames razonables tengamos que hacer uso si o si de estas tecnologías de escalado. Esta situación no hace mas que empeorar con el paso del tiempo.


Nvidia no tiene competencia desde Maxwell, por eso tiene el monopolio y hace lo que le sale del cimbrel con los precios desde Turing. Pero desafortunadamente el pato lo pagamos nosotros los consumidores en última instancia...

Si amd fuese más competitivo en gpus como lo es en cpus, ejemplo ryzen vs intel (pudiéndome agenciar un 13700kf por solo 399€ hace unos meses) sería cojonudo, pero por desgracia en lo que a tarjetas gráficas se refiere nvidia le lleva demasiada ventaja.

En el tema de juegos triple A , la culpa es de los desarrolladores que programan los juegos, pues saben que pueden implementar esas técnicas de escalado y lo llevan al extremo absurdo como el caso de Remnant 2 .
_anVic_ escribió:
iGarikoitz escribió:Con la competencia entre los verdes y los rojos ganamos todos. Quien se copie de quien no importa, lo que debería de preocuparnos es que mediante estas técnicas de escalado se esta invirtiendo menos de lo necesario en mejorar la potencia bruta de las nuevas gráficas. No hay mas que hacer la prueba de poner juegos AAA sin DLSS/FSR activado y ver a la poca cantidad de frames que consiguen generar. Es un despropósito que para poder lograr una cantidad de frames razonables tengamos que hacer uso si o si de estas tecnologías de escalado. Esta situación no hace mas que empeorar con el paso del tiempo.


Nvidia no tiene competencia desde Maxwell, por eso tiene el monopolio y hace lo que le sale del cimbrel con los precios desde Turing. Pero desafortunadamente el pato lo pagamos nosotros los consumidores en última instancia...

Si amd fuese más competitivo en gpus como lo es en cpus, ejemplo ryzen vs intel (pudiéndome agenciar un 13700kf por solo 399€ hace unos meses) sería cojonudo, pero por desgracia en lo que a tarjetas gráficas se refiere nvidia le lleva demasiada ventaja.

En el tema de juegos triple A , la culpa es de los desarrolladores que programan los juegos, pues saben que pueden implementar esas técnicas de escalado y lo llevan al extremo absurdo como el caso de renmant 2 .



Pues yo precisamente no veo tanta diferencia, quitando quizá la gama super alta que puede que AMD compita o no, el resto de gamas si tiene competencia.

Por poner un ejemplo la 6800xt me parece hoy en día mejor gráfica que la 3080, por cantidad de VRAM y por consumo.

El problema es que AMD ofrece productos similares a precios similares, vamos que si no pactan precios poco falta.

Total que al final dices me compro una 3080 o me ahorro 4 duros en una 6800xt, y al final te da lo mismo porque te gastas lo mismo.
_anVic_ escribió:Nvidia no tiene competencia desde Maxwell, por eso tiene el monopolio y hace lo que le sale del cimbrel con los precios desde Turing. Pero desafortunadamente el pato lo pagamos nosotros los consumidores en última instancia...
Creo que vemos el mercado de las gráficas desde puntos de vista distintos. Lo de que no tiene competencia, te compro esta afirmación con la gama de la 4090, pero en la gama de la 4080 que se lo digan a la RX 7900xtx siendo esta mas barata. Nvidia se ha pasado con los precios, no por tener monopolio sino porque se han flipado mucho dando excusas baratas para hacer creer a la gente de que esos precios son los adecuados.
_anVic_ está baneado por "clon de usuario baneado"
Es que la 4080 es en realidad una 4070 o máximo una 4070Ti y de ahí para abajo no son las gpus que corresponden a su nombre. Luego si quieres medir el rendimiento en chips ultra recortados perfecto. La única que no viene recortada es la 4090 y se ultra fuma a la competencia. Me da igual el precio. Nvidia va tan sobrada que se puede permitir poner el precio que le salga del cimbrel y siguen haciendo caja. Tienen mejor soporte de drivers, DLSS es mejor que FSR y en Ray tracing también es superior en todas las series... una 3090 Ti es más potente en ray tracing que la 7900XTX . Además de tener FG hace 10 meses y medio. La gente se queja, llora, patalea, los pone a parir pero siguen comprando sus gráficas para jugar por encima de los rojos. Esa es la realidad . No se en tu matrix cómo será... [+risas]

En la serie 3000 nvidia se forró vendiendo gráficas que no solo rinden mejor también bajo ray tracing sino que además eran cojonudas para minar eth y las de amd nope. Desde finales del 2020 a septiembre del 2022 casi todo quisque minaba eth aunque mucha gente no lo confiese. Hasta había peña minando con una o dos gráficas porque era muy rentable, incluso sacaron pasta los especuladores a costa de nvidia. No seamos falsos. Son Gpus mucho más versátiles que las de la compañía roja, no solo para jugar sino para otro tipo de menesteres.

Los gamers le sudamos la polla a nvidia desde hace tiempo, ahora están haciendo caja vendiendo a destajo Chips para IA... han ingresado un 171% más pasta gracias a dichos chips. En cualquiera de los casos, NVIDIA gana, va muy por delante del resto, tiene un ecosistema de IA muy potente y las empresas se pegan por su hardware.

Luego vender más o menos gráficas recortadas y caras a los gamers se la sopla inmensamente.

Se tiraron al barro los primeros, con todos los riesgos, consiguieron abrir hueco y ahora están recibiendo sus frutos con datos récords, hay que reconocerlo, sin etiquetas ni prejuicios de por medio, ninguno de sus rivales los vio venir, y ahora van por detrás. La pregunta es: ¿ hasta cuándo ? [fumando]
_anVic_ escribió:Es que la 4080 es en realidad una 4070 o máximo una 4070Ti y de ahí para abajo no son las gpus que corresponden a su nombre. Luego si quieres medir el rendimiento en chips ultra recortados perfecto. La única que no viene recortada es la 4090 y se ultra fuma a la competencia. Me da igual el precio. Nvidia va tan sobrada que se puede permitir poner el precio que le salga del cimbrel y siguen haciendo caja. Tienen mejor soporte de drivers, DLSS es mejor que FSR y en Ray tracing también es superior en todas las series... una 3090 Ti es más potente en ray tracing que la 7900XTX . Además de tener FG hace 10 meses y medio. La gente se queja, llora, patalea, los pone a parir pero siguen comprando sus gráficas para jugar por encima de los rojos. Esa es la realidad . No se en tu matrix cómo será... [+risas]

He pasado de 1080ti - 2080ti - 3080ti y ahora tengo una 7900xtx, se de lo que hablo cuando digo que Nvidia se ha columpiado con los precios, no me importan las excusas que se utilicen para justificarlo. De no ser así, ahora mismo tendría una 4090 seguramente, pero me niego a seguirles el juego. El uso del Raytracing que están haciendo las GPUs (me da igual la marca) aun en pañales y necesita mucho mas desarrollo como para intentar convencer a la gente que lo active en los juegos sacrificando el rendimiento de manera brutal para ver un poco mejor algunos detalles, por lo que no me parece una razón de peso para decir quien la tiene mas grande.
_anVic_ está baneado por "clon de usuario baneado"
También tuve la 1080ti en 3 way sli , la 2080ti, casi toda la serie 3000 y de la 4000 he tenido la 4080 y 3 4090. He testado también la 7900xtx en casa de un buen amigo al que le llevé mi 4090 para hacer pruebas comparativas. Pero al día siguiente y de motu propio sin yo decirle nada devolvió la 7900xtx y se agenció una 4090.

A ti te falta probar la 4090 todavía para salir de dudas [+risas]

Yo no justifico sus precios y me cago en nvidia 14 veces si es necesario. No la defiendo, pero reconozco la superioridad en cuanto a rendimiento dejando de lado los precios. Llevo años hasta Turing montando gráficas cada gen de dos en dos o de tres en tres. Con la 980ti tuve 4 x 850 más de 3k plomos en gpus ... luego una 4090 me parece hasta barata viniendo cada 2 años gastando mínimo entre 1600 y 3400 € desde kepler, tuve tres 780 y dos titan blacks en SLI de más de 900 cada una. Pagar esa cifra cada dos años para mi era lo normal, es algo que tomé por costumbre hace más de una década .

A mi me da igual el precio, quiero lo mejor de lo mejor cada generación y si tengo que pagar más pasta por una 4090 que por una 7900xtx lo haré. Y me da igual que sea nvidia o amd, tampoco me importa que el precio sea o no sea justo, por mucho que llore o me queje no voy a cambiar las tornas.

Al final todo es cuestión de prioridades en la vida. Si tu te conformas con la 7900xtx y eres feliz pues perfecto para ti, que la disfrutes mucho. Yo la probé una tarde entera viniendo de la 4090 y me dio puto asco. Seré yo muy tiquismiquis, todo es posible.

Si quieres ver la diferencia que hay entre tu 7900xtx y la 4090 de un servidor podemos benchear lo que te apetezca y vas sacando números o conclusiones. Aunque lo ideal sería que la probaras por ti mismo.
Yo me salí de mi zona de confort con mi "siempre Nvidia" y decidí comprar una XT 7900 XTX y juego a todo muy bien. En mi caso no me importa que sea superior pues lo que a mi me interesaba era más la diferencia de "precio" que la de "rendimiento". Tampoco estaba de acuerdo con las politicas de Nvidia y mi forma de manifestarlo fue la de no comprar este año a los "verdes".

Con lo que me "ahorré" ( unos 500\600 Euros actualmente...) me compré una Asrock X670 Taichi ( espectacular :O ), y me sobró un poco para poner un 7800X3D. Al final es cuestión de prioridades. Esperemos a ver qué ocurre con las futuras generaciones.
_anVic_ está baneado por "clon de usuario baneado"
CuCu1982 escribió:Yo me salí de mi zona de confort con mi "siempre Nvidia" y decidí comprar una XT 7900 XTX y juego a todo muy bien. En mi caso no me importa que sea superior pues lo que a mi me interesaba era más la diferencia de "precio" que la de "rendimiento". Tampoco estaba de acuerdo con las politicas de Nvidia y mi forma de manifestarlo fue la de no comprar este año a los "verdes".

Con lo que me "ahorré" ( unos 500\600 Euros actualmente...) me compré una Asrock X670 Taichi ( espectacular :O ), y me sobró un poco para poner un 7800X3D. Al final es cuestión de prioridades. Esperemos a ver qué ocurre con las futuras generaciones.


Pues fíjate yo con lo que vale esa Asrock taichi me agencié un 13700kf por 399 € y aun me sobró pasta para una Z690 Asus tuf de 250€ . En total me gasté poco más de lo que vale tu Asrock taichi, creo que la he visto por 619 en pccomp. Aún tendré soporte para la serie 14th de Intel, aunque dudo que cambie hasta la 15 o 16.

También tuve el 7800x3d unos días para testar y no me gustó nada, lo devolví a la semana. Pagué algo más de 500 plomos para un rendimiento más bien paupérrimo en general... muy poco headroom para overclock, unas temps absurdamente altas para su bajo consumo, un 0,1%/1% lows con dips peores que el 13700kf y por supuesto si lo sacas de los juegos se lo funde en cualquier escenario. Mucho menos versátil el 7800x3d a todas luces.

La 4090 llegó a bajar de los 1500 € . Mi colega se gastó más de 1200 en su 7900xtx , la cual era muy tragona, calentotra y ruidosa ( por los fans y el coil ) Fue pinchar mi 4090 en su rig, pasar DDU afinarla en 2 min , jugar un par de horas y él mismo me dijo, palabras textuales: " vaya ñordaca de gráfica tengo, parece que estoy comparando un seat ibiza con un coche de alta gama " ... y se quedo acto seguido compungido, pensativo , con cara de circunstancia a la par que pálido. Al día siguiente hizo lo que yo me esperaba incluso antes de llegar a su casa y hacer las pruebas de marras.

Por cierto nos falto testar el port royal y el superposition con la 7900xtx, ya que solo probamos juegos.

Si te animas pásalos con tu 7900xtx a ver cómo tira, y si puede ser con gpuz en segundo plano marcando temps, consumos, etc mucho mejor.
Hola, ayer me llego mi rtx 4080 de msi, es grande y pesa un huevo, pero me la esperaba más mamotreto.
Temperaturas muy buenas, sin perfil de ventilación ni nada se queda a unos 65º, y muy silenciosa.
Ahora a ver que tal va con el ryzen 5900x . Una fotillo junto a la rtx 3070 tuf que viene a sustituir y una gtx 1660 super.
Imagen
_anVic_ escribió:También tuve la 1080ti en 3 way sli , la 2080ti, casi toda la serie 3000 y de la 4000 he tenido la 4080 y 3 4090. He testado también la 7900xtx en casa de un buen amigo al que le llevé mi 4090 para hacer pruebas comparativas. Pero al día siguiente y de motu propio sin yo decirle nada devolvió la 7900xtx y se agenció una 4090.

A ti te falta probar la 4090 todavía para salir de dudas [+risas]

Yo no justifico sus precios y me cago en nvidia 14 veces si es necesario. No la defiendo, pero reconozco la superioridad en cuanto a rendimiento dejando de lado los precios. Llevo años hasta Turing montando gráficas cada gen de dos en dos o de tres en tres. Con la 980ti tuve 4 x 850 más de 3k plomos en gpus ... luego una 4090 me parece hasta barata viniendo cada 2 años gastando mínimo entre 1600 y 3400 € desde kepler, tuve tres 780 y dos titan blacks en SLI de más de 900 cada una. Pagar esa cifra cada dos años para mi era lo normal, es algo que tomé por costumbre hace más de una década .

A mi me da igual el precio, quiero lo mejor de lo mejor cada generación y si tengo que pagar más pasta por una 4090 que por una 7900xtx lo haré. Y me da igual que sea nvidia o amd, tampoco me importa que el precio sea o no sea justo, por mucho que llore o me queje no voy a cambiar las tornas.

Al final todo es cuestión de prioridades en la vida. Si tu te conformas con la 7900xtx y eres feliz pues perfecto para ti, que la disfrutes mucho. Yo la probé una tarde entera viniendo de la 4090 y me dio puto asco. Seré yo muy tiquismiquis, todo es posible.

Si quieres ver la diferencia que hay entre tu 7900xtx y la 4090 de un servidor podemos benchear lo que te apetezca y vas sacando números o conclusiones. Aunque lo ideal sería que la probaras por ti mismo.



Es que la 4090 es mucho mejor pero tambien es mucho mas cara. Al final es lo que comentas, cuestión de prioridades. Yo al final acabé con la 6950XT porque para mi uso, me sobra y sobretodo, porque no quiero contribuir a esta sangría de Nvidia.
_anVic_ escribió:
CuCu1982 escribió:Yo me salí de mi zona de confort con mi "siempre Nvidia" y decidí comprar una XT 7900 XTX y juego a todo muy bien. En mi caso no me importa que sea superior pues lo que a mi me interesaba era más la diferencia de "precio" que la de "rendimiento". Tampoco estaba de acuerdo con las politicas de Nvidia y mi forma de manifestarlo fue la de no comprar este año a los "verdes".

Con lo que me "ahorré" ( unos 500\600 Euros actualmente...) me compré una Asrock X670 Taichi ( espectacular :O ), y me sobró un poco para poner un 7800X3D. Al final es cuestión de prioridades. Esperemos a ver qué ocurre con las futuras generaciones.


Pues fíjate yo con lo que vale esa Asrock taichi me agencié un 13700kf por 399 € y aun me sobró pasta para una Z690 Asus tuf de 250€ . En total me gasté poco más de lo que vale tu Asrock taichi, creo que la he visto por 619 en pccomp. Aún tendré soporte para la serie 14th de Intel, aunque dudo que cambie hasta la 15 o 16.

También tuve el 7800x3d unos días para testar y no me gustó nada, lo devolví a la semana. Pague algo más de 500 plomos para un rendimiento más bien paupérrimo en general... muy poco headroom para overclock, unas temps absurdamente altas para su bajo consumo, un 0,1%/1% lows con dips peores que el 13700kf y por supuesto si lo sacas de los juegos se lo funde en cualquier escenario. Mucho menos versátil el 7800x3d a todas luces.

La 4090 llegó a bajar de los 1600 € . Mi colega se gastó más de 1200 en su 7900xtx , la cual era muy tragona, calentotra y ruidosa ( por los fans y el coil ) Fue pinchar mi 4090 en su rig, pasar DDU afinarla en 2 min , jugar un par de horas y él mismo me dijo, palabras textuales: " vaya ñordaca de gráfica tengo, parece que estoy comparando un seat ibiza con un coche de alta gama " ... y se quedo acto seguido compungido, pensativo , con cara de circunstancia a la par que pálido. Al día siguiente hizo lo que yo me esperaba incluso antes de llegar a su casa y hacer las pruebas de marras.

Por cierto nos falto testar el port royal y el superposition con la 7900xtx, ya que solo probamos juegos.

Si te animas pásalos con tu 7900xtx a ver cómo tira, y si puede ser con gpuz en segundo plano marcando temps, consumos, etc mucho mejor.

Vamos que se puede decir que le tocó "la china" a tu colega :O . Al final regalé la Taichi junto al 7800X3D a un familiar. Así que ahora sigo con mi vetusto ( lo sé :( ) Ryzen 5800 X y te aseguro que juego bien qué es lo que a mi me importa y de momento me sobra y me basta con el [oki] . Respecto a los test y eso... Al final del día prefiero jugar si tengo tiempo. Eso sí... cuando compro equipo nuevo..., siempre paso un test para ver si está dentro de unos valores normales y ya no paso ninguno más. Quizás si sale un nuevo drivers para ver temas de consumo... pero como digo rara vez paso el dia haciendo Benchmark. Pues nada... a disfrutar de ese equipazo :) . El siguiente CPU quiero que sea Intel. La verdad es que solo he tenido hasta ahora Ryzen desde un 1700 a este último 5800 X que conservo.
sacre escribió:Hola, ayer me llego mi rtx 4080 de msi, es grande y pesa un huevo, pero me la esperaba más mamotreto.
Temperaturas muy buenas, sin perfil de ventilación ni nada se queda a unos 65º, y muy silenciosa.
Ahora a ver que tal va con el ryzen 5900x . Una fotillo junto a la rtx 3070 tuf que viene a sustituir y una gtx 1660 super.
Imagen

Yo tengo esa MSI, es demencial, temperaturas buenisimas, a mi no me toca ni los 60, le puedes hacer undervolt al core, bajale -255mhz y luego la subes a 2730 en la curva a 0.970v, si bajas mas se pone inestable.

No tiene camara de vapor como la Suprim pero yo no noto nada, tanto el hotspot como el resto de la GPU es fria por si sola.
_anVic_ escribió:
CuCu1982 escribió:Yo me salí de mi zona de confort con mi "siempre Nvidia" y decidí comprar una XT 7900 XTX y juego a todo muy bien. En mi caso no me importa que sea superior pues lo que a mi me interesaba era más la diferencia de "precio" que la de "rendimiento". Tampoco estaba de acuerdo con las politicas de Nvidia y mi forma de manifestarlo fue la de no comprar este año a los "verdes".

Con lo que me "ahorré" ( unos 500\600 Euros actualmente...) me compré una Asrock X670 Taichi ( espectacular :O ), y me sobró un poco para poner un 7800X3D. Al final es cuestión de prioridades. Esperemos a ver qué ocurre con las futuras generaciones.


Pues fíjate yo con lo que vale esa Asrock taichi me agencié un 13700kf por 399 € y aun me sobró pasta para una Z690 Asus tuf de 250€ . En total me gasté poco más de lo que vale tu Asrock taichi, creo que la he visto por 619 en pccomp. Aún tendré soporte para la serie 14th de Intel, aunque dudo que cambie hasta la 15 o 16.

También tuve el 7800x3d unos días para testar y no me gustó nada, lo devolví a la semana. Pague algo más de 500 plomos para un rendimiento más bien paupérrimo en general... muy poco headroom para overclock, unas temps absurdamente altas para su bajo consumo, un 0,1%/1% lows con dips peores que el 13700kf y por supuesto si lo sacas de los juegos se lo funde en cualquier escenario. Mucho menos versátil el 7800x3d a todas luces.

La 4090 llegó a bajar de los 1600 € . Mi colega se gastó más de 1200 en su 7900xtx , la cual era muy tragona, calentotra y ruidosa ( por los fans y el coil ) Fue pinchar mi 4090 en su rig, pasar DDU afinarla en 2 min , jugar un par de horas y él mismo me dijo, palabras textuales: " vaya ñordaca de gráfica tengo, parece que estoy comparando un seat ibiza con un coche de alta gama " ... y se quedo acto seguido compungido, pensativo , con cara de circunstancia a la par que pálido. Al día siguiente hizo lo que yo me esperaba incluso antes de llegar a su casa y hacer las pruebas de marras.

Por cierto nos falto testar el port royal y el superposition con la 7900xtx, ya que solo probamos juegos.

Si te animas pásalos con tu 7900xtx a ver cómo tira, y si puede ser con gpuz en segundo plano marcando temps, consumos, etc mucho mejor.


Al final cuestión de prioridades.

Que yo haya visto, la 4090 tocó los 1499€ nueva en Coolmod como precio mínimo.

Y la 7900XTX de Asus (no recuerdo modelo exacto) he llegado a verla a 999€ (-100€ de cashback y con Starfield Premium; total 899€).

Es una diferencia de pasta considerable.
Y del RT/DLSS... si no te gustan estas tecnologías es mejor AMD.

A mí sí me gustan y ya que los desarrolladores a penas optimizan juegos esto les debería quitar bastante carga de trabajo en un futuro y no nos comemos una mala iluminación porque ya lo hará el RT e imagino que siempre será más realista. Y el DLSS es fundamental para el RT.

AMD esperará a que hagan open-source el XeSS e igual hace algo para añadir hard que sea compatible con esa tecnología y eso que te ahorras, mejor que el FSR2 funcionará. Otra cosa es que no lo hagan open-source porque de momento no hay nada publicado.

Nvidia siempre ira por delante, pero la estrategia de AMD tampoco es mala, el resto investiga y luego solo tienes que copiar... el único problema es que tardas más en tener cosas nuevas o igualarte a la competencia.
eric_14 escribió:Y del RT/DLSS... si no te gustan estas tecnologías es mejor AMD.

A mí sí me gustan y ya que los desarrolladores a penas optimizan juegos esto les debería quitar bastante carga de trabajo en un futuro y no nos comemos una mala iluminación porque ya lo hará el RT e imagino que siempre será más realista. Y el DLSS es fundamental para el RT.

AMD esperará a que hagan open-source el XeSS e igual hace algo para añadir hard que sea compatible con esa tecnología y eso que te ahorras, mejor que el FSR2 funcionará. Otra cosa es que no lo hagan open-source porque de momento no hay nada publicado.

Nvidia siempre ira por delante, pero la estrategia de AMD tampoco es mala, el resto investiga y luego solo tienes que copiar... el único problema es que tardas más en tener cosas nuevas o igualarte a la competencia.


Ya es oficial y está presentado

https://www.muycomputer.com/2023/08/29/ ... -soportan/

https://www.profesionalreview.com/2023/ ... ndimiento/

https://hardzone.es/noticias/tarjetas-g ... -amd-fsr3/



[Alex] escribió:
Al final cuestión de prioridades.

Que yo haya visto, la 4090 tocó los 1499€ nueva en Coolmod como precio mínimo.

Y la 7900XTX de Asus (no recuerdo modelo exacto) he llegado a verla a 999€ (-100€ de cashback y con Starfield Premium; total 899€).

Es una diferencia de pasta considerable.



Ya pero la verde es mucho mas potente



_anVic_ escribió:
Mi colega se gastó más de 1200 en su 7900xtx , la cual era muy tragona, calentotra y ruidosa ( por los fans y el coil ) Fue pinchar mi 4090 en su rig, pasar DDU afinarla en 2 min , jugar un par de horas y él mismo me dijo, palabras textuales: " vaya ñordaca de gráfica tengo, parece que estoy comparando un seat ibiza con un coche de alta gama " ... y se quedo acto seguido compungido, pensativo , con cara de circunstancia a la par que pálido. Al día siguiente hizo lo que yo me esperaba incluso antes de llegar a su casa y hacer las pruebas de marras.

Por cierto nos falto testar el port royal y el superposition con la 7900xtx, ya que solo probamos juegos.

Si te animas pásalos con tu 7900xtx a ver cómo tira, y si puede ser con gpuz en segundo plano marcando temps, consumos, etc mucho mejor.


Eso mismo dije hace 2 meses cuando pasé de mi 6950xt a una 3090
El día que amd deje de intentar superar a nvidia (tema rt, dlss, frame ia, drivers) y vea que no puede, empezará a comprar “juegos” donde solo use su tecnologías, y creo que esto ya está pasando me temo, ya el mundo del pc ya da más asco que las guerras de las consolas.

Por cierto que tal la inno3d RTX 4090 iChill Frostbite? O recomendarme alguna del mismo precio (1750€) con líquida custom.
_anVic_ está baneado por "clon de usuario baneado"
@dififet y eso que la 3090 es un injerto experimental de lo que luego tenia que ser la 3090ti con los módulos de 2gb y unas temps muy correctas en las memos, vrm etc. Yo también tuve una 3090 a (1485 € nueva de salida ) y otra 3090ti ( por 1299€ con dos juegos) y no tenia nada que ver una con otra.

Eso si, tragonas son en ambos casos a stock para el rendimiento que ofrecen... Pero las temps de la 3090ti eran infinitamente mejores, sobre todo en las memos.

Recuerdo testar ambas minando eth y la 3090 se me ponían las memos a casi 100 ºC y la 3090ti apenas rozaba los 65ºC .

Sobre rendimiento en juegos, ambas a su máximo oc, un 10% más aprox para la 3090ti porque tenía una bios con mucho más headroom de serie y las temps mucho más controladas.
14352 respuestas