[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

xejo22 escribió:gente que haya pillado la FE de LDLC, cuanto suelen tardar en mandarla a partir de pedirla?

4 días me tardo.
Bio81 escribió:nuevos benchmark filtrados de la 4080 https://videocardz.com/newz/nvidia-geforce-rtx-4080-overclocking-and-4k-gaming-benchmarks-leaked

si los datoos son correctos es más o menos lo que yo decía , un 30% más rendimiento que la 3090 costando unos 170 euros más (modelo FE) + dlss 3 y mejor rendimiento en ray tracing

y hay comparatíva con la 4090 eso si con distinta cpu , la 4090 se acompaña de un i9 12900KF y la 4080 de un ryzen 7 7600x:

Forza Horizon 5: 4090 147 FPS vs 4080 127 FPS (+15.7%)
Shadow of the Tomb Raider: 4090 179 FPS vs 4080 129 FPS (+ 38.8%)
Red Dead Redemption 2: 4090 129 FPS vs 4080 99 FPS (+30.3)
Cyberpunk 2077: 4090 111 FPS vs 4080 83 FPS (33.7%)
COD MW2: 4090 137 FPS vs 4080 127 FPS (+7.9%)

a falta de ver las reviews del martes a mí me convence , para 4k 60 fps que es lo que yo busco me llega

A mi también me gusta para mi segundo equipo , si consiguiera una founders a su precio igual la pillaba :)
Bio81 escribió:
BloodBlack escribió:@Bio81

Y eso que la 4080 es una custom y en algunos juegos como MW2 y Forza la 4090 parece tener cuello, el avg anda entre 30-40% la diferencia.

Normal que AMD se compare con las 4080 y vaya sacar datos la próxima semana coincidiendo con la review de estas.Precio rendimiento es una GPU que no tendrá mucho sentido.


la 3090 rinde menos y cuesta casi lo mismo

@NIB1973

se supone que se están comparando con los mismos settings , pero bueno , el martes salen las reviews y se despejaran las dudas

cyberpunk 2077
4090 + 12900KF


A mi es que esos resultados del cyberpunk me parecen demasiado altos, precisamente este juego tiene muchos parámetros que se pueden poner al máximo y yo creo que ahí no lo están. Probaré esa configuración con el preset que indica en la captura a ver que resultados.
Por fin llegó!!! Estoy que no me lo creo.

Imagen

Iba a por la aorus o a por la Asus ROG Strix, pero después de ponerse a 1619€ en amazon no lo dudé ni un segundo. Ha tardado lo suyo en llegar... pero ha merecido la pena, y a ese precio, tan contento :p
@s.goncio la pillaste a 1619 nueva en Amazon? Me imagino que ya no estará esa oferta no?
Gracias
Ivanfuci escribió:@s.goncio la pillaste a 1619 nueva en Amazon? Me imagino que ya no estará esa oferta no?
Gracias

Sí, nueva. Ahora ya aparece como no disponible. La pedí el 14 de octubre, por lo que ha tardado lo suyo. Me pasó el enlace mi primo y después de cogerla al volver a entrar ya aparecía como no disponible. Tenia muchas dudas de que me llegara, más que nada porque con los precios en los que se mueve amazon, creo que se equivocaron al poner 2619 y pusieron 1619...

Os dejo enlace por si volviera a sonar la flauta: https://www.amazon.es/gp/product/B0BHD9 ... UTF8&psc=1
s.goncio escribió:
Ivanfuci escribió:@s.goncio la pillaste a 1619 nueva en Amazon? Me imagino que ya no estará esa oferta no?
Gracias

Sí, nueva. Ahora ya aparece como no disponible. La pedí el 14 de octubre, por lo que ha tardado lo suyo. Me pasó el enlace mi primo y después de cogerla al volver a entrar ya aparecía como no disponible. Tenia muchas dudas de que me llegara, más que nada porque con los precios en los que se mueve amazon, creo que se equivocaron al poner 2619 y pusieron 1619...

Os dejo enlace por si volviera a sonar la flauta: https://www.amazon.es/gp/product/B0BHD9 ... UTF8&psc=1


Ostras, buena jugada, porque es error de precio al 100%.
@s.goncio A ese precio se venia para casa aunque tuviera que bajarle el power limit al 50% para que no petara la RM750.
Aunque el precio sigue siendo una locura, ahí ya me parecería (casi) justificado por el rendimiento. Buena compra.
@razieljas He visto tu firma y yo tengo también un 9900k con 32gb ddr4 3200 y me viene de camino un AW3423DW, y queria preguntarte que tal se porta ese proce con la 4090.

Seguramente caiga una 7900 XTX o una 4080 (o una 4090 de esas de @s.goncio [plas] ) y le he estado dando vueltas a si valdria la pena cambiar de proce por si hace demasiado cuello de botella, pero la cosa es que cuando me pongo a hacer pruebas ahora a 1440p con el 9900k a 3.6- 4.5 - 5Ghz en juegos la diferencia que noto es irrisoria, yendo la 2080S al 100% siempre y con diferencias de 1-2 fps en el bench del AC Odissey por ejemplo que estoy jugando ahora.

¿Tu sientes que sigue dando la talla?
@Bio81

eso es con todo ultra?
el Bench del cyberpunk con rtx y todo al maximo demencial me dio a mi 72fps de media
dlss calidad

mi cpu es i9 10980xe
@s.goncio a 1600e en Amazon? Como?

EDIT: vale, buena compra tio!
Enhorabuena, yo también pienso eso que dices del precio mal puesto. Si han tardado tanto en enviarla puede que haya sido por si cansado de esperar terminabas por cancelar voluntariamente el pedido.

Vuelvo a hablar de mi libro, antes dije que tenía un plan y voy a contarlo. Para empezar lo hago en los prolegómenos.

Estos 4 años pasados con mi 2080, aunque conocía esto del dsr de nvidia nunca lo usaba porque me interesaba más tener muchos cuadros por segundo a 1080p que ver el salto de calidad gráfica a 1440p. Lo quieras o no, la 2080 aunque se defiende muy bien a esa resolución hay veces que se queda justilla o no llega a los 60 cuadros, sobre todo si el juego es muy demandante. Hará un mes que me lié la manta a la cabeza y me dio por probar el cyberpunk 2077 en ultra a 1440p dsr y me sorprendió para bien que la calidad de imagen había mejorado con respecto a lo que recordaba de otras veces que había probado, aquello iba a unos 35 cuadros por segundo pero como podía jugar y me había acostumbrado a eso así seguí unos días. Después me enteré (lo que pasa cuando hay algo que no me interesa) que a 1440p hay dos modos de dsr y que hay uno más nuevo desde principios de año que utiliza los tensor cores para mejorar la imagen todavía más, el cual había activado yo por accidente, creo que se llama dldsr. Yo encantado porque estuve fantaseando unos días con lo bien que iría todo cuando me pillara la 4080, primero de 12 gigas, después de 16 cuando la cancelaron. Al final pasó lo que ya todos sabéis y terminé con la 4090.

Dicho esto, mi plan es aguantar todo el tiempo con la gráfica posible pudiendo jugar a lo que vaya saliendo sin miserias de ningún tipo que no me las imponga yo mismo. Sé que si me monto un monitor 1440p gsync a 144 herzios, aparte de ver la imagen algo más definida de lo que ya la estoy viendo gracias al dldsr, poca más diferencia tendría. Idem de lo mismo si le tiro a un monitor 4k gsync a 144 hz. porque aunque a esa resolución el dsr es normal, resulta que en 1440p el deep learning ahí lo han metido ya que a 1440p el escalado no es un número entero como si pasa en 4k (1080p x 4 = 4k básicamente mientras que 1080p x 2,66 = 1440p) y la imagen se distorsiona un poco, el filtro con los tensor cores corrige esa distorsión y mejora la definición. La conclusión aquí es que sacrificando un poco la definición de la imagen con respecto a un monitor nativo, no tendría yo por que comprar un monitor 1440p o 4k con lo que yo quiero que lleve.

La segunda parte del plan es que a mi nunca me ha molestado en realidad jugar a 1080p porque prefiero bastantes cuadros por segundo e intentar poner el juego que sea con todo al máximo y así no comerme la cabeza. Como la 4090 es tan pepino que puedo hacerlo poniendo el juego que sea a 4k, pues puedo empezar con esa resolución para todos los juegos ahora mismo (o bajarla a 1440p si quiero que la gráfica gaste menos luz) y con el tiempo ir bajando poco a poco la resolución para los juegos más demandantes que vayan saliendo. Por ejemplo, el año que viene sale algo con unreal engine 5 que necesite una burrada de equipo a 4k y no necesitara tanto con una resolución algo inferior, aparte de que posiblemente ahí el micro dejaría de hacer cuello de botella a 4k, al bajarlo a 2880x1620 o 2560x1440 los cuadros tendrán que subir sí o sí (el cuello de botella podría aparecer). De aquí a 5 o 6 años o mucho cambia la cosa o estoy seguro de que habrá juegos que todavía pueda correr a 1080p de esta manera. Como siempre estoy jugando con resoluciones superiores a la nativa del monitor no sufriré mucho si para ese entonces lo tengo que rebajar a la propia de éste, porque seguramente el espectáculo visual también un poco lo compensaría.

A este plan le va a pasar lo mismo que le pasan a todos los planes a largo plazo, lo primero es que me va a exigir a veces una disciplina que yo sé que no tengo por el tema de los calentones. Después también están los imponderables y que pueda dedicarle tiempo al hobby, en fin.

Se me ha quedado larguillo esto al final, me disculpo por la parrafada.
BloodBlack está baneado por "clon de usuario baneado"
Cada uno compra lo que le de gana esos es cierto, pero se intenta vender como si la RTX 4090 esta a años luz de las demas GPU y les saca al menos 2X, y no hay nada igual..cosa que si lo analizamos objectivamente no es cierto, y en mejor de los escenarios le va sacar un 20% a la 7900XTX y en un escenario más probable 10%.

Y en este tipo de escenario guste más o menos, no es lógico pagar más por diferencia tan pequeñas, pero como digo cada quien se gasta en lo que desea, no siempre tiene que ser una compra con cabeza/análisis, todos estamos sujetos muchas veces a marketing y preferencias personales, pero tampoco hay que perder la realidad.
Recibida la zotac amp airo 4090 y el bloque de agua bykski. A ver si los termalpads de1.5mm de thermalright van bien, ya que veo que los del bloque son de 1.8mm. Alguno lo ha comprobado?

Imagen
Imagen
Imagen

Cuando la conecte,posteo temps y la subo un poco de vueltas a ver donde llega.
Salu2!
La verdad es que pensando en mi plan, no tengo ni idea de si podría hacer esto mismo con AMD. Dependería de que ellos tuvieran algo parecido al dsr y es que no sé si lo tienen, aunque imagino que sí.

Por un lado reconozco que llevo ya tanto tiempo con Nvidia que ya voy a echar en falta cosas que en combinación dan ellos y ciertamente no pensé en su momento. Por ejemplo, si pillara una gráfica de AMD para poder tener un monitor con tasa variable de cuadros tendría que cambiar el que tengo ya que este lleva circuitería gsync nativa. Pero es que no quiero cambiar el que tengo porque funciona bien y estoy contento con él. El final de toda la combinación de hardware+software en el tema gaming es el monitor donde cada uno juega y reconozco que el chino Juan fue muy cuco poniendo monitores que solamente funcionarán bien del todo solamente con sus gráficas.

Y como esto de antes así con todo, me he tirado tanto tiempo con Nvidia que ya no sé muy bien como salir de su redil. Te acostumbras al gsync y al dsr y al dlss y al nvenc o el blender con el optix o que muchos programas funcionen mejor con cuda que con opencl o cualquier otra cosa, que al final querer cambiar a otras soluciones va a tener algunos quebraderos de cabeza. Cuanto más tiempo lleva uno metido ahí más difícil se hace salir. Con el hardware de Apple pasa también algo similar.

También podría cambiar la estrategia, romper con todo esto y pasarme a AMD. Cada dos años cambiar la gráfica y el micro por lo que vayan sacando ellos, que como suele ser más barato al final el gasto podría ser similar o inferior comprando más hardware y más a menudo, que también tiene su punto.

No lo haré porque yo lo que suelo hacer es aguantar el hardware mucho tiempo y lo que no suelo hacer es vender mis cosas usadas de segunda mano.

Edit: @anne kinoko Espero que haya alguien con lo mismo que tú que te pueda resolver la duda. ¿Los tres conectores laterales de esa gráfica para qué serán, cada uno para un ventilador de los 3 que lleva montada?
tigretong escribió:stock de 4090 y "barata" dentro de lo q cabe

https://casemod.es/nvidia/72403-msi-gef ... c-24g.html

Estaba a 1500-1600€!!! Alguien la compró? Ha sido mirarlo, buscar en la web si había precios similares y en menos de 1 min refresco y ya veo el precio de 1922€ :-?

Tu mensaje lleva desde las 13:47h y yo lo acabo de revisar casi 6h después y seguía con el precio bajo de unos 1500€ (que entiendo que es el que decías).

Tentado he estado de comprarla, pero entre que lo he pensado ya han corregido el precio XD

Cómo que nadie mas ha dicho nada de esta oferta? No os entiendo :-?

@maikel_eol vale, ya entiendo todo... entonces el precio "barato" era el de 1922 y no el de 15xx€ que vi. Pues vaya suerte y a la vez mala suerte que tuve, que justo lo vi a falta de 1 min de corregirlo y me comí los mocos :Ð

Pues simple casualidad de error de precio en ese momento, no le veo otra explicación.
Rvilla87 escribió:
tigretong escribió:stock de 4090 y "barata" dentro de lo q cabe

https://casemod.es/nvidia/72403-msi-gef ... c-24g.html

Estaba a 1500-1600€!!! Alguien la compró? Ha sido mirarlo, buscar en la web si había precios similares y en menos de 1 min refresco y ya veo el precio de 1922€ :-?

Tu mensaje lleva desde las 13:47h y yo lo acabo de revisar casi 6h después y seguía con el precio bajo de unos 1500€ (que entiendo que es el que decías).

Tentado he estado de comprarla, pero entre que lo he pensado ya han corregido el precio XD

Cómo que nadie mas ha dicho nada de esta oferta? No os entiendo :-?


Yo lo vi cuando lo puso y el precio era 1922€ igual que ahora, no se como has visto tu ese precio

@pakolo1977 no se si te he entendido bien, te has comprado una 4090 para jugar a 1080p ? y tu plan es jugar a 1080p durante años? [facepalm] Lo que dices de jugar a una resolucion mayor en tu pantalla de 1080p simplemente no tiene sentido, el numero de pixels que tienes en 1080p son los que son, la magia no existe. Eso del DSR pues es un filtro pero sigue siendo 1080p.
BloodBlack escribió:Cada uno compra lo que le de gana esos es cierto, pero se intenta vender como si la RTX 4090 esta a años luz de las demas GPU y les saca al menos 2X, y no hay nada igual..cosa que si lo analizamos objectivamente no es cierto, y en mejor de los escenarios le va sacar un 20% a la 7900XTX y en un escenario más probable 10%.

Y en este tipo de escenario guste más o menos, no es lógico pagar más por diferencia tan pequeñas, pero como digo cada quien se gasta en lo que desea, no siempre tiene que ser una compra con cabeza/análisis, todos estamos sujetos muchas veces a marketing y preferencias personales, pero tampoco hay que perder la realidad.


Si quieres RT a 4k obviamente, la única opción es la 4090, todos sabemos que amd en rt, flojea, ahora, pagar ese extra, por rt, eso ya, cada uno.
maikel_eol escribió:
Rvilla87 escribió:
tigretong escribió:stock de 4090 y "barata" dentro de lo q cabe

https://casemod.es/nvidia/72403-msi-gef ... c-24g.html

Estaba a 1500-1600€!!! Alguien la compró? Ha sido mirarlo, buscar en la web si había precios similares y en menos de 1 min refresco y ya veo el precio de 1922€ :-?

Tu mensaje lleva desde las 13:47h y yo lo acabo de revisar casi 6h después y seguía con el precio bajo de unos 1500€ (que entiendo que es el que decías).

Tentado he estado de comprarla, pero entre que lo he pensado ya han corregido el precio XD

Cómo que nadie mas ha dicho nada de esta oferta? No os entiendo :-?


Yo lo vi cuando lo puso y el precio era 1922€ igual que ahora, no se como has visto tu ese precio


El que la compró a 1619 fue @s.goncio . En Amazon, comprada el 14 de Octubre.
Este enlace marcaba 1922 (y sigue a ese precio aunque no tiene envío inmediato)
Hay que leer con algo de atención.
tigretong escribió:@Bio81

eso es con todo ultra?
el Bench del cyberpunk con rtx y todo al maximo demencial me dio a mi 72fps de media
dlss calidad

mi cpu es i9 10980xe


@NIB1973

son del foro chiphell según comentan ahí es el preset ray tracing ultra (no demencial) con dlss en auto a 3840x2160

pero el resultado de la 4090 es con un i9 12900kf y el de la 4080 con un ryzen 7 7600x
@maikel_eol El plan es jugar al principio a 4k, después a 2k y mucho más tarde a 1080p en el mismo monitor, gracias al reescalado de mayor a menor resolución.

Obviamente los píxeles del monitor son los que son, pero la calidad de la imagen aumenta con el dsr y viéndolo en vivo y en directo es bastante apreciable la diferencia.
anne kinoko escribió:Recibida la zotac amp airo 4090 y el bloque de agua bykski. A ver si los termalpads de1.5mm de thermalright van bien, ya que veo que los del bloque son de 1.8mm. Alguno lo ha comprobado?

Imagen
Imagen
Imagen

Cuando la conecte,posteo temps y la subo un poco de vueltas a ver donde llega.
Salu2!



Que grima me da zotac... ni por 1500 la compraría, joder los thermal pads parecen de los chinos...
BorjaGarcia escribió:
maikel_eol escribió:
Rvilla87 escribió:Estaba a 1500-1600€!!! Alguien la compró? Ha sido mirarlo, buscar en la web si había precios similares y en menos de 1 min refresco y ya veo el precio de 1922€ :-?

Tu mensaje lleva desde las 13:47h y yo lo acabo de revisar casi 6h después y seguía con el precio bajo de unos 1500€ (que entiendo que es el que decías).

Tentado he estado de comprarla, pero entre que lo he pensado ya han corregido el precio XD

Cómo que nadie mas ha dicho nada de esta oferta? No os entiendo :-?


Yo lo vi cuando lo puso y el precio era 1922€ igual que ahora, no se como has visto tu ese precio


El que la compró a 1619 fue @s.goncio . En Amazon, comprada el 14 de Octubre.
Este enlace marcaba 1922 (y sigue a ese precio aunque no tiene envío inmediato)
Hay que leer con algo de atención.

Pues a ver si te aplicas el cuento y lees tú con atención.

En esa conversación entre maikel_eol y yo sobre el precio de la 4090 de casemod que puso tigretong (el cual no indicó el precio) no pinta nada los 1619€ de s.goncio.

maikel_eol me estaba contestando a mi, y fui yo el que vio el precio de unos 15xx€ la 4090 de casemod del enlace que puso tigretong.


@pakolo1977 por mucho DSR que uses me parece una locura una 4090 para una pantalla 1080. No te planteas un monitor 2k al menos? O 4k, si por dinero no creo que sea si te has comprado la 4090. Y seguro que verás mas calidad en una pantalla de 2k (con DSR) o 4k nativo que en una 1080 por mucho DSR que le metas desde 8k si quieres.
medearu1986 escribió:
anne kinoko escribió:Recibida la zotac amp airo 4090 y el bloque de agua bykski. A ver si los termalpads de1.5mm de thermalright van bien, ya que veo que los del bloque son de 1.8mm. Alguno lo ha comprobado?

Imagen
Imagen
Imagen

Cuando la conecte,posteo temps y la subo un poco de vueltas a ver donde llega.
Salu2!



Que grima me da zotac... ni por 1500 la compraría, joder los thermal pads parecen de los chinos...

Pues los pads los veo iguales que otros de serie de marcas como MSI o Gigabyte, por citar algunas gpus que he puesto bloques en generaciones pasadas.

Salu2!
Yo sabía que esto no lo iba a entender casi nadie, por eso no me he decidido a contarlo en todos estos días pasados. Que puede parecer de locos, pues sí.

El cambiarme a un monitor con mayor resolución lo haría si el que tengo se estropeara. Puede que mi próximo calentón venga por ahí porque nunca se sabe. Pero por ahora ni ganas tengo.

Para probar el 4k nativo ya puedo enchufar la torre al televisor de casa, algún día de estos lo haré, claro. Tampoco creo que eso vaya a hacer que cambie de pensar de todas formas.
https://twitter.com/XpeaGPU/status/1590 ... xZl1PQ_ocQ

No se como añadirlo para que se vea directamente, pero es algo curioso😂
yo creo que el precio de la 4080 hubiera sido más bajo de no ser por el sobre stock de la serie 30 , normalmente cuando sale una nueva generación la generación anterior deja de estar disponible o quedan muy pocas unidades a la venta , esta vez fabricaron muchas RTX 30 y las tienen que vender , ahora tienen el mercado por rendimiento precio en la gama alta escalonado de la siguiente manera:

modelos FE:

1º 4090 = 1.959 euros

2º 4080 = 1.469 euros

3º 3090 Ti = 1.329 euros

4º 3090 = 1.199 euros

5º 3080 Ti =1.099 euros

6º 3080 = 759 euros

sí ponen la 4080 más barata o al mismo precio que las que están por debajo seria tirar piedras sobre su propio tejado , pienso que es posible que en 2023 o 2024 cuando el stock de la serie 30 se agote la 4080 baje de precio , aunque yo no tengo tanta paciencia (ya he tenido mucha) y como dije si las reviews me convencen voy a caer
pakolo1977 escribió:@maikel_eol El plan es jugar al principio a 4k, después a 2k y mucho más tarde a 1080p en el mismo monitor, gracias al reescalado de mayor a menor resolución.

Obviamente los píxeles del monitor son los que son, pero la calidad de la imagen aumenta con el dsr y viéndolo en vivo y en directo es bastante apreciable la diferencia.




Osea tienes un solo monitor a 1080p para usar la 4090?
Ya me parecia exagerado el tipo que esta en el chapuzas con una 3090 para Full HD, una 4090 ya es😅😅😅

Aunque la mejora es notable pasar de 1080P a 4K virtuales, lo normal es tirar ya a por monitor 4K, no se yo es que veo raro comprarme un Ferrari para ponerle ruedas de 50€ del Carrefour.......
Yo estoy contigo, @pakolo1977
No veo tan loco "el plan".

No creo que coincida con nadie más en todo el planeta, pero me gusta más la imágen de un panel FHD con DSR a 4K, que la imágen tan nítida que proyecta un panel 4K nativo.

Tengo una Bravia de hace ocho años y he intentado cambiarla por varias TVs nuevas pero siempre las acabo devoviendo, aunque en mi caso, por la fluidez, no por la IQ.

Tambien digo que no puedo hablar de otras TV/monitores. Siempre he defendido la interpolación para jugar y todo el mundo me ha dicho que era poco menos que una basura, y tras varias TV devueltas he visto que es cierto, que la mia es una rara avis que me genera una fluidez total sin cortes "ni artefactos", con lo que en este caso me podria ocurrir lo mismo.

Como curiosidad, entre las que he probado he devuelto una C9 (que en calidad de imágen violaba a la mia, pero generaba muchos artefactos con la interpolación), una X90J y justo esta mañana una A80J, que me ha hecho perder la ilusión de poder encontrar sustituta a la mia.

En mi caso, la FHD está con una 3070 que espero cambiar en breve porque se me queda corta.
ivan95 escribió:Ya me parecia exagerado el tipo que esta en el chapuzas con una 3090 para Full HD, una 4090 ya es😅😅😅

Aunque la mejora es notable pasar de 1080P a 4K virtuales, lo normal es tirar ya a por monitor 4K, no se yo es que veo raro comprarme un Ferrari para ponerle ruedas de 50€ del Carrefour.......


Presupongo, que esta troleando. Yo, o manda fotos, o no me lo creo , y es la 1 vez que hago esto en 4000 y muchos mensajes.


Y ese monitor que aún encima del 2014 y con panel Tn
Pues yo estoy convencido de que es verdad, por algo lleva dias medio arrancandose a decirlo, hasta que hoy lo dijo, eso solo es muestra de que hasta el mismo sabe que es una "locura" en su interior.

Me dice que es para su TV 4K y es la compra "ideal" para quitarse de bajones en juegos, pero usar 4K y darle ese esfuerzo a la pobre grafica para al final ser mostrado en un panel 1080P, es raro e ilogico😅
Una duda, creo haber visto por ahi en la web de Nvidia que no es indispensable conectar los 4 PCI - e del cable si no vas a hacer OC, es eso cierto? Puedo usar 3 PCI - e ? Es que no encuentro la info.

Gracias
jiujinkai escribió:Una duda, creo haber visto por ahi en la web de Nvidia que no es indispensable conectar los 4 PCI - e del cable si no vas a hacer OC, es eso cierto? Puedo usar 3 PCI - e ? Es que no encuentro la info.

Gracias


Sí, puedes usar 3 y la gráfica se limita a 450W máximos.
@KailKatarn genial, y una duda más, desde la fuente de alimentación debería usar tres conectores independientes o puedo usar dos? El cable pci es doble por lo que dos cables tienen para 4 salidas.

Muchas gracias
Por fin alguien que lo entiende! Gracias @Valhan.

Si yo estoy contento con el monitor que tengo. ¿Para qué lo voy a cambiar si funciona bien y no hay ganas de ir a por otro? Espero que la misma sensación me dure muchísimo tiempo con esta gráfica.

Por cierto, como hoy tengo la tarde tonta y antes lo dije, he probado a enchufárselo al televisor 4k Samsung que tengo en el salón. No me ha entusiasmado lo que he visto, para empezar el escritorio de Windows se configura con las tipografías a 2X para que no se vean las letras demasiado enanas y se queda con una disposición similar a la que ya tengo. Obviamente todo más definido, pero no ganas espacio en el escritorio y yo ya no tengo la vista para poner las tipografías más pequeñas.

Echo a andar el Cyberpunk 2077 y bueno, pues algo más definido que con el monitor se ve, obviamente. No ha sido un salto de calidad brutal comparado con lo que veo en el dsr. La conclusión ha sido la que yo me esperaba, que no me han entrado ganas de cambiar el monitor. No lo digo por cabezonear tampoco, es que es así.
según los benchmark filtrados hoy de la 4080 desde los foros chiphell concretamente en el Forza Horizon 5 , no sé si en los demás también , el Ryzen 7 7600X está haciendo cuello de botella según se ve en el resultado del benchmark:

Imagen

un 92.9% de uso de GPU indica que el procesador le hizo cuello de botella durante la prueba , aun así saco muy buen resultado con el preset Extreme y MSAA 2X

que larga se va a hacer la espera hasta el martes...
pakolo1977 escribió:Por fin alguien que lo entiende! Gracias @Valhan.

Si yo estoy contento con el monitor que tengo. ¿Para qué lo voy a cambiar si funciona bien y no hay ganas de ir a por otro? Espero que la misma sensación me dure muchísimo tiempo con esta gráfica.

Por cierto, como hoy tengo la tarde tonta y antes lo dije, he probado a enchufárselo al televisor 4k Samsung que tengo en el salón. No me ha entusiasmado lo que he visto, para empezar el escritorio de Windows se configura con las tipografías a 2X para que no se vean las letras demasiado enanas y se queda con una disposición similar a la que ya tengo. Obviamente todo más definido, pero no ganas espacio en el escritorio y yo ya no tengo la vista para poner las tipografías más pequeñas.

Echo a andar el Cyberpunk 2077 y bueno, pues algo más definido que con el monitor se ve, obviamente. No ha sido un salto de calidad brutal comparado con lo que veo en el dsr. La conclusión ha sido la que yo me esperaba, que no me han entrado ganas de cambiar el monitor. No lo digo por cabezonear tampoco, es que es así.



Pues una de 2, o tu monitor del salón 4k es muy normal, tirando a malo, porque el panel de tu monitor, bueno,no es, la diferencia tendría que ser abismal.
O segunda, estas troleando :-? Ahora ya hablando en serio tío.

Porque la diferencia, además en ese juego, con el rt on y demás, es abismal.
Si yo lo note de un monitor4k al que tengo ahora que también es 4k
jiujinkai escribió:@KailKatarn genial, y una duda más, desde la fuente de alimentación debería usar tres conectores independientes o puedo usar dos? El cable pci es doble por lo que dos cables tienen para 4 salidas.

Muchas gracias


Lo suyo es intentar usar tres conectores independientes. Si no te queda otra puedes hacer lo que dices, pero vamos, no es aconsejable ni hasta en las gráficas con tomas PCI-E tradicionales. Yo por lo menos no lo hago nunca, pero conozco quien sí y no ha tenido problemas.
ivan95 escribió:https://twitter.com/XpeaGPU/status/1590221795462107136?s=20&t=Ks2Nrzp8waFkxZl1PQ_ocQ

No se como añadirlo para que se vea directamente, pero es algo curioso😂

Imagen

Vaya, la 408016GB no solo es la gama 80 más baja en esa tabla sino que está a una altura similar que todas las gamas 70.
Y la 408012GB está entre medio de las gamas 60 y 60ti, de hecho está exactamente al mismo nivel que la 2060.
La van a llamar 4070ti y mirad lo abajo que está respecto a todas las 70ti o super.
Lo que ha hecho nvidia esta generación con las gamas es de no tener pizca de vergüenza.
KailKatarn escribió:
jiujinkai escribió:@KailKatarn genial, y una duda más, desde la fuente de alimentación debería usar tres conectores independientes o puedo usar dos? El cable pci es doble por lo que dos cables tienen para 4 salidas.

Muchas gracias


Lo suyo es intentar usar tres conectores independientes. Si no te queda otra puedes hacer lo que dices, pero vamos, no es aconsejable ni hasta en las gráficas con tomas PCI-E tradicionales. Yo por lo menos no lo hago nunca, pero conozco quien sí y no ha tenido problemas.


Aclarado pues,

Muchisimas gracias.
@d2akl Efectivamente, ni el panel del monitor es ninguna pasada hoy en día. Ni es que el televisor lo sea tampoco, es un 4k con smarttv de esos que puedes comprar en cualquier parte.

El XB270H leyendo reviews de cuando salió ya decían que no podía representar un porcentaje grande de espacios de color. Las virtudes del panel por aquel entonces estaban sobre todo en el tiempo de respuesta bajo que tienen los tn, aparte del gsync nativo. Cuando salió también lo que pasaba es que si enchufabas un monitor freesync a una gráfica Nvidia eso no funcionaba y cuando yo lo compré seguía sin funcionar. Yo quería un monitor gsync a toda costa y éste estaba a buen precio porque lo compré de segunda zarpa.

Comparado con un monitor de hoy en día está claro que pierde por mucho. Reconozco que aquí tengo mucha subjetividad porque a pesar de todo me gusta como se ve y como se siente.

Si yo fuera un sibarita del vídeo y del audio estaría ahora jodidísimo porque ya con la edad que tengo empiezo a tener la vista cansada y también llevo un tiempo que me he dado cuenta de que da igual que altavoz me ponga o que auriculares, que todo me suena más a lata que antes porque sé que las frecuencias altas de la onda sonora no las capta ya el oido de un señor de mediana edad.

Como ya dije antes, el dsr no me convencía hasta hace un mes y en parte también era porque no lo había trasteado lo suficiente. Esto del dldsr lo estoy explorando ahora mismo y es la parte que más me está gustando de todo. Ni yo mismo me imaginaba hace mes y medio que me gustaría tanto como veo las cosas ahora como las tengo.

Por el lado de que si quiero trolear. ¿Para qué estaría dando todas estas parrafadas durante toda la tarde si mi intención fuera esa?

Más bien estoy haciendo de mi capa un sayo, pero en parte también va de ver la parte buena de las cosas, que aunque a veces no es evidente, puede llegar a pasar que algo que se considera directamente malo a la larga no lo sea tanto. Puede que sea también que me estoy haciendo viejo y empiezo a ver las cosas con una perspectiva diferente.

Pasad buena noche y hasta mañana.
@pakolo1977 Yo te agradezco que lo hayas compartido con nosotros aunque me parezca raro, me gusta leer que uso le da cada uno a sus aparatos e incluso aprender cosas nuevas que a lo mejor no habia pensado antes. Ademas que lo importante es que cada uno esté contento con lo que tiene y lo disfrute, asique enhorabuena por esa maquina de 4090 y espero que la disfrutes durante mucho tiempo.
pakolo1977 escribió:Enhorabuena, yo también pienso eso que dices del precio mal puesto. Si han tardado tanto en enviarla puede que haya sido por si cansado de esperar terminabas por cancelar voluntariamente el pedido.

Vuelvo a hablar de mi libro, antes dije que tenía un plan y voy a contarlo. Para empezar lo hago en los prolegómenos.

Estos 4 años pasados con mi 2080, aunque conocía esto del dsr de nvidia nunca lo usaba porque me interesaba más tener muchos cuadros por segundo a 1080p que ver el salto de calidad gráfica a 1440p. Lo quieras o no, la 2080 aunque se defiende muy bien a esa resolución hay veces que se queda justilla o no llega a los 60 cuadros, sobre todo si el juego es muy demandante. Hará un mes que me lié la manta a la cabeza y me dio por probar el cyberpunk 2077 en ultra a 1440p dsr y me sorprendió para bien que la calidad de imagen había mejorado con respecto a lo que recordaba de otras veces que había probado, aquello iba a unos 35 cuadros por segundo pero como podía jugar y me había acostumbrado a eso así seguí unos días. Después me enteré (lo que pasa cuando hay algo que no me interesa) que a 1440p hay dos modos de dsr y que hay uno más nuevo desde principios de año que utiliza los tensor cores para mejorar la imagen todavía más, el cual había activado yo por accidente, creo que se llama dldsr. Yo encantado porque estuve fantaseando unos días con lo bien que iría todo cuando me pillara la 4080, primero de 12 gigas, después de 16 cuando la cancelaron. Al final pasó lo que ya todos sabéis y terminé con la 4090.

Dicho esto, mi plan es aguantar todo el tiempo con la gráfica posible pudiendo jugar a lo que vaya saliendo sin miserias de ningún tipo que no me las imponga yo mismo. Sé que si me monto un monitor 1440p gsync a 144 herzios, aparte de ver la imagen algo más definida de lo que ya la estoy viendo gracias al dldsr, poca más diferencia tendría. Idem de lo mismo si le tiro a un monitor 4k gsync a 144 hz. porque aunque a esa resolución el dsr es normal, resulta que en 1440p el deep learning ahí lo han metido ya que a 1440p el escalado no es un número entero como si pasa en 4k (1080p x 4 = 4k básicamente mientras que 1080p x 2,66 = 1440p) y la imagen se distorsiona un poco, el filtro con los tensor cores corrige esa distorsión y mejora la definición. La conclusión aquí es que sacrificando un poco la definición de la imagen con respecto a un monitor nativo, no tendría yo por que comprar un monitor 1440p o 4k con lo que yo quiero que lleve.

La segunda parte del plan es que a mi nunca me ha molestado en realidad jugar a 1080p porque prefiero bastantes cuadros por segundo e intentar poner el juego que sea con todo al máximo y así no comerme la cabeza. Como la 4090 es tan pepino que puedo hacerlo poniendo el juego que sea a 4k, pues puedo empezar con esa resolución para todos los juegos ahora mismo (o bajarla a 1440p si quiero que la gráfica gaste menos luz) y con el tiempo ir bajando poco a poco la resolución para los juegos más demandantes que vayan saliendo. Por ejemplo, el año que viene sale algo con unreal engine 5 que necesite una burrada de equipo a 4k y no necesitara tanto con una resolución algo inferior, aparte de que posiblemente ahí el micro dejaría de hacer cuello de botella a 4k, al bajarlo a 2880x1620 o 2560x1440 los cuadros tendrán que subir sí o sí (el cuello de botella podría aparecer). De aquí a 5 o 6 años o mucho cambia la cosa o estoy seguro de que habrá juegos que todavía pueda correr a 1080p de esta manera. Como siempre estoy jugando con resoluciones superiores a la nativa del monitor no sufriré mucho si para ese entonces lo tengo que rebajar a la propia de éste, porque seguramente el espectáculo visual también un poco lo compensaría.

A este plan le va a pasar lo mismo que le pasan a todos los planes a largo plazo, lo primero es que me va a exigir a veces una disciplina que yo sé que no tengo por el tema de los calentones. Después también están los imponderables y que pueda dedicarle tiempo al hobby, en fin.

Se me ha quedado larguillo esto al final, me disculpo por la parrafada.


Y esto que compañero????
@pakolo1977

Estás muy muy crazy, lo tuyo no fue una calentada, fue el volcán de Pompeya!!

Le pediste para salir a Scarlett Johansson y la llevaste a cenar croquetas congeladas y vino de batalla!!
Valhan escribió:Tambien digo que no puedo hablar de otras TV/monitores. Siempre he defendido la interpolación para jugar y todo el mundo me ha dicho que era poco menos que una basura, y tras varias TV devueltas he visto que es cierto, que la mia es una rara avis que me genera una fluidez total sin cortes "ni artefactos", con lo que en este caso me podria ocurrir lo mismo.

Como curiosidad, entre las que he probado he devuelto una C9 (que en calidad de imágen violaba a la mia, pero generaba muchos artefactos con la interpolación), una X90J y justo esta mañana una A80J, que me ha hecho perder la ilusión de poder encontrar sustituta a la mia.

En mi caso, la FHD está con una 3070 que espero cambiar en breve porque se me queda corta.

Lo de la interpolación en la TV, hablas de jugar en consolas cuando los juegos van a 30fps? Si es así le puedo ver sentido (aunque para muchos sea un sacrilegio), pero si es en PC con una buena gráfica tienes 4k 60fps reales sin necesidad de interpolación. Y si es a menos resolución que 4k es aún más fácil consigues los 60fps.

De hecho que reconozcas que la C9 mejoraba muchísimo a la calidad de imagen pero solo por el problema de interpolación (que entiendo que es muy importante para ti) no la aceptes me parece algo exagerado. Vale, sí, la C9 quizás lo hace mal, pero qué me dices por ejemplo de las LG CX o C1?

Aunque bueno, si tu opción es no gastarte mucho dinero en una buena gráfica y TV pero quieres que los juegos a 30fps se sientan (un poco) como 60fps (aunque sea de forma falsa) y la opción económica de tirar del interpolador de una TV te sirve mas o menos entiendo tu caso, que para nada lo veo comparable con el caso de pakolo1977.


pakolo1977 escribió:Si yo estoy contento con el monitor que tengo. ¿Para qué lo voy a cambiar si funciona bien y no hay ganas de ir a por otro? Espero que la misma sensación me dure muchísimo tiempo con esta gráfica.

Pero si no hay nada de raro en seguir con tu monitor 1080p si sigue funcionando. Lo que veo raro (y supongo que alguno más también) es que te gastes unos 2000€ en la mejor (y mas cara) gráfica de la historia para usarla en un "prehistórico" monitor Acer XB270H de 1080p TN.

pakolo1977 escribió:Por cierto, como hoy tengo la tarde tonta y antes lo dije, he probado a enchufárselo al televisor 4k Samsung que tengo en el salón. No me ha entusiasmado lo que he visto, para empezar el escritorio de Windows se configura con las tipografías a 2X para que no se vean las letras demasiado enanas y se queda con una disposición similar a la que ya tengo. Obviamente todo más definido, pero no ganas espacio en el escritorio y yo ya no tengo la vista para poner las tipografías más pequeñas.

Echo a andar el Cyberpunk 2077 y bueno, pues algo más definido que con el monitor se ve, obviamente. No ha sido un salto de calidad brutal comparado con lo que veo en el dsr. La conclusión ha sido la que yo me esperaba, que no me han entrado ganas de cambiar el monitor. No lo digo por cabezonear tampoco, es que es así.

Pero no te entusiasma por lo del x2 del escritorio de windows y el espacio en el escritorio? Eso son cosas que las puedes cambiar como quieras, de hecho puedes escalar desde el 100% hasta el 350% pasando por incrementos de 25%, a tu gusto, no es problema. Y estoy convencido que a nivel de tamaño de iconos y texto de los elementos del escritorio los puedes cambiar ya sea desde el propio SO o con aplicaciones/tweaks.

Dejando eso un poco al lado (que no digo que no importe), lo que importa son los juegos, no?

Cuál es el modelo de la TV 4k Samsung? No es solo un tema de resolución, que es lo que dices que has comprobado, es que ese monitor TN que tienes debe tener un contraste (entre otras cosas) muy malo comparado con una pantalla de calidad (OLED indiscutiblemente, pero también hay LED con muy buena calidad). O tu TV no es de las buenas (incluso puede te haya tocado un panel malo, no sería la 1º vez que lo veo), no la hayas configurado bien o ya como última opción que no veas muy bien.

Por si no todo el mundo es consciente, quizás para algunos esto que voy a decir sea una obviedad, pero hay pantallas 4k que son auténticos chustos (y para usar eso mejor te quedas en tu pantalla de menos resolución pero de mayor calidad) y pantallas 4k de una calidad excelente. Obviamente cuando se dice de irse a una pantalla 4k (o de otra resolución) para jugar, se presupone que se va a comprar/usar una pantalla con una calidad, como mínimo, decente.

PD: Vaya, mientras escribía esto veo que ya dijiste que la TV de 4k es malilla... pues lo dicho, así no se puede decir que tienes algo bueno si no has probado algo bueno de verdad. En fin, es que a mi lo que me deja muy roto es gastarse tanto dinero en una gráfica y no gastarse un mínimo para una pantalla en condiciones.
xejo22 escribió:@NBRuJaDo estafo? Yo estoy en mi derecho de devolución, estafar es otra cosa amigo.

Tu avatar no ayuda.
KailKatarn escribió:
jiujinkai escribió:@KailKatarn genial, y una duda más, desde la fuente de alimentación debería usar tres conectores independientes o puedo usar dos? El cable pci es doble por lo que dos cables tienen para 4 salidas.

Muchas gracias


Lo suyo es intentar usar tres conectores independientes. Si no te queda otra puedes hacer lo que dices, pero vamos, no es aconsejable ni hasta en las gráficas con tomas PCI-E tradicionales. Yo por lo menos no lo hago nunca, pero conozco quien sí y no ha tenido problemas.


KailKatarn escribió:
jiujinkai escribió:Una duda, creo haber visto por ahi en la web de Nvidia que no es indispensable conectar los 4 PCI - e del cable si no vas a hacer OC, es eso cierto? Puedo usar 3 PCI - e ? Es que no encuentro la info.

Gracias


Sí, puedes usar 3 y la gráfica se limita a 450W máximos.



Yo lo que no termino de entender es porque son necesarios 3 o 4 conectores y va corsair y te saca este adaptador

https://www.corsair.com/es/es/Categor%C ... CP-8920284

El cual solo tiene 2 conectores que van a la propia fuente y asegura que da 600W, no vale para cualquier fuente solo de 1200W para arriba, ¿alguien me explica como hace esa magia?

*La carga de 600 W requiere una fuente de alimentación CORSAIR nominal de 1200 W o superior. La carga de 450 W requiere 1000 W o más. La carga de 300 W requiere 750 W o más.

Imagen
Rvilla87 escribió:Lo de la interpolación en la TV, hablas de jugar en consolas cuando los juegos van a 30fps? Si es así le puedo ver sentido (aunque para muchos sea un sacrilegio), pero si es en PC con una buena gráfica tienes 4k 60fps reales sin necesidad de interpolación. Y si es a menos resolución que 4k es aún más fácil consigues los 60fps.

De hecho que reconozcas que la C9 mejoraba muchísimo a la calidad de imagen pero solo por el problema de interpolación (que entiendo que es muy importante para ti) no la aceptes me parece algo exagerado. Vale, sí, la C9 quizás lo hace mal, pero qué me dices por ejemplo de las LG CX o C1?

Aunque bueno, si tu opción es no gastarte mucho dinero en una buena gráfica y TV pero quieres que los juegos a 30fps se sientan (un poco) como 60fps (aunque sea de forma falsa) y la opción económica de tirar del interpolador de una TV te sirve mas o menos entiendo tu caso, que para nada lo veo comparable con el caso de pakolo1977.

Te lo dejo en spoiler...
Ahora solo tiro de PC, pero en su día la interpolación me salvo porque tiraba tanto de ONE X, como de PS4 Pro y mi estómago no tragaba con los 30fps desde que me compré la GTX 780, con lo que, gracias a la TV, pude disfrutar de juegos como Driveclub que de otra manera no habría tocado más de cinco minutos.

Aún así, como te comentaba, ahora solo juego en PC, pero desde que me hice con la 780, el objetivo siempre ha sido 60fps. Nunca menos, nunca más (la TV es de 60hz), pero en esta TV se nota el Motionflow una barbaridad aunque la imágen original esté a 60fps. De hecho, en consola es imprescindible, pero en PC no se me pasaría desactivarlo por la suavidad, y el que juegue con mando sabe a lo que me refiero.

Al jugar con ratón, por el propio movimiento de la mano, se puede llegar a disimular algo de stuttering, pero el movimiento de cámara jugando con mando es constante, y cada micro tirón es muy notorio, por eso solo busco fluidez en la TV (y un equipo que me mantenga esos 60fps sin caidas).

He pasado de la 780 a la 1080, y de esta a la 3070 porque no pude encontrar una 3080 (ahora estoy mirando desde la barrera para ver si me decido por una 4080, la XTX o si veo una 3090 por debajo de los 900€) porque me incomoda mucho cualquier tirón, con lo que busco 60fps como rocas, y como he comentado en el anterior post, el añadido del DSR a 4K me saca unas imágenes muy limpias.

Por esa obsesión con la fluidez estoy teniendo tantos problemas con el cambio de TV. Parece que antes habia una competición por ver que TV se "inventaba" más frames, pero ahora parece que están todas capadas (maldito Cruise y su cruzada), y ninguna se acerca a la fluidez de la mia.

Había picado con la A80J por el marketing con su procesador, pero de lejos era la que peor iba en cuanto a fluidez (hasta el punto que quiero creer que estaba defectuosa) y la imágen no me ha parecido tan "vibrante" como la de la C9.

Tampoco ayuda que pruebe con tecnología OLED porque tienen un tiempo de respuesta muy bajo, y eso hace que los saltos entre frames sean más notorios, de ahí que probara la X90J, que tampoco me llegó a acoplar, pero es que es dificil renunciar a la calidad de una OLED cuando las has probado.

El resumen es que sí, me he acostumbrado a la interpolación (con el video original a 60fps) hasta el punto que no puedo prescindir de ella, y creeme que se nota (o que noto) ese empujón de fluidez.

Sobre la CX y la C1 no las he probado. Una de las cosas que me quedo claro con la C9 es que no puedo comprar una LG, ya que en casa tenemos dos TV una al lado de la otra, y así, si en algún momento me apetece darle al PC, puedo seguir con mi mujer (necesario para un matrimonio feliz y duradero) XD y la TV "secundaria" es LG, con lo que habia un cacao con el mando, pero vamos, que si en algún momento pruebo otra LG y me acopla el movimiento, mando la secundaria al huerto.

Y sobre el último párrafo, mi único hobby es el PC, con lo que no tengo tope. El equipo está renovado de este año, las GPUs, desde que me metí en serio, siempre he pensado que tenian que ser la XX80 saltandome una generación entre ellas, y la TV siempre he buscado la que diera mejor calidad de imágen (exceptuando la que tengo ahora, que fue compra sin mirar porque murió la vieja en su día, aunque por lo visto, no fue mala elección del todo).


Como ves, no se resumir. [+risas]

Te habrás arrepentido de preguntar.
@flo79 esa es buena conclusión.
14374 respuestas