[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@DaNi_0389 a ver tienes razón, pero donde más impacto tiene es a 1080p, en 2k mucho menos y en 4k menos todavía y depende el juego.
El cable 12VHPWR a los 4 conectores me parece feisimo, podian haber echo más larga la parte anterior a la bifurcación y más flexible. También hubiera sido un detalle el incluir un adaptador a 90°, poder tirar el cable en ángulo recto hacia abajo. Para las dimensiones que tienen, sobre todo la anchura, lo tendrían que haber tenido en cuenta para no tener problemas al cerrar el lateral.
Mira que tengo el dinero pero no pago 2000€ por una gráfica ni harto de vino, y ya no te cuento de la 4080 de 12gb.
Cada uno hace con su dinero lo que quiera y es respetable, pero que conmigo no cuenta Nvidia en este robo.

Puedo entender que la 4090 cuesta cara, pero una 4080? Una 4070 renombrada a 1000€? Ni loco.
Chaquetero está baneado por "troll"
DaNi_0389 escribió:
yosu888 escribió:
gojesusga escribió:Esa es otra coger una 4090 y no tener el resto top es de parguelas parguelas. Tienes que tener una CPU top para que puedas mover esa bestia. La época de las 3090 no cuenta porque había un porcentaje muy elevado que jugaba y pero también minaban

Estas equivocado, para el 4k y también diría que para el 2k no no hace falta tener una CPU top, otra cosa es si juegas a 1080p.



Ya he leido muchos comentarios como este, y en parte es erroneo, a la cpu lo que le importa es a cuantos Hz vas a jugar.

Sino pregunta a los que juegan 1440p 240Hz si la cpu importa o no, o 4k 144Hz.


Esque así es el consumidor medio, no entiende que los requisitos en los últimos años se han inflado artificialmente gracias al rtx y los monitores de 300 Hz. Todo mercadotecnia para engañar a la gente, que se lo traga todo.

Para jugar a 60 FPS, que es lo normal en casi cualquier juego que no sea multiplayer FPS te sobra con un 4790k de hace casi 10 años para jugar al 99% de los títulos con esa 4090, y ese 1% son casos como el último Spiderman que se pasa descomprimiendo a lo bestia en segundo plano por lo mal programado que está.

Para jugar a 300 FPS? No hay ni habrá probablemente CPU actual ni en los próximos años que no te vaya a hacer cuello de botella. Así de absurdo es.

Yo en cuanto pueda me pillo una 4090 founders, me gustan mucho más que las custom.
JaviGabber escribió:
FranciscoVG escribió:Me da igual lo que digan realmente xd, y te voy a poner un ejemplo que a salido este mismo año, elden ring, elden ring esta capado a 60 fps ¿es cosa de cuello de botella que no pase de ahi?, lo que tiene elden ring a 60 fps lo tienen muchisimos juegos entre los 100 y los 300 fps, eso pasa por que dependiendo del motor del juego puede dar problemas pasar de determinados frames y o bien te lo hacen casi imposible subir o te lo capan directamente

Y esto te lo dije ayer, hoy a sacado la review el toro tocho con un 12900k y a 2k el far cry 6 a el la 4090 le da el mismo rendimiento que una 6900 xt, de hecho el habla precisamente de lo mismo que yo te dije ayer, esto si que es verdad que muchas veces es dificil de valorar si es cuello de botella o limitacion del propio juego, pero a frecuencias altas pasan ambas cosas no siempre es cuello de botella, pero bueno tu cree lo que quieras xd


¿Pero alguien te ha negado que algunos juegos esten capados? Yo he sufrido ese capado en elden ring y en algunos battlefield a 200fps, por poner otro ejemplo.
Tu me has dicho que hitman 3 estaba limitado por el motor y la review de techspot con el 5800x3d demuestra lo contrario.
Me has dicho que en otra review usando el 5950x daba los mismos FPS, cosa obvia.
Me dices que te da igual lo que diga techspot/hardware unboxed pero por otra parte no te da igual lo que diga el tal toro tocho.

Yo lo unico que he dicho es que la review de TPU a 1440p es injusta y tu me has saltado con este tema.

Lo mismo digo, tu cree lo que quieras y al quien quieras.


Pero que dices...., lo primero es que tu empezaste dando a entender que TODOS los juegos donde no hay un incremento notable es cosa de cuello de botella y por eso te he citado con esto, ahora encima me acusas a mi de ir a lo que me interesa cuando tu empezaste nombrando a varios juego y luego te centraste unicamente en hitman 3 y la review de techspot, que por cierto hardware unboxed es uno de los ejemplos que yo puse tu unica base a sido ese juego y esa review en concreto por eso digo que me da igual, es que me acusas a mi de lo que tu estas haciendo....

Mira chico, podemos discutir el caso de hitman 3 y no niego que pueda ser el caso pero lo que tu diste a entender al principio no es cierto y por eso te cite por que tanto hardware unboxed como TPU demostraban lo que digo, que bueno el caso de far cry 6 te he puesto el ejemplo con un 12900k y ese juego te recuerdo que lo pusiste tu como ejemplo de cuello de botella, ese ya parece que no te interesa, y ya si quieres hacer esto una guerra de penes rastreando la web para demostrar algo tu mismo, desde ya paso del tema

Y ya hablar de injusticia por usar un 5800x en vez de un 13900k a 8ghz, en fin, lo único claro es que la 4090 no es una grafica para 1440p asi que el tema no es que sea injusta es que es ridicula directamente, pero esta y todas, por que cuando no es la cpu es el juego y cuando no tienes 300 fps que ya ves tu para que...
Morzo escribió:
hh1 escribió:
chrispro escribió:
Una buena razon creo que puede ser que si juegas a 2k tienes grafica ya hasta que pete diria yo xD

Bueno y si juegas a 4k tb… es muy bestia, yo con los 4 años de garantia de la gigabyte espero no venderla ..

Si los juegos evolucionan en 2 años lo que han evolucionado en estos 2 que han pasado.. dudo que haya que cambiar.

Pero bueno ya se montaran el chiringuito de alguna forma para obligarnos. Diran que el dlss caduco o algo xD

El problema es que sé que en dos años ,sacan algo mejor y ya estoy enmelonado me.
Al final es una devaluación grande en dos años y no le saco el partido.
Tampoco voy a jugar mucho mejor que con una 3080Ti.a1440p.
Y está va muy sobrada en casi todo.

Si fuese algo más económica...peor a ese precio ,en mi caso ,no lo veo.

Es el problema de todo esto.Que te hasta un dineral y dos años ,estás otra vez igual.

@Morzo
En parte es como dices.
Cuánto más dinero pague la gente ,más caras serán.
Pero yo creo que no se basan en eso ,ya que si lo koras ,la gente que compra gráficas top es el 1% del.mervado.
Estoy seguro de que ni un 3% de mercado tiene de una 3080Ti para arriba.
Eso al final no representa nada.

Además de que estas 4000 no se quieren vender realmente.Se quieren vender caras ,si se venden ,porque las que quieren vender de verdad son las 3000.
Entonces , creo que el tema está en que no se deberísn comprar las 3000 si se quieren precios más bajos.Shí es donde estará y está el problema.

Si me dices que es eque el 15-20% de los jugadores tienen una 4090,pues entonces sí, ya es otra cosa.


Si el problema para mi no es la 4090, son las gamas más bajas. A mi entender la cosa hasta la serie 2000 era tal que así:

Xx80: tope de gama/entusiasta
Xx70: gama alta
Xx60: gama media
Xx50: gama de entrada

Ahora sería así

Xx90: tope de gama/entusiasta
Xx80: gama alta
Xx70: gama media
Xx60: gama de entrada
Xx50: gama bajísima

Lo que a mi parecer están haciendo es venderte una gama inferior a precio superior de una gama más alta en las anteriores generaciones.
Alguno dirá aue no hubo problema con la 3090 pero ahí teníamos que era una 3080 llevada al límite que daba un 10-15% + de rendimiento y que estaba destinada a esos pocos que quieren lo mejor a toda costa. Ahora la 4090 es una gama totalmente diferente de la 4080 y ahí es por donde veo yo el problema.

Exacto.Aunque para mí la 3070 es media/alta ,la 3060 media y la 3050 baja.
Pero vamos ,son formas de verlo.

También hay que tener en cuenta que la potencia de ha disparado hace tiempo y las gráficas están bastante por encima de los juegos,quitando algunas excepciones mal optimizadas.

Pero no quita ,que los precios de absolutamente todas sean un disparate.
Disparate de precios? Pero si están agotadas....no será tanto disparate cuando se vende todo el stock. El disparate son los consumidores...
Con esta tendencia lo único que van a conseguir es que toda la gente de la "gama media" en unos años se pasen a las consolas. Actualmente la gama media se va a distanciar mucho de lo que vale una consola.
Chaquetero escribió:Yo estoy muy bien, eres tú el que no debe estarlo porque no has entendido nada de mí comentario. Yo he dicho básicamente que la gente que se compró una 3090 en su momento, hizo mucha peor compra que el que ahora se compre una 4090, y que por lo tanto no tiene sentido quejarse ahora. Es muy fácil de entender.

El problema es justo ese, que no hay buenas compras o malas compras, lo que hay es el puedo entonces compro y el no puedo entonces vengo a vomitar lo que debería hacer la gente con su dinero. Hablamos de estar siendo estafados cuando aquí todo el mundo sabe perfectamente lo que está comprando? Me parece a mi que no hay mucha estafa en eso. Nadie te está obligando a comprar nada, es la película de siempre. Yo no voy a dejarme 2000€ en la 4090 porque no le voy a sacar partido y no por ello me parece mal que otros sí la vayan a comprar, independientemente de que en el pasado las 3090 fueron mejores o peores compras, la 2080 Ti, las Titan o la gráfica de tu prima la del pueblo.
@FranciscoVG No merece darle mas vueltas al tema y ensuciar el hilo. Cuando repitan las pruebas con el 13900k ya veremos si estos resultados son por CPU o por limitacion del motor. Y tranquilo que no te citare, esa actitud que hay por aqui de "guerra de penes" como bien dice es justamente lo que menos me gusta del foro. Yo no vengo aqui a quedar por encima de nadie ni a disfrutar llevandole la contraria, simplemente doy mi opinion y aprendo de mucha gente.
Tambien me molesta que se ponga en "mi boca" cosas que no he dicho como has vuelto a hacer pero vamos, no le doy la mas minima importancia.

Un saludo!
@Chaquetero así es.
Las 4090 son para 4K 60 mínimo con todo en ultra incluyendo raytracing. El resto ya vamos bajando escalones.
Vamos, la idea es que esta nueva generación incluyendo el Unreal Engine 5, vamos a poder mover todo en 4K con raytracing en ultra a mínimo 60 fps.
También para aquellos que utilizamos mods a Cascoporro (gta new vision , quantV, Skyrim, fallout, Cyberpunk, witcher y shaders extras a tutiplén…vamos a disfrutar de lo lindo y más con la nueva aplicación de Nvidia para modders.
Yo antes de comprarme ésta, he tirado con una gtx 1080 ti y para full hd incluso algunos 4k/30 y 40 fps retocando configuraciones me ha ido de maravilla (por supuesto, sin Raytracing).

Os aconsejo a todos este vídeo donde un ingeniero de Nvidia lo explica perfectamente, algo que la mayoría ya sabéis pero está muy bien el vídeo:

https://youtu.be/r_ZjSKGvH7M

Un saludo!
@RVNLOFT yo creo que a medida que avance la generación saldrá tecnología nueva que requerirá de mejores GPU's, por ejemplo, el tema de filtros por IA que mejorarán la calidad de imagen y otras muchas cosas.

Imagen
Morzo escribió:Lo que a mi parecer están haciendo es venderte una gama inferior a precio superior de una gama más alta en las anteriores generaciones.

Está clarisimo que con la 4080 de 12GB han hecho eso. Si cuela, pues sacaran las 4060 llamandolas 4070, etc etc ...
654321 escribió:
Morzo escribió:Lo que a mi parecer están haciendo es venderte una gama inferior a precio superior de una gama más alta en las anteriores generaciones.

Está clarisimo que con la 4080 de 12GB han hecho eso. Si cuela, pues sacaran las 4060 llamandolas 4070, etc etc ...

Bueno, eso ya llevan tiempo haciéndolo, cada vez suben más de precio, recuerdo cuando la 970 costaba unos 300, la 3070 salió a 500 y ahora ya veremos si sube cien euros más.

La última que recuerdo con precio fue la 9600 GT por 150 euros, la 3060 ya está en los 300 euros y no había versiones TI
Divad escribió:También hubiera sido un detalle el incluir un adaptador a 90°, poder tirar el cable en ángulo recto hacia abajo. Para las dimensiones que tienen, sobre todo la anchura, lo tendrían que haber tenido en cuenta para no tener problemas al cerrar el lateral.


He pesando lo mismo al respecto. no entiendo porque no lo han hecho así.
D@rth escribió:Disparate de precios? Pero si están agotadas....no será tanto disparate cuando se vende todo el stock. El disparate son los consumidores...
Con esta tendencia lo único que van a conseguir es que toda la gente de la "gama media" en unos años se pasen a las consolas. Actualmente la gama media se va a distanciar mucho de lo que vale una consola.


Yo ya no me fio del stock real. Una tactica puede ser ir sacando poco a poco para dar esa sensacion.

Hace poco una persona de cierta empresa grande me decia que tienen los almacenes llenos de PS5 desde hace meses pero que las sueltan con cuenta gotas para dar esa sensacion y que la gente trague con los packs. Al menos hasta Navidad tienen ordenes de hacer eso. Las grandes estan de acuerdo y Sony España hace la vista gorda que tambien gana. De hecho, sacaran pecho con las ventas de accesorias de cara a la matriz corporativa (y asi justificar de paso bonus y sueldos)
esami escribió:Yo ya no me fio del stock real. Una tactica puede ser ir sacando poco a poco para dar esa sensacion.

Bah, los lanzamientos son siempre asi, nadie se quiere mojar, los mayoristas reciben x pero tienen que pagar la mercancia, el tiempo de meter material a ciegas en los almacenes ya paso hace mucho tiempo, con la gama 1000 se acabaron por comer un porron y no lo van a volver a hacer.
katatsumuri escribió:Bueno, eso ya llevan tiempo haciéndolo, cada vez suben más de precio, recuerdo cuando la 970 costaba unos 300, la 3070 salió a 500 y ahora ya veremos si sube cien euros más.

Sí, pero ahora te van a vender la 4060 a $700, solo que la van a llamar 4070.

Ya han anunciado que van a vender la 4070 a $900 llamandola 4080.
@654321 se ve que han bajado las ventas de hardware con el levantamiento de las restricciones, esperemos que se la metan de morros, yo desde luego que no voy a pasar por el aro y tengo mi triquiñuela hasta que todo se relaje.


Por cierto, parece que le han hecho bypass al DLSS 3.0 con una 2070
https://wccftech.com/nvidia-dlss-3-fram ... e-the-fps/

https://wccftech.com/nvidia-dlss-3-fram ... e-the-fps/


DLSS Frame Generation doesn't seem to be hardware locked to RTX 40 series. I was able to bypass a software lock by adding a config file to remove the VRAM overhead in Cyberpunk. Doing this causes some instability and frame drops but I'm getting ~80 FPS on an RTX 2070 with the following settings:

2560x1440 res

HDR off

DLSS Balanced

DLSS Frame Generation ON

Ray Tracing Ultra preset

(I get ~35-40 FPS without Frame Generation and DLSS at Quality)

Edit: forgot to add some details

u/JusDax via r/NVIDIA
yosu888 escribió:
gojesusga escribió:Esa es otra coger una 4090 y no tener el resto top es de parguelas parguelas. Tienes que tener una CPU top para que puedas mover esa bestia. La época de las 3090 no cuenta porque había un porcentaje muy elevado que jugaba y pero también minaban

Estas equivocado, para el 4k y también diría que para el 2k no no hace falta tener una CPU top, otra cosa es si juegas a 1080p.


Infórmate los benchmark lo confirman hay cuello d botella actualmente a partir de 2k así que a 4k quizá no pero lo notarás sobre todo con el dlss, ademas te gastas 2k en una gráfica y no vas a tener como mínimo mínimo un i7 12700 por ejemplo? No le veo mucho sentido
katatsumuri escribió:Por cierto, parece que le han hecho bypass al DLSS 3.0 con una 2070
https://wccftech.com/nvidia-dlss-3-fram ... e-the-fps/

Ya dijo uno de NVIDIA que lo podían hacer en generaciones viejas de RTX, pero que no iría fino, y parece que estas pruebas lo confirman.

Me suena que también dijo que iban a trabajar para afinarlo, y si lo consiguen lo habilitarian.
katatsumuri escribió:
Imagen

Me hace gracia el meme porque parece que nadie vio las 3090... de hecho las founders de 3090 diria que son un pelin mas largas y como medio centimetro mas delgadas
JaviGabber escribió:


Pues...será por verlo desde el movil, pero, se supone que debería verse algo cuando hace las comparativas? Yo lo aprecio igual ¬_¬ ¬_¬
JaviGabber escribió:

Buena comparativa.

Como decía hace unos días, el DLSS 3 es peor a nivel de calidad de imagen que el 2. Me parecía una obviedad pero en este vídeo se puede ver bien.

Otra cosa es que a cuantos más FPS se juegue menos se va a notar, pero que es peor parece claro, y como dice el video lo van a notar mucho los que se compren las gamas bajas/medias y no consigan muchos FPS en los juegos.

De hecho que permitan habilitar o deshabilitar el "frame generation" creo que ya lo confirmaba, si no por qué querríamos deshabilitar una función que supuestamente solo mejoraba los FPS? Claro que Nvidia lo vendió de salida como que era la hostia, es su trabajo al fin y al cabo, vender lo que hace, y poniendo ejemplos de comparativas a +200fps es que te cuelan una foto polla y quizás ni te das cuenta :Ð

PD: Por cierto, un punto importante, según el autor del vídeo dice que en base a sus pruebas el DLSS 3 se puede empezar a activar sin que se note mucho los fallos cuando con DLSS 2 vaya a unos 60-80 FPS. Si da menos de eso (ejemplo con Cyberpunk perfectamente) va a generar muchos artefactos y se va a notar de forma clara la peor claridad de imagen del DLSS 3.
dejo unos videos de este canal muy fiable con las pruebas del hard

red dead redemption 2 con todos los settings al máximo a 4k nativo + MSI RTX 4090 Suprim X



ronda los 80 fps en el campamento , es de las zonas más exigentes del juego justo con zonas de agua cuando las físicas están al máximo

Cyberpunk 2077 con todos los settings al maximo y RT en psycho con DLSS 2 en calidad a 4k + MSI RTX 4090 Suprim X:



hay zonas donde llega justo para los 60 fps

dos de los juegos más exigentes que hay en la actualidad , outstandig performance , muy bien la verdad , aunque para mi gusto debió costar 1.500 euros..

salu2.
Yo cuanto mas veo del dlss3 menos me gusta y eso que es verdad que jugando no te enterarás de casi nada pero es ver todo eso y...A ver si lo van mejorando y subsanan algunos fallos
el DLSS 3 mejorara seguro con las actualizaciones
@654321 Dijeron que se iba a poder usar el dlss 3 pero sin el frame generation. Por lo que he podido leer el chaval ha conseguido hacer funcionar eso en la rtx 2070 cambiando algunos archivos relacionados con la VRAM.
Que DLSS 3 vaya "bien" cuando de forma nativa tienes 70/80 fps al menos y que se vean artefactos evidentes con tasas de FPS bajos ya le quita atractivo. Justamente es la gama baja la que mas necesita estas tecnologias y es donde peor funcionara.
Cierto es que es logico por como funciona.

Por lo visto hasta ahora me resulta muy valiente (o tener mucha jeta) comparar rendimiento de la serie 30 vs 40 contando con DLSS 3 como ha hecho Nvidia visto toda la letra pequeña que tiene.

A ver si lo podeis probar por aqui y poneis vuestras impresiones, aunque claro, con la 4090 a 200fps es como de verdad luce [+risas]



Si hay que poner el video al 3% de velocidad para ver algun fallo a mi me vale.
Y el DLSS 3 mejorara con el tiempo como el DLSS 2.
2500 pavos de gráfica... El doble de lo que me costó mi primer coche.
Es vergonzoso.
Divad escribió:El cable 12VHPWR a los 4 conectores me parece feisimo, podian haber echo más larga la parte anterior a la bifurcación y más flexible. También hubiera sido un detalle el incluir un adaptador a 90°, poder tirar el cable en ángulo recto hacia abajo. Para las dimensiones que tienen, sobre todo la anchura, lo tendrían que haber tenido en cuenta para no tener problemas al cerrar el lateral.


Es que realmente si te compras una 4090 es para comprarte un cable de 16 pines por tu parte (a no ser que ya te compres la fuente con pcie 5.0). El cable te lo incluye Nvidia por si no tienes una fuente de las nuevas, pero yo jamás le pondría ese engendro a la gráfica xD.
JaviGabber escribió:@FranciscoVG No merece darle mas vueltas al tema y ensuciar el hilo. Cuando repitan las pruebas con el 13900k ya veremos si estos resultados son por CPU o por limitacion del motor. Y tranquilo que no te citare, esa actitud que hay por aqui de "guerra de penes" como bien dice es justamente lo que menos me gusta del foro. Yo no vengo aqui a quedar por encima de nadie ni a disfrutar llevandole la contraria, simplemente doy mi opinion y aprendo de mucha gente.
Tambien me molesta que se ponga en "mi boca" cosas que no he dicho como has vuelto a hacer pero vamos, no le doy la mas minima importancia.

Un saludo!


Pues no lo estas demostrando, como ahora ¿tranquilo?, joder para no gustarte el barro insinuas todo el rato que no sigues por lastima xd, ademas aqui lo que sobra es el echar en cara cosas y el y tu mas pero el tema en cuestion por el que yo te cite es el mas importante desde que salio la 4090 como es valorar su uso en resoluciones 2k

Y te voy decir otra cosa aunque seguramente pasas del tema como el caso de far cry 6, si necesitas la ultima cpu que aun ni a salido para ganar 5 cochinos fps y demostrar que el problema es de la cpu ¿no te das cuenta que eso apunta directamente a un problema en la programacion del juego mas que a un problema real de cuello de botella?, macho que estas hablando de cuello de botella en un puto 5950x, en fin...
Que haya alguien que dice que puede echar a andar el dlss 3 con una 2070 en reddit, pues muy bien.

Ahora digo yo que en mi pc ahora mismo tengo instalada una 4090 y puedo demostrarlo. A quien me lo pida le puedo hasta sacar un pantallazo del administrador de dispositivos de mi pc. También puedo explicar como lo he hecho.

Y aun así es mentira lo que acabo de decir, porque no he comprado la 4090. Hay formas de forzar al administrador de dispositivos de windows para que acepte controladores que no son los de algún hardware en particular, de hecho con las gráficas nvidia es hasta relativamente fácil hacerlo.

Otra cosa es que después funcione, he probado a echar a andar el spiderman remastered actualizado y ni rastro de dlss3, de hecho el juego se carga con el dlss desactivado porque probablemente el código de hoy en día ya no pique en algo tan burdo como cambiar un controlador por otro.

La cosa es que ni explica como se hace, ni hay ninguna prueba, ni hay manera de reproducirlo en ningún pc sin saber como se hace. Así que mientras tanto todo este asunto puede ser una invención magnificada por algunas páginas de noticias que no se han molestado en comprobar si la cosa funciona o no.

Lo dicho, mientras no explique como hacerlo y se pueda reproducir en otros equipos, esto mejor no creérselo.
pakolo1977 escribió:Que haya alguien que dice que puede echar a andar el dlss 3 con una 2070 en reddit, pues muy bien.

Ahora digo yo que en mi pc ahora mismo tengo instalada una 4090 y puedo demostrarlo. A quien me lo pida le puedo hasta sacar un pantallazo del administrador de dispositivos de mi pc. También puedo explicar como lo he hecho.

Y aun así es mentira lo que acabo de decir, porque no he comprado la 4090. Hay formas de forzar al administrador de dispositivos de windows para que acepte controladores que no son los de algún hardware en particular, de hecho con las gráficas nvidia es hasta relativamente fácil hacerlo.

Otra cosa es que después funcione, he probado a echar a andar el spiderman remastered actualizado y ni rastro de dlss3, de hecho el juego se carga con el dlss desactivado porque probablemente el código de hoy en día ya no pique en algo tan burdo como cambiar un controlador por otro.

La cosa es que ni explica como se hace, ni hay ninguna prueba, ni hay manera de reproducirlo en ningún pc sin saber como se hace. Así que mientras tanto todo este asunto puede ser una invención magnificada por algunas páginas de noticias que no se han molestado en comprobar si la cosa funciona o no.

Lo dicho, mientras no explique como hacerlo y se pueda reproducir en otros equipos, esto mejor no creérselo.



Que cpu tienes amigo? Notas algo de cuello de botella?
BennBeckman escribió:2500 pavos de gráfica... El doble de lo que me costó mi primer coche.
Es vergonzoso.

Total, mi primer coche igual. Y esto es sólo "jugar". Ayer hice una prueba en PCC de poner la zotac 4090 en el carrito y ver cuánto me salía con descuento del IVA y añadiendo IGIC + transporte, total: 1800€, y de tanto leer este hilo, me pareció hasta barato. Luego ves las noticias de q en Francia ya no se puede echar gasolina al coche porque está todo patas arriba, Rusia con el dedo en el botón de las armas nucleares, EEUU esquilmando a la UE con el precio del gas, Alemania con inflación del 10% q no se había visto en 7 décadas...
BladeRunner escribió:
BennBeckman escribió:2500 pavos de gráfica... El doble de lo que me costó mi primer coche.
Es vergonzoso.

Total, mi primer coche igual. Y esto es sólo "jugar". Ayer hice una prueba en PCC de poner la zotac 4090 en el carrito y ver cuánto me salía con descuento del IVA y añadiendo IGIC + transporte, total: 1800€, y de tanto leer este hilo, me pareció hasta barato. Luego ves las noticias de q en Francia ya no se puede echar gasolina al coche porque está todo patas arriba, Rusia con el dedo en el botón de las armas nucleares, EEUU esquilmando a la UE con el precio del gas, Alemania con inflación del 10% q no se había visto en 7 décadas...



Más razón para disfrutar.


PD. @pakolo1977

Hazlo. Y después le paso las capturas a la novia y se cagara en mi por rallarle la cabeza el otro día de que ese bolso era un capricho y blablabla.
Pd valió verga que lo compró igual [carcajad] [carcajad] [carcajad]
d2akl escribió:Más razón para disfrutar.

Imagen
@er_colgao En mi firma está lo que tiene mi pc. Cuellos de botella a 1080p en ultra, o sea situaciones donde la gráfica no va al 100% y sea claramente culpa del procesador, el más evidente en mi caso es con el cyberpunk 2077 cuando voy por zonas muy densas de npcs.

Lo bueno es que se sabe que es más problema de software que de hardware. A 1440p con todo en ultra, por desgracia para mi ya no tengo tanta gráfica y el procesador no veo ningún juego de los que tengo donde eso ocurra.
otro que se la ha pillado (la gigabyte gaming oc)

no me gustaba gigabyte porque la 2080ti es de las peores tarjetas que he tenido, pero esta en las reviews la ponen bien y era de las unicas disponibles, que no se subian a 2300€ (me he quedado con las ganas de la Tuff) asi que a ver como sale
ram escribió:@Bio81 y red dead 2 sin dlss activado .


por supuesto al ser rasterizado puro y duro va sobrada , 80 fps en el campamento de media , la 3090 Ti recuerdo que en esa zona bajaba de 60 por poco pero bajaba

salu2
beatle escribió:



Si hay que poner el video al 3% de velocidad para ver algun fallo a mi me vale.
Y el DLSS 3 mejorara con el tiempo como el DLSS 2.

Si dices eso es porque no has visto el video entero o no has prestado atención.

-Los artefactos son poco visibles y necesitas bajar la velocidad si juegas a más de 100 fps, a 60fps o menos hay varias instancias en el video donde se ven claramente a velocidad normal.
-El imput lag es horrible y solo recomendable si de base antes de usarlo ya tienes 120fps, si necesitas dlss 3 para llegar a los 60'fps el input lag es equivalente a jugar a 30. Y si lo necesitas para jugar a 120 el input lag es equivalente a 60.
Es decir ganas suavidad visual pero no en la respuesta del juego a los controles. Totalmente inviable para juegos competitivos.
-Cuando activas dlss 3 NO PUEDES capar el framerate de ninguna manera. Si de normal juegas a 70 pero tu monitor es de 120 dlss 3.0 te dará 140 fps SI O SI por lo que tendrás tearing si o si también.


En resumen: solo recomendable si de normal juegas a 120fps o mas y tienes un monitor de 240hz o mas y juegas solo single players no competitivos.


Vaya putisima chusta.
D@rth escribió:Disparate de precios? Pero si están agotadas....no será tanto disparate cuando se vende todo el stock. El disparate son los consumidores...
Con esta tendencia lo único que van a conseguir es que toda la gente de la "gama media" en unos años se pasen a las consolas. Actualmente la gama media se va a distanciar mucho de lo que vale una consola.


Para nada están agotadas. Las puedes comprar ahora mismo en PC componentes.

@adriano_99 Acabo de ver el vídeo y coincido. Para cuando haría falta, que es a menos de 60 fps, va bastante mal, "aumenta" los frames pero con artefactos, la UI si está en movimiento se nota muchísimo, y el lag aumenta si le pones la generación de frames.
El remate es no poder capar los frames. Mejor usar VRR, y si necesitas más, DLSS2 y ya, que son frames reales (aunque reconstruida la imagen) y disminuye el lag.
adriano_99 escribió:-Cuando activas dlss 3 NO PUEDES capar el framerate de ninguna manera. Si de normal juegas a 70 pero tu monitor es de 120 dlss 3.0 te dará 140 fps SI O SI por lo que tendrás tearing si o si también.

Vaya putisima chusta.


Si puedes, desde el panel de control de Nvidia.

valrond escribió:
D@rth escribió:Disparate de precios? Pero si están agotadas....no será tanto disparate cuando se vende todo el stock. El disparate son los consumidores...
Con esta tendencia lo único que van a conseguir es que toda la gente de la "gama media" en unos años se pasen a las consolas. Actualmente la gama media se va a distanciar mucho de lo que vale una consola.


Para nada están agotadas. Las puedes comprar ahora mismo en PC componentes.

@adriano_99 Acabo de ver el vídeo y coincido. Para cuando haría falta, que es a menos de 60 fps, va bastante mal, "aumenta" los frames pero con artefactos, la UI si está en movimiento se nota muchísimo, y el lag aumenta si le pones la generación de frames.
El remate es no poder capar los frames. Mejor usar VRR, y si necesitas más, DLSS2 y ya, que son frames reales (aunque reconstruida la imagen) y disminuye el lag.



Normal que no esten agotadas, es otra epoca, cuando salieron la serie 3000 estaba la pandemia, la escasez de recursos y la mineria.

Si quitamos estos factores, yo creo que va a ser tipo la serie 2000 de las cuales cuando se pase el HYPE de las dos primeras semanas, se podran comprar sin problema.
beatle escribió:
adriano_99 escribió:-Cuando activas dlss 3 NO PUEDES capar el framerate de ninguna manera. Si de normal juegas a 70 pero tu monitor es de 120 dlss 3.0 te dará 140 fps SI O SI por lo que tendrás tearing si o si también.

Vaya putisima chusta.


Si puedes, desde el panel de control de Nvidia.



y si también tienes Gsync se pueden capar los fps desde el panel de control desde aquí:Imagen

por ejemplo si quieres jugar con DLSS 3 con Gsync a 60 fps clavados o a 120 fps o los fps que sean se pueden capar desde el panel de nvidia
@pakolo1977 gracias amigo, es que tengo un i9 9900k y me estoy poniendo en duda en sacarmela por el tema del pu.. cuello de botella
d2akl escribió:
BladeRunner escribió:
BennBeckman escribió:2500 pavos de gráfica... El doble de lo que me costó mi primer coche.
Es vergonzoso.

Total, mi primer coche igual. Y esto es sólo "jugar". Ayer hice una prueba en PCC de poner la zotac 4090 en el carrito y ver cuánto me salía con descuento del IVA y añadiendo IGIC + transporte, total: 1800€, y de tanto leer este hilo, me pareció hasta barato. Luego ves las noticias de q en Francia ya no se puede echar gasolina al coche porque está todo patas arriba, Rusia con el dedo en el botón de las armas nucleares, EEUU esquilmando a la UE con el precio del gas, Alemania con inflación del 10% q no se había visto en 7 décadas...



Más razón para disfrutar.


Más razón para ahorrar, compi.
Se vienen tiempos muy jodidos. Prefiero tener para comer que pulirme 2500 chicharros en una gráfica.
Que si cobrase 5000€ al mes como mi jefe, pues no te digo que no.
Pero que un "mileurista" se gaste 2500 castañas en una tarjeta gráfica en estos tiempos me parece de ser un poco inconsciente. Pero allá cada uno con su panoja.
BennBeckman escribió:
d2akl escribió:
BladeRunner escribió:Total, mi primer coche igual. Y esto es sólo "jugar". Ayer hice una prueba en PCC de poner la zotac 4090 en el carrito y ver cuánto me salía con descuento del IVA y añadiendo IGIC + transporte, total: 1800€, y de tanto leer este hilo, me pareció hasta barato. Luego ves las noticias de q en Francia ya no se puede echar gasolina al coche porque está todo patas arriba, Rusia con el dedo en el botón de las armas nucleares, EEUU esquilmando a la UE con el precio del gas, Alemania con inflación del 10% q no se había visto en 7 décadas...



Más razón para disfrutar.


Más razón para ahorrar, compi.
Se vienen tiempos muy jodidos. Prefiero tener para comer que pulirme 2500 chicharros en una gráfica.
Que si cobrase 5000€ al mes como mi jefe, pues no te digo que no.
Pero que un "mileurista" se gaste 2500 castañas en una tarjeta gráfica en estos tiempos me parece de ser un poco inconsciente. Pero allá cada uno con su panoja.



Son puntos de vista distintos.

Obvio que si comprar una gráfica te va impedir comer, pues wtf, ya no eres el target.

Ademas que ya no estarás jugando a dia de hoy ni quieres jugar a 4k 60fps+, por ende, no necesitas para nada la 4090.

Y no son 2500€ son 2000+- más restar la venta de la anterior tope de gama o casi, 580+-por la 3080ti por ejemplo , 1420€quedarian que por por 2+- años sale a 59€/mes.
Si cobrando 1000€/mes eso supone un agravio de la ostia, pues no lo sé, pero no me lo parece sinceramente. Antes dejo de tomar 5 copas 1 o 2 veces al mes.
14352 respuestas