[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

leveju está baneado por "clon de usuario baneado"
Nomada_Firefox escribió:
Antoniopua1 escribió:Puede ser que AMD y Nvidia tengan lo que se llama un oligopolio... pronto saldremos de dudas. Si son tan caras como la competencia ( mantener los precios de las series 6000 lo vería de lujo) "blanco y en botella" [carcajad] [+risas] .

Va a ser como siempre, dependiendo del rendimiento de una u otra, unas seran más caras que las otras. Pero creo que ya esta claro que AMD que gasta procesos de fabricación similares, vaya sacarlas muchisimo más baratas.

Todo eso de dejar con el culo al aire a nadie me parece una chorrada como un templo si son empresas con animo de lucro que solo quieren ganar dinero. Vendiendo por debajo del coste de fabricación van a ganar leches.

https://elchapuzasinformatico.com/2022/09/nvidia-rtx-40-amd-rx-7000-precio/
este articulo del chapuzas dicen cosas muy interesantes, veremos a ver que pasa
zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.


No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.

Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...
Y digo yo, no puede ser que fabricar un bicho de estos.. llámese 4080 , 4090 .. vale mucho más de lo que muchos se piensan?? Que hay gente que se cree que salen a 300 euros de fábrica... Y yo creo que entre fabricación.. publicidad.. i+d... Etc etc etc.. baratas de fabricar no deben de ser..
leveju está baneado por "clon de usuario baneado"
chrispro escribió:Y digo yo, no puede ser que fabricar un bicho de estos.. llámese 4080 , 4090 .. vale mucho más de lo que muchos se piensan?? Que hay gente que se cree que salen a 300 euros de fábrica... Y yo creo que entre fabricación.. publicidad.. i+d... Etc etc etc.. baratas de fabricar no deben de ser..

claro claro, antes no habia publicidad ni I+d ni disipadores de refrigeracion, ni distribuidoras y tal.... nah que va, eso ahora es todo nuevo....
leveju escribió:
Nomada_Firefox escribió:
Antoniopua1 escribió:Puede ser que AMD y Nvidia tengan lo que se llama un oligopolio... pronto saldremos de dudas. Si son tan caras como la competencia ( mantener los precios de las series 6000 lo vería de lujo) "blanco y en botella" [carcajad] [+risas] .

Va a ser como siempre, dependiendo del rendimiento de una u otra, unas seran más caras que las otras. Pero creo que ya esta claro que AMD que gasta procesos de fabricación similares, vaya sacarlas muchisimo más baratas.

Todo eso de dejar con el culo al aire a nadie me parece una chorrada como un templo si son empresas con animo de lucro que solo quieren ganar dinero. Vendiendo por debajo del coste de fabricación van a ganar leches.

https://elchapuzasinformatico.com/2022/09/nvidia-rtx-40-amd-rx-7000-precio/
este articulo del chapuzas dicen cosas muy interesantes, veremos a ver que pasa

No me fio mucho de lo que digan ahi sin poner una fuente.............pero ya veremos.
albertoooooooooo escribió:
zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.


No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.

Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...


Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.

Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.

Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.

zero2006xl escribió:
albertoooooooooo escribió:
zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.


No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.

Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...


Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.

Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.

Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.



Precisamente lo estoy jugando yo con un 10400 + 2070 Super

En 1440p y TODO en Ultra pero SIN RT ni DLSS mantengo los 60 clavados, con la gpu al 60-80% y la CPU al 40-55%

Con V-sync clavado a 60

Si activo el RT + DLSS en calidad me subia un poco el uso de la gráfica pero la CPU se quedaba igual
ditifet escribió:
zero2006xl escribió:
albertoooooooooo escribió:
No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.

Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...


Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.

Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.

Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.



Precisamente lo estoy jugando yo con un 10400 + 2070 Super

En 1440p y TODO en Ultra pero SIN RT ni DLSS mantengo los 60 clavados, con la gpu al 60-80% y la CPU al 40-55%

Con V-sync clavado a 60

Si activo el RT + DLSS en calidad me subia un poco el uso de la gráfica pero la CPU se quedaba igual


Si activas el RT cada dos por tres te va a bajar de 60fps si tienes vsync puesto, que si no usas un monitor VRR es necesario porque el tearing es terrible. Si no usas el vsync verás que no baja demasiado de 60 fps según los ajustes, pero baja muchísimo de 80-90 a 61, 62. Pues bien, si limitas los frames o usas vsync verás como esos bajones se convierten en 59, 58, 54 fps cuando vas con la telaraña por la ciudad. Esto es porque el juego necesita procesar una serie de recursos que saturan la CPU. Y esto sólo pasa con RT activado. No me lo invento yo, ni quiero ensuciar el hilo hablando de algo que está más que hablado en el hilo oficial de PC de Spiderman y en otros mil sitios. Si necesitáis más info en Google "Spiderman Remastered pc cpu usage / disable hyperthreading / gpu low usage / frame drops / etc" vais a encontrar cositas.

Al final depende del ojo de cada uno. Pero ya os digo yo que esto en PS5, con una CPU normalita equivalente esto no pasa. Es una cuestión de optimización. Luego pones otros juegos como Watch Dogs Legion con RT (que no es la panacea en optimización tampoco), Cyberpunk 2077 o Metro Exodus Enhanced y en un PC poco mejor que la PS5 los juegas con mejor calidad o fps.

Esto lo vuelvo a enlazar al tema de precios de GPUs y al estándar de gama media de esta generación. Si a la falta de optimización creciente conforme una generación avanza le sumamos precios altos de esa gama media que mínimo te permite jugar a calidad de consola... estamos tragando por partida doble. Claro que una 4080, 4090 te va a correr todo sin problemas... a causa de fuerza bruta.
Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?

Imagen
zero2006xl escribió:
ditifet escribió:
zero2006xl escribió:
Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.

Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.

Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.



Precisamente lo estoy jugando yo con un 10400 + 2070 Super

En 1440p y TODO en Ultra pero SIN RT ni DLSS mantengo los 60 clavados, con la gpu al 60-80% y la CPU al 40-55%

Con V-sync clavado a 60

Si activo el RT + DLSS en calidad me subia un poco el uso de la gráfica pero la CPU se quedaba igual


Si activas el RT cada dos por tres te va a bajar de 60fps si tienes vsync puesto, que si no usas un monitor VRR es necesario porque el tearing es terrible. Si no usas el vsync verás que no baja demasiado de 60 fps según los ajustes, pero baja muchísimo de 80-90 a 61, 62. Pues bien, si limitas los frames o usas vsync verás como esos bajones se convierten en 59, 58, 54 fps cuando vas con la telaraña por la ciudad. Esto es porque el juego necesita procesar una serie de recursos que saturan la CPU. Y esto sólo pasa con RT activado. No me lo invento yo, ni quiero ensuciar el hilo hablando de algo que está más que hablado en el hilo oficial de PC de Spiderman y en otros mil sitios. Si necesitáis más info en Google "Spiderman Remastered pc cpu usage / disable hyperthreading / gpu low usage / frame drops / etc" vais a encontrar cositas.

Al final depende del ojo de cada uno. Pero ya os digo yo que esto en PS5, con una CPU normalita equivalente esto no pasa. Es una cuestión de optimización. Luego pones otros juegos como Watch Dogs Legion con RT (que no es la panacea en optimización tampoco), Cyberpunk 2077 o Metro Exodus Enhanced y en un PC poco mejor que la PS5 los juegas con mejor calidad o fps.

Esto lo vuelvo a enlazar al tema de precios de GPUs y al estándar de gama media de esta generación. Si a la falta de optimización creciente conforme una generación avanza le sumamos precios altos de esa gama media que mínimo te permite jugar a calidad de consola... estamos tragando por partida doble. Claro que una 4080, 4090 te va a correr todo sin problemas... a causa de fuerza bruta.


No digo que no, solo he comentado mi experiencia ya que hablais del juego, de todas formas los 5 minutos que los probé con RT + DLSS no noté nada raro pero como yo paso de RT, soy peor que Hans el topo o sea que no lo distingo de puesto o no
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?

Imagen

Buena pregunta
@JaviGabber

Pues segun tengo entendido, no es otra cosa que el directstorage de MS, asi que hasta que no se implemente este...
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?

En la presentacion de las 4000 dijeron que pronto darian noticias ... veremos si que nos dicen cuando presenten las 5000 [qmparto]

En consolas esto está desde el principio de esta GEN, no?
chrispro escribió:
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?

Imagen

Buena pregunta


Nada se sabe. Se dice que en teoría Microsoft iba a incorporar una solución compatible con todas las tarjetas dentro de DirectX. "DirectStorage GPU decompression", pero desde que se dijo hasta hoy creo que no hay ningún juego que lo soporte. Mismamente el Spiderman que comentaba antes era un buen candidato a ello.

654321 escribió:
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?

En la presentacion de las 4000 dijeron que pronto darian noticias ... veremos si que nos dicen cuando presenten las 5000 [qmparto]

En consolas esto está desde el principio de esta GEN, no?


Sí, pero a través de hardware en PS5 al menos. Tiene un chip dedicado a la descompresión que descarga la CPU. En el caso de Xbox no me queda claro cómo lo resuelve. Se hace referencia a compatibilidad de hardware con esta función de descompresión, integrada en su arquitectura Velocity, pero no sé más.
garbaje_de_potanzos escribió:@LynX Yo estos días he estado jugando un pelín al CP 2077 sin reshades ni nada, pero de vez en cuando iba haciendo shots comparativas entre RT OFF y RT ON (en demencial) y la verdad esque pocas escenas por no decir ninguna justifican el rendimiento perdido.


Curioso que yo hice exactamente lo mismo y llegue a la conclusión contraria xD
Lo prometido es deuda. Para el que diga que no se puede jugar bien con una GTX 1060 6GB en 1080p.
Nomada_Firefox escribió:Lo prometido es deuda. Para el que diga que no se puede jugar bien con una GTX 1060 6GB en 1080p.


Seguramente si, tocando algo los mínimos los podrías mantener en 60, pero así tal cual a full te da alguna caída hasta 42, y eso que solo he visto 7 min del video, si en 7 min te lo hace, quiere decir que jugando igual en 2 o 3 horas te ha pasado eso varias veces, algo que al final va frustrando la experiencia de juego

42 en el min 6:35
Imagen
Nomada_Firefox escribió:Lo prometido es deuda. Para el que diga que no se puede jugar bien con una GTX 1060 6GB en 1080p.


Veo que no tienes el vsync activo. Sin él, a menos que tengas un monitor VRR, el tearing en la mayoría de juegos es súper molesto. Si no tienes VRR y activas el vsync a nada que tengas caídas de frames por debajo de 60 (suponiendo que la frecuencia de tu monitor sea 60hz), se notan muchísimo las rascadas. Si tienes monitor compatible con VRR, ahí te lo compro, pero entonces ya no es sólo la GPU sino también un monitor que permita tasas de refresco variables. Yo por ejemplo tengo un monitor que también uso para trabajar y si quiero esta fidelidad de color en estas pulgadas y resolución y que además sea compatible con GSync, me tengo que gastar un buen dinero.

Ahora la pregunta, ¿se puede jugar "bien" sin VSync ni VRR o con VSync pero con caídas constantes por debajo de la tasa de refresco del monitor? Para mí no. Por eso las consolas normalmente capan a 30 o a 60fps, para asegurar que la experiencia sea lo más estable posible. Yo no sé jugar de otra forma ya. Prefiero 30fps bloqueados que estar saltando de 40 a 80.

También es cierto que jugando con teclado y ratón estas cosas se notan menos. Yo juego con mando (por varios motivos, no es que lo prefiera).

PD: Gracias por el curro de grabarte la sesión para compartirla!
bassa escribió:
Nomada_Firefox escribió:Lo prometido es deuda. Para el que diga que no se puede jugar bien con una GTX 1060 6GB en 1080p.


Seguramente si, tocando algo los mínimos los podrías mantener en 60, pero así tal cual a full te da alguna caída hasta 42, y eso que solo he visto 7 min del video, si en 7 min te lo hace, quiere decir que jugando igual en 2 o 3 horas te ha pasado eso varias veces, algo que al final va frustrando la experiencia de juego

42 en el min 6:35
Imagen

La cuestión es jugar suave. No frustra nada porque en no sufre ni un solo tiron. Puede bajar los fps en un momento dado pero solo eso.

@zero2006xl Esto lo he jugado con un monitor viejo benq de 24 con un panel va. Pues yo fijate que lo juego a la vez el Far Cry 6 en el pc de mi firma que en ese otro y lo encuentro muy jugable. Cero rascadas, nada de sensación de lentitud, lo cual si se que se obtiene jugando a 30fps constantes. En el pc de mi firma lo juego en un Acer Predator XB253Q, 1080p 144hz Gsync compatible.

Al final todo depende de lo conformista que seas, yo conozco más gente con equipos más viejos y graficas similares jugando a lo ultimo sin quejarse. Claro que les gustaria cambiar pero no tienen opción mejor con estos precios.

Ah yo antes con un 3500X, solo jugaba en nivel alto a este juego con ese mismo equipo pero con el 5700X. Se deja jugar muy bien sin rascadas con graficos en ultra y creo que se ve bastante aceptablemente. Claro que es mejor ron Raytracing y texturas HD pero con una 1060 no puedes a secas. Tambien el Far Cry 6 lo he jugado hasta la saciedad con una GTX 1060 3GB. Mi consejo es que no mireis los fps, hay que mirar la sensación jugando.
Nomada_Firefox escribió:Lo prometido es deuda. Para el que diga que no se puede jugar bien con una GTX 1060 6GB en 1080p.


La 1060 6gb fue de lo mejor que parió Nvidia. Siguió la estela de la gtx 970 en gráfica con muchas ventas y buena calidad/precio. Por algo está en las listas de steam. No va nada mal para ser una gráfica del 2016.
Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?

Son 1000w trae el cable gen 5.0 de hasta 600w .

Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.

1000w yo creo que sobrará no?
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?

Son 1000w trae el cable gen 5.0 de hasta 600w .

Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.

1000w yo creo que sobrará no?



Pero si el año que viene te vas a pillar la 5090 cuente lo que cueste y trague lo que trague! Anda, no seas racano y ya puestos pilla 1200w al menos. La idea es que la fuente te dure mas que la gpu.
Wookiee escribió:
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?

Son 1000w trae el cable gen 5.0 de hasta 600w .

Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.

1000w yo creo que sobrará no?



Pero si el año que viene te vas a pillar la 5090 cuente lo que cueste y trague lo que trague! Anda, no seas racano y ya puestos pilla 1200w al menos. La idea es que la fuente te dure mas que la gpu.


Buenas!! Gracias por contestar!! Es que no veo una sola fuente a la venta con clavija gen 5.0

Sólo esta.... 200 euretes... Que se dice pronto para una fuente de 1000w pero bueno

Por eso pregunto, para pillarla ya y listo .. me da que conforme se acerque la fecha abran menos fuentes disponibles..

Seguramente sí todo sigue su cauce en la próxima gen vuelva a cambiar, pero bueno son dos años...
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?

Son 1000w trae el cable gen 5.0 de hasta 600w .

Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.

1000w yo creo que sobrará no?

Yo personalmente, voy a esperar a Seasonic a ver lo que saca. No conozco esa marca en fuentes de alimentación... pero si en placas base. Por ese precio, debería tener una certificación Platinum por lo menos. Es una Gold -según veo- a precio de Platinum ( como aprovechan la novedad cawento ) . Yo creo que con 1000w tiras millas mucho tiempo. Pero es solo mi opinión... Está todo muy verde aun. Si te corre mucha prisa, cómprala [oki] .


Saludos!!!
Fuentes habrá disponibles seguro, la cosa es no escatimar en algo tan importante como la fuente, que ya que se compra una gráfica pepino, no es plan de ponerle una fuente de “aliexpress”.
@chrispro Mi experiencia reciente con fuentes de alimentación:

El 12/4/2020 me compré una Rm650x, 100€, pensando que tendría fuente "para toda la vida", con sus 10 años de garantía.

A cuenta de la 3090, tuve que cambiar: 30/8/2021, Rm850, 70€, Amazon reacondicionada como nueva.

En ese momento, y viendo el tema del aumento de consumo tanto de CPU como GPU (que pensábamos no hace tanto cosa del pasado, ya que cada nueva generación iba a ser más eficiente que la anterior, x2 en rendimiento con mismo o menor consumo) estuve a un tris de comprar la Rm1000x, 160€.

Menos mal que no, porque ahora esa gráfico también estaría ahora "desfasada", no por potencia sino por un nuevo standard.

Mi resumen, con una gráfica de 2.000€ compra una de estas fuentes modernas que recomiendan, de calidad y potencia adecuada, pero no "compres de más para estar cubierto unos años", porque realmente no tenemos ninguno ni idea de lo que será necesario en 2 años.

Saludos.
Pero tampoco os calentéis con la fuente, si se recomienda cierta potencia meterle más es tirar el dinero. "Por si acaso, por si acaso"... bueno, pues se cogen los valores de consumo máximo de cada componente, se suman y se compra una fuente en consonancia a dicho consumo. Yo por ejemplo uso una fuente de 500w (Seasonic Gold, eso sí) para la 3070 cuando lo que se recomienda es 650w. No he tenido problemas ni una sola vez, ni sobrecalentamientos de la fuente ni nada extraño. Calculé cuánto consumía mi equipo y compré la fuente en función de eso, asegurándome de que era buena marca por eficiencia, medidas de seguridad y para evitar en todo lo posible el coil-whine.
El tema no es escatimar en gastos... El tema es que no veo fuentes a la venta que es lo gracioso..

Tengo la corsair rm850 que está de puta madre y da para la 4090 pero tampoco quiero apurar...
Lo que si que causa dolor rectal, es la Ram... Dios Santo... por ahí si que no paso [noop] . No señor.
Yo no me precipitaria con el tema fuentes. Si va mal, se cambia, si no, a tirar millas. Si es una buena fuente, lo máximo que puede pasar es inestabilidad y reinicios, señal suficiente para cambiarla. Eso de poner la venda antes de la herida... Allá cada cual.
leveju está baneado por "clon de usuario baneado"
OK Computer escribió:Yo no me precipitaria con el tema fuentes. Si va mal, se cambia, si no, a tirar millas. Si es una buena fuente, lo máximo que puede pasar es inestabilidad y reinicios, señal suficiente para cambiarla. Eso de poner la venda antes de la herida... Allá cada cual.

y mas si en las propias graficas vienen ya con su adpatador y encima 3 años de garantia, es que algunos quieren ver los problemas donde no los hay
En cuanto llegue a casa me lo trago!

JaviGabber escribió:En cuanto llegue a casa me lo trago!



Lo acabo de ver y la verdad la tecnología me convence. Son frames inventados a partir de dos frames renderizados, tiene algo de aumento de latencia en ms y algunas imperfecciones visuales, pero comentan en un entorno donde todo tiene que ir a super resoluciones y altas tasas de refrescos, da mucho el pego. Los frames generados se camuflan bastante bien entre los reales y la sensación en movimiento a mis ojos está libre de artefactos añadiendo bastante mas suavidad a la imagen. De hecho lo comparan con software "offline" específicos de generación de frames y el resultado final del DLSS 3 los deja bastante en evidencia.

Yo porque paso de las gamas tops, pero lo pienso y una futura 4060 con esto del DLSS 3 puede ser un pelotazo porque podría ser capaz de mover juegos a "4K 60fps" sin mucho problema, ya que internamente sólo tendría que estar renderizando a 1080p y unos 45fps mientras los tensor se encargan de todo lo demás para ofrecer una imagen mucho mas similar al target objetivo.

Muy interesado por la técnica de momento, ahora a ver que aceptación tendrá entre los desarrolladores, porque con los precios prohibitivos de las gamas tops que sólo las comprarán unos pocos entusiastas, y que las gamas mas asequibles ni están ni se le esperan... No se, igual los devs tienen que hacer poco más trabajo tras implementar DLSS2 e igual todo título con DLSS 2 llevará también el 3, sería una buena noticia xD

Ahora mismo mi interés en una gama media de AMD 7000 acaba de bajar drásticamente XD Estos cabrones de Nvidia hay que reconocer que son buenos en cuanto a innovación y crear Hype
Pues igual soy yo pero si la calidad de imagen es peor que en dlss2 y con lo que rinden ya estás gráficas para que lo necesitas?

No se si tiene mucho sentido.
Por lo visto en el vídeo, la tecnología de generación de frames esta me convence y mucho. No tanto por el rendimiento extra, sino por cómo lo consigue sin necesitar pasar por la CPU.

Seguramente no pasará, pero ojalá encuentren el modo (o quieran) llevarlo a la serie 3000. Me bajo los pantalones.
leveju escribió:
OK Computer escribió:Yo no me precipitaria con el tema fuentes. Si va mal, se cambia, si no, a tirar millas. Si es una buena fuente, lo máximo que puede pasar es inestabilidad y reinicios, señal suficiente para cambiarla. Eso de poner la venda antes de la herida... Allá cada cual.

y mas si en las propias graficas vienen ya con su adpatador y encima 3 años de garantia, es que algunos quieren ver los problemas donde no los hay


De acuerdo con ok computer.

A leveju no es ver problemas donde no hay, es hacer las cosas bien.. tener un equipo top, y por racano dejar la fuente justa justa.. no es lo ideal
PepeC12 escribió:Pues igual soy yo pero si la calidad de imagen es peor que en dlss2 y con lo que rinden ya estás gráficas para que lo necesitas?

No se si tiene mucho sentido.


Para aparentar que vendes algo nuevo y novedoso [+risas] .

Si no mejora la calidad me quedo con DLSS 2 que parece ir ya como toca, a mi parecer es lo único bueno que se ha conseguido con las RTX, el ray tracing no lo veo usable, quizás con las nuevas ya va mejor pero de todas formas no puedo comprar una RTX4000 [carcajad] , ni DLSS 3 ni el "nuevo" ray tracing.
Yo es que eso de inventar frames ... No lo veo...

Rdr2 por ejemplo moviéndome en el campo al aire libre le veo fallos que en nativo no.. el ciberpunk lo mismo.. veo la imagen menos nítida que la nativa...

Siempre usando dlss calidad... A mi que no me digan que el dlss mejora la imagen nativa porque como una buena imagen nativa no hay nada...

Pero bueno... Acepto dlss en calidad para ganar frames.. vale... Pero ya inventarse frames.. por muy calculados que estén... No lo veo
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?

Son 1000w trae el cable gen 5.0 de hasta 600w .

Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.

1000w yo creo que sobrará no?

Si te preocupa la calidad de la fuente, no compres una gigabyte.
JaviGabber escribió:En cuanto llegue a casa me lo trago!



Funciona bastante mejor de lo que me esperaba. Nada que ver con la interpolación de vídeos. Creo que va a ser el culpable de que jubile mi 3080ti con pocos meses de uso.


Si, las vi en Google porque en la web aún no hay manera de verlas. Por lo menos hasta ayer ..


Me pregunto esa rog strik... Como puede valer 400 euros más... XD

El tema es que esos precios creo que no son definitivos y pueden cambiar.. lo que si es que veo que habrá más variedad que con la 3080 en su día .. y eso es buena señal...
@chrispro realmente no es de extrañar esos 400 500 más , lo mismo paso con las customs tops de las 3090.
leveju está baneado por "clon de usuario baneado"

pues sinceramente veo custom al precio de FE otras mas caras, pero vamos lo que se esperaba, igual tampoco son precios definitivos, mas caras han estado las 3090 y 3090ti
500€ de diferencia entre la TUF y la ROG, tela. Ya podrían haber puesto información técnica relevante como MHZ de memorias, GPU...
BladeRunner escribió:500€ de diferencia entre la TUF y la ROG, tela. Ya podrían haber puesto información técnica relevante como MHZ de memorias, GPU...


es que no hace falta!!

Imagen
Strait escribió:
JaviGabber escribió:En cuanto llegue a casa me lo trago!



Funciona bastante mejor de lo que me esperaba. Nada que ver con la interpolación de vídeos. Creo que va a ser el culpable de que jubile mi 3080ti con pocos meses de uso.

Pues yo no lo veo.
El paso mínimo que has de dar es a una 4080 16gb que vendiendo tu gráfica hoy a un buen precio ,sería poner ,al menos ,700€ más .
Básicamente ,pagas el doble para obtener casi el doble solo en DLSS 3,no en rasterizado.

Todo para que haya esa mejora solo en los juegos con DLSS 3.
Yo hasta no ver eso en varios juegos y varias reviews sobre ello, no tengo tan claro que no se note.
Zoids está baneado por "clon troll"
Apoyar el DLSS 3 es apoyar la ley del minimo es fuerzo la verdad, si el mercado se vuelve una competencia de saltos de rendimientos falsos reciclando arquitectura y encima te los van cobrar como avances de rendimiento verdaderos, bonito mercado no espera la verdad....

A mi estas tecnologías las vería con buenos si ayudaran a baratar los costos, pero va hacer todo lo contrario, abarataran I +D con refritos pero te lo venderan caro.

Aunque no lo sera , espero que este tipo tecnología fracasen o B solo se conviertan en algo secundario, y que el futuro de las GPU no se basen en ofecer más frames(rendimiento) falsos.
Yo lo q no me esperaba es q el avance en IA fuera tan grande q generar un frame de esta forma sea más rápido q de la forma tradicional rasterizada. [boing]

Pero sí, la verdad q puestos a tener monstruos dentro de los ordenadores preferiría q fuera porque tienen fuerza bruta aplicable a todos los juegos y no porque han de recurrir a ayudas externas q no van a dar más calidad q el método de siempre y q sólo está presente en algunos juegos.
14374 respuestas