Nomada_Firefox escribió:Antoniopua1 escribió:Puede ser que AMD y Nvidia tengan lo que se llama un oligopolio... pronto saldremos de dudas. Si son tan caras como la competencia ( mantener los precios de las series 6000 lo vería de lujo) "blanco y en botella" .
Va a ser como siempre, dependiendo del rendimiento de una u otra, unas seran más caras que las otras. Pero creo que ya esta claro que AMD que gasta procesos de fabricación similares, vaya sacarlas muchisimo más baratas.
Todo eso de dejar con el culo al aire a nadie me parece una chorrada como un templo si son empresas con animo de lucro que solo quieren ganar dinero. Vendiendo por debajo del coste de fabricación van a ganar leches.
zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.
chrispro escribió:Y digo yo, no puede ser que fabricar un bicho de estos.. llámese 4080 , 4090 .. vale mucho más de lo que muchos se piensan?? Que hay gente que se cree que salen a 300 euros de fábrica... Y yo creo que entre fabricación.. publicidad.. i+d... Etc etc etc.. baratas de fabricar no deben de ser..
leveju escribió:Nomada_Firefox escribió:Antoniopua1 escribió:Puede ser que AMD y Nvidia tengan lo que se llama un oligopolio... pronto saldremos de dudas. Si son tan caras como la competencia ( mantener los precios de las series 6000 lo vería de lujo) "blanco y en botella" .
Va a ser como siempre, dependiendo del rendimiento de una u otra, unas seran más caras que las otras. Pero creo que ya esta claro que AMD que gasta procesos de fabricación similares, vaya sacarlas muchisimo más baratas.
Todo eso de dejar con el culo al aire a nadie me parece una chorrada como un templo si son empresas con animo de lucro que solo quieren ganar dinero. Vendiendo por debajo del coste de fabricación van a ganar leches.
https://elchapuzasinformatico.com/2022/09/nvidia-rtx-40-amd-rx-7000-precio/
este articulo del chapuzas dicen cosas muy interesantes, veremos a ver que pasa
albertoooooooooo escribió:zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.
No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.
Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...
zero2006xl escribió:albertoooooooooo escribió:zero2006xl escribió:Las gráficas actuales van muy por delante, tanto que el factor limitante suele ser la optimización (cosa que ha pasado toda la vida con muchos títulos, incluso más en el pasado -época Xbox 360/PS3. Y por eso se da el caso que una tarjeta que teóricamente debería aguantar toda una generación, al final no la aguanta al mismo nivel. Porque hay juegos que no están muy bien optimizados y las desarrolladoras se conforman con que funcione bien en lo último. Un ejemplo de esto -y no me canso de repetirlo- es Spiderman Remastered. Es un juego que debería funciona de sobra en una CPU del palo de la 3600/10400 a 60fps con Ray Tracing activado y ya en función de la gráfica, exprimir más o menos tasa de frames. ¿Qué sucede? Que si quieres jugar a 60fps estables con RT (estándar de PS5 en modo Rendimiento RT) tienes que usar una CPU de la serie 12. Ni un i7 10700 te vale. Aquí el factor limitante ni siquiera es la GPU, sino la CPU.
No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.
Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...
Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.
Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.
Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.
ditifet escribió:zero2006xl escribió:albertoooooooooo escribió:
No se a que Spiderman has jugado, pero yo con un 8700k y una 2080ti he pasado de lejos los 60 fps con RTX. Y si no, le pones DLSS.
Estás comparando un juego exclusivo de un sistema cerrado contra un juego que debe correr en 100 graficas distintas de diferentes marcas, frecuencias, resoluciones, con diferentes RAMs, CPUs, discos duros y SSD...
Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.
Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.
Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.
Precisamente lo estoy jugando yo con un 10400 + 2070 Super
En 1440p y TODO en Ultra pero SIN RT ni DLSS mantengo los 60 clavados, con la gpu al 60-80% y la CPU al 40-55%
Con V-sync clavado a 60
Si activo el RT + DLSS en calidad me subia un poco el uso de la gráfica pero la CPU se quedaba igual
zero2006xl escribió:ditifet escribió:zero2006xl escribió:
Yo me pregunto lo mismo. No sé a qué Spiderman habrás jugado. Y no lo digo yo, está Digital Foundry, el hilo en Resetera, Twitter, Reddit, los propios hilos de updates de Steam... Que tu sientas que va todo el rato a 60fps no significa que vaya todo el rato a 60fps. Yo paso de lejos de los 60fps también, pero cuando atraviesas la ciudad con Ray Tracing activado (da igual la resolución), el juego en muchas ocasiones baja de esa cifra. Y con Vsync es molesto de pelotas si estás acostumbrado a jugar a 60 clavados como es mi caso.
Aquí tienes el primer ejemplo que he encontrado, con la CPU a 5Ghz. Mira la tasa de FPS, el uso de la CPU y el uso de la GPU. Da igual la gráfica o que bajes la resolución porque el factor limitante aquí es la CPU.
Esto en teoría con el nuevo DLSS 3.0 y la serie RTX 40 se reduciría porque no se necesita de la CPU para generar los frames extra. Pero claro, si ya partes de un framerate inestable, supongo que eso se transferirá al frametime. Veremos qué aporta Nvidia con la nueva tecnología AI Frame Generation.
Precisamente lo estoy jugando yo con un 10400 + 2070 Super
En 1440p y TODO en Ultra pero SIN RT ni DLSS mantengo los 60 clavados, con la gpu al 60-80% y la CPU al 40-55%
Con V-sync clavado a 60
Si activo el RT + DLSS en calidad me subia un poco el uso de la gráfica pero la CPU se quedaba igual
Si activas el RT cada dos por tres te va a bajar de 60fps si tienes vsync puesto, que si no usas un monitor VRR es necesario porque el tearing es terrible. Si no usas el vsync verás que no baja demasiado de 60 fps según los ajustes, pero baja muchísimo de 80-90 a 61, 62. Pues bien, si limitas los frames o usas vsync verás como esos bajones se convierten en 59, 58, 54 fps cuando vas con la telaraña por la ciudad. Esto es porque el juego necesita procesar una serie de recursos que saturan la CPU. Y esto sólo pasa con RT activado. No me lo invento yo, ni quiero ensuciar el hilo hablando de algo que está más que hablado en el hilo oficial de PC de Spiderman y en otros mil sitios. Si necesitáis más info en Google "Spiderman Remastered pc cpu usage / disable hyperthreading / gpu low usage / frame drops / etc" vais a encontrar cositas.
Al final depende del ojo de cada uno. Pero ya os digo yo que esto en PS5, con una CPU normalita equivalente esto no pasa. Es una cuestión de optimización. Luego pones otros juegos como Watch Dogs Legion con RT (que no es la panacea en optimización tampoco), Cyberpunk 2077 o Metro Exodus Enhanced y en un PC poco mejor que la PS5 los juegas con mejor calidad o fps.
Esto lo vuelvo a enlazar al tema de precios de GPUs y al estándar de gama media de esta generación. Si a la falta de optimización creciente conforme una generación avanza le sumamos precios altos de esa gama media que mínimo te permite jugar a calidad de consola... estamos tragando por partida doble. Claro que una 4080, 4090 te va a correr todo sin problemas... a causa de fuerza bruta.
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?
JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?
chrispro escribió:JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?
Buena pregunta
654321 escribió:JaviGabber escribió:Dos años desde la presentación de RTX IO y aún está sin usarse ¿Se sabe algo?
En la presentacion de las 4000 dijeron que pronto darian noticias ... veremos si que nos dicen cuando presenten las 5000
En consolas esto está desde el principio de esta GEN, no?
garbaje_de_potanzos escribió:@LynX Yo estos días he estado jugando un pelín al CP 2077 sin reshades ni nada, pero de vez en cuando iba haciendo shots comparativas entre RT OFF y RT ON (en demencial) y la verdad esque pocas escenas por no decir ninguna justifican el rendimiento perdido.
bassa escribió:
Seguramente si, tocando algo los mínimos los podrías mantener en 60, pero así tal cual a full te da alguna caída hasta 42, y eso que solo he visto 7 min del video, si en 7 min te lo hace, quiere decir que jugando igual en 2 o 3 horas te ha pasado eso varias veces, algo que al final va frustrando la experiencia de juego
42 en el min 6:35
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?
Son 1000w trae el cable gen 5.0 de hasta 600w .
Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.
1000w yo creo que sobrará no?
Wookiee escribió:chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?
Son 1000w trae el cable gen 5.0 de hasta 600w .
Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.
1000w yo creo que sobrará no?
Pero si el año que viene te vas a pillar la 5090 cuente lo que cueste y trague lo que trague! Anda, no seas racano y ya puestos pilla 1200w al menos. La idea es que la fuente te dure mas que la gpu.
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?
Son 1000w trae el cable gen 5.0 de hasta 600w .
Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.
1000w yo creo que sobrará no?
OK Computer escribió:Yo no me precipitaria con el tema fuentes. Si va mal, se cambia, si no, a tirar millas. Si es una buena fuente, lo máximo que puede pasar es inestabilidad y reinicios, señal suficiente para cambiarla. Eso de poner la venda antes de la herida... Allá cada cual.
leveju escribió:OK Computer escribió:Yo no me precipitaria con el tema fuentes. Si va mal, se cambia, si no, a tirar millas. Si es una buena fuente, lo máximo que puede pasar es inestabilidad y reinicios, señal suficiente para cambiarla. Eso de poner la venda antes de la herida... Allá cada cual.
y mas si en las propias graficas vienen ya con su adpatador y encima 3 años de garantia, es que algunos quieren ver los problemas donde no los hay
PepeC12 escribió:Pues igual soy yo pero si la calidad de imagen es peor que en dlss2 y con lo que rinden ya estás gráficas para que lo necesitas?
No se si tiene mucho sentido.
chrispro escribió:Veis de sobra la gigabyte UD1000GM PG 5 para la 4090?
Son 1000w trae el cable gen 5.0 de hasta 600w .
Como la veis? 200 eureles me sale la gracia pero quiero pillarme fuente ya antes que se acaben las pocas que hay.
1000w yo creo que sobrará no?
ram escribió:¿Habéis visto los precios de las customs en pccomponentes?
https://www.pccomponentes.com/asus-rog- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/gigabyte- ... 4gb-gddr6x
https://www.pccomponentes.com/msi-gefor ... 4gb-gddr6x
ram escribió:¿Habéis visto los precios de las customs en pccomponentes?
https://www.pccomponentes.com/asus-rog- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/gigabyte- ... 4gb-gddr6x
https://www.pccomponentes.com/msi-gefor ... 4gb-gddr6x
ram escribió:¿Habéis visto los precios de las customs en pccomponentes?
https://www.pccomponentes.com/asus-rog- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/asus-tuf- ... 4gb-gddr6x
https://www.pccomponentes.com/gigabyte- ... 4gb-gddr6x
https://www.pccomponentes.com/msi-gefor ... 4gb-gddr6x
BladeRunner escribió:500€ de diferencia entre la TUF y la ROG, tela. Ya podrían haber puesto información técnica relevante como MHZ de memorias, GPU...