Hilo Oficial de procesadores Ryzen 5K/6K/7K/8K/9K

yosu888 escribió:@Nomada_Firefox pues a día de hoy estoy con una 2080 esperando a cambiarla por una serie 4000 o las nuevas de amd k por las filtraciones pueden ser la gran sorpresa.
Lo acompañaría con los nuevos monitores que salen este año.
https://www.google.com/amp/s/elchapuzas ... 00-hz/amp/



Pues teniendo en cuenta que toda una 3080TI no saca 300fps a 1080p en los juegos testeados, pensar que la nueva generación va a sacar eso a 1440p lo veo excesivamente optimista. Otra cosa es con un Counter o un Fornite, pero con ese tipo de juegos ya sobrepasas 300fps 1440p con un 5800x.
Wookiee escribió:Pues teniendo en cuenta que toda una 3080TI no saca 300fps a 1080p en los juegos testeados, pensar que la nueva generación va a sacar eso a 1440p lo veo excesivamente optimista. Otra cosa es con un Counter o un Fornite, pero con ese tipo de juegos ya sobrepasas 300fps 1440p con un 5800x.

Cuidado que siempre aparece algun jugador del counter afirmando que distingue entre jugar a 250fps y 300 fps. :)

Por cierto que han actualizado e firmware de todos los Zen, desde el 1 al 3. Aunque no se sabe que añadieron. Yo imagino que no han dado datos porque es una actualización de seguridad, e incluso igual resta rendimiento. [fiu]

Y por cierto que han pasado casi 15 dias y la cantidad de reviews del 5600 junto del 5700X se cuentan con la mitad de los dedos de una mano.
Estoy pensando si darme un capricho, seguramente después de verano. Calzo un 3800x con una RTX3080 Y RAM a 3733 con una placa x570. Juego a 1440@144fps ¿Le veis sentido a dar el salto a un 5700X? El 5800X3D creo que va demasiado desfasado de precio, y el 5800X no me mola tanto consumo comparado con el 5700X.
@the_aeon ha salido una review con datos a 4K. Lo esperado diria yo.
Imagen

Imagen

Incluso con el counter la diferencia es nimia frente a un 5800X.
Imagen

A 1440 si que renta algo más, no mucho.
Imagen
Pero como se puede apreciar depende mucho del juego.
Imagen
Otros ni lo notan.
Imagen

En 1080p es donde rinde.
Imagen

Imagen

Imagen

Pero sigo pensando lo mismo de antes, me gustaria verlo con una RTX 3060 o una Ti. Porque quien tiene una 3080 para 1080p. Yo no desde luego.

@Chevi Le veo bastante sentido, un 20% más de rendimiento minimo. Aunque yo me esperaria a que haya verdadero stock, ahora estan vendiendolo como casi 50€ más caro de su precio real. Se dice que AMD no baja los precios, pero son algunas tiendas que se aprovechan. Por mi que se los coman todos.
y no olvidemos esto, como no se puede tocar overclock, imagino que no se puede tampoco hacer undervolt... (acabo de leer que si incluso le haces underclock en la bios, arranca con los valores por defecto cambies lo que cambies).

Imagen
neox3 escribió:y no olvidemos esto, como no se puede tocar overclock, imagino que no se puede tampoco hacer undervolt... (acabo de leer que si incluso le haces underclock en la bios, arranca con los valores por defecto cambies lo que cambies).

Imagen

Era lo que supuse cuando dijeron que iban a capar el OC, que solo funciona en configuración por defecto. Lo cual a mi no me afectaria mucho porque asi tengo el 3600X desde que lo compre.....

A mi lo preocupante es que se van a sobrar con el precio, no va a ser 100€ más caro, es que eso en PCC ya lo meten al 5800X y a este lo van a vender a precio de 12900, en unos dias salimos de dudas. [fiu]
Me ha impresionado este resultado, le mete un +35% al 5600x. Soy jugador de Battlefield y en el 2042 el 5600x petardea de lo lindo.
A ver si sacan alguna review más.

Imagen
@JaviGabber Es llamativo sí pese a ser 720p. La cuestión es si a 236 fps no jugabas ya bien, incluso a 60 fps seguramente y lo que te falla no es otra cosa que el famoso fallo del stuttering que tiene alguna gente con Ryzen. Todavia estaba buscando información ayer y si lo han corregido, es silenciosamente, lo que pasa es que no he visto nada al respecto.

A parte de eso el motor Frostbyte del Battlefield V siempre ha usado muy bien más nucleos e hilos.
neox3 escribió:y no olvidemos esto, como no se puede tocar overclock, imagino que no se puede tampoco hacer undervolt... (acabo de leer que si incluso le haces underclock en la bios, arranca con los valores por defecto cambies lo que cambies).

Imagen



Estaría bien saber si con Ryzen Máster se deja tocar algo.


Pero de base la verdad que promete, va igual (jugando) que un 12900k/ks con 1Ghz menos de frecuencia y con unas memorias reguleras.

Imagen
DaNi_0389 escribió:Estaría bien saber si con Ryzen Máster se deja tocar algo.

Lo dudo muchisimo. No creo que puedas usar una versión antigua que no va a reconocer la CPU y la moderna la caparan. Han puesto mucho empeño en evitarlo y francamente debe ser por algun problema grave cuando ponen tantas trabas.


Pero de base la verdad que promete, va igual (jugando) que un 12900k/ks con 1Ghz menos de frecuencia y con unas memorias reguleras.

Imagen


A 4k es peor que un 12600k rendimiento relativo.
Imagen
Jugando es nimio, diferencias de 1fps. A esa resolución da igual lo que tengas, estas limitado, sea por la grafica o la cpu o la madre que......para esa resolución invertir en CPU me parece abrir la ventana y lanzar el dinero, viendo las diferencias de un Zen2 a Zen3 o Alder Lake.

Hay algun test por ahi a 1440p con una RTX 3070 pero todavia no he visto ni uno con una RTX 3060 o Ti y el 5800X3D, igual ni lo vemos.
Nomada_Firefox escribió:@JaviGabber Es llamativo sí pese a ser 720p. La cuestión es si a 236 fps no jugabas ya bien, incluso a 60 fps seguramente y lo que te falla no es otra cosa que el famoso fallo del stuttering que tiene alguna gente con Ryzen. Todavia estaba buscando información ayer y si lo han corregido, es silenciosamente, lo que pasa es que no he visto nada al respecto.

A parte de eso el motor Frostbyte del Battlefield V siempre ha usado muy bien más nucleos e hilos.


Al Battlefield V juego perfectamente con el 5600x. Ni de coña se llega a 236fps en modo conquista 64 que es a lo que juego. Ese test será del modo campaña donde se consiguen muchos más fps. A Battlefield a partir de 100/110fps ya me siento agusto y en el 2042 el 5600x no llega a eso a 1440p y no es por la GPU. A 60fps a un juego competitivo como Battlefield yo no juego bien y no es cosa de stuttering, es cosa de fluidez.
Soy consciente de que gran parte del problema de BF 2042 es su motor , es tremendamente CPU dependiente y a partir de 6/12 apenas escala. El 5800x también petardea.

Mi hermano tiene un 12700k , he jugado en su PC y vamos, en este juego la experiencia es muy superior al 5600x.

Esperaré a más reviews, a ver si alguna saca el BF 2042 conquista 128 , si se repite esa diferencia me tentaria mucho este 5800x3d aunque luego veré el precio y se me pasará [+risas]

Pd: Para ningún otro juego necesito más CPU hasta ahora.
Pues la verdad es que me ha generado muchas dudas el 5800X3D viendo este análisis, en algunos juegos es casi igual al 5800X, pero en otros le saca una burrada.

Por lo que he leído la mejora depende si la cache se llena o no, dependiendo del juego.

La cuestión es si esa mejora va a ser en muchos juegos o en 4 contados, creo que hay que esperar a ver mas análisis
El problema de Tpm de los ryzen ya han dicho que asta la próxima actualización de bios a g s a que será en mayo no se arregla, así que tocará esperar asta mayo o que saquen una bios beta antes de la versión final.
Bastante sorprendido también con el resultado de Borderlands 3.
Es un juego que ya me he pasado y le he dedicado 120horas, con el 5600x jugué bien pero no perfecto, en muchos momentos petardea. Pero vamos al motor de Borderlands siempre le ha pasado igual.

Imagen
JaviGabber escribió:Ese test será del modo campaña donde se consiguen muchos más fps.

No he jugado al BF V pero yo creo que los test son de bench que tienen esos juegos, es la unica manera de sacar datos bastante comparativos a no ser que juegues siempre en el mismo punto.

El tema de la fluidez es muy relativo, no necesariamente más fps pueden darte más fluidez. Con ese juego ciertamente he visto mucha queja de usuarios de AMD. Yo no creo que sea por la cantidad de nucleos, creo que más bien por otra cosa como el funcionamiento de la CPU, mientras que el Intel mantiene la frecuencia constante, aunque no sea la más alta existente, el AMD solo lo hace durante 1ms y en ese ms vario la frecuencia del maximo a 100mhz un monton de veces. Y me da que en algunos juegos se nota.

Y tambien he visto peña con Intel y problemas de ese tipo.

Y tambien es cierto que he visto gente jugando a cosas donde decian que no les iba fluido y yo juego fluido. Un PC es un mundo y dar con la configuración correcta no es tan facil.

the_aeon escribió:Por lo que he leído la mejora depende si la cache se llena o no, dependiendo del juego.

Por lo que lei en la review, sucede lo mismo tambien con las aplicaciones.

Lo de los juegos contados, va a ser dificil ver test en otros juegos. Al final la mayoria son en los más conocidos.
Nomada_Firefox escribió:
JaviGabber escribió:Ese test será del modo campaña donde se consiguen muchos más fps.

No he jugado al BF V pero yo creo que los test son de bench que tienen esos juegos, es la unica manera de sacar datos bastante comparativos a no ser que juegues siempre en el mismo punto.

El tema de la fluidez es muy relativo, no necesariamente más fps pueden darte más fluidez. Con ese juego ciertamente he visto mucha queja de usuarios de AMD. Yo no creo que sea por la cantidad de nucleos, creo que más bien por otra cosa como el funcionamiento de la CPU, mientras que el Intel mantiene la frecuencia constante, aunque no sea la más alta existente, el AMD solo lo hace durante 1ms y en ese ms vario la frecuencia del maximo a 100mhz un monton de veces. Y me da que en algunos juegos se nota.

Y tambien he visto peña con Intel y problemas de ese tipo.

Y tambien es cierto que he visto gente jugando a cosas donde decian que no les iba fluido y yo juego fluido. Un PC es un mundo y dar con la configuración correcta no es tan facil.

the_aeon escribió:Por lo que he leído la mejora depende si la cache se llena o no, dependiendo del juego.

Por lo que lei en la review, sucede lo mismo tambien con las aplicaciones.

Lo de los juegos contados, va a ser dificil ver test en otros juegos. Al final la mayoria son en los más conocidos.


Battlefield no tiene bench por eso usan el BFV , por que tiene modo campaña (2043 no tiene) y pueden hacer una prueba "controlada y justa". En modo online es difícil o imposible hacer una prueba 100% justa por qué cada partida es diferente.

Si, a mismos fps en distintos juegos uno te puede dar más sensación de fluidez que otros. Battlefield/frostbite como digo en mi opinión necesita estar por encima de 100fps (más o menos) para conseguir una buena fluidez, repito, para mí. A 80fps no se siente bien pero ni en Intel, ni en AMD ni con Gsync.
Battlefield 2042 en modos 32 jugadores me va mucho mejor, en modo contra bots también. El problema viene al meter 128 jugadores reales (su modo estrella) , cuantos más jugadores más CPU requiere y cuánto te juntas en una misma zona con decenas de jugadores los fps con el 5600x se vienen abajo cosa que con el 12700k no, o no tanto.

Por comparar, vengo de jugar a Elden ring 90 horas a 60fps la mar de agusto pese a su tremendo stuttering en momentos puntuales, pero claro son juegos diferentes.
JaviGabber escribió:Battlefield/frostbite como digo en mi opinión necesita estar por encima de 100fps (más o menos) para conseguir una buena fluidez, repito, para mí. A 80fps no se siente bien pero ni en Intel, ni en AMD ni con Gsync.
Battlefield 2042 en modos 32 jugadores me va mucho mejor, en modo contra bots también. El problema viene al meter 128 jugadores reales (su modo estrella) , cuantos más jugadores más CPU requiere y cuánto te juntas en una misma zona con decenas de jugadores los fps con el 5600x se vienen abajo cosa que con el 12700k no, o no tanto.

El tema del multijugador no creo que tenga tanto que ver con la CPU. Ahi entra mucho las conexiones de todos los jugadores, donde se pueda pensar que importa el ancho de banda, lo que realmente importa es el ping que en algunos casos no es ni tan bueno, gente jugando con wifi, conexión que no tienen buen ping, cosas de esas influyen muchisimo más.

Y no digo que en ese juego un 8 nucleos no rinda más. Pero no me parece la clave del MP.
@Nomada_Firefox En juegos competitivos, muchos pros juegan a 240hz/360hz , y si que se nota cuando estas jugando a diario al mismo juego, con los mismos mapas, cualquier cambio se nota, es decir si yo ahora me pongo a jugar al CS que lo he jugado 4 ratos, seguramente lo vea igual, pero en cambio en OW que si que le he dado caña si que note la diferencia entre 120hz y 240hz/360hz .

Es lo mismo que con los ratones, muchos pros se estan pasando de 400dpi a 1600dpi porque aunque ajustes la sens ingame y tengas los mismos cm/360 con ambos dpi, con 1600 tienes menos sensor delay, y en segun que engines evitas pixel skipping, que para el comun de los mortales nos parecen choraditas, pero la gente que esta a un nivel tan alto en un juego, es capaz de darse cuenta de las sutiles diferencias de estas cosas.
Ya, y yo he visto gente viviendo muy felizmente con una bombilla y nada más. :)

Igual esa gente te esta vendiendo la moto y muchos se lo creen pero lo que no saben es que igual cobran por ello. Facilmente.
Pacorrr escribió:


Flipo... Poco han tardado en romper la limitacion y poder hacer overclock, ojo que si va bien y buenas temps (no pasar de 80) ya hace más oc a 1.3v que mi 5800x, que a 1.29v solo es estable a 4700mhz y tocando los 79 grados en cinebench....
neox3 escribió:
Pacorrr escribió:


Flipo... Poco han tardado en romper la limitacion y poder hacer overclock, ojo que si va bien y buenas temps (no pasar de 80) ya hace más oc a 1.3v que mi 5800x, que a 1.29v solo es estable a 4700mhz y tocando los 79 grados en cinebench....

Sinceramente una captura de cpu-z no sirve de mucho, puede haberlo subido y que a la que abra chorme se cuelge el pc
@trakergc @neox3 Con estas instrucciones...........y coincido que la mayoria de esta gente nunca prueba nunca realmente las cosas.

Up to 104.2 MHz I'm using an M.2 drive connected to the CPU PCIe lanes. Beyond, I'm using a PCIe SATA controller with its own clockgen. Then, on C8E, you must enable "Core Performance Boost", "Force OC Mode Disable", and "Global C-State Control"
@Nomada_Firefox O igual me la estas vendiendo tu, total esa logica se puede aplicar a todo el mundo, al menos de lo que yo estoy hablando hay miles de pruebas y test, por toda la red.
Aparecia la noticia hoy https://videocardz.com/newz/amd-to-make ... erclocking de que Zen4 vendera el humo seguramente del OC en la memoria DDR5. Yo lo interesante o frustrante, es que solo parece que vaya a usar DDR5 y lo veo un error por el elevado precio de esa memoria.

deangelis escribió:@Nomada_Firefox O igual me la estas vendiendo tu, total esa logica se puede aplicar a todo el mundo, al menos de lo que yo estoy hablando hay miles de pruebas y test, por toda la red.

Ya le dije a Wookie que alguien apareceria discutiendo estas maravillas, siempre sucede. [sonrisa] Y los miles de test que comentas vienen a confirmar el lo que yo comento, que mucha gente vive de ello. [fiu]
Micropagos está baneado por "Saltarse el baneo con un clon"
El tema de CPU para juegos actualmente no es tan determinante, con el tema del Ray Tracing, y resolución 1440p/4k el cuello esta siempre en la GPU.

Vamos lo mejor es invertir menos en CPU y mas en GPU.

En potencia bruta que es donde se usa 720p para generar cuello y que la CPU marque los fps, estos 5800X3D, son al rededor de un 10% mas rapido que el 5800X y un empate con el 12900k.
Las pruiebas 720p os pueden gustar más o menos, dar urticaria o pareceros inútiles, pero si quieres testear la potencia de UNA CPU tienes que hacer TRABAJAR A LA CPU. Todo lo demás, es testear una GPU. Punto final.
Pacorrr escribió:Las pruiebas 720p os pueden gustar más o menos, dar urticaria o pareceros inútiles, pero si quieres testear la potencia de UNA CPU tienes que hacer TRABAJAR A LA CPU. Todo lo demás, es testear una GPU. Punto final.

Cierto pero lo que se comenta es la aplicación practica y que para la cual en 4k es indiferente, sea porque la GPU no la aprovecha o por el motivo x, el punto esta ahi.

Al final son graficas muy bonitas para un partido de CPUs pero nada más.
@Nomada_Firefox Pues nada entonces, no hagamos caso de ningun test en ningun ambito, porque todo el mundo se quiere lucrar de ello, que gran razonamiento, con el se acabaron los debates en el foro porque total solo es valido tu criterio.
@deangelis , @Pacorrr no voy a discutir con el tema de mirar que CPU es mas potente cuando se realizan TEST que se centran en mirar para aplicaciones específicas (juegos para el caso) cual es más potente por los datos están hay le parezcan o no, les gusten o no....... dicho esto quien en su sano juicio se va gastar a dia de hoy entre procesador y grafica alrededor de 1500 euros para jugar en 720p y gráficos bajos

La cuestión es poner contexto para ser un usuario informado y que se compre tomando una decision inteligente si a dia de hoy el target es jugar a 2160p en la calidad de gráficos mas alta la prioridad es la grafica ya que llegados a ese nivel vemos que el rendimiento de las CPU se empareja y nivela, si nuestro objetivo es jugar a 1080p y 144fps por los mismos datos y las mismas pruebas vemos que si tenemos una RTX 3080 igual nos vale R5 3600

La cosa es que en el mundo real t en el nos movemos la mayoría de los mortales de los que no somos pro player ni tenemos monitores de 240/360 Hz ni hacemos streaming para lo único que nos sirve saber este dato es como cultura general, a la mayoría de usuarios no les aporta nada y ni siquiera el precio que tienen justifica el rendimiento extra que da

ahora discutir sobre la relevancia de un procesador que dadas sus características según la última encuesta de steam solo son el 18% de los jugadores poseen, es un producto premium para entusiastas para decir que tienes lo mas mejor o que tu situación económica te permite darte esos gustos, pero no es producto que defina un antes y un después, no es un producto que rompa paradigmas y al final de cuentas no es algo que nadie necesite... y su relevancia va simplemente a decir entre los fabricantes de procesadores quien tiene el mejor

conclusion las pruebas que se ven son hechos que no se van a discutir son lo que son y así mismo en entornos reales dejar de ser relevantes
Podríamos decir lo mismo de otras pruebas, para qué hacen pruebas de codificación de vídeo si yo no codifico vídeo? Para que hacen pruebas de renderizado si yo no renderizo? Sea lo que sea que pruebes, tienes que hacer que ese componente sea el que haga el trabajo, si lo hace otro componente, no estás testeando bien. Hay muchos casos de cuello de cpu en escenas concretas, incluso a 2160p con tarjetas muy potentes, muchos npc's etc... sólo tenéis que ver el ejemplo muy reciente de la demo "City Sample" de Unreal Engine 5, lo que tira de CPU y lo que sufren éstas para mantener la GPU con alto uso hasta a 2160p.

Te puedes encontrar esos casos en juegos reales y algunos ni se darán cuenta. Y por no hablar de la moda de los reescalados, que renderizan a resoluciones inferiores para sacar rendimiento, usando eso ya no es ni 2160p nativo.
Pacorrr escribió:Las pruiebas 720p os pueden gustar más o menos, dar urticaria o pareceros inútiles, pero si quieres testear la potencia de UNA CPU tienes que hacer TRABAJAR A LA CPU. Todo lo demás, es testear una GPU. Punto final.


Es tan evidente que me sorprende que se ponga en duda. Lo absurdo es probar CPUs a 4k o a 1440p en ultra.

Micropagos escribió:El tema de CPU para juegos actualmente no es tan determinante, con el tema del Ray Tracing, y resolución 1440p/4k el cuello esta siempre en la GPU.

Vamos lo mejor es invertir menos en CPU y mas en GPU.

En potencia bruta que es donde se usa 720p para generar cuello y que la CPU marque los fps, estos 5800X3D, son al rededor de un 10% mas rapido que el 5800X y un empate con el 12900k.


Depende a lo que juegues aunque es cierto que en la gran mayoría de juegos es más importante la GPU. Vuelvo a poner mi caso. En Battlefield 2042 que para mí es un juego principal mi hermano me mete como un +30% con un 12700k y una 3060Ti , yo tengo 5600x + 3080.

En los resultados del 5800x3d me he fijado en dos juegos que conozco muy bien y que se que son CPU dependientes , Borderlands 3 y Battlefield. En esos juegos el 5800x3d le saca bastante más que un 10% al 5800x. En productividad sin embargo en la gran mayoría de pruebas incluso gana el 5800x por tener mayor frecuencia, en ese escenario la memoria 3d no aporta nada.
Tpu no indica que % de uso de CPU han tenido en las pruebas de cada juego, me da a mí que en muchos juegos ni a 720p ponen las CPU al 100% y por esto el resultado final se ve afectado.
Micropagos está baneado por "Saltarse el baneo con un clon"
A 1440p y 4k es raro que un juego actual te haga cuello, al menos que hablemos de juegos antiguos que tiran de 1 o 2 nucleos o juegos actuales que sigan saturando 1 o 2 nucleos..

La demo de UE5 es que creo que no esta adaptada a PC lleva un microstutering que no es normal, ni en la anteriores demos tenia problemas de cuello y sttutering.

Pero vamos actualmente se necesita 720p para crear cuellos y ver las potencia real de las CPU, pero conforme las GPU vayan aumentando potencia, el cuello se comenzará a reproducir a 1080p, luego 1440p etc.
the_aeon escribió:Pues la verdad es que me ha generado muchas dudas el 5800X3D viendo este análisis, en algunos juegos es casi igual al 5800X, pero en otros le saca una burrada.

Por lo que he leído la mejora depende si la cache se llena o no, dependiendo del juego.

La cuestión es si esa mejora va a ser en muchos juegos o en 4 contados, creo que hay que esperar a ver mas análisis


Básicamente es igual al 5800x en las situaciones de gpudependencia (sí, puede pasar incluso a 720p cuando hablamos de cpus muy potentes capaces de escupir suficientes fps como para pasar el "problema" de la limitación a la gpu).

Al final es sencillo. Para cualquier cosa que sea ofimática, computación, etc: 5800X3D=<5800X.
Para juegos: 5800X3D>5800X.


Además de una forma muy literal, claro, si hablamos de juegos donde la limitación pase a la gpu, en muchos casos a partir de 1080p pasa, o tiene un cierto peso, pues esta cpu es decepcionante SI la comparas en todo lo que no sea buscar el rendimiento en juegos CON CONDICIONES de CPUDEPENDENCIA. Pero como cpu de puro gaming para la AM4 va a ser lo mejor con diferencia, más cara al futuro.

Ningún 5900x ni superior va a rendir mejor que esta cpu en el futuro. No hasta uno tan lejano que estas cpus sean literalmente inútiles ya para esos futuros juegos.

Pero como cpu generalista o para más que juegos, será mucho mejor el 5900x.

El 5800x (o 5700x) serán cpus mucho más sensatas en términos generales, porque rinden lo mismo o un pelín más para lo que no sean juegos, se les puede hacer más ajustes y OC, y en gaming no serán tan buenas a futuro, incluso en algún juego actual en condiciones muy cpudemandantes, PERO es que valen menos claramente.

El 5800X3D es el canto del cisne de AM4. Todo su sentido está en los juegos, es una cpu especialista, para lo demás mejor ni contarla. Ahora, es una cpu que demuestra hasta qué punto en los juegos el subsistema de memoria, y en concreto las cachés, pintan y mucho, muchísimo.

Si quieres la mejor cpu para juegos, ahora mismo, ésta es. Pero hay que tener en cuenta lo que es, es buena cpu en general, pero todo el extra que se paga por ella, es por y para los juegos. Evidentemente, si vas a montar una 3080 ti, por ejemplo, merece la pena gastar el extra, al fin y al cabo, es poco margen más teniendo en cuenta qué se mueve en el mercado TOP gama del pc gaming.

Pacorrr escribió:Las pruiebas 720p os pueden gustar más o menos, dar urticaria o pareceros inútiles, pero si quieres testear la potencia de UNA CPU tienes que hacer TRABAJAR A LA CPU. Todo lo demás, es testear una GPU. Punto final.


La gente no quiere entender algo tan simple, por cierto testar un juego a 720p NO implica usar detalles bajos, precisamente porque según las calidades puede afectar también a la carga en cpu.

O tienes una gráfica de potencia infinita que nunca limite el rendimiento del sistema, y eso "de momento" no existe, o testas a 720p (o incluso menos) con calidades tops y gráficas lo más potentes posibles para desplazar la dependencia en juegos a la cpu. Es así de simple.

Que la gente no se quiera creer que esto es útil, ya es una cuestión de fe. Y no, no se trata de "cosas inútiles" como mostrar un juego rindiendo 250 fps vs 350 fps y decir "pero eso no sirve de nada".

NO. La mayoría de juegos rinden sobradamente bien en "casi" todas las situaciones. Hago inciso en la palabra clave, CASI.

Una cosa son los fps medios, incluso en el 90% de mapeados y situaciones de X juego, y otra que el rendimiento medio sea representativo de TODAS las situaciones en dicho juego.

Ya he puesto ejemplos de esto, con juegos muy populares y nada exigentes en especial de cpu, que son limitadas en ciertos contextos y situaciones por la cpu. No son situaciones graves, pero EXISTEN y están ahí.

No voy a volver a citarlos. Pero si inviertes pasta en un equipo gaminf "fullsubvencionatem", con una gráfica de 1500 pavos, SSDs pci-e 4x de chorrocientos GB/s canelaenrama-edition, memorias todo guapas de 7GHz DDR5 lupanar-illumination edition, una placa base de 300 lereles que, al final te va a hacer lo mismo que una placa de 150€ o incluso más baratas.

En fin... en esa situación, si yo encuentro las situaciones donde juegos actuales y no tan actuales pueden bajar de 60 fps o de 90-100fps, por la cpu. ¿Qué problema entonces hay en ver hasta qué punto es bueno el músculo detrás de una cpu para juegos con una prueba de estrés que nos diga hasta cuánto puede llegar de lejos, ahora y en el futuro cercano?

No será el dinero peor tirado en ese equipo, al revés.
Otro test bonito para decidirse si el 5800X3D merece la pena.




wwwendigo escribió:Al final es sencillo. Para cualquier cosa que sea ofimática, computación, etc: 5800X3D=<5800X.
Para juegos: 5800X3D>5800X..

Creo que no se puede vender asi porque es generalizar diciendo que en todas las resoluciones y situaciones va a ser igual de bueno.

En esos videos que puse, a 1440p se ve que las diferencias son nimias y en muchos casos el 5800X3D rinde como un 5800X. En cuanto aumentas la resolución ya no es tan bueno y no puedes venderlo como el mejor.

Y ejecutarlo a 720p o 1080p con una RTX 3080 es como quien hace un test sintetico, es solo eso y nada más.
@Nomada_Firefox

Por ese principio ponemos un FX8500 corriendo juegos a 4K con una 2060, y como rinde lo mismo que el 12900K pues ya la vemos como buena cpu para juegos.

Si se quieren garantías como cpu para juegos, no queda más remedio que eliminar el cuello de botella en la cpu, y la forma realista es pasar tests a la menor resolución posible pero con calidades máximas.

Y sí es significativo, lo repito, yo he visto bajadas en BL2 por debajo de 70 fps, incluso, y se notan bastante en un monitor de bastantes Hz. De forma general en un mapeado. Y no verás ningún "test realista" de esos que pasan el juego en condiciones "reales" que caigan en la gracia de probar este juego con esos mapas ya avanzados en la campaña donde las cosas se complica.

Y así con muchos ejemplos más. Fallout 4 es, según los tests de tantos analisttas, poco cpudependiente, hasta... que deja de serlo, si lo juegas profundamente, y compruebas que hay varios entornos urbanos y complejos donde se limita por cpu.

Para ver cómo reacciona bien una cpu con juegos, en tantos tests que no se molestan en buscar las peores situaciones en las campañas o mapeados incluidos, y testar ahí las cpus, es necesario forzar la situación para comprobar cómo va en cpus.

Yo no he dicho que vaya a ser igual en todas situaciones y resoluciones la mejora de esta cpu, digo que es la mejor cpu que puedas montar en un equipo gaming, sobre todo TOP, si quieres evitar esas situaciones limitadas por cpu.

No hay nada más gracioso que dejarse 1000, o 2000 euros en una gráfica, y ver baches de rendimiento por ocasionales que sean por no apreciar lo que aporta esa cpu que te salía por 100€ más en el presupuesto final. Que es de lo que hablo.
Nomada_Firefox escribió:Otro test bonito para decidirse si el 5800X3D merece la pena.




wwwendigo escribió:Al final es sencillo. Para cualquier cosa que sea ofimática, computación, etc: 5800X3D=<5800X.
Para juegos: 5800X3D>5800X..

Creo que no se puede vender asi porque es generalizar diciendo que en todas las resoluciones y situaciones va a ser igual de bueno.

En esos videos que puse, a 1440p se ve que las diferencias son nimias y en muchos casos el 5800X3D rinde como un 5800X. En cuanto aumentas la resolución ya no es tan bueno y no puedes venderlo como el mejor.

Y ejecutarlo a 720p o 1080p con una RTX 3080 es como quien hace un test sintetico, es solo eso y nada más.


Pues en el 3º video 5800X3D vs 5800X saca una media de 10 fps mas o menos.

Hay que tener en cuenta otra cosa, puedes jugar a 1440p pero si activas DLSS ya no estas jugando a 1440p, juegas a 1080p y eso hay que tenerlo en cuenta.

Yo juego a 3840x1600p, pero todos los juegos que tienen DLSS lo activo, normalmente en equilibrado o calidad, entonces ya no estoy jugando 3840x1600p, paso a jugar a 1080p mas o menos.

En el 3º video juegan a 1440p puro y duro y saca unos 10 fps, si activan DLSS sacarían algo mas.
the_aeon escribió:
Nomada_Firefox escribió:Otro test bonito para decidirse si el 5800X3D merece la pena.




wwwendigo escribió:Al final es sencillo. Para cualquier cosa que sea ofimática, computación, etc: 5800X3D=<5800X.
Para juegos: 5800X3D>5800X..

Creo que no se puede vender asi porque es generalizar diciendo que en todas las resoluciones y situaciones va a ser igual de bueno.

En esos videos que puse, a 1440p se ve que las diferencias son nimias y en muchos casos el 5800X3D rinde como un 5800X. En cuanto aumentas la resolución ya no es tan bueno y no puedes venderlo como el mejor.

Y ejecutarlo a 720p o 1080p con una RTX 3080 es como quien hace un test sintetico, es solo eso y nada más.


Pues en el 3º video 5800X3D vs 5800X saca una media de 10 fps mas o menos.

Hay que tener en cuenta otra cosa, puedes jugar a 1440p pero si activas DLSS ya no estas jugando a 1440p, juegas a 1080p y eso hay que tenerlo en cuenta.

Yo juego a 3840x1600p, pero todos los juegos que tienen DLSS lo activo, normalmente en equilibrado o calidad, entonces ya no estoy jugando 3840x1600p, paso a jugar a 1080p mas o menos.

En el 3º video juegan a 1440p puro y duro y saca unos 10 fps, si activan DLSS sacarían algo mas.

A ese canal no le hagais caso que todo el contenido es fake, lo tengo fichado de cuando buscaba info del 5600, mirar la cantidad de dislikes tambien, desgraciadamente hoy en dia hay muchos canales que hacen eso y hay que ir con mucho cuidado
the_aeon escribió:Pues en el 3º video 5800X3D vs 5800X saca una media de 10 fps mas o menos.

Tras mirar muchos videos depende del juego mucho.

Hay que tener en cuenta otra cosa, puedes jugar a 1440p pero si activas DLSS ya no estas jugando a 1440p, juegas a 1080p y eso hay que tenerlo en cuenta.

No creo que la CPU influya demasiado en algo que realiza la GPU. En todo caso lo que se debe pensar es que en vez de gastarme el dinero en una CPU más potente, me lo gasto en una GPU más potente y los fps los gano con el DLSS.

@trakergc por esa regla de 3 habria que dar por hecho que todas las reviews del 5800X3D son falsas. Los dislikes no indican eso, solo que a un usuario no le gusta.
Nomada_Firefox escribió:Otro test bonito para decidirse si el 5800X3D merece la pena.




wwwendigo escribió:Al final es sencillo. Para cualquier cosa que sea ofimática, computación, etc: 5800X3D=<5800X.
Para juegos: 5800X3D>5800X..

Creo que no se puede vender asi porque es generalizar diciendo que en todas las resoluciones y situaciones va a ser igual de bueno.

En esos videos que puse, a 1440p se ve que las diferencias son nimias y en muchos casos el 5800X3D rinde como un 5800X. En cuanto aumentas la resolución ya no es tan bueno y no puedes venderlo como el mejor.

Y ejecutarlo a 720p o 1080p con una RTX 3080 es como quien hace un test sintetico, es solo eso y nada más.


Primero que ese canal es fake y canta muchísimo.
Segundo que las pruebas son absurdas para probar las CPUs, en todas las que he visto (he pasado por encima) la GPU está a full y las CPUs rascándose las bolas.
Esos vídeos solo valen para ver si en ese juego te merece la pena cambiar de CPUs pero tenéis que entender que hay gente que jugamos a juegos CPUs dependientes donde un 5600x le hace cuello a una 3080 a 1440p, por eso quiero ver hasta dónde llega cada CPU y por eso hay que hacerlo sin que límite la GPU.
El compañero de arriba ya lo ha explicado bien.

Nomada_Firefox escribió:No creo que la CPU influya demasiado en algo que realiza la GPU. En todo caso lo que se debe pensar es que en vez de gastarme el dinero en una CPU más potente, me lo gasto en una GPU más potente y los fps los gano con el DLSS.


Con dlss tienes más fps, cuanto más fps más uso de CPU. Yo en Battlefield no gano nada activando dlss por qué voy limitado con el 5600x.
Mi hermano tiene mejores fps con una 3060ti que yo con la 3080.
Perdonar por repetirme pero es el ejemplo perfecto :p
Nomada_Firefox escribió:
the_aeon escribió:Pues en el 3º video 5800X3D vs 5800X saca una media de 10 fps mas o menos.

Tras mirar muchos videos depende del juego mucho.

Hay que tener en cuenta otra cosa, puedes jugar a 1440p pero si activas DLSS ya no estas jugando a 1440p, juegas a 1080p y eso hay que tenerlo en cuenta.

No creo que la CPU influya demasiado en algo que realiza la GPU. En todo caso lo que se debe pensar es que en vez de gastarme el dinero en una CPU más potente, me lo gasto en una GPU más potente y los fps los gano con el DLSS.

@trakergc por esa regla de 3 habria que dar por hecho que todas las reviews del 5800X3D son falsas. Los dislikes no indican eso, solo que a un usuario no le gusta.


Como que no va a influir el dlss en la CPU? Si la GPU da más FPS el CPU se estresa más la cpu y entonces cobra más importancia
the_aeon escribió:Como que no va a influir el dlss en la CPU? Si la GPU da más FPS el CPU se estresa más la cpu y entonces cobra más importancia

Para salir de dudas, he grabado un par de videos para comparar a 1080p sin DLSS y con DLSS en el Mechwarrior 5, no veo mucha diferencia de uso de CPU con una cosa u otra. Igual en 20 minutos de juego si :) , lo que pasa es que ando un poco limitado de tiempo. ;)

DLSS desactivado.


DLSS activado.


En ambos casos sin Raytracing, aunque al final del videos podeis si os interesa ver enlaces a otros videos con Raytracing, no es un juego que gane muchisimo con ello.

Lo que si hay que pedir a todos los santos es que todos los juegos nuevos tengan DLSS porque vaya lo que se gana.
Gamer nexus ya tiene su review, como debe ser hace pruebas "a baja resolucion", 1080p con una 3080. En GTA V con la distancia de dibujado al maximo que consume mucha CPU le mete un 27% al 5800x. La memoria 3d me parece maravillosa para juegos.
Imagen

Micropagos está baneado por "Saltarse el baneo con un clon"
@Nomada_Firefox

En ese video llevas un ligero cuello de CPU con DLSS, si el porcentaje que se ve, es la carga de la GPU, te ocila entre 80-99%, asi que es un ligero cuello.
@Nomada_Firefox Por un lado te estoy diciendo que ese canal lo tengo fichado y es fake, y por otro lo de los dislikes, de todas maneras si crees que es casualidad que todos los videos del canal tengan 5 o 6 veces mas de dislikes que likes alla tu, o que tenga las cpus antes que nadie un canal de 100 visitas por video pues oye hazle caso a esos benchmarks
@trakergc Si te vas a pillar una rabieta porque no piense lo mismo que tu. Vas a pillar muchas. [sonrisa]

Yo ya dije que era muy posible que la mayoria de reviews fueran falsas. Pero es lo que hay, no hay datos contrastados para decir lo contrario.

@Micropagos ¿podra ser que tengo los fps limitados a 144? lo tengo asi para evitar que la grafica en determinadas aplicaciones se pase de rosca. Si le hubiera quitado eso, la cifra seria de cerca de 200 fps con dlss, si tengo tiempo ya grabo otro mini video y os lo muestro. No me di cuen del detalle.
Nomada_Firefox escribió:@trakergc Si te vas a pillar una rabieta porque no piense lo mismo que tu. Vas a pillar muchas. [sonrisa]

Yo ya dije que era muy posible que la mayoria de reviews fueran falsas. Pero es lo que hay, no hay datos contrastados para decir lo contrario.

@Micropagos ¿podra ser que tengo los fps limitados a 144? lo tengo asi para evitar que la grafica en determinadas aplicaciones se pase de rosca. Si le hubiera quitado eso, la cifra seria de cerca de 200 fps con dlss, si tengo tiempo ya grabo otro mini video y os lo muestro. No me di cuen del detalle.

Rabieta ninguna pero has dado una explicacion absurda y te lo he explicado con mas detalle [oki]
JaviGabber escribió:Gamer nexus ya tiene su review, como debe ser hace pruebas "a baja resolucion", 1080p con una 3080. En GTA V con la distancia de dibujado al maximo que consume mucha CPU le mete un 27% al 5800x. La memoria 3d me parece maravillosa para juegos.
Imagen


La review de gamer Nexus me parece bien hecha, en resumen es un 11% mejor que el 5800x en juegos e se podría decir que empata con el 12900k.

Entonces ya depende de cada uno, es como si tienes un i7 11700k y te pasas a un 12700k, es necesario? No
Quieres darte el gusto? Hazlo

Cómo del 5800x al 5800x3d, es necesario? No
Quieres darte el gusto? Hazlo

Por lo que veo AMD e Intel cada vez van a meter más caché a sus CPU, el 5800x3d creo que envejecera mejor que el 5800x
Vamos que el 58003d a buen precio o me espero a los siguientes con DDR5
Creo que una buena cpu ahora y esperar a que se asiente la DDR5 no es mal plan tampoco. Que no es tanto desembolso.
Pues igual me pongo a buscar... tengo que meditar.
Juego a 3840x1600 75hz y con mi 3600XT no he notado limitaciones. Vamos que algo ganaría seguro. Pero merecería la pena?
9091 respuestas