Comparativa PERSONAL en juegos FX 8120 vs i5 2500k (leve comparativa Q6600 y FX 6300)

Estimados compañeros.

Como algunos de vosotros sabéis, hace muy poco tiempo decidí cambiar un FX 6300 que tenía por un FX 8120, buscando ese módulo extra del FX 8120, más que por sumar dos cores, porque el reparto de las tareas se hiciera como si de un quad core se tratase.

Entonces recibí, según usuarios de distintos foros en los que me muevo, dos recomendaciones o críticas:

1) Que en los juegos en los que no se aprovechan los 8 cores, no mejoraría el rendimiento porque el FX 6300 ya iría sobrado (y esos juegos son la inmensa mayoría).

2) Que cambiar un FX 6300 (Piledriver), por un FX 8120 (Bulldozer) era un atraso, porque los bulldozer venían a ser algo así como lo peor que habían hecho jamás, considerándose en la creencia popular que un Piledriver es mucho más potente que un bulldozer (diferencia de IPC a favor de Piledriver)

Dejo un breve resumen muy simple del funcionamiento de la arquitectura modular.

La núcleos de los AMD FX se distribuyen en módulos, y dentro de cada módulo hay dos cores. Pues bien, esos cores, tienen partes compartidas entre ambos, y cuando han de emplearse, pierden rendimiento.

¿Qué hace el SO? Pues distribuye prioritariamente el trabajo a un solo core de los módulos, para que tenga todas las partes compartidas para él solito, y que el rendimiento sea superior.

A efectos prácticos, ¿con qué nos encontramos? Nos encontramos con el hecho de que cuando estamos jugando, el SO manda trabajo a ese core por módulo, hasta que lo satura, y una vez se han saturado los cores principales, manda trabajo a los que estaban ociosos.

Como una imagen, vale más que mil palabras, os dejo una imagen de cómo funcionaba el FX 6300 en un juego cualquiera en el que no se utilizan los 6 cores:

Imagen

Como veis, hay tres cores totalmente ociosos, al 0% de uso, aunque estén ahí.

En cambio, al pasar al FX 8120, ocurre lo siguiente:

Imagen

Como vemos con el FX 8120, el reparto de trabajo se ha distribuido a los 4 módulos, obteniendo un mejor rendimiento y aprovechamiento de la tarjeta gráfica.

En esa comparativa, vemos como el FX 6300 no aprovecha totalmente la HD 7770, y sin embargo el FX 8120, aprovecha la GTX 660. Al margen decir que Sacred 2 es uno de los juego peor optimizados que hay, lo he utilizado simplemente por poner un ejemplo del comportamiento de la arquitectura modular.

Y para terminar, con esas imágenes explico (y creo que demuestro) mi postura de que el comportamiento de un FX 6000 es el de un tri core y el de un FX 8000 el de un quad core cuando no se aprovechan todos sus cores, ya que el FX 6300 tenía físicamente ese core que aprovecha de más el FX 8120, y sin embargo no lo utiliza.

Me hubiera gustado poder hacer esta comparativa incluyendo el FX 6300, pero el cambio fue tan precipitado que apenas y tenía test de rendimiento realizados.

De todas formas os dejo una tabla con las pruebas que tenía pasadas con el FX 6300, y su diferencia con el FX 8120, ambos a la misma velocidad de 4.2 GHz. La tabla es meramente informativa, no es el tema de la review.

Imagen

El único test que me parece raro el resultado es Ice Storm (observad que la bajada de puntuación se debe al apartado GS, que ha salido muy bajo sin saber por qué... pero no iba a repetirlo que son 15 minutazos de test).

Me equivoque con los colores... en CLOUD GATE, el 14.21% pertenece a bulldozer, no a piledriver...

Lo de los porcentajes en algunas aplicaciones hay que cogerlos con pinzas, como en Batman Arkham Origins, porque hablamos de una diferencia en mínimos de un 10%, pero es que la diferencia es de 1 FPS.

Para terminar, dejo el rendimiento GPGPU, con el test del Aida 64... paso de hacer porcentajes, así que juzgad vosotros mismos

Imagen

Ahora si, vamos a LA REVIEW EN JUEGOS del FX 8120 vs i5 2500K.

¿Conseguiremos limpiar el nombre de Bulldozer, o confirmaremos las teorías de barra de bar que llegan a asegurar que Bulldozer es la peor aberración jamás puesta a la venta?

Pues no lo vamos a comparar con un Piledriver, sino las diferencias con un idolatrado i5 2500k SB, que todos sabemos de sus bondades y buenísimo rendimiento.

PD: He decidido incluir en las gráficas el Q6600 @ 2.92 Ghz que tenía antes y del que ya hice una review en su día contra el Q6600 http://foro.noticias3d.com/vbulletin/showthread.php?t=420119&highlight= para que la gente que tiene un C2Q o un Phenom II se pueda hacer una idea de la diferencia de rendimiento, ahora que tanta gente se pregunta si actualizar o no.

Todas las pruebas se han realizado en todo momento con una resolución de 1920x1080 (Full HD) y con todos los detalles al máximo.

Los EQUIPOS con los que he pasado las pruebas son:

Equipo 1:
AMD FX 8120 @ 4.2 Ghz
4 GB Ram DDR3 1600 Mhz.
Asus M5A97 EVO R2.0
FSP Hexa 500W 80+.


Equipo 2:

Intel Core i5 2500k @ 3.3 Ghz // 4.2 Ghz.
8GB de Ram DDR3 1600 Mhz
Gigabyte Z68AP-D3
OCZ StealthXstream 600W.

Equipo bonus:

Intel Core 2 Quad Q6600 @ 2.92 Ghz
2GB de Ram DDR2 812 Mhz.
Asus P5KPL (G31) con PCIe 1.1
Tacens Radix IV 450W.

Imagen

Imagen


El elemento común en los equipos ha sido la GRÁFICA, una MSI GeForce GTX 660 OEM (GK 104) 823/1400 (stock) y 915/1502 (OC) con los drivers WHQL 327.23// WHQL 335.23 en los más modernos. Las frecuencias del core con el Turbo suelen ser sobre 980 mhz de stock, y 1180 con OC, aunque como todos sabemos varían continuamente.

Aclaración: La gráfica es una GTX 660 OEM GK 104, que poco tiene que ver con la GTX 660 GK 106 que es la que se vende por 160€. La OEM, lleva el mismo núcleo que las GTX 680, 760 y 770, solo que con menores frecuencias entre otras cosas. Su rendimiento con el OC que he hecho, está próximo al de una GTX 670, y con su OC máximo, un pelín por encima de una GTX 760 de serie.

Uno de los propositos de la review es: ¿ Puede un procesador vilipendiado como el FX 8120 con una gráfica de 200€?

El SISTEMA OPERATIVO ha variado en algunas pruebas, así que en cada test diré con cuál se ha utilizado.

El 2500k ha utilizado en casi todos los test una instalación limpia de Windows 8.1 PRO 64 bits, y en otras Windows 7 64 Professional.

El FX 8120 ha utilizado una instalación “sucia” de Windows 7 64 Professional, ya que el sistema operativo ha conocido 4 gráficas distintas (HD 2600 PRO, GT 230, HD 7770 y GTX 660 OEM), y también dos procesadores de distinta generación (FX 6300 y FX 8120), aún así, no creo que haya sido determinante, ya veréis los resultados.

No me he atrevido a subir más el FX 8120 ni la GTX 660 (que la gráfica sube bastante bastante más, emparejándose a una GTX 760 de stock), porque la fuente de alimentación no daba para más, ( en las pruebas llegué a tener un bajón en la línea de +12v de 11.5v), y no está el asunto para que cascara y se llevara algo por delante.

TEMPERATURAS

No hago hincapié porque considero que no son determinantes:

El i5 fresquísimo, ya que hace los 4.2 Ghz con 1.18 de v.core y tiene un noctua.

El FX (que imagino que la gente tendrá más curiosidad) teniendo en cuenta que está en una mierda de caja en la que solo hay un ventilador trasero de 8CM sacando aire (ninguno metiendo) y con un disipador normalito de 35e, diré que también son muy buenas porque hace los 4.2 Ghz con 1.30v.

En juegos el procesador está siempre sobre los 45º máximo (cores en 36º, recuerdo que latemperatura máxima para ellos es de 70º según AMD Overdrive), y que con el único juego que se le fue la pinza fue con el Far Cry 3, que todo se subió muchísimo, proce 64º, cores a 50º (incluida la gráfica, a 74º).. .en otra caja o con la tapa abierta, la cosa hubiera cambiado, estoy seguro.

Esto se consigue afinando el vcore, ya que uno de los principales problemas de los FX, sobre todo de los bulldozer, es la cantidad ingente de vcore que mete la placa por defecto al procesador. Mi unidad, a frecuencia stock (3.1/3.4) le metía la friolera de 1.388, es decir, bastante más de lo que necesita para mantener 4.2 Ghz.

El SOFTWARE

He decidido prescindir de los típicos programas de testeo 3D Mark, Heaven y demás, porque todos conocemos lo que se deja llevar por el nombre del microprocesador, y da un poco igual el rendimiento del mismo. Por eso, solo vamos a probar juegos.

Estos son los elegidos:

- Call of Juarez Dx10
- Sniper Elite V2 (Dx 11).
- Sleeping Dogs (Dx 11).
- Final Fantasy XIV.
- Resident Evil 6 (Dx9).
- F1 2013 (Dx11).
-Batman Arkham Origins (dx11).

Todos los juegos llevan en el mercado 1 año y medio como máximo , excepto Call Of Juarez, que es mucho más antiguo, pero es (creo) el juego más exigente en Dx 10. Lo he incluido para poder comparar las 3 Apis.

El motivo de elegir estos han sido, al margen de por ser actuales, bien porque tengan un benchmark que lo puede pasar todo el mundo, o bien porque son los juegos que poseo y con los que puedo hacer el test.

Además hay juegos de las dos clases, tanto CPU dependientes como GPU dependientes.

Como recomendación, para comparar siempre lo mejor será fijarnos en el average o FPS medios, que son los que nos dan la mejor idea de rendimiento.

Vamos con ellos

Call of Juarez Dx10.

Imagen

Juego GPU dependiente. Las diferencias entre los procesadores son absolutamente ínfimas. Tomando como referencia los resultados de la gráfica con OC, la diferencia es de un 0.74% a favor del intel... lo que viene siendo lo mismo.

Sniper Elite V2.

Imagen

Pues la gráfica lo dice todo. Como vemos, no hay diferencia de rendimiento ninguna entre un procesador y otro, con y sin oc. En este caso, el procesador aprovecha la gráfica al 100%, lo que demuestra que no es un juego CPU dependiente. Este test se ha pasado conforme se descarga el benchmark. No obstante, como todas las pruebas se han pasado bajo las mismas condiciones, es perfectamente comparable. Además, en todos los casos, la gráfica estaba al 99% de uso, y los resultados varían en décimas de frames de pasar un test u otros. Tomando como referencia los resultados de la gráfica con OC, la diferencia es de un 1.58% a favor del AMD... lo que viene siendo lo mismo.

Sleeping Dogs

Imagen


Sleeping Dogs es otro juego GPU dependiente. La diferencia en FPS en absolutamente ínfima. Tomando como referencia los resultados de la gráfica con OC,en el average, la diferencia es de un 0.28% a favor del intel... lo que viene siendo lo mismo.

Final Fantasy XIV

Imagen

Este es un juego donde realmente se empiezan a aprovechar los cores, el IPC y se agradece mucho un procesador nuevo... El test está pasado bajo Windows 7 64 en ambos casos, y tanto el 2500k como el FX 8320 están a 4.2 Ghz. La diferencia para mí, es considerablemente pequeña entre ambos procesadores.

La diferencia entre el FX y el i5 es de un 3.75% sin OC, y de un 4.76% con el OC de la gráfica.

No he encontrado la versión del benchmark con el que se lo pasé al Q6600 en la anterior comparativa, pero entonces la diferencia entre el Q6600 2.92 y el i5 2500k es de un 39.5%... Para quién piense en actualizar su viejo C2Q o Phenom II, aquí tiene un buen ejemplo de si conviene hacer el cambio.

Resident Evil 6

Imagen

Resident Evil 6 es otro juego que aprovecha y tira de procesador. La diferencia de rendimiento es considerable entre un procesador antiguo como el Q6600 y los modernos, e ínfima entre el Bulldozer y el i5.
Observamos que se aprovecha el OC de la tarjeta gráfica porque no es un juego que tenga los cores permanentemente al 100%. Por eso, cuando no está al 100%, no hace bottleneck a la gráfica, y puede rendir a sus niveles de OC.

Tomando como referencia los resultados de la gráfica con OC, la diferencia es de un 1.80% a favor del intel... lo que viene siendo lo mismo. Sin OC en la gráfica, la diferencia es todavía menor, siendo esta de un 1.02%.

F1 2013

Imagen

Este juego se ha pasado con todo al máximo, con 8X MSAA y ambos procesadores a 4.2 Ghz. Como podemos observar, es un juego donde el procesador resulta determinante.
F1 2013 es un juego al que tenía muchísimas ganas de llegar. Es uno de los juegos que, en las reviews, los FX Bulldozer salían muy muy mal parados… aquí vemos lo que pasa en la realidad.


Mención aparte para quien tenga un C2Q/PH II… el aumento de rendimiento con un core i5 o un AMD FX es simplemente espectacular.

Tomando como referencia los resultados de la gráfica con OC, la diferencia es de un 3.75% en el average a favor del intel... lo que viene siendo lo mismo, y teniendo en cuenta que la diferencia son solo 3 FPS.

EDITO: Hay un error en los datos del FX. Obviamente, los resultados que aparecen sin OC son con OC, y viceversa. Cuando pueda lo corrijo.

BATMAN Arkham Origins

Y por último, nos encontramos con Batman, otro juego por el que los FX han recibido varias tortas por su funcionamiento.
Este juego lo he pasado con todo a tope, FXAA Alto y Physx en medio, para que del physx se encargara la CPU y le diéramos trabajo a ver como se desenvolvía.
Los test los he pasado varias veces, y he cogido el término medio en cada procesador. Ambos también bajo Windows 7, y ambos a 4.2 Ghz.

Tomando como referencia los resultados de la gráfica con OC, la diferencia es de un 4.12% a favor del intel y tan solo 4 FPS... lo que viene siendo lo mismo e inapreciable.

Imagen

Las CONCLUSIONES que obtengo están claras… bulldozer no es tan malo como lo pintan, ni mucho menos. Es perfectamente válido para cualquier tarea, tal y como demuestran los resultados. La mayor diferencia, en el mejor de los casos a favor del intel es de un 4.75%, aunque en la mayoría no llega ni al 1%.

Si a esto le sumamos juegos novedosos y por tanto los venideros, como FC3, BF4 o Crysis 3... la cosa no solo se iguala... sino que ya veremos si con juegos del año que viene o el próximo no le ha dado la vuelta a la tortilla.

Con respecto al FX 6300, a pesar de no haber podido meterlo en la comparativa, diré que prefiero un FX8 bulldozer antes que un FX6 piledriver aunque haya esa pequeña diferencia donde no se aprovecha ese módulo extra... todo se resume de nuevo a la imagen que he puesto al principio de sacred 2... y es que un PC no es una consola que solo sirve para jugar, sino que además de jugar, podemos hacer cosas en segundo plano (antivirus, descargas, etc), que nos permitirán jugar más fluido con el FX8 a un juego que use menos de 4 cores, porque de ese antivirus, descargas, etc, se ocupará el módulo ocioso que no se utiliza para el juego.

S quién este pensando en cambiar de un bulldozer a un piledriver de las mismas características le sugiero que revise de nuevo la review y los datos de la primera tabla comparativa, para ver si le merece la pena. A mi modo de ver no, a no ser que la diferencia de precio sea mínima... y con mímima digo 10€ de tope xD.

Otra cosa es que tengas un FX4 o un FX 6 y quieras hacer el cambio a un FX 8, ahí si que recomiendo el cambio por lo que comentaba antes.

Lo mismo con los intel… si ya tienes un i5 y quieres cambiar, tienes que irte mínimo a un i7 con su HT. En su día hice otra comparativa entre las 4 generaciones core i5, que quizás te despeje dudas http://foro.noticias3d.com/vbulletin/showthread.php?t=413719&highlight=

Y simplemente dejar otra captura de lo que hace un juego moderno, y de si poco a poco los FX van a comer terreno perdido a los i5 o cualquier otro quad core… juzgad vosotros mismos. (Far Cry 3).

Imagen

PD: A lo largo de la tarde iré añadiendo y completando comentarios y conclusiones, así como crearé un archivo rar con todas las pruebas (que las tengo desperdigadas por los equipos), y las subiré a Mega para quien quiera comprobarlas.

Un saludo a todos

CAPTURAS y justificantes https://dl.dropboxusercontent.com/u/436 ... 02500k.rar De momento las dejo en Dropbox porque Mega esta tarde no va. Cuando pueda las subo a Mega.
Buena comparativa, ademas de mostrar el uso de la cpu, que es un aspecto importante.

Que la opcion intel tiene un IPC mayor por núcleo es algo innegable, me hubiera gustado ver pruebas tambien con el Piledriver y con la serie 4xxx de Intel.
Los resultados hubieran sido más interesante donde la gráfica no hiciera de tope y se hubiera visto hasta donde llegan las CPUs. Además no hubiera estado de más ver tema de temperaturas para ver que resultados daban.

De cualquier manera, muy buen curro. [oki]
cadufer escribió:Los resultados hubieran sido más interesante donde la gráfica no hiciera de tope y se hubiera visto hasta donde llegan las CPUs. Además no hubiera estado de más ver tema de temperaturas para ver que resultados daban.

De cualquier manera, muy buen curro. [oki]


Jajaja, claro que sí... si alguien me quiere mandar una 290x, una GTX 780 Ti o similar y una fuente de alimentación que las aguante, yo hago la review encantado. La review la he hecho con lo que tengo, no puedo hacer otra cosa.

De todas formas mi GTX 660 es mucho más potente que una GTX 660 normal, ya que lleva el mismo GK 104 que lleva una GTX 680 o una GTX 760.
Con el OC que le he hecho, y gracias a la frecuencia tan alta que llega con el turbo, esta en esas frecuencias casi al nivel de una GTX 670... y con el máximo OC me pongo a la altura, un pelín por encima de una GTX 760 de serie... y estamos hablando de gráficas de entre 200 y 250e, que al menos para mi economía, ya les pesa el culo jejej.

Lo de las temperaturas no las comento porque no han sido determinantes... el i5 fresquísimo, ya que me hace los 4.2 Ghz con 1.18 de v.core y tiene un noctua.

El FX (que imagino que es por el que preguntas), teniendo en cuenta que está en una mierda de caja en la que solo hay un ventilador trasero de 8CM sacando aire (ninguno metiendo) y con un disipador normalito de 35e, te diré que también muy buenas porque me hace los 4.2 Ghz con 1.30v... en juegos el procesador está siempre sobre los 45º máximo (cores en 36º, temperatura máxima para ellos de 70º según AMD Overdrive), y que con el único que se le fue la pinza fue con el Far Cry 3, que todo se subió muchísimo, proce 64º, cores a 50º (incluida la gráfica, a 74º).. .en otra caja o con la tapa abierta, la cosa hubiera cambiado, estoy seguro.

Un saludo y gracias por tu comentario, que ha servido para comentar las temperaturas en la review, algo que se me había pasado jejje, y no está de más.
Gracias por el currazo. Esta claro que para equipos de gama media no hace falta pillarse una CPU del copón.
Pedazo de currada. Muchas gracias por la info.
Yo tambien creo que puede que en determinados juegos te haya limitado la gráfica como ha dicho el compañero antes y ha podido dar diferencias de rendimiento tan insignificantes entre ambos CPUs por ello. Yo hubiese hecho los test con los juegos en calidad media y ver a cuanto dispara de FPS cada CPU.
Darumo escribió:Yo tambien creo que puede que en determinados juegos te haya limitado la gráfica como ha dicho el compañero antes y ha podido dar diferencias de rendimiento tan insignificantes entre ambos CPUs por ello. Yo hubiese hecho los test con los juegos en calidad media y ver a cuanto dispara de FPS cada CPU.


Claro compañero, y te respondo con lo mismo que le he dicho al otro usuario:

"jaja, claro que sí... si alguien me quiere mandar una 290x, una GTX 780 Ti o similar y una fuente de alimentación que las aguante, yo hago la review encantado. La review la he hecho con lo que tengo, no puedo hacer otra cosa.

De todas formas mi GTX 660 es mucho más potente que una GTX 660 normal, ya que lleva el mismo GK 104 que lleva una GTX 680 o una GTX 760.
Con el OC que le he hecho, y gracias a la frecuencia tan alta que llega con el turbo, esta en esas frecuencias casi al nivel de una GTX 670... y con el máximo OC me pongo a la altura, un pelín por encima de una GTX 760 de serie... y estamos hablando de gráficas de entre 200 y 250e, que al menos para mi economía, ya les pesa el culo jejej."

Si tienes una gráfica más potente y una fuente de alimentación y me la quieres prestar, hago la review de nuevo encantado, y al terminar te la devuelvo... más no puedo hacer, jejeje.

Que más quisiera yo que tener una gráfica mejor... es la que tengo y no me quejo para nada jejeje.

Aparte, eso son los resultados que obtengo y que os dejo las pruebas... luego cada uno es libre de pensar lo que quiera.

Se ha comentado miles de veces que un FX Bulldozer no es para jugar... ahí dejo yo si se puede o no se puede jugar en ese entorno.

Salu2

PD: Gracias por tu aportación
Ante todo gracias por la comparativa, ya que desde que djhony hizo la suyo no se volvió a ver los fx-8120.
Sobre esto quería hablar:

Con el OC que le he hecho, y gracias a la frecuencia tan alta que llega con el turbo, esta en esas frecuencias casi al nivel de una GTX 670... y con el máximo OC me pongo a la altura, un pelín por encima de una GTX 760 de serie... y estamos hablando de gráficas de entre 200 y 250e, que al menos para mi economía, ya les pesa el culo jejej.


Una gtx 660 gk104 es una gtx 760, con los mismos shaders, muy rebajada de frecuencias y con el bus a 192bits. Tiene los mismos shaders que la gtx 760 (1152), pero inferior a los de la ti y gtx 670 (1344). Te ha salido muy ocera tu gráfica, pero me gustaría ver cómo comparas los datos.

Una cosa es ver datos del típico bench de turno, pero donde realmente se nota es teniendo las tarjetas y comparándolas con los mismos drivers y no con benchs del año de la polca de internet . [+risas]

Es como en su día, con una hd 7850 muy oceada, en el heaven 3, me quedaba a 2 fps de una hd 7950 boost. Claro que en juegos, la boost de serie, ya no le sacaba 2 fps. Le sacaba incluso 10 o más según el caso. Por eso algunos test no son muy fiables.

Te costó la tarjeta a buen precio, pero estás equivocado si piensas que en juegos superas a las hermanas mayores. Podrás pasar a una ti de serie, pero no con oc la ti. Ya resto mejor no hablamos

Yo mismo, la ti anterior se ponía a 1293mhz de boost. Incluso la gtx 670, siendo patapalo, ya le saco ventaja a la ti.

Tienes de las mejores gtx 660, pero al realidad es la que es. Una gtx 660 ti todavía más capada. Lo que te ha salvado es el asic del 100% y por eso sube mucho. [666]
Excelente post, muy bien elavorada la comparativa, aunque yo sigo pensando que cambiar un fx6300 por un 8120 no merece la pena, apenas hay diferencia de rendimiento, por un lado el fx6300 tiene mayor ipc lo que se traduce en mayor rendimiento por nucleo, en cambio el 8120 tiene 2 nucleos más al final la balanza queda muy igualada.


Imagen

Aqui dejo una captura que he echo jugando sleeping dogs: fx6300 + gtx 660 ti en el que se puede ver el uso de la cpu y la carga de los 6 nucleos.

Imagen

Imagen
ismarub escribió:Ante todo gracias por la comparativa, ya que desde que djhony hizo la suyo no se volvió a ver los fx-8120.
Sobre esto quería hablar:

Con el OC que le he hecho, y gracias a la frecuencia tan alta que llega con el turbo, esta en esas frecuencias casi al nivel de una GTX 670... y con el máximo OC me pongo a la altura, un pelín por encima de una GTX 760 de serie... y estamos hablando de gráficas de entre 200 y 250e, que al menos para mi economía, ya les pesa el culo jejej.


Una gtx 660 gk104 es una gtx 760, con los mismos shaders, muy rebajada de frecuencias y con el bus a 192bits. Tiene los mismos shaders que la gtx 760 (1152), pero inferior a los de la ti y gtx 670 (1344). Te ha salido muy ocera tu gráfica, pero me gustaría ver cómo comparas los datos.

Una cosa es ver datos del típico bench de turno, pero donde realmente se nota es teniendo las tarjetas y comparándolas con los mismos drivers y no con benchs del año de la polca de internet . [+risas]

Es como en su día, con una hd 7850 muy oceada, en el heaven 3, me quedaba a 2 fps de una hd 7950 boost. Claro que en juegos, la boost de serie, ya no le sacaba 2 fps. Le sacaba incluso 10 o más según el caso. Por eso algunos test no son muy fiables.

Te costó la tarjeta a buen precio, pero estás equivocado si piensas que en juegos superas a las hermanas mayores. Podrás pasar a una ti de serie, pero no con oc la ti. Ya resto mejor no hablamos

Yo mismo, la ti anterior se ponía a 1293mhz de boost. Incluso la gtx 670, siendo patapalo, ya le saco ventaja a la ti.

Tienes de las mejores gtx 660, pero al realidad es la que es. Una gtx 660 ti todavía más capada. Lo que te ha salvado es el asic del 100% y por eso sube mucho. [666]


Umm, los test creo que lo puedes comprobar tu mismo descargando las capturas.

Los he hecho haciendo las pruebas yo mismo, sin sacar ningún resultado de internet.

Últimos drivers WHQL de nvidia para el F1 2013, FF, Batman, etc.

Los del Q6600 son de archivo, de octubre de 2013, porque ya no lo tengo. Pero te aseguro que con nuevos drivers los test no han mejorado nada, porque tengo el mismo resultado de las pruebas de octubre del 2500K que las que hice ayer.

He obviado heaven, 3DMarks y similares por el motivo que comentas.

De la gráfica, nunca he dicho que iguale a una de sus hermanas mayores con OC, si de serie... o al menos eso creo según he visto resultados por internet.

Pero vamos, que viendo que ahora tienes una GTX 670, si te animas podemos pasar algún test de los de la comparativa, tu de serie y yo con OC máximo, a ver como quedamos [+furioso]

De la comparativa de djhonny con la mía, creo que se ha demostrado que hoy en día se hace mucho mejor uso de la arquitectura modular que con los FX recién lanzados, o al menos esa es mi impresión, ya que saco menos diferencia de la que sacaba él con una GTX 470, mucho menos potente que la GTX 660 OEM.

Gracias por tu comentario

APALIZADORX

No te lo tomes a mal, pero los de los FX 6300 "os estáis tirando al cuello "en los dos foros, y seguís en vuestras 13 aún viendo resultados empíricos que no dejan lugar a dudas (Sacred 2, Batman con la HD 7770 y Far Cry 3).

Te dejo la misma respuesta que he dejado a un compañero en el otro foro, tal cuál:

La diferencia de rendimiento compañero está ahí... mismo equipo, distinto procesador, juego que no utiliza todos los cores, un 2.28% de diferencia a favor del FX 6300.

Ahora bien, me remito con el FX 6300 a lo que ya expongo en la review... un PC no es solo una máquina de jugar. Para la review he sido muy quisquilloso, con nada en 2º plano y tenemos esos resultados del 2%. Ahora bien, a poco que tuvieras el chrome abierto, una descarga en jdownloader, el antivirus abierto, o simplemente que X programa en 2º plano busque actualizaciones, esa superioridad de rendimiento se pierde e incluso entra en inferioridad si el juego en cuestión está saturando los cores del FX 6300, mientras que en el FX 8120, se encarga el otro módulo sin afectar a los de juego.

Lo puedes comprobar con sacred 2... el FX 6300 aunque con buenísimos resultados, no exprime una HD 7770... el FX 8120 exprime una GTX 660 GK 104 oceada, que es más del doble de potente.

Eso ocurre en juegos que no son dependientes, en los dependientes (Far Cry 3), dime tú como se las apaña el FX 6300.

Luego aparte los test, los cinebench y eso los dejo porque se vea el resultado, pero no son comparables al tener un módulo menos.

Lo de que el precio es menor, es un hecho... pero también es un hecho el aumento de rendimiento en juegos CPU dependientes, en condiciones normales (programas en 2º plano) en casi todos los juegos, y sobre todo y aquí si, entran los cinebench, edición de video y demás.

El consumo... la lástima es no tener un medidor... también es sabido que consumen más, de hecho yo he notado bajón en la línea de +12v con respecto al FX 6300, pero no puede ser tan grande la diferencia... el FX 8120 me pide menos vcore para los 4.2 Ghz que el FX 6300 (Entre 1.30 y 1.32 el FX 8120, y 1.356 que se amagaba el FX 6300).

Al margen de esto, yo noto el SO más fluido al hacer cualquier cosa, y eso que como digo está muy sucio porque ha conocido varias gráficas y procesadores.

Yo no digo que el FX 6300 sea un mal micro, ni mucho menos, pero que esperaba mucho más es un hecho, y que me decepcionó su comportamiento tri-core, tal y como he demostrado, también.

Te aseguro que si algún día haces el cambio a un FX8, comprenderás perfectamente lo que digo y me darás la razón.


Con la review no intento convencer a nadie, cada uno es libre de pensar lo que quiera, y los resultados están ahí.


Es la tercera y me parece que la última comparativa que hago...
el_terry escribió:
ismarub escribió:Ante todo gracias por la comparativa, ya que desde que djhony hizo la suyo no se volvió a ver los fx-8120.
Sobre esto quería hablar:

Con el OC que le he hecho, y gracias a la frecuencia tan alta que llega con el turbo, esta en esas frecuencias casi al nivel de una GTX 670... y con el máximo OC me pongo a la altura, un pelín por encima de una GTX 760 de serie... y estamos hablando de gráficas de entre 200 y 250e, que al menos para mi economía, ya les pesa el culo jejej.


Una gtx 660 gk104 es una gtx 760, con los mismos shaders, muy rebajada de frecuencias y con el bus a 192bits. Tiene los mismos shaders que la gtx 760 (1152), pero inferior a los de la ti y gtx 670 (1344). Te ha salido muy ocera tu gráfica, pero me gustaría ver cómo comparas los datos.

Una cosa es ver datos del típico bench de turno, pero donde realmente se nota es teniendo las tarjetas y comparándolas con los mismos drivers y no con benchs del año de la polca de internet . [+risas]

Es como en su día, con una hd 7850 muy oceada, en el heaven 3, me quedaba a 2 fps de una hd 7950 boost. Claro que en juegos, la boost de serie, ya no le sacaba 2 fps. Le sacaba incluso 10 o más según el caso. Por eso algunos test no son muy fiables.

Te costó la tarjeta a buen precio, pero estás equivocado si piensas que en juegos superas a las hermanas mayores. Podrás pasar a una ti de serie, pero no con oc la ti. Ya resto mejor no hablamos

Yo mismo, la ti anterior se ponía a 1293mhz de boost. Incluso la gtx 670, siendo patapalo, ya le saco ventaja a la ti.

Tienes de las mejores gtx 660, pero al realidad es la que es. Una gtx 660 ti todavía más capada. Lo que te ha salvado es el asic del 100% y por eso sube mucho. [666]


Umm, los test creo que lo puedes comprobar tu mismo descargando las capturas.

Los he hecho haciendo las pruebas yo mismo, sin sacar ningún resultado de internet.

Últimos drivers WHQL de nvidia para el F1 2013, FF, Batman, etc.

Los del Q6600 son de archivo, de octubre de 2013, porque ya no lo tengo. Pero te aseguro que con nuevos drivers los test no han mejorado nada, porque tengo el mismo resultado de las pruebas de octubre del 2500K que las que hice ayer.

He obviado heaven, 3DMarks y similares por el motivo que comentas.

De la gráfica, nunca he dicho que iguale a una de sus hermanas mayores con OC, si de serie... o al menos eso creo según he visto resultados por internet.

Pero vamos, que viendo que ahora tienes una GTX 670, si te animas podemos pasar algún test de los de la comparativa, tu de serie y yo con OC máximo, a ver como quedamos [+furioso]

De la comparativa de djhonny con la mía, creo que se ha demostrado que hoy en día se hace mucho mejor uso de la arquitectura modular que con los FX recién lanzados, o al menos esa es mi impresión, ya que saco menos diferencia de la que sacaba él con una GTX 470, mucho menos potente que la GTX 660 OEM
.

Gracias por tu comentario


Luego le paso al batman a ver. Sobre uno sencillo que no hay que tener el juego, es el sniper elite v2. De ése tengo tanto de la gtx 660 ti, gtx 760 y gtx 670.

Sobre lo último me ha sorprendido 2 cosas. La primera que en juegos recientes, con una tarjeta digamos de máximo 200-300€ pueden servir perfectamente. Nada que ver como al principio.
Lo segundo y más sorprendente, es que en juegos viejos, es casi mejor un octacore, que el hexacore de AMD modular.

Si un juego utiliza pocos hilos, estás vendido porque el fx-6300 tiene 3 módulos y acaba compartiendo recursos o el juego no distingue de hilos/módulos. Como dices, se comporta como un tricore.
Con el fx-8120 utiliza un hilo de cada módulo y así tiene todos los recursos de cada módulo.

Entonces parece ser, que para juegos viejos, el fx-6300 va a ir peor.
terry yo no me estoy tirando al cuello de nadie eh? si en la tabla que he puesto se ve bien claro que el 8120 en multitarea esta ligeramente por encima del fx6300, de igual modo que también se ve que el fx6300 ofrece mayor rendimiento por nucleo, por eso te he dicho que en mi opinión no merece la pena el cambio.


Sobre lo que comentas la ver de tener tareas abiertas en segundo plano, te puedo decir que juego a Battlefield 4 que es un juego que tira bastante de cpu exprime bien los nucleos, siempre juego dejando abierto navegador firefox, youtube abierto, facebook, steam, utorrent, origin abierto y el uso total de la cpu no llega ni al 60%, mientras que el uso de la gpu esta al 95/99%, vamos que eso de que influye negativamente en el rendimiento no es perceptible en ese sentido, almenos yo no lo he podido apreciar.

Queda claro que no solo importan los nucleos, si no también la potencia, el 8150 con 8 cores rinde un pelin mas que el 8120 y en esta tabla esta ligeramente por debajo del fx6300, de igual forma que el i5 4670k con cuatro nucleos esta por encima del fx 6300 y 8320/50 ( aunque estos dos ultimos si se aprovechan bien los 8 nucleos llegan a ofrecer un rendimiento similar)

Imagen


Imagen
apalizadorx escribió:terry yo no me estoy tirando al cuello de nadie eh? si en la tabla que he puesto se ve bien claro que el 8120 en multitarea esta ligeramente por encima del fx6300, de igual modo que también se ve que el fx6300 ofrece mayor rendimiento por nucleo, por eso te he dicho que en mi opinión no merece la pena el cambio.


Sobre lo que comentas la ver de tener tareas abiertas en segundo plano, te puedo decir que juego a Battlefield 4 que es un juego que tira bastante de cpu exprime bien los nucleos, siempre juego dejando abierto navegador firefox, youtube abierto, facebook, steam, utorrent, origin abierto y el uso total de la cpu no llega ni al 60%, mientras que el uso de la gpu esta al 95/99%, vamos que eso de que influye negativamente en el rendimiento no es perceptible en ese sentido, almenos yo no lo he podido apreciar.


Creo que queda claro que hablo en general y no en particular de tí.

Por otro lado no voy a discutir contigo.

- Tu tienes tu tabla que da unas notas basándose en ciertos programas en los que no sabemos los resultados.

- Yo físicamente he hecho el cambio, en un entorno controlado aportando todos los datos de forma minuciosa, poniendo números y % a ese aumento de rendimiento de piledriver con respecto a bulldozer (a igual frecuencia).

Recuerdo que el FX 8120 viene de serie a 3.1/3.4, y el FX 6300 viene a 3.5/4.1.

Ya he dicho todo lo que tengo que decir. Buenas noches.
Muy interesante todos los test, me ha sorprendido ver tan a la par a ese 8120 con respecto ha ese i5.
Para mí esta muy bien los test, por que se vé como trabaja en condiciones normales, aprovechando la grafica al 100% que es lo realmente importante en juegos.
Gran trabajo y gran comparativa, acabo de cambiar mi Q6600 por un FX8150 y por lo que veo he acertado ( a pesar de lo mucho que he leido y mal sobre estos procesadores ).
O sea, que los AMDs FX de 8 cores ya están prácticamente al nivel de un i5 de 4 cores de hace 2 generaciones [sati] [/troll]

Ya en serio, muy buena comparativa. De hecho, y teniendo en cuenta cómo son las nuevas consolas, esos FX deben de rendir cada vez mejor cuando se aprovechen los núcleos (desde luego, mucho mejor que los jaguar a 1.6GHz de las mismas).
Para los que seguís diciendo que cambiar el fx 6300 por el 8120 no ha merecido la pena, pongo mi equipo con un 8320 y un 8120 y hago las pruebas que me pidais, veréis que no es tanta la diferencia, y en consumo y temperatura lo mismo.
Tengo el 8320 a 4 ghz (no necesito más para una 7850) con 1,275, y los hace el 8120 a 1,285-1,29, a la misma temperatura casi (45 pile/ 47 bull en bench de aida64 ambos con arctic mx-2 + antec 620). Os garantizo que la diferencia de rendimiento a mismas frecuencias en el mismo equipo exacto, es inapreciable, casi nula.

Edito: por cierto, pedazo curro has llevado, y muy buena comparativa [oki] también es interesante el q6600 como sigue rindiendo a día de hoy, se defiende bien para la época a la que pertenece. [sonrisa]
Dr Dre escribió:Para los que seguís diciendo que cambiar el fx 6300 por el 8120 no ha merecido la pena, pongo mi equipo con un 8320 y un 8120 y hago las pruebas que me pidais, veréis que no es tanta la diferencia, y en consumo y temperatura lo mismo.
Tengo el 8320 a 4 ghz (no necesito más para una 7850) con 1,275, y los hace el 8120 a 1,285-1,29, a la misma temperatura casi (45 pile/ 47 bull en bench de aida64 ambos con arctic mx-2 + antec 620). Os garantizo que la diferencia de rendimiento a mismas frecuencias en el mismo equipo exacto, es inapreciable, casi nula.

Edito: por cierto, pedazo curro has llevado, y muy buena comparativa [oki] también es interesante el q6600 como sigue rindiendo a día de hoy, se defiende bien para la época a la que pertenece. [sonrisa]


Aleluyaaaaa!

Por fin alguien que ha probado ambos y corrobora lo que yo he dicho.

Es lo que comentaba en la review, cuando bulldozer salió nada lo soportaba, cuando salió piledriver ya estaba todo optimizado para la arquitectura modular, y de tirar de información de archivo, existe esa falsa creencia.

Mi primo tiene un FX 8320 (que le monté yo) e iba a hacer la comparativa, pero visto lo visto y que me iban a seguir cuestionando, he decidido no hacerla (o si la hago será dentro de un tiempo).

Como ejemplo, mi ex FX 6300 me pedía 0.05v más para hacer los 4.2 Ghz, de los que me pide este bulldozer de 4 núcleos.

Un saludo y muchas gracias por tu comentario.
Yo con el equipo de la firma, hace poco hice unos cuantos benchmark para demostrar que el FX 8320 esta a la altura del i5 4670 (en unos casos es mejor en otros peor, pero diferencias minimas).
Si encuentro los mensajes antiguos os pongo las pruebas (mostrnado el uso de la cpu y todo XD XD XD ).
Buen trabajo demostrando que el 8120/50 estan a la altura y no son tan malos como se dice.

EDITO: Los test de los que os hablaba.

Batman Arkham City
Minimo 43
Maximo 140
Media 97

Captura rendimiento de la CPU
Imagen

DIRT 3
Total fotogramas 12.404
Media 119.33
Minimo 100.92

Imagen

GRID 2
Opciones de INTEL desactivadas
Total fotogramas 9.327
Media 69.65
Minimo 52.98
Maximo 91.84

Captura
Imagen

FarCry 2

Total Frames: 5566
Media 109.13
Maximo 159.33
Minimo 76.89

Imagen Imagen

RE6 benchmark
Total puntos: 9778
Clasificacion: S

Captura
Imagen

RE5 benchmark

Promedio 126.9
Clasificacion: S

Imagen

Como se puede observar, hay juegos antiguos como el FC2 o RE5 que solo usa 6 nucleos y RE6 tampoco los usa bien.
Dr Dre escribió:Para los que seguís diciendo que cambiar el fx 6300 por el 8120 no ha merecido la pena, pongo mi equipo con un 8320 y un 8120 y hago las pruebas que me pidais, veréis que no es tanta la diferencia, y en consumo y temperatura lo mismo.
Tengo el 8320 a 4 ghz (no necesito más para una 7850) con 1,275, y los hace el 8120 a 1,285-1,29, a la misma temperatura casi (45 pile/ 47 bull en bench de aida64 ambos con arctic mx-2 + antec 620). Os garantizo que la diferencia de rendimiento a mismas frecuencias en el mismo equipo exacto, es inapreciable, casi nula.

Edito: por cierto, pedazo curro has llevado, y muy buena comparativa [oki] también es interesante el q6600 como sigue rindiendo a día de hoy, se defiende bien para la época a la que pertenece. [sonrisa]


En serio??

Joder, tengo el mio a 4Ghz también y a 1.35V...... Si bajo más me da pantallazo :( :(

Tendré algo mal??? Podré mejorar algo??
sunlitandy escribió:
Dr Dre escribió:Para los que seguís diciendo que cambiar el fx 6300 por el 8120 no ha merecido la pena, pongo mi equipo con un 8320 y un 8120 y hago las pruebas que me pidais, veréis que no es tanta la diferencia, y en consumo y temperatura lo mismo.
Tengo el 8320 a 4 ghz (no necesito más para una 7850) con 1,275, y los hace el 8120 a 1,285-1,29, a la misma temperatura casi (45 pile/ 47 bull en bench de aida64 ambos con arctic mx-2 + antec 620). Os garantizo que la diferencia de rendimiento a mismas frecuencias en el mismo equipo exacto, es inapreciable, casi nula.

Edito: por cierto, pedazo curro has llevado, y muy buena comparativa [oki] también es interesante el q6600 como sigue rindiendo a día de hoy, se defiende bien para la época a la que pertenece. [sonrisa]


En serio??

Joder, tengo el mio a 4Ghz también y a 1.35V...... Si bajo más me da pantallazo :( :(

Tendré algo mal??? Podré mejorar algo??


Yo acabo de montar un 8150, lo he puesto a 4Ghz con 1.30V y rinde perfectamente siendo muy fresco en idle ( con voltaje de stock antes solamente con torrent funcionando la caja que tengo Thermaltake se calentaba algo, ahora con el nuevo voltaje esta fria ).

p.d. Ahora que me fijo en tu firma, tengo tu misma placa base.
1.3V esta bien.

Pero 1.275 pufff es super bajo. Pata negra de micro jaja.

El voltaje de stock del 8320 es 1.375 o algo asi. Y la gente siempre decia que los 4Ghz los hacia con el voltaje de stock....pero bajarle tanto. Que flipe de micro!!!!.

Puedes poner alguna foto de como tienes el OC en tu placa base Joy dj???

Gracias!!!
No lo añado al principal porque creo que no es relevante, pero por si os interesa a alguien, os dejo con los voltajes, temperaturas, etc que necesita mi FX 8120.

Imagen

Un saludo

PD: 1.38v era el pico que metía mi micro de serie con el turbo activado (3.1 // 3,4 Ghz), y ya veis lo que consigo con ese vcore jejejeje.

Para mi este es otro de los problemas de la plataforma FX... todos hablaban de consumo desorbitado, pero leñe, es que con el mismo v.core de serie, le araño más de 1 Ghz extra de frecuencia... y para los 3.4 Ghz del turbo de serie, con 1.18 le es suficiente...
Gran trabajo Terry! Interesante comparativa! Te felicito

Saludos!
mm..viendo estas comparativas, cada vez mas, quiero actualizar a un Q6600...tiene una pinta genial!!! pero me da pena, el Pentium D q tengo aun tira bien... y el desgraciado no se muere nunca, al menos para tener la excusa [+risas]
sunlitandy escribió:1.3V esta bien.

Pero 1.275 pufff es super bajo. Pata negra de micro jaja.

El voltaje de stock del 8320 es 1.375 o algo asi. Y la gente siempre decia que los 4Ghz los hacia con el voltaje de stock....pero bajarle tanto. Que flipe de micro!!!!.

Puedes poner alguna foto de como tienes el OC en tu placa base Joy dj???

Gracias!!!

Pues aún afina más:
Imagen
Y ya lleva media hora más que en la foto.
Pd: añadi estresar fpu y caches y sube la temperatura, pero sigue siendo estable 1 hora despues.
es lógico, si con el voltaje stock suben hasta 4.3 o 4.4, si lo subes menos vas a necesitar menos vcore
Gran trabajo que has hecho compañero, por lo que veo en tu comparativa con el i5 2500k que poseo aun le puedo sacar jugo al asunto, ya que por ahora no pienso en liquidarlo y sigue siendo hoy dia un buen procesador, que espero que siga aguantando el paso de los años. Saludos y felicitaciones de nuevo por esta comparación.
Dr Dre escribió:
sunlitandy escribió:1.3V esta bien.

Pero 1.275 pufff es super bajo. Pata negra de micro jaja.

El voltaje de stock del 8320 es 1.375 o algo asi. Y la gente siempre decia que los 4Ghz los hacia con el voltaje de stock....pero bajarle tanto. Que flipe de micro!!!!.

Puedes poner alguna foto de como tienes el OC en tu placa base Joy dj???

Gracias!!!

Pues aún afina más:
Imagen
Y ya lleva media hora más que en la foto.
Pd: añadi estresar fpu y caches y sube la temperatura, pero sigue siendo estable 1 hora despues.


Gracias ;)
Pues tengo que ponerme a afinar más el mio, ya que hay bastante diferencia xD.

Como tienes configurada la BIOS???

En el prime95 también estable 100%??

1 saludo y gracias!!!!!
En bios solo tengo desactivado el turbo, el resto tal cual, y el overclock lo hago desde windows pero con el programa de asrock que cambia el multi y el voltaje al momento desde windows.
En prime95 o incluso intel burn seguramente necesite 1,275v, ahora mismo esta en 1,250 y las fases dan 1,264, algo extraño pero todos los programas con que mido coinciden, y en efecto de serie la placa le metia 1,38 o por ahi con lo cual coincide todo.
Ahora bien para mantenerlo a 4,4 necesita 1,38v, cuando me hace los 4,2 en 1,30 (sin afinar). No entiendo esa necesidad de voltaje por 200mhz (que en realidad le asigno 1,34 pero la placa luego me lee 1,38).
Supongo que sera por las pocas fases y que ademas no son digitales.
Saludos y suerte con ese overclock ;)
Subo por si a alguien le interesa xD.

Salu2
EduAAA está baneado por "Saltarse el baneo con un clon"
Sin saber mucho del tema, no es un poco injusto compararlos a esas frecuencias cuando un i5 hace 4,6 sin despeinarse y puede superar los 5 ghz?
Muchas gracias por la comparación, la verdad es que es cuanto menos interesante.

Y yo con un 2600k con RL y sin overclock xD, es pa matarme, lo sé, pero es que no sé hacer overclock...
EduAAA escribió:Sin saber mucho del tema, no es un poco injusto compararlos a esas frecuencias cuando un i5 hace 4,6 sin despeinarse y puede superar los 5 ghz?


sería interesante eso, cambiando sólo la placa y el micro, ver lo que tira cada uno
ajbeas escribió:Muchas gracias por la comparación, la verdad es que es cuanto menos interesante.

Y yo con un 2600k con RL y sin overclock xD, es pa matarme, lo sé, pero es que no sé hacer overclock...


no te preocupes, cuando te haga falta ya aprenderás
cuenta que tu micro oceado a 4.4 o 4.5 tira igual que un 4770 [sati]
Está bueno el review, pero considera que el i5 2500k es un CPU viejo y tiene mal rendimiento multi hilo, de todas formas vi que andan parejos.

Salu2 - Darkness Knight
EduAAA escribió:Sin saber mucho del tema, no es un poco injusto compararlos a esas frecuencias cuando un i5 hace 4,6 sin despeinarse y puede superar los 5 ghz?


Puedo subir ambos hasta los 4.5 Ghz... en ninguno de los dos he probado a ponerlos a más frecuencia porque no es necesario, y por que para llegar a esas frecuencias hace falta un placón de mucho cuidado, refrigeración líquida y todo eso, de lo cuál carezco... Si investigas un poco, verás que el FX también se pone a 5 Ghz.

Aunque el 2500k es una CPU vieja como dice el compañero, todos sabemos que no limita a ninguna mono GPU actual, máxime a esa frecuencia de 4.2 Ghz.

Ese es el por qué, para que se vea si puede aprovechar la gráfica y no es tan malo como lo pintaban (el Bulldozer).

Un saludo a todos y gracias por los comentarios
tTengo un 3770k y siempre e echado pestes de los FX,ahora veo que no son tan malos y mas con el precio que tienen.
Mi hermano quiere actualizar su PII y quieria pillarse un 2500k de segunda o algo del estile,voy a aconsejarle un FX8320.
39 respuestas