pupegbl escribió: Para jugar a Total War Warhammer??? La verdad es que muchos no quereis entender ciertas cosas. No se trata de gastarse la pasta, se trata de gastarse lo necesario para tener un buen rendimiento general y a largo plazo.
El Total War mejor optimizado que recuerdo. Yo voy con un 4690 y lo he jugado de lujo, tu afirmación es exagerada no, lo siguiente. Que sí, claro que hay mejora con un i7, pero para nada es tan basto como lo pintas.
¿Alguién puede decirme en % cuanto de diferencia en potencia hay entre la CPU y GPU que tengo ahora (GTS 450 y I5-650) y la CPU y GPU que me quiero comprar (GTX 1060 y I5-6500)?
NasterX
MegaAdicto!!!
1.595 mensajes desde ago 2014
Editado 2 veces. Última: 2/08/2016 - 14:52:49 por NasterX.
pitrako1 escribió:¿Alguién puede decirme en % cuanto de diferencia en potencia hay entre la CPU y GPU que tengo ahora (GTS 450 y I5-650) y la CPU y GPU que me quiero comprar (GTX 1060 y I5-6500)?
Un huevo y parte de otro mas o menos.
Respecto al tema de i7 vs i5... Pues viendo que has aguantado hasta ahora con ese i5.... olvidate del i7 y de la cuellobetellitis y no mires los fps. Seras mas feliz
Blaster Master
No Time To Explain
3.165 mensajes desde jul 2010 en Debajo de un puente
Si te sobra la pasta generosamente o eres un tiquismiquis con el rendimiento grafico, o las dos cosas juntas = compra un i7, cuanto mas potente mejor.
Si no te sobra pasta, o no eres excesivamente exigente con los graficos, o las dos cosas juntas = quedate con una gama media o media/alta, vamos, relacion calidad/precio.
Ya esta, no se porque el hilo se fue a la puta? Ni siquiera hace falta ser un gran entendido en la materia para dar con la opcion correcta, sentido comun lo llama la gente...
Darknast
MegaAdicto!!!
1.512 mensajes desde feb 2008
Editado 1 vez. Última: 2/08/2016 - 15:12:33 por Darknast.
pitrako1 escribió:¿Alguién puede decirme en % cuanto de diferencia en potencia hay entre la CPU y GPU que tengo ahora (GTS 450 y I5-650) y la CPU y GPU que me quiero comprar (GTX 1060 y I5-6500)?
Para empezar piensa que el i5 que tienes ahora no es quad core, vas a ganar 2 núcleos adicionales al pasar al 6500, de hecho creo recordar que la unica diferencia entre tu i5 y un i3 de la epoca, es que el i5 tiene "turbo" y el i3 no, por todo lo demas es igual. A esto sumale que el rendimiento por nucleo del i5-6500 es mucho mayor que el del 650. En % es dificil decirlo, porque ademas depende del software, pero en general notarás una mejora considerable.
Daiben
MegaAdicto!!!
3.083 mensajes desde sep 2011
Editado 1 vez. Última: 2/08/2016 - 15:29:54 por Daiben.
Pero si pregunta el compi pues se le dice lo que le puede pasar en algun juego que otro que ni por asomo es la regla general . Y si , la verdad es que podrias aprovechar mejor tus vacaciones
¿Todavía sigues con lo del i3 a 4.6Ghz+6850? ¿No fue suficiente lo que te puso el compañero @ismarub con una 970 en GTAV con el i3 de stock? gráficas obsoletas con cpu-dependencia o AMDs, con una Nvidia que rinde 10 veces más que la 6850 eso no ocurre. El problema lo tiene AMD con sus drivers en dx11, no la cpu.
Pero si pregunta el compi pues se le dice lo que le puede pasar en algun juego que otro que ni por asomo es la regla general . Y si , la verdad es que podrias aprovechar mejor tus vacaciones
¿Todavía sigues con lo del i3 a 4.6Ghz+6850? ¿No fue suficiente lo que te puso el compañero @ismarub con una 970 en GTAV con el i3 de stock? gráficas obsoletas con cpu-dependencia o AMDs, con una Nvidia que rinde 10 veces más que la 6850 eso no ocurre. El problema lo tiene AMD con sus drivers en dx11, no la cpu.
un i3 chustero noo ¡ un i5 y no de los bajitos , el equivalente al 6500 en la generacion pasada. Con esa 970 todopoderosa que se iba a comer el mundo de todas maneras ahi ves en el video que enlazaste esa grafica con tara sin exprimir usando apenas 2 gb .
Lo que sea pero @ismarub iba diciendo que se le quedaba corto un 4460 para el dolphin no se en que ni donde pero tengo curiosidad a ver si entra y aclara eso tambien.
xNezz
2.859 mensajes desde dic 2014
Editado 6 veces. Última: 3/08/2016 - 00:30:12 por xNezz.
Pero si pregunta el compi pues se le dice lo que le puede pasar en algun juego que otro que ni por asomo es la regla general . Y si , la verdad es que podrias aprovechar mejor tus vacaciones
¿Todavía sigues con lo del i3 a 4.6Ghz+6850? ¿No fue suficiente lo que te puso el compañero @ismarub con una 970 en GTAV con el i3 de stock? gráficas obsoletas con cpu-dependencia o AMDs, con una Nvidia que rinde 10 veces más que la 6850 eso no ocurre. El problema lo tiene AMD con sus drivers en dx11, no la cpu.
un i3 chustero noo ¡ un i5 y no de los bajitos , el equivalente al 6500 en la generacion pasada. Con esa 970 todopoderosa que se iba a comer el mundo de todas maneras ahi ves en el video que enlazaste esa grafica con tara sin exprimir usando apenas 2 gb .
Lo que sea pero @ismarub iba diciendo que se le quedaba corto un 4460 para el dolphin no se en que ni donde pero tengo curiosidad a ver si entra y aclara eso tambien.
A mi desde todo el respeto sus benchmarks no me resultan del todo fiables. Y lo de la CPU-dependencia de AMD... No lo he probado pero lo cojo con pinzas. Yo he ido justito de CPU tanto con AMD (HD 7770) como con Nvidia (750 Ti) y la diferencia era inapreciable. Por no decir que los framerates eran exactamente los mismos (tanto en un G3258, como en un i3 4160). Habría que probarlo más a fondo y no especular tanto con lo que dice un único usuario en foros españoles (porque no he visto a nadie sacar la misma conclusión en foros guiris, ni alemanes, y mira que leo mucho en esos foros). Claro que puede ser cierto, pero hasta cierto punto. Una gráfica distinta no te va a hacer comerse 20 frames porque sí. 5? A lo mejor, pero ni 20 ni 30...
yo ya viendo como ha degenerado el hilo y con la de lumbreras que hay en el no me extrañaria que esos 50 euros que se "ahorran " en la placa de ofimatica o en el i5 bloqueado de 200 euros prefieran darselos a una puta para que le hagan una paja
ismarub
Calidad-precio
4.527 mensajes desde feb 2002 en Vascongadas
Editado 3 veces. Última: 3/08/2016 - 02:22:08 por ismarub.
The CPU performance engineer will have to analyze CPU bound benchmarks and games to identify a variety of CPU bottlenecks in drivers, optimize the drivers, and provide optimization actions to software developers. The candidate will also investigate new CPU architecture impact on driver performance and translate into actionable tasks. The engineer will have to collaborate with graphics and CPU architects.
AMD handles all DX11 API draw calls in a single thread which may cause the CPU to choke in more CPU heavy scenarios especially if you have a weaker processor like an FX or an i3.
So, AMD seems to be kicking some ass in Directx12. However, I am a bit concerned about AMD's DX11 performance. DX11 doesn't run too good on AMD because their drivers, from what I've heard, aren't properly (or isn't at all) multi-threaded for DX11. While nvidia on the other hand, according to what some have told me, has actual multi-threaded drivers. So, my question is, will AMD ever fix their drivers to supportmulti-threading in DX11?
On the plus side, the GTX 750 Ti fares much better when paired with a budget CPU than the rivalling AMD R9 280. Despite costing £30-40 more, the card is a write-off for 60fps performance at 1080p, even with all settings and sliders at their lowest. Left at high settings, spikes down to 35fps are common, again pointing to an issue with AMD cards when paired with weaker CPUs. Unlike the Nvidia 750 Ti, a 30fps lock is needed here when targeting 1080p and anything close to current-gen consoles
There is no concrete proof about it, but it seems that NVIDIA is using Command Lists and other API optimizations in their driver, even if the game/app does not support them. This is pure speculation for now, but the results are there and they explain the vast gap in overhead performance under DX11.
From the Anandtech test for GPU overhead, we can see that all the AMD cards in DX11 have a bottleneck that makes them stop on 1.1 million draw calls. They don't scale at all between them, and they don't scale at all regardless if the load is multithreaded or not which clearly indicates that the bottleneck is not in the hardware.
Parte de la info de guru3d es sacada de eurogamer, para ver que es fuente fiable. AMD sacó mantle porque sabía que el dx11 suyo era malo. En cambio nvidia sacó su driver 337.50 que mejoraba el rendimiento en dx11.
Sobre todo aumentando el número máximo de drawcalls y el uso de command_list.
Somewhat unexpectedly, the greatest gains and the highest absolute performnace are achieved by AMD’s Radeon R9 290X. As we saw in Star Swarm and continue to see here, AMD’s DirectX 11 throughput is relatively poor, topping out at 1.1 draw calls for both DX11ST and DX11MT. AMD simply isn’t able to push much more than that many calls through their drivers, and without real support for DX11 multi-threading (e.g. DX11 Dirver Command Lists), they gain nothing from the DX11MT test.
En resumen el driver dx11 de AMD soporta menos drawcalls y no utiliza bien el multiproceso. De ahí que montar AMD + AMD es la peor opción.
Imgánes de cuellobotellitis que supuestamente sólo yo conozco y nadie más:
Una r9 390 que rinde casi lo mismo en 1080p que en 1440p. Eso en un i7 subido. Mientras tanto la nvidia se mantiene bastante estable a 1080p y pierde fuelle a 1440p, que es lo normal.
Capturas típicas de digital foundry donde un i3 va mejor con una nvidia menos potente:
Un fx-6300 tiene mejores mínimos con una gtx 980 ti que con una rx 480. Debería limitar más la más potente, pero va mejor que el conjunto AMD + AMD.
En algunos juegos el i3+ gtx 970 rinde igual que la rx 480 con el i5 capado que le gusta a andapinchao. Si compras la rx 480 AMD te dice que para sacarle partido mínimo un i5
En su momento ya puse mis capturas en otro portal con gráficas similares, que paso de buscarlas viendo el trato de desprestigio que se usa aquí. El problema existe y está documentado en otros foros "guris". El que no lo haya visto o se mueve poco o no ha querido verlo.
A la gente ya le da igual un poco esto. O montan equipos descomensados siendo felices o meten i5-i7 como rosquillas evitando bastante esto. Todo esto me recuerda a los consoleros. Se pelean sobre multis y exclusivos sobre cuál tiene mejores gráficos. Luego cuando sale a la palestra un pcero ya cambian de tema y dicen que los gráficos no son importantes y lo importante es la jugabilidad.
Lo mismo en pc. Se omite o se intenta ocultar estas cosas porque a muchos no les interesa (al ser una desventaja). En cambio cuando sale un juego dx12 que hace relucir las AMD ya están con el hype por las nubes y diciendo que las nvidia se van a quedar obsoletas. ¿Entonces para qué quieres apis nuevas si con lo que hay supuestamente era suficiente?. En fin.
En resumen. En su momento AMD tiró por mantle que sólo se usó en contados juegos exclusivos (y con problemas también). Nvidia optó por mejorar su driver dx11 dejándolo a medio camino entre dx11 y dx12. Por esto una de las causas en las cuales suben menos en dx12 que en dx11, porque una nvidia tiene menos que rascar.
Por esto AMD pasa ya de mejorar mucho el driver dx11. El quiere centrarse en dx12 porque saben que el driver tendrá menos impacto y recaerá un poco más en los desarrolladores. Aparte que tiene un hardware más óptimo para esto. Como siempre AMD vive en el futuro y para que todos los juegos sean dx12 o vulkan todavía quedan un par de años mínimo.
Invocamos a @wwwendigo, que sobre datos técnicos sabe bastante de estas cosas. Es más ya hizo una review casera sobre el mismo tema.
Daiben
MegaAdicto!!!
3.083 mensajes desde sep 2011
Editado 3 veces. Última: 3/08/2016 - 02:28:24 por Daiben.
We've re-run some of our benchmark tests, comparing AMD and Nvidia performance on the high-end quad-core i7 with the middle-of-the-road dual-core i3 processor. The results are stark. Both 260X and 270X lose a good chunk of their performance, while Nvidia's GTX 750 Ti is barely affected. The situation is even more of an issue on the mainstream enthusiast 1080p section on the next page. There's no reason why a Core i3 shouldn't be able to power an R9 280, for example, as the Nvidia cards work fine with this CPU. However, the performance hit is even more substantial there.
On the plus side, the GTX 750 Ti fares much better when paired with a budget CPU than the rivalling AMD R9 280. Despite costing £30-40 more, the card is a write-off for 60fps performance at 1080p, even with all settings and sliders at their lowest. Left at high settings, spikes down to 35fps are common, again pointing to an issue with AMD cards when paired with weaker CPUs.
GTAV:
Que lejos han llegado las invenciones de ismarub, debe ser una conspiración.
El tema está más que demostrado desde hace tiempo y se comenta en foros de hardware de cualquier parte sin buscar mucho, con un i3 o un FX barato no es recomendable montar una gráfica AMD por mucho que alguno se empeñe en decir que un i3-6100 a 4.6Ghz es para ofimática y 30fps porque le hace cuello de botella a una 6850, cuando el problema lo tiene en el software de la gráfica, no en la cpu que incluso a velocidad de serie puede manejar tarjetas Nvidia muy superiores a esa 6850 sin despeinarse, y con esto no estoy diciendo que haya que comprar un i3 y ponerle una 1080 para jugar en ultra, que os veo venir.
Luego hay que aguantar que en este foro se desprecien opiniones por parte de dos o tres foreros que se creen por encima del resto, pero no siempre se tiene la verdad absoluta.
@ismarub a mi lo que no me gusta son los 200 euros de los i5 capados porque ni es potente ni son baratos ademas de que te deja una placa chustera para actualizaciones en la mayoria de casos y hasta el disipador de intel por lo que he leido Ya lo decia con el 4460 y lo sigo diciendo con este 6500 aunque sea mejor tambien es mas caro y no es la panacea que venden como "calidad /precio"
No he puesto en duda tus benchmarks ni historias varias, ya te dije que no toco una nvidia hace rato . Tu mismo te has quejado de que no te rinde el dolphin en algun momento con el 4460 y me interesa saber en que y como porque te considero un usuario serio .aqui un "i5 vale pa to y va sobrado"
@Daiben De ti es que simplemente paso ya no por mal tipo ni nada de eso pero es que entiendes lo que te da la gana
por mucho que alguno se empeñe en decir que un i3-6100 a 4.6Ghz es para ofimática y 30fps porque le hace cuello de botella a una 6850,
y paso de calentarme la cabeza con alguien de esas caracteristicas pero voy a hacer un intento mas
Te lo pego porque para que voy a escribirlo otra vez?
Nadie ha dicho que se arrastra, solo que para que no baile en algunas zonas hay que caparlo a 50 fps en gta v . Si me dices que 50 fps es arrastrarse en ese tipo de juego que es un machacamicros total pues no se que es una consola next gen sinceramente, un tetris? En todos los demas juegos que he probado va perfectamente pero eso , subido de vueltas. Eso de recomendable el i5 pues ....el 6500 lo tengo por aqui tambien sin usar porque prefiero el i3 con oc. Es mas divertido que un i5 bajito de stock, por lo menos para mi.
Lo que es para ofimatica son las placas de 40 y 50 euros que le poneis a los micros no el i3 a 4,6 a ver si te enteras porque no encuentro nada moderno que tenga mejor precio/calidad que este micro, que tenga que caparlo a 50 fps en algun juego ? que problema hay ? mas carga grafica le puedo meter al bicho . Es un pase de diapositivas? Es que ni el 4160 he tenido que caparlo nunca a 30 fps no se de donde carajo te sacas esas cosas
antes le doy pasaporte a ese i5 6500 y no por malo sino por caro porque un componente de ese precio tendria que dar algo mas de lo que ofrece cuando vas a exigirle algo que no se le debe hacer a un i3 porque es para lo que es . Otro usuario ya te lo mostro con una 980ti y sigues dando por culo con esas tonterias. http://www.elotrolado.net/viewtopic.php?p=1741845473
Se lo que cuesta ganar el dinero sobre todo con esa caricatura que teneis montada en aquellas tierras por eso uno aconseja lo cree mejor para el compañero como cualquier otro usuario.
Lo mas gracioso del hilo es cuando te llaman master race y vas en un i3 aaaah nooo seguro que es por mi firma
KailKatarn
Un único icono
15.518 mensajes desde jun 2001 en Madrid
Editado 7 veces. Última: 3/08/2016 - 03:54:33 por KailKatarn.
Daiben escribió:Luego hay que aguantar que en este foro se desprecien opiniones por parte de dos o tres foreros que se creen por encima del resto, pero no siempre se tiene la verdad absoluta.
Edit: se me adelantaron
Espera, que el amigo @daiben nos va a enseñar algo que se ha hablado desde casi la primera página del hilo como si no se hubiese tenido en cuenta desde el primer momento. Hablado el 30 de Julio exactamente, pero el 3 de Agosto Daiben ha venido a mostrarnos el mundo nuevo que se nos avecina.
Este tipo de cosas pasan cuando se tienen manías persecutorias y uno no sé lee el hilo y se cree que nos va a mostrar la buena nueva al resto. Además, sinceramente, yo no sé si alguien se creerá más que el resto porque nadie es más que nadie, pero tu manía persecutoria por determinadas personas e intentarlas pintar mal... no veas, y cómo te las llevas dobladas ya ni hablemos . Cuando quieras pues ya nos cuentas otra "buena nueva"
PD: La siguiente cual va a ser? que las CPU intel tienen más IPC?
la verdad es que este personaje @Daiben CREO que me pregunto por privado hace 1 año y medio por una 750 ti de MSI que estaba vendiendo y le puse un enlace de mi ebay diciendole que si la queria que la comprara ahi, A las pocas horas se vendio y no se si fue el, que le molesto mi respuesta o vete a saber. No se si el bajo consumo de esa maxwell le ha llegado a su persona en si porque por las cosas que dice creo que no come bien o algo tiene que no le deja carburar con claridad.
KailKatarn
Un único icono
15.518 mensajes desde jun 2001 en Madrid
Editado 1 vez. Última: 3/08/2016 - 04:26:04 por KailKatarn.
andapinchao escribió:la verdad es que este personaje @Daiben CREO que me pregunto por privado hace 1 año y medio por una 750 ti de MSI que estaba vendiendo y le puse un enlace de mi ebay diciendole que si la queria que la comprara ahi, A las pocas horas se vendio y no se si fue el, que le molesto mi respuesta o vete a saber. No se si el bajo consumo de esa maxwell le ha llegado a su persona en si porque por las cosas que dice creo que no come bien o algo tiene que no le deja carburar con claridad.
A mi me va persiguiendo por los hilos intentando ponerme verde desde que le pillé soltando perlas sobre las gráficas AMD una tras otra vez (no se aburre de ello, claro ). Parece ser que le cae simpática la marca y tal porque no veas la persecución
andapinchao escribió:no se bien pero visto lo visto podria reclamar "una paguita" a nvidia aunque creo que si lo hiciera al estado tendria mas posibilidades.
A mi me preocupa sinceramente que tiene que ver esto si se han estado hablando hasta de pruebas con intel + nvidia y comentado desde las primeras páginas del hilo. Ahora debe ser que un pentium anniversary + nvidia se convierte en un i7 decacore a 5ghz. Lo que no entiendo es por qué mis Nvidia en mis Intel no hacen eso
Cuánto dolor. Para lo que habéis quedado, para el jijiji entre vosotros a la que no os gusta lo que se lee, mira que ya lo había avisado: "con esto no estoy diciendo que haya que comprar un i3 y ponerle una 1080, que os veo venir", pero os he sobrevalorado, ya estáis con el damage control y la tontería del Pentium+Nvidia que lo transforma en i7 jijiji, no sé ni para que pierdo el tiempo, luego queréis pruebas y que en España se lleva esto y lo otro, será que aquí no se está llamando mentiroso a ismarub, que era la única persona del mundo que hablaba del tema y en foros guiris eso no existe.
Uno hablando del mercadillo con alguna historia rara de una 750 Ti de ebay por no reconocer lo poco útil que es juzgar a una cpu moderna con la 6850, y el otro lunático diciendo que le persigo cuando las tres veces que le he tenido que hablar es porque me ha citado él por la obsesión que tiene defendiendo a AMD y su victimismo hasta cuando estoy criticando también a Nvidia.
Podéis seguir en vuestro chat privado buscando donde rascar, lo mismo encontráis algo de mi vida privada o donde trabajo para contestarme cuando hablemos de hardware, os puedo dar alguna idea para la próxima, que un gordo me quitó el bocadillo en el recreo o que una chica me rechazó en el insti, junto algún emoticono para acompañar, argumentos de peso que os haría mantener el listón actual.
Ya podéis seguir con vuestras burlas de adolescentes, que uno marcha a trabajar y no tengo nada más que dialogar con la panda del moco
Uno hablando del mercadillo con alguna historia rara de una 750 Ti de ebay por no reconocer lo poco útil que es juzgar a una cpu moderna con la 6850,
6850 por poner una y que no digan uuu es que es demasiado para esa cpu pero que lo que lleva es una 290x http://www.3dmark.com/fs/9247576 y hay que capar segun que juegos como le pidas chicha, no se cuantas veces te lo he dicho ya pero realmente me cuesta creer que tu capacidad de entendimiento sea tan lamentable.
Bastante muy mala. Para el Socket 1151 métele alguna placa que lleve al menos memoria DDR4, ésta AsRock que muestras va con DDR3L y no tiene nada destacable. Si puedes busca algo de Chipset B150 o H170 compatible con memoria DDR4 y de calidad, por ejemplo una Gigabyte GA-B150M-D3H (B150) o una MSI H170M-A PRO (H170).
En caso de que te interese hacer OC, consíguete algo del chipset Z170.
Juer macho, mira que te lo hemos dicho ya unas cuantas veces... Compra una Z170 aunque sea básica, para si algún día quieres o lo necesitas tener ahí la posibilidad de OC. Aunque sea la más barata que encuentres.
@andapinchao. Lo del 4460 es que para el dolphin se necesita más potencia por núcleo. Da igual que tengas un i7, que lo que quiere dicho emulador es ipc. Por esto un i3 a alta frecuencia o un g3258 es mejor para eso dentro de gastar poco dinero. Dicho emulador tira prácticamente sólo de 2 núcleos. Peor todavía si montas cosas viejas o AMD.
Cuando he montado i5 básicos han sido por temas de encontrar equilibrio entre consumo, equilibrio y potencia. Ya he tenido AMD fx y para sacarles partido hay que subirlos. Por lo que tienes que tener mejor placa base, disipador, etc... Lo más importante aumenta bastante el consumo. Todo para un i5 "capado" sea mejor que el amd en la mayoría de juegos.
Por ejemplo mi último fx-6300 salió muy bueno y hacía con 1.35v 4.5ghz. A pesar de esto en cinebench consumía 240w sólo el procesador. Luego le puse un i5 4460 para hacer lo mismo con 98w de consumo. Todo esto en una placa de 60€ y disipador de serie.
Los i5 bloqueados tienen su público si tu otra alternativa es usar AMD o quieres algo de pinchar y funcionar. Decir que el i5-6500 a 200€ me parece caro. Los i5 o los pillo de segunda mano o a 170€ máximo. Si gasto 200€ en un i5 capado prefiero un k.
Decir que realmente no os equivocáis sobre un i5 capado y sus limitaciones. Se le puede buscar las cosquillas a un i5 corriente en determinadas situaciones. No son dioses, ni van a ir 5 años sobrados. Cosa que pasará menos con un k o un i7.
A pesar de esto, un i5 6500 con una gtx 1060 está bastante equilibrado. Menos un par de casos puntuales ese conjunto no dará problemas de importancia. Con el tiempo la gráfica será la limitante y más si dx12 y vulkan despegan por fin. Hay que recordar que aunque la gtx 1060 es buena gama media, no es tampoco para jugar en ultra + filtros a 60 fps. Ya hay juegos que no puede con todo a tope y 60 fps. Con el tiempo habrá que recortar más cosas.
Es decir que con el tiempo limitará posiblemente antes la gráfica. Lo que ocurre es que leyendo algunos comentarios parecéis algo extremistas. Parece que si no montas un i5-i7k, mejor tirar por consolas directamente. Si un i5 básico no sirve, no me quiero imaginar la de gente que va con apus, fx, i3 o i5 antiguos.
KailKatarn
Un único icono
15.518 mensajes desde jun 2001 en Madrid
Editado 7 veces. Última: 3/08/2016 - 18:03:23 por KailKatarn.
ismarub escribió:Es decir que con el tiempo limitará posiblemente antes la gráfica. Lo que ocurre es que leyendo algunos comentarios parecéis algo extremistas. Parece que si no montas un i5-i7k, mejor tirar por consolas directamente. Si un i5 básico no sirve, no me quiero imaginar la de gente que va con apus, fx, i3 o i5 antiguos.
No es cuestión de ser extremista, aquí lo que se ha estado discutiendo es la afirmación directa y completa que se suelta en este foro directamente de "un i5 vale pa'tó el tipo de gaming que quieras" cuando eso es directamente falso y más en modelos bloqueados a 3'2ghz de stock, que sabes completamente bien que son escasos hasta para títulos que no aprovechan bien hasta ni los 4 cores con una buena gráfica.
A mi me parece mucho más extremista el ir soltando lo de que un i5 vale pa'tó. No digo que lo hagas tú, claro, pero se lee por aquí todos los días y eso no es cierto. Y eso sin mencionar lo que se puede leer en este hilo por la inmensidad de participantes que viene a resumirse en "los i7 no valen pa'na en gaming, ezoz zon pa editar video y tal pero en gaming zon to iguales que los i5".
Daiben escribió:bla bla bla y más bla bla bla
Hablas de entrar en temas personales y no se qué cuando lo primero que haces tú es acusar de que aquí hay usuarios que se creen más que el resto? claro chico, todo muy racional. Si eres el primero en entrar en la vidas de las personas como para acusarlas de tener un ego que no cabe ni en el planeta luego no te quejes de que comenten lo que se ve claramente de ti.
The CPU performance engineer will have to analyze CPU bound benchmarks and games to identify a variety of CPU bottlenecks in drivers, optimize the drivers, and provide optimization actions to software developers. The candidate will also investigate new CPU architecture impact on driver performance and translate into actionable tasks. The engineer will have to collaborate with graphics and CPU architects.
AMD handles all DX11 API draw calls in a single thread which may cause the CPU to choke in more CPU heavy scenarios especially if you have a weaker processor like an FX or an i3.
So, AMD seems to be kicking some ass in Directx12. However, I am a bit concerned about AMD's DX11 performance. DX11 doesn't run too good on AMD because their drivers, from what I've heard, aren't properly (or isn't at all) multi-threaded for DX11. While nvidia on the other hand, according to what some have told me, has actual multi-threaded drivers. So, my question is, will AMD ever fix their drivers to supportmulti-threading in DX11?
On the plus side, the GTX 750 Ti fares much better when paired with a budget CPU than the rivalling AMD R9 280. Despite costing £30-40 more, the card is a write-off for 60fps performance at 1080p, even with all settings and sliders at their lowest. Left at high settings, spikes down to 35fps are common, again pointing to an issue with AMD cards when paired with weaker CPUs. Unlike the Nvidia 750 Ti, a 30fps lock is needed here when targeting 1080p and anything close to current-gen consoles
There is no concrete proof about it, but it seems that NVIDIA is using Command Lists and other API optimizations in their driver, even if the game/app does not support them. This is pure speculation for now, but the results are there and they explain the vast gap in overhead performance under DX11.
From the Anandtech test for GPU overhead, we can see that all the AMD cards in DX11 have a bottleneck that makes them stop on 1.1 million draw calls. They don't scale at all between them, and they don't scale at all regardless if the load is multithreaded or not which clearly indicates that the bottleneck is not in the hardware.
Parte de la info de guru3d es sacada de eurogamer, para ver que es fuente fiable. AMD sacó mantle porque sabía que el dx11 suyo era malo. En cambio nvidia sacó su driver 337.50 que mejoraba el rendimiento en dx11.
Sobre todo aumentando el número máximo de drawcalls y el uso de command_list.
Somewhat unexpectedly, the greatest gains and the highest absolute performnace are achieved by AMD’s Radeon R9 290X. As we saw in Star Swarm and continue to see here, AMD’s DirectX 11 throughput is relatively poor, topping out at 1.1 draw calls for both DX11ST and DX11MT. AMD simply isn’t able to push much more than that many calls through their drivers, and without real support for DX11 multi-threading (e.g. DX11 Dirver Command Lists), they gain nothing from the DX11MT test.
En resumen el driver dx11 de AMD soporta menos drawcalls y no utiliza bien el multiproceso. De ahí que montar AMD + AMD es la peor opción.
Imgánes de cuellobotellitis que supuestamente sólo yo conozco y nadie más:
Una r9 390 que rinde casi lo mismo en 1080p que en 1440p. Eso en un i7 subido. Mientras tanto la nvidia se mantiene bastante estable a 1080p y pierde fuelle a 1440p, que es lo normal.
Capturas típicas de digital foundry donde un i3 va mejor con una nvidia menos potente:
Un fx-6300 tiene mejores mínimos con una gtx 980 ti que con una rx 480. Debería limitar más la más potente, pero va mejor que el conjunto AMD + AMD.
En algunos juegos el i3+ gtx 970 rinde igual que la rx 480 con el i5 capado que le gusta a andapinchao. Si compras la rx 480 AMD te dice que para sacarle partido mínimo un i5
En su momento ya puse mis capturas en otro portal con gráficas similares, que paso de buscarlas viendo el trato de desprestigio que se usa aquí. El problema existe y está documentado en otros foros "guris". El que no lo haya visto o se mueve poco o no ha querido verlo.
A la gente ya le da igual un poco esto. O montan equipos descomensados siendo felices o meten i5-i7 como rosquillas evitando bastante esto. Todo esto me recuerda a los consoleros. Se pelean sobre multis y exclusivos sobre cuál tiene mejores gráficos. Luego cuando sale a la palestra un pcero ya cambian de tema y dicen que los gráficos no son importantes y lo importante es la jugabilidad.
Lo mismo en pc. Se omite o se intenta ocultar estas cosas porque a muchos no les interesa (al ser una desventaja). En cambio cuando sale un juego dx12 que hace relucir las AMD ya están con el hype por las nubes y diciendo que las nvidia se van a quedar obsoletas. ¿Entonces para qué quieres apis nuevas si con lo que hay supuestamente era suficiente?. En fin.
En resumen. En su momento AMD tiró por mantle que sólo se usó en contados juegos exclusivos (y con problemas también). Nvidia optó por mejorar su driver dx11 dejándolo a medio camino entre dx11 y dx12. Por esto una de las causas en las cuales suben menos en dx12 que en dx11, porque una nvidia tiene menos que rascar.
Por esto AMD pasa ya de mejorar mucho el driver dx11. El quiere centrarse en dx12 porque saben que el driver tendrá menos impacto y recaerá un poco más en los desarrolladores. Aparte que tiene un hardware más óptimo para esto. Como siempre AMD vive en el futuro y para que todos los juegos sean dx12 o vulkan todavía quedan un par de años mínimo.
Invocamos a @wwwendigo, que sobre datos técnicos sabe bastante de estas cosas. Es más ya hizo una review casera sobre el mismo tema.
El tema es bastante complicado ya que se juntan varios factores.
En principio hay que entender que estos problemas no siempre se ven (la mayoría de juegos no están especialmente limitados por drawcalls/cpu), pero cuando se ven dan lugar a cosas tan extrañas como ver a una 750 ti superando a una 280 o cosas peores.
Con DX11 microsoft siguió un diseño en cuanto a uso de cpu y modelo de API similar a las anteriores de DX, donde básicamente se atienden las llamadas al API de forma seriada y ordenada (pues las cpus en PC no hacía tanto eran básicamente monocores, y es lo que tiene el soft heredado, que arrastras decisiones antiguas hasta cuando ya son molestas), o sea, adaptado al uso de un único proceso desde el driver para esto, y por tanto a un único core.
Además de esto, como DX11 es un API de alto nivel que "todo lo quiere comprobar" y hace muchos automatismos, el tiempo de ejecución de una drawcall al API es bastante mayor que en otras APIs de bajo nivel o simplemente mejor optimizadas.
Estos dos elementos sumados hacen que el coste en tiempo de cpu para hacer el mismo trabajo sea bastante alto en DX11, porque ni se atienden rápido esas drawcalls, ni se atienden usando varios cores.
A todo esto hay que señalar que sí hay una característica de DX11 que sí permitía (y permite) paralelizar varias drawcalls y "ejecutarlas" desde distintos hilos o cores, las Command Lists. Es un punto importante porque es lo que más se le puede echar en cara a AMD respecto a su driver DX11, pues mientras las demás optimizaciones son complejas y fuera del carácter inicial del API DX11, las Command lists sí es parte del estándar, y no se entiende que básicamente nunca se las haya explotado correctamente, o con ganancia de rendimiento para ser más exactos, desde AMD. Esto implica que muchos desarrolladores han evitado a propósito las Command Lists al usar DX11 al considerarlo una técnica a evitar, por ejemplo DICE en sus Battlefield y en las presentaciones sobre las mejoras de Frostbite 2.0 y siguientes, señalaron ese problema con las command lists y cómo eso hizo que evitaran su uso. Si funcionaran correctamente con todos los fabricantes, quizás el soft actual DX11 las usaría masivamente y puede que los problemas de coste de cpu, aún existiendo igual, fueran menos acuciantes.
Dicho esto, siguiendo con el desarrollo de DX11, la situación de partida en ambos fabricantes era similar, ambos fabricantes funcionaban con el API tal cual su diseño indicaba, o sea, con un único proceso ejecutado y sin ningún tipo de paralelismo excepto las Command lists, que además para rematar el tema resulta que inicialmente no funcionaban correctamente.
O para ser más explícitos y tirando de memoria, que también puede fallar, en ese momento inicial las Command Lists eran contraproducentes en el caso de gráficas AMD, ya que se tardaba más tiempo en ejecutar una Command List que la suma de todas las drawcalls empaquetadas en esta lista, y en el caso de nvidia inicialmente no aportaba mejoras de rendimiento (o si las tenía, era despreciable).
Con esto hay que entender que el problema inicial era provocado más bien por microsoft que por cualquier fabricante de gpus, excepto por el tema de las command lists, que de todas formas dado que la implementación de éstas no era fácil, podría ser medio entendible el mal soporte inicial de éstas (ojo, el inicial, no tantos años después).
Ahora, como ya menciona Ismarub sobre una antigua review casera, hubo un momento hace unos años donde esto empezó a cambiar.
Es a partir de los R337 de nvidia que empezaron a mejorar los puntos más importantes con DX11, al empezar a paralelizar drawcalls por su cuenta desde el driver, y a reducir el coste por drawcall en tiempo de cpu. Pero sigamos por orden sobre cómo fue evolucionando.
Nvidia pronto empezó a optimizar algunos elementos de DX11, el primero y más obvio era empezar a sacar provecho a las Command lists y hacer que empezaran a tener sentido su uso con DX11, ofrecienco con ellas un mayor rendimiento que sin usarlas (ahí vemos esas gráficas incluidas donde se ve que tienen un efecto positivo), una de las condiciones para que las Command lists funcionen correctamente es que todas las drawcalls empaquetadas deban ser independientes entre ellas, que no haya dependencias entre ejecutar una y que necesite datos de otra ya terminada, vamos. Pero ése es un problema para el desarrollador del juego o aplicación 3D.
Pero el momento donde empezó a cambiar este tema es cuando se empezó a modificar el driver por parte de nvidia (los antes mencionados R337), saltándose un poco el cómo funcionaba lógicamente el propio API, y empezó el driver a buscar el paralelismo entre drawcalls a ejecutar para poder coger varias drawcalls y ejecutarlas en paralelo en distintos cores de la cpu. A esto además se le añadió una optimización de los tiempos de cpu usados por cada drawcall, para así aumentar el rendimiento de DX11 en cuanto a uso de cpu mejorando estos dos aspectos:
1.- Mejor rendimiento al usar sistemas multicore de una vez por todas, sin necesidad de Command Lists y otros medios explícitos de paralelismo que eran la única alternativa obvia con DX11, más allá de mejorar esto a nivel de driver a base de complicarlo pero volverlo más eficiente al hacer un análisis de las colas de drawcalls que "debería" hacer el propio API.
2.- Mejor rendimiento con la misma cpu aunque fuera monocore al bajar el tiempo de ejecución de cada drawcall, haciendo así que se puedan atender más de éstas.
Es a partir de este punto donde nvidia consiguió adelantarse en el rendimiento de DX11 respecto al uso de cpu (si hay una cpu suficientemente buena, no se nota demasiado, pero... si la cpu es algo floja o hay mucha potencia gráfica que manejar, o simplemente el juego es complejo a nivel de drawcalls, en estos casos se empieza a notar este trabajo en el driver).
Dicho esto, esto es noticia ya vieja, fuera de mejoras previas como el uso correcto de las command lists, esta gran mejora en el driver DX11 de nvidia llegó hace 3 largos años, de hecho algún mes más, así que lo primero aclarar un punto:
Si AMD no ha sentido la necesidad de aplicar las mismas mejoras o trucos en el driver DX11 durante estos tres años donde la competencia siempre ha sido con DX11 como principal argumento técnico, menos va a sentir esa necesidad ahora que existen las APIs que evitan estos problemas como DX12 o Vulkan, aunque vayan a salir juegos DX11 u OpenGL durante muchos años más, dado que se puede argumentar que si se deseara el máximo rendimiento por la parte de la cpu en el driver gráfico se debería usar, no creo que AMD vaya a hacer mejoras a estas alturas. Han pasado tres años desde que se conocieron y vieron estas optimizaciones especiales de nvidia, dudo seriamente que a estas alturas se planteen nada en esa dirección, si no han sentido "premura" al notar en el cogote la presión del rival haciendo una mejora con DX11 que ellos no ofrecían.
Al fin y al cabo, ahora mismo además gastan esos esfuerzos en asegurarse que van bien esas APIs nuevas, relativamente ligeras de funciones y más funciones heredadas que se usan poco o nada, como sí pasa con DX12/OpenGL, y que complica el mantenimiento del driver.
Y ojo, hay mucho trabajo por hacer en ambos casos, como demuestran algunos casos como el rendimiento con Vulkan con Talos Principle o DOTA 2, juegos no tan espectaculares como DOOM pero que son de hecho los primeros que han tenido versiones Vulkan, o ya con DX12 simple y llanamente porque sigue pareciendo a día de hoy más un API beta que otra cosa.
Además el simple hecho del esfuerzo que se tiene que hacer con los desarrolladores para que usen correctamente cosas como el async compute o características avanzadas de DX12/Vulkan, como la gestión de memoria directa desde la aplicación, que ha provocado casos morrocotudos de problemas de "fugas" de memoria con muchos juegos (tomb raider consume mucha más VRAM bajo DX12 que bajo DX11, mostrando lo mismo en pantalla, Hitman otro tanto, con el pero de que además puede bajar la calidad gráfica para evitar esto, ignorando el preset seleccionado, etc), hacen que aún se tenga menos tiempo para dedicar a soft considerado "obsoleto" (entrecomillado, porque DX11 no dejará de ser obsoleto por existir DX12, ni tampoco OpenGL por existir Vulkan, por eso cada uno de ellos sigue desarrollando sus versiones, y hay un DX11.3 y OpenGL mira más allá de la versión 4.5 aunque exista ya vulkan).
Así que como resumen de la situación final de los drivers DX11 en ambos casos:
1.- AMD usa DX11 como aparece definido por el funcionamiento del propio API, no intenta ningún "workaround" al carácter seriado y monohilo del API, y se conforma con que las command lists simplemente no signifiquen un perjuicio para el rendimiento.
2.- Nvidia usa DX11 con una serie de "workarounds" que busca ofrecer algunos puntos de mejoras de las APIs alternativas y modernas, como saltarse su caracter seriado y monohilo del API, buscando paralelismo a nivel del driver en una lista de drawcalls para poder enviarlas en paralelo y "ejecutarlas" en distintos cores simultáneamente, además de reducir los tiempos de proceso por drawcall optimizándolos en lo posible, aunque el carácter de alto nivel del API en principio implique un alto coste en tiempo por drawcall, ahí se puede mejorar. En el tema de las command lists, es lo primero que mejoró antes de estas dos optimizaciones más fuertes mencionadas, siendo por ello que sí le saca provecho a esta única técnica que permite paralelizar de forma "natural" en DX11 varias drawcalls.
Aparte de esto, existe otra técnica que aparece en las nuevas APIs que en principio no existe en DX11, y está relacionada con la precompilación de código shader para cada arquitectura. Esto que en principio con DX11 y anteriores se hacía al cargar un juego y en tiempo de ejecución del mismo, una y otra vez cada vez que se cargaba, lo cual ocurría al arrancar el juego en una fase concreta o durante su desarrollo, con las APIs modernas es posible tener definida esta compilación de shaders fuera de tiempo de uso, y de hecho tener una caché de estos shaders compilados para cada arquitectura fuera de tiempo de ejecución, ya lista para usarlos sin coste de tiempo de cpu al usar la aplicación.
Sé que nvidia desde hace tiempo tiene esto pero para DX11 como opción por defecto (guardar caché de "sombreadores"), ¿pero AMD también? No estoy seguro, pero en este caso creo que ambos ahora mismo sí hacen esto del cacheo de shaders ya compilados por el JIT del driver y para cada arquitectura, para evitar costes de cpu en este proceso.
Moraleja:
El principal causante de estos problemas fue microsoft al diseñar DX11 de forma arcaica y conservadora en el modelo de funcionamiento, pero las respuestas de cada fabricante cuando empezaron a verse los problemas potenciales a los que esto llevaba, es responsabilidad de cada uno.
AMD ha sido conservadora y decidió no hacer optimizaciones fuera de simplemente correr DX11 como inicialmente estaba planificado, y nvidia arriesgó al intentar toda esta serie de optimizaciones.
Y de esos polvos, estos lodos.
ismarub
Calidad-precio
4.527 mensajes desde feb 2002 en Vascongadas
Editado 2 veces. Última: 3/08/2016 - 19:09:48 por ismarub.
ismarub escribió:Es decir que con el tiempo limitará posiblemente antes la gráfica. Lo que ocurre es que leyendo algunos comentarios parecéis algo extremistas. Parece que si no montas un i5-i7k, mejor tirar por consolas directamente. Si un i5 básico no sirve, no me quiero imaginar la de gente que va con apus, fx, i3 o i5 antiguos.
[
No es cuestión de ser extremista, aquí lo que se ha estado discutiendo es la afirmación directa y completa que se suelta en este foro directamente de "un i5 vale pa'tó el tipo de gaming que quieras" cuando eso es directamente falso y más en modelos bloqueados a 3'2ghz de stock, que sabes completamente bien que son escasos hasta para títulos que no aprovechan bien hasta ni los 4 cores con una buena gráfica.
A mi me parece mucho más extremista el ir soltando lo de que un i5 vale pa'tó. No digo que lo hagas tú, claro, pero se lee por aquí todos los días y eso no es cierto. Y eso sin mencionar lo que se puede leer en este hilo por la inmensidad de participantes que viene a resumirse en "los i7 no valen pa'na en gaming, ezoz zon pa editar video y tal pero en gaming zon to iguales que los i5".
Es que en realidad las 2 vertientes son erróneas. Ni un i5 básico es caca, ni un i5 básico puede con todo o va sobrado.
Como he dicho se le pueden ver las flaquezas a un i5 urgando un poco. Pero las cosas como son, prefiero un i5 de esos + placa de 60€ y disipa de serie, que un AMD con su placa de 8 fases, disipador mínimo 212evo y generando calor para tener un resultado menor o como mucho similar. El i5 básico suele dar menos problemas en novatos. Pinchar y funcionar
También he tenido i5 k o i7. La diferencia para durabilidad se nota y más si quieres cambiar varias veces de gráfica. Pero en mi caso para lo poco que voy a jugar no me va a salir rentable. Sobre todo por las placas, que luego se rompe y no hay repuestos o valen un ojo de la cara.
Por último gracias @wwwendigo por la explicación. Un tocho, pero bien explicado.
KailKatarn
Un único icono
15.518 mensajes desde jun 2001 en Madrid
Editado 2 veces. Última: 3/08/2016 - 19:31:46 por KailKatarn.
ismarub escribió:Como he dicho se le pueden ver las flaquezas a un i5 urgando un poco. Pero las cosas como son, prefiero un i5 de esos + placa de 60€ y disipa de serie, que un AMD con su placa de 8 fases, disipador mínimo 212evo y generando calor para tener un resultado menor o como mucho similar. El i5 básico suele dar menos problemas en novatos. Pinchar y funcionar
También he tenido i5 k o i7. La diferencia para durabilidad se nota y más si quieres cambiar varias veces de gráfica. Pero en mi caso para lo poco que voy a jugar no me va a salir rentable. Sobre todo por las placas, que luego se rompe y no hay repuestos o valen un ojo de la cara.
Claro, estoy de acuerdo en eso que dices, un usuario nuevo no debería plantearse un FX salvo de segunda mano a precios agresivos, con buenas placas y sabiendo lo que se hace y siempre y cuando vaya a aprovecharlo en títulos que paralelicen bien.
Sobre la durabilidad del i7 sobre el i5 pues más que durabilidad yo insistiría en lo mismo que el FX. Juegas cosas que paralelizan y aprovechan bien todos los cores disponibles? pues hay que comprarlo directamente aunque no tengas pensado cambiar de gráfica. El i5 es la gama media del mainstream y tiene su sentido como lo tiene el i3 pero en tareas que explotan toda la arquitectura hasta un i7 entusiasta como un 5820k a 4'2'-4'5ghz no sobra depende de lo que jueges.
Yo creo que se resume demasiado este asunto cuando la finalidad completa de lo necesario es que se va a jugar. Recomendarle un i5 a alguien que juegue al World of Warcraft es sobrarse cuando vuelan con i3 (por lo menos hasta que cambien el motor) y más ahora que se pueden ocear con bios mods los de esta generación y en cambio recomendarle un i5 (y más bloqueado) a quien juegue al battlefield o similares pues es otra locura.
ismarub escribió:@andapinchao. Lo del 4460 es que para el dolphin se necesita más potencia por núcleo. Da igual que tengas un i7, que lo que quiere dicho emulador es ipc. Por esto un i3 a alta frecuencia o un g3258 es mejor para eso dentro de gastar poco dinero. Dicho emulador tira prácticamente sólo de 2 núcleos. Peor todavía si montas cosas viejas o AMD.
.... Los i5 bloqueados tienen su público si tu otra alternativa es usar AMD o quieres algo de pinchar y funcionar. Decir que el i5-6500 a 200€ me parece caro. Los i5 o los pillo de segunda mano o a 170€ máximo. Si gasto 200€ en un i5 capado prefiero un k.
.... Lo que ocurre es que leyendo algunos comentarios parecéis algo extremistas. Parece que si no montas un i5-i7k, mejor tirar por consolas directamente. Si un i5 básico no sirve, no me quiero imaginar la de gente que va con apus, fx, i3 o i5 antiguos.
Aaaah bueno menos mal que lo dices eso del dolphin y el i5 , ahora a ver que tal te sienta que te empiecen a llamar loco despues de comprobarlo tu mismo
La cosa esa esa que valen 200 y se venden como pan caliente ademas de que la gente asegura que va sobrado cualquier cosa cuando no es asi y hasta con hype
Aún así, un i5 6500 no va a tener cuello de botella ni con SLI de 1080. Adelante con la compra si vas a hacerla.
.
Tengo uno de esos 6500 la version tray (sin disipador) que estaba por 170 pero si no llega a ser por lo de skylake non k ni lo miro .
En mi cabeza la alternativa para enchufar y jugar ya le dije que se buscara algun xeon de 8 hilos de 1150 en amazon.es los hay a veces desde 150 a 180 euros pero claro es que los "xeones solo son servidores " .
Y ya que salio lo del dolphin que lo normal es el ipc que comentas pero ademas hay casos ( o habia ) como el mario galaxy 2 con dsp Lle que es necesario para poder escucharlo bien y eso un i5 bloqueado pues tampoco llega. Aunque ya te digo que supongo que habran corregido esto en las ultimas versiones del emulador. El Xeon haswell se lo pasaba por el forro ese juego.
Funciona perfectamente! Ya tengo pinchada la 1060 y con el conversor ese perfecto. Aunque he tenido problemas apra instalar los drivers y al final los he instalado por windows update.
pitrako1
Habitual
31 mensajes desde jul 2016
Editado 1 vez. Última: 4/08/2016 - 13:40:13 por pitrako1.
Funciona perfectamente! Ya tengo pinchada la 1060 y con el conversor ese perfecto. Aunque he tenido problemas apra instalar los drivers y al final los he instalado por windows update.
¿No has podido instalarlos desde la web de Nvidia?, ¿que problema hubo?
Pues visto el debate... Os diré algo.... Voy a cambiar mi viejo 2600k por un 3570k El puto i5 sube a 5 con un voltaje de risa, e imagino que a esas frecuencias no irán tan saturados los hilos en los juegos chungos...
Pierdo el HT pero ganó un pelin de Ipc (y el pci expréss 3.0, una cosa por otra
paconan escribió:Pues visto el debate... Os diré algo.... Voy a cambiar mi viejo 2600k por un 3570k El puto i5 sube a 5 con un voltaje de risa, e imagino que a esas frecuencias no irán tan saturados los hilos en los juegos chungos...
Pierdo el HT pero ganó un pelin de Ipc (y el pci expréss 3.0, una cosa por otra
Pues ya no vas a poder jugar ni a Battlefields ni a Total Wars. DEP.
Bastante muy mala. Para el Socket 1151 métele alguna placa que lleve al menos memoria DDR4, ésta AsRock que muestras va con DDR3L y no tiene nada destacable. Si puedes busca algo de Chipset B150 o H170 compatible con memoria DDR4 y de calidad, por ejemplo una Gigabyte GA-B150M-D3H (B150) o una MSI H170M-A PRO (H170).
En caso de que te interese hacer OC, consíguete algo del chipset Z170.
Esta si soporta DDR4, ¿pero tampoco es lo suficientemente buena?, no quiero overclockear: