eligir 970 o 390 try

1, 2, 3, 4
Perfect Ardamax escribió:@Zinclair

Te recomiendo que leas mejor XD
Esa gráfica que pones es (según la propia pagina que has puesto)...
Cito (otra vez [fiu] )
Consumo.

El dato de consumo se ha medido con un medidor de enchufe Efergy eSocket al que únicamente estaba enchufada la torre del ordenador. Es decir, que el dato de consumo es del sistema completo sin tener en cuenta el monitor, altavoces ni demás posibles aparatos. Por ello, también hemos querido incluir el dato de consumo máximo (Full LOAD), estresando además de la gráfica con Furmark el procesador con Prime95.

http://hardzone.es/msi-geforce-gtx-970-gaming-4g/


La MSI GEFORCE GTX 970 GAMING 4G como mucho bajo pruebas de Estrés llega a consumir 220W lo ha puesto @Beatwin
Y como bien dije yo bajo juegos (Condiciones normales) la MSI GEFORCE GTX 970 GAMING 4G puede tener picos de hasta 170W y lo normal es que el consumo normal de forma sostenida no sea mayor de 150W

Saludos


Cierto (es asi en casi todas las comparativas que veas , por que es muy complicado medir solo el consumo de la grafica y se suele hacer con la torre completa , pero aislada del resto de perifericos), pero ese i7 apenas consuma gran cosa , y no difieren mucho de los consumos que se ven en la tabla de abajo con otras graficas , y el sistema completo no es , ya que eso seria monitor y demás periféricos a mi entender ,

en cualquier caso ,me parece muy optimista tus calculos , por que de ahi ese i7 + memoria y placa tendrían que consumir según tu 220w ,
básicamente en esa misma comparativa te aparece una r9 290 consumiendo 489w , frente a los 440w de la gtx 970 , es decir 39w de diferencia , y te aseguro que la r9 290 siguiendo esa regla de tres , no consume 259w ni de coña .consume bastante mas a full load , igual que esa gtx 970 .
por supuesto , si juegas a 60 fps , con la gráfica funcionando al 60% , pues lógicamente no consume una mierda,

aqui con algo menos exigente que un benchmark , la diferencia entre una 290x (una traga vatios por excelencia) y una gtx stock , es de 65w , una 970 con un oc generoso , acorta como es lógico esas diferencias ,

Imagen
Buen argumento pero yo no he hablado de las Fury que la Nano lastima no rinda más pero es caramelo y me gustaría mucho probarla. Has puesto 1 ejemplo en el que Nvidia estaba muy x encima de AMD o sino muy si que era superior pero te puedo poner otro ejemplo Cual ha envejecido mejor la 680 GTX o la 7970? Pues creo que puedo decir porque las he probado ambas que la solución de AMD ha envejecido mucho mejor sino es por su 1gb de ram extra es porque es mejor tarjeta y con más músculo te puedo poner ejemplos de juegos donde la solución de AMD es bastante superior Titanfall, GTA5 por nombrar algunos neutrales luego tenemos Bioshock, Hitman, TomRaider pidiendo incluso con la 7970 jugar decentemente a 1440p GTA5 en alto a 1080p sino abusamos de filtros. He tenido 970 gtx en 1 equipo y en otro R9290 las dos son grandes tarjetas y cuando la AMD es superior se nota x bastante Biosock y Hitman a tope x ejemplo así que al final supongo que tendrá que elegir en función de que juegos le gustan más.
Dios mío, no he conocido otra gpu que haya recibido más cera que la GTX970 XD

Ahora en serio, salvo por el tema del consumo, temperatura y que la 390 es un refrito bastante importante, sobre el papel, si buscas rendimiento la 390 es mejor opción (y quiero pensar que el tiempo dilatará esa diferencia).
La 970, por la diferencia de potencia (tampoco exagerada), sería la opción ideal para equipos donde el tamaño, la temperatura, etc sea algo a tener en cuenta (estilo pc de comedor como el mío XD )
Krain escribió:Dios mío, no he conocido otra gpu que haya recibido más cera que la GTX970 XD



La 290 recibió mucha más cera de largo. Que si trabajaba a 100º, que si rendían como el puto culo, que si drivers de mierda, bla bla bla bla. Ahora como está de moda ya nadie se acuerda pero ha sido la tarjeta más denostada de la historia.

Y a la fury le ha caído la misma mierda o más. En los foros americanos o ingleses hay muchas furys, pero muchas rulando, hasta el punto de quedarse sin stock. En España? ninguna, bueno ... un par a lo sumo.

La 390? que si refrito, drivers de mierda, tragona de W como loca, que si calentorra de la hostia, que si sus 8gb no los puede utilizar porque no tiene fuerza bruta para ello (ridículo leer eso y otras muchas cosas que se leen), etc ...


Vamos, a las gráficas de AMD les cae mierda como templos en los foros y sitios españoles como a ninguna otra. Y eso sin haber mentido en specs, que llega a haber mentido alguna vez en los ROPs o memorias como ha pasado con la GTX970 o haberse marcado algún 1'5+0'5 como en las series GTX6xx ... y entonces ya les queman la sede.
Leyendo la información que habéis puesto con mi fuenteAntec VPF 550 EC 550W 80 Plus Bronze- en teoría debería poder tirar con una 390X si tengo el amperaje suficiente?
Por que al final resulta que consumen prácticamente los mismo, luego muy mal debe estar diseñado el PCB para que haya tanta diferencia de temperatura entre un mismo sistema pero distinto CHIP de un ensamblador.
Yo tengo una 390 y te aconsejo más de 550W. Siempre es aconsejable tirar con un margen de W. Ten en cuenta que una 390 a full load consume unos 275W, a eso añádele todo la demás, más varios discos duros,etc y quizás roces los 500W o más. Creo recordar, que con un i7 y una 390, leí una review que mencionaba un consumo un pelin super a 500 W mientras juegas (full load).
Hacer trabajará la fuente casi al 100 % y siendo silver o bronce no es buena idea.
Además de eso mira si tu fuente tiene uno o varios conectores de corriente, porque la mía creo que usaba 2 conectores de 4.
@DiercY Tienes razón iría muy justo, ya que la eficiencia es del 81-82% según los test que hay por Internet eso me dan unos 451W reales muy justito.
No me he leido todo el post, pero yo me iria a por la 390 por lo ya comentado, el Dx12, etc.

Un saludo!!

PD: No cargues la fuente a tope, y menos si no es de calidad.
Xpartaco85 escribió:Leyendo la información que habéis puesto con mi fuenteAntec VPF 550 EC 550W 80 Plus Bronze- en teoría debería poder tirar con una 390X si tengo el amperaje suficiente?
Por que al final resulta que consumen prácticamente los mismo, luego muy mal debe estar diseñado el PCB para que haya tanta diferencia de temperatura entre un mismo sistema pero distinto CHIP de un ensamblador.



La eficiencia de una fuente no funciona así. No tienes un 85% de la potencia total sino que chupará más de la pared. Una fuente de 550w es de 550w pero si tiene una eficiencia de 85% pues chupará hasta un 15% más de luz para dar los W necesarios.
@KailKatarn Pues entonces si el consumo máximo de todo el equipo por ejemplo de la 290x ronda los 400W con esta de 550W aun tendría margen para la 390X que consume algo mas ?
Xpartaco85 escribió:@KailKatarn Pues entonces si el consumo máximo de todo el equipo por ejemplo de la 290x ronda los 400W con esta de 550W aun tendría margen para la 390X que consume algo mas ?



En un principio debería de aguantar sin problemas por W, pero claro, nada es seguro al 100% hasta que se prueba. Más que nada porque no he probado una 390X en tu fuente así que no puedo hablarte con el 100% de seguridad.
@Xpartaco85 yo tengo la 390X desde el lunes y junto al equipo de mi firma en una fuente de 600 de pico y 500 de sostenido http://www.thermaltake.com/products-mod ... C_00001775

La grafica en carga según he visto al 100% en reviews come hasta 275/280W, con lo cual me quedan 220 para el resto del equipo..y tenía dudas de si me llegaría pero de momento ningún problema, aunque realmente son solo 25w más que mi anterior 280X.
La fuente ya tiene su tiempo y la eficiencia es mala, creo que no existian ni las certificaciones plus cuando la compré, pero oye aquí está como una campeona.
Beatwin está baneado por "Troll"
cheewaca escribió:
KailKatarn escribió:
Krain escribió:Dios mío, no he conocido otra gpu que haya recibido más cera que la GTX970 XD



La 290 recibió mucha más cera de largo. Que si trabajaba a 100º, que si rendían como el puto culo, que si drivers de mierda, bla bla bla bla. Ahora como está de moda ya nadie se acuerda pero ha sido la tarjeta más denostada de la historia.

Y a la fury le ha caído la misma mierda o más. En los foros americanos o ingleses hay muchas furys, pero muchas rulando, hasta el punto de quedarse sin stock. En España? ninguna, bueno ... un par a lo sumo.

La 390? que si refrito, drivers de mierda, tragona de W como loca, que si calentorra de la hostia, que si sus 8gb no los puede utilizar porque no tiene fuerza bruta para ello (ridículo leer eso y otras muchas cosas que se leen), etc ...


Vamos, a las gráficas de AMD les cae mierda como templos en los foros y sitios españoles como a ninguna otra.



Totalmente de acuerdo. Ademas he de añadir lo siguiente sobre la 970:

Falsas especificaciones ( 256bits de ancho de banda se han quedado en 192, 4GB de vram se han quedado en 3,5, 64 rops se han quedado...), problemas de stuttering cuando se sobrepasaban los 3,5GB de vram que después se ha "solucionado" capando el acceso a la memoria lenta via driver ( el cual volverá a aparecer en cuanto dejen de optimizar para ella como ha pasado con la 660 y veremos como capan el acceso a la misma bajo directx12) y un brutal coil whine.


Para empezar.... ¿fuente de que "se han quedado en 192" (bits de ancho de banda)?

Lo que es brutal es la exageración con la "estafa" de la GTX 970.

Para los que tenemos memoria, recuerdo en Septiembre de 2014 cuando salieron las GTX 970 y 980, que en los foros especializados de hardware casi todo el mundo estaba encantado con el modelo 970 por su rendimiento/precio, recuerdo que muchos gamers con generoso presupuesto montaban SLI de GTX 970 y encantados. Poca gente recomendaba la GTX 980 porque su precio de 600€ no compensaba la diferencia de rendimiento con la diferencia de precio.

La gente se veía muy lista cogiendo una GTX 970 por $330 (+impuestos) antes que una GTX 980 por $550 (+impuestos). Y para la gente más exigente, un SLI de GTX 970. Únicamente para unos pocos, la opción mejor para ellos era la GTX 980, y para los más desahogados económicamente, un SLI de GTX 980.

Hasta que llega Enero de 2015 y se desvelan las verdaderas especificaciones de la GTX 970. Entonces "por arte de magia", las buenas sensaciones que todo el mundo tenía jugando desaparecen. Los benchmark de juegos daban lo mismo. Y algunos que vieron el "chollo" de la GTX 970 por $330, se sintieron "estafados". Vaya por Dios.

Tampoco sabía que el "coil whine" era exclusivo de la GTX 970.

¿Problemas de stuttering? Pues muéstranos algún estudio fiable que lo demustre, porque mira que en Enero/Febrero de 2015 las páginas especializadas le hicieron pruebas de estrés a la GTX 970, y no sacaron nada destacable en comparación con la GTX 980. Porque si le metes texturas al máximo en juegos como RotTR, donde recomiendan 6GB de VRAM para activarlas, tendrás algo de stuttering en una GTX 970, pero también en una R9 290X, o en una Fury X.

Sobre DX12, que alguien me explique por qué jugando con Rise of The Tomb Raider va equiparable incluso mejor con una GTX 970 que con una R9 390. Ahh, si, que Tomb Raider ahora está "patrocinado" por NVIDIA (al contrario que el juego de 2013 que estaba más optimizado para AMD). Claro, claro, mientras que Ashes of the Singularity o HITMAN, son juegos totalmente independientes de la marca (risas) y por tanto podemos extrapolar su rendimiento a los "tremendos" beneficios que tiene DX12 sobre AMD y su cacareada superioridad con "shaders asíncronos", que tan importantes son en DX12, que ¡¡ni siquiera están puestos como opcionales ni mucho menos como obligatorios en la especificación oficial!!

http://i64.tinypic.com/16k7rj9.jpg

Pero bueno, cada uno es libre de sentirse estafado. Yo lo que no consiento es que se nos llame ignorantes a los compradores de NVIDIA, porque a partir de Febrero de 2015, la gente mínimamente informada ya sabía las especificaciones de la GT 970, y ha seguido siendo la tarjeta gráfica más vendida. Igual que los Intel Haswell y ahora Skylake son los procesadores más vendidos, y no creo que sean compras de ignorantes.
yo rompo otra lanza a favor de Nvidia, yo e probado las 290c trixx de las primeras 500 euros valía, pase luego por una 780ti antes de la 970, sin lugar a dudas me quedo sin dudar con la 970 dentro de esa gama, me quedan muy poco para llegar a los 2 años con ella, y aseguro que nunca he visto fallar al consumir mas de 3,5 eso son cuentos chinos foreros, no por que yo lo diga, lo digo por que tengo innumerables videos de ella con los juegos mas exigentes desde que salio al mercado. (si no, que alguien me ponga un video de tirones por culpa de la memoria asimétrica)


yo cuando me compre la 970, en parte fue por que vi que hizo que las actuales 290 que valían mas de 450 euros, al igual que sus hermanas 780, 780ti bajaran de precio en cuestión de un día... eso guste o no, es un detallazo de esta gpu que hizo bajar de precio ni mas ni menos que a 3 categorías .

el tema coil... pues ya aburre, quien tenga idea del tema ya sabrá que es cuestión de suerte, la mía lo empiezas a escuchar un poco a los 800 fps... preocupante vamos. [qmparto]

el tema de engañar con las especificaciones... mal echo, hay que dejar las cosas claras, pero sinceramente a mi lo que me interesa en una gpu es el rendimiento que arroja, si fuera una bolsa de magdalenas y me trajera 3 menos, otro gallo cantaría, pero en una GPU me la trae floja el bus, hbm, yo quiero ver como rinde, al final las arquitecturas ya no se basan en potencia bruta, hoy día ya vemos como la cosa va en el consumo rendimiento, aplicando nuevas técnicas sobre su hardware para reducir su consumo sin perder rendimiento, eso sin necesidad de tener un bus de 512 bit entre otras cosas, con la ventaja que eso conlleva tanto en su consumo, calor residual y margen para el OC que tanto nos gusta por aquí

las 970 han ido aumentando el rendimiento hasta día de hoy, dejando en evidencia a gpus mucho mas caras en su lanzamiento, ya va a alcanzar los dos años en el mercado, y aun le queda bastante cuerda por lo que veo en ella. (y es por eso mismo que puede ser una de las gpus mas vendidas de la historia)

resumiendo:

no son buenas fechas para comprar en el mercado por lo que se avecina, pero antes de comparar una gpu que lleva escasos meses en el mercado renombrada y subida de precio como es la 390, y que pronto dejara de ser prioridad por polaris, me busco antes una 290 y me ahorro un buen dinero por lo mismo... yo hoy en día no pagaría mas de 270 euros por una 970 en el mercado de segunda mano con su garantía, eso o encontrar alguna 290 por 180 euros maximo, ya que estas no le quedaran ni garantía. (eso es lo que yo haría)

saludos.
Beatwin escribió:
Sobre DX12, que alguien me explique por qué jugando con Rise of The Tomb Raider va equiparable incluso mejor con una GTX 970 que con una R9 390. Ahh, si, que Tomb Raider ahora está "patrocinado" por NVIDIA (al contrario que el juego de 2013 que estaba más optimizado para AMD). Claro, claro, mientras que Ashes of the Singularity o HITMAN, son juegos totalmente independientes de la marca (risas) y por tanto podemos extrapolar su rendimiento a los "tremendos" beneficios que tiene DX12 sobre AMD y su cacareada superioridad con "shaders asíncronos", que tan importantes son en DX12, que ¡¡ni siquiera están puestos como opcionales ni mucho menos como obligatorios en la especificación oficial!!


El Rise of The Tomb Raider va mejor en unas zonas en la 390 y en otras algo mejor en la 970 , no hay una media para saber en cual va mejor realmente, aun que viendo el vídeo entero , si tuviese que apostar diría que cae a favor de la 390,

https://www.youtube.com/watch?v=YHhPOvlnLGM

Yo entiendo que es mas un problema de drivers de Nvidia , ya que la gpu de la 970 es excelente en dx11 , y no se si el Quantum Break esta también patrocinado por AMD , pero dime si es normal este rendimiento en dx12 ,

Quantum Break PC Performance: GTX 970 vs R9 390
https://www.youtube.com/watch?v=zK2BUeYqLVI
Zinclair escribió:
Beatwin escribió:
Sobre DX12, que alguien me explique por qué jugando con Rise of The Tomb Raider va equiparable incluso mejor con una GTX 970 que con una R9 390. Ahh, si, que Tomb Raider ahora está "patrocinado" por NVIDIA (al contrario que el juego de 2013 que estaba más optimizado para AMD). Claro, claro, mientras que Ashes of the Singularity o HITMAN, son juegos totalmente independientes de la marca (risas) y por tanto podemos extrapolar su rendimiento a los "tremendos" beneficios que tiene DX12 sobre AMD y su cacareada superioridad con "shaders asíncronos", que tan importantes son en DX12, que ¡¡ni siquiera están puestos como opcionales ni mucho menos como obligatorios en la especificación oficial!!


El Rise of The Tomb Raider va mejor en unas zonas en la 390 y en otras algo mejor en la 970 , no hay una media para saber en cual va mejor realmente, aun que viendo el vídeo entero , si tuviese que apostar diría que cae a favor de la 390,

https://www.youtube.com/watch?v=YHhPOvlnLGM

Yo entiendo que es mas un problema de drivers de Nvidia , ya que la gpu de la 970 es excelente en dx11 , y no se si el Quantum Break esta también patrocinado por AMD , pero dime si es normal este rendimiento en dx12 ,

Quantum Break PC Performance: GTX 970 vs R9 390
https://www.youtube.com/watch?v=zK2BUeYqLVI



yo no me fío ni un pelo de nada que pretenda comparar rendimientos y ni siquiera te informa de algo tan básico como las frecuencias, yo creo que cada web, pagina de youtuber etc, pone las frecuencias que le dan la gana según le paguen... yo no me creo nada que no facilite como están echas las pruebas.

mira esta comparación mas detallada del rise, por lo menos muestra el GPUz al principio. (1.150 mhz para la r390 y 1.390 mhz para la gtx 970)
https://www.youtube.com/watch?v=KDcQHn2 ... tml5=False

el caso de Quantum, buen juego para piratearlo, eso por mandriles... no se puede tratar así a una plataforma como la del PC... buen estreno de direx 12 estamos teniendo...

http://www.vandal.net/noticia/135067569 ... tum-break/

saludos.
Cada tarjeta tiene sus pro y sus contras, pero creo que es un error decantarse por una 970 con 4 gigas cuando tienes la de la competencia con 8 Gb y un rendimiento muy parejo. Si puede que se espere, y vea los nuevos modelos, sino, que mire reviews y tenga en cuenta las temperaturas, consumo, rendimiento, ram, soporte dx12 (aunque dudo que estas tarjetas le saquen mucho rendimiento) etc.
Sobre la ram, parece una estupidez, pero de nada te sirve tener un Ferrari por una carretera convencional. Lo estas desaprovechando. La duda es si se exigirá más ram en poco tiempo o no.
Para mi lo grave del asunto 970 no es que la gráfica rinda más o menos, eso me es indiferente. Lo grave es MENTIR y ENGAÑAR al usuario con unas specs falsas. Que a vosotros os da igual, yo lo respeto, pero no voy a comprar a una compañía que me miente en mi cara y luego ni se disculpa.
cheewaca escribió:
anikilador_imperial escribió:Para mi lo grave del asunto 970 no es que la gráfica rinda más o menos, eso me es indiferente. Lo grave es MENTIR y ENGAÑAR al usuario con unas specs falsas. Que a vosotros os da igual, yo lo respeto, pero no voy a comprar a una compañía que me miente en mi cara y luego ni se disculpa.



Ni te molestes, los comerciales tienen que hacer su trabajo y sus monólogos... dentro de poco tendrán que cambiar a EOL en nombre por: "EOL the Clon Wars".


Un saludo


Es que ya no parecen comerciales, parecen ciberpredicadores o algo asi, es como si las console wars hubieran llegado al PC.
(mensaje borrado)
Beatwin está baneado por "Troll"
cheewaca escribió:
Beatwin escribió:Bla bla bla bla...


Buenas "amigo", esta cuenta no te la tenía fichada, otra más para ignorados...

Aquí tienes toda la info que necesitas y la cual intentas desmentir reiteradamente:

http://www.google.es

Aquí toda la que necesitas para resolver tus dudas respecto al bench del tomb raider:

http://foro.noticias3d.com/vbulletin/sh ... p?t=447661

que no se a que vienen las gilipolleces de los benchs que nadie ha nombrado pero bueno... como siempre en tu línea.


Con Dios [oki]


Qué sorpresa, que me respondas con una acusación ser ser otro nick (que has editado porque cuando leí tu mensaje creo que venía explícito)

Si te estás quedando sin argumentos, lo dices, y ya está. Y otro día seguimos. O si te equivocas con los 192 bits de bus de datos, pues reconócelo, o al menos pregunta a los que son más entendidos a ver si al menos el dato es aproximado y te pueden guiar en la respuesta correcta.

¿Ya te has cansado de debatir, o te has quedado sin argumentos y tienes que tirar de falacias y mentiras? Cuento cuatro:

-Ad hominem, tildándome de ser multinick, sin más pruebas que tu intuición.
-Falsa dicotomía, asumiendo que sólo existen dos opciones. Si no defiendes que la GTX 970 es una estafa, entonces eres un comercial o un fanboy de NVIDIA. No hay más opciones.
-Hombre de paja: tú lo que eres es un defensor de las estafas de NVIDIA, y a sueldo de Jen-Hsun Huang.
-Trola, mentira, falsedad: 192 bits de bus de datos tiene la GTX 970 segú dices. Una invención tuya, fruto del desconocimiento técnico más absoluto sobre hardware, o simplemente producto de hablar de oídas y exagerar. Una mentira descarada que no sostiene ninguna fuente de google ni de otro buscador conocido. No se puede sustituir la razón y la lógica, por la imaginación exotesticularmente guiada.

El caso es que es oir alguna palabra buena hacia NVIDIA o la GTX 970 y algunos se arrancan por bulerias como un cohete, que sólo les falta dar palmas: que si NVIDIA estafa a la gente, que si la gente es idiota por dar el 80% de cuota de mercado a NVIDIA, que con lo que están rebajadas las AMD comprar otra cosa es tirar el dinero, que si la GTX 970 tiene un stuttering de la leche (aunque varios foreros y propietarios de la tarjeta juren y perjuren que nunca lo han sufrido), que si en los foros anglosajones -que son más listos que nosotros- tienen muchas Fury, que si computación asíncrona (sin saber muy bien lo que es), que si DirectX12 es mucho mejor en AMD porque lo dice elchapuzasinformático.

Otro bonito benckmark del 31 de Marzo de 2016 con una extensa batería de juegos, donde la GTX 970 aventaja ligeramente a la R9 390 en la resolución más utilizada 1920x1080

http://tpucdn.com/reviews/Gigabyte/GTX_ ... 0_1080.png

Y eso para las versiones de stock, que para las versiones personalizadas, mal que pese a algunos, la GTX 970 tiene mayor margen de overclock.
Ufff como está el patio...

Siempre deciis del mayor margen de OC de las 970...

Estaria bien que hubiera un pequeño pique a ver que pasa si las apretamos las 2...

Y cuando digo apretar.... 970 @ 1600 y la 390 @ 1220 o 1250 de core...

Yo como tengo las 2 se lo que da... Y seguro seguro que más de uno se llevaba una sorpresa (tanto rojos como verdes)

Enrollaos y compartid firestrikes apretados XD
paconan escribió:Ufff como está el patio...

Siempre deciis del mayor margen de OC de las 970...

Estaria bien que hubiera un pequeño pique a ver que pasa si las apretamos las 2...

Y cuando digo apretar.... 970 @ 1600 y la 390 @ 1220 o 1250 de core...

Yo como tengo las 2 se lo que da... Y seguro seguro que más de uno se llevaba una sorpresa (tanto rojos como verdes)

Enrollaos y compartid firestrikes apretados XD


He llegao tarde a esta discusión de "la mía es mejor, compra la mía". Coño paconan, saca de dudas al personal [rtfm]
pupegbl escribió:
paconan escribió:Ufff como está el patio...

Siempre deciis del mayor margen de OC de las 970...

Estaria bien que hubiera un pequeño pique a ver que pasa si las apretamos las 2...

Y cuando digo apretar.... 970 @ 1600 y la 390 @ 1220 o 1250 de core...

Yo como tengo las 2 se lo que da... Y seguro seguro que más de uno se llevaba una sorpresa (tanto rojos como verdes)

Enrollaos y compartid firestrikes apretados XD


He llegao tarde a esta discusión de "la mía es mejor, compra la mía". Coño paconan, saca de dudas al personal [rtfm]


Deja que se caldeé más el ambiente que si no no tiene gracia [sonrisa]

Pero daos cuenta que la amd al ser un chip más tocho escala de forma más bestia...

Tambien decir que la nvidia lleva el tdp más ajustado por bios que la amd (y cuando lo sobrepasas underclock al canto)
paconan escribió:
pupegbl escribió:
paconan escribió:Ufff como está el patio...

Siempre deciis del mayor margen de OC de las 970...

Estaria bien que hubiera un pequeño pique a ver que pasa si las apretamos las 2...

Y cuando digo apretar.... 970 @ 1600 y la 390 @ 1220 o 1250 de core...

Yo como tengo las 2 se lo que da... Y seguro seguro que más de uno se llevaba una sorpresa (tanto rojos como verdes)

Enrollaos y compartid firestrikes apretados XD


He llegao tarde a esta discusión de "la mía es mejor, compra la mía". Coño paconan, saca de dudas al personal [rtfm]


Deja que se caldeé más el ambiente que si no no tiene gracia [sonrisa]

Pero daos cuenta que la amd al ser un chip más tocho escala de forma más bestia...

Tambien decir que la nvidia lleva el tdp más ajustado por bios que la amd (y cuando lo sobrepasas underclock al canto)


Venga vale, que se caldée, además....huele a Ciclito que tira para atrás [fiu]
Vengo a caldear un poco mas el ambiente [666]

Entre una 970 y una 380x, ¿cual pensais que es mejor opción a día de hoy?

Que haya paz [beer]
bilboboy escribió:Vengo a caldear un poco mas el ambiente [666]

Entre una 970 y una 380x, ¿cual pensais que es mejor opción a día de hoy?

Que haya paz [beer]


En Quantum Break dices?

Edito: Broma broma, guiño guiño...
pupegbl escribió:
bilboboy escribió:Vengo a caldear un poco mas el ambiente [666]

Entre una 970 y una 380x, ¿cual pensais que es mejor opción a día de hoy?

Que haya paz [beer]


En Quantum Break dices?

Edito: Broma broma, guiño guiño...


XD

De momento al quantum break jugándolo limitado a 30fps en medio/ultra me va bastante bien

Mi pregunta es mas bien en general.

En teoría la 380x aguanta dx12 12_0 creo, pero tiene el computo de los famosos "asíncronos"
Mientras que la 970 soporta dx 12 12_1. pero no tienen los famosos "cómputos asíncronos"

Una usa tecnología mas antigua (por decirlo de cierta manera), pero soporta el cómputo asíncrono por hardware

Y la otra usa una tecnología mas moderna, pero no es capaz de procesar los cómputos asíncronos por hardware ( y de momento tampoco por software)
Vergonzoso lo que se ha podido leer en este hilo, absolutamente y completamente vergonzoso sin más.
Beatwin está baneado por "Troll"
bilboboy escribió:
pupegbl escribió:
bilboboy escribió:Vengo a caldear un poco mas el ambiente [666]

Entre una 970 y una 380x, ¿cual pensais que es mejor opción a día de hoy?

Que haya paz [beer]


En Quantum Break dices?

Edito: Broma broma, guiño guiño...


XD

De momento al quantum break jugándolo limitado a 30fps en medio/ultra me va bastante bien

Mi pregunta es mas bien en general.

En teoría la 380x aguanta dx12 12_0 creo, pero tiene el computo de los famosos "asíncronos"
Mientras que la 970 soporta dx 12 12_1. pero no tienen los famosos "cómputos asíncronos"

Una usa tecnología mas antigua (por decirlo de cierta manera), pero soporta el cómputo asíncrono por hardware

Y la otra usa una tecnología mas moderna, pero no es capaz de procesar los cómputos asíncronos por hardware ( y de momento tampoco por software)


Vamos a ver, para evitar confusiones, aclaro que los shaders asíncronos y la computación asíncrona no son parte de DX12, nunca lo han sido. Son algo aparte, propio de AMD, como Gameworks de NVIDIA.

En este hilo (en inglés) lo aclaran:

http://www.se7ensins.com/forums/threads ... t.1335526/

12_1 seems to be specifically targeted as a goal by Nvidia as they put bare minimum for each feature level and did not have extra features. Asynchronous shaders for example matters more to me than Conservative Rasterization but that is not on a DX12 feature level just as an optional AMD exclusive.


El motivo por el cual NVIDIA no soporta "cómputos asíncronos" mientras que AMD sí lo hace, es porque en la arquitectura GCN (AMD) se hace el cambio de contexto a nivel de shader, mientras que Maxwell (NVIDIA) hace cambios de contexto a nivel del chip completo. Así que en AMD puedes tener un shader en modo Compute mientras todos los demás están en modo gráfico, en NVIDIA tienes que pasar a modo computación el chip entero, como si fuera una arquitectura de grano grueso. La única manera de emular lo que hace GCN en arquitectura Maxwell sería vía software (driver), rellenando unas colas para gráfico y cuando tengas suficientes instrucciones entonces cambias de contexto y pasas a modo cómputo.

Aun así, son dos filosofías diferentes de aprovechamiento al máximo de shaders trabajando en paralelo. Y no tiene por que ser una de las dos la mejor siempre. Maxwell es una arquitectura superescalar y pensada en el mayor aprovechamiento de recursos. GCN es una arquitectura escalar y basada en intentar meter el mayor número posible de unidades. Así que la que tiene "menos complejidades" es GCN, la primera está pensada para utilizar todo lo posible los recursos de que dispone sin intervención del driver, mientras que en GCN el driver lo es todo. Por eso las NVIDIA tienden a rendir mejor a igualdad de shaders. Por ejemplo, una HD7970 tiene 2048 shaders, una GTX680 tenía 1536 y esta última rendía lo mismo o más en su día porque era capaz de utilizar mejor esos 1536 que la primera los suyos.

El "cómputo asíncrono" es una manera de aprovechar la capacidad aritmética desperdiciada de GCN, desperdiciada porque ni el driver ni el hardware tienen capacidades para usar esa potencia. ¿Que en DX12 se consiguen aprovechar? Pues me parece muy bien, pero sería mejor que fuera dentro de la propia API de DX12, porque ahora se tienen que programar por narices. Antes lo hacía la propia API automáticamente. El problema es que a AMD ya lo único que le quedan son los shaders asíncronos, por que en lo único en lo que GCN es superior a Maxwell (NVIDIA pega fuerte en teselación, AMD destacaba en ancho de bus de datos, pero en Maxwell esa desventaja no existe) es en potencia de cálculo aritmética, pero hay que aprovecharla y parece que los shaders asíncronos son la única manera que se les ha ocurrido. Pero claro, cuanto más abajo te vas más trabaja el desarrollador, más tiene que saber, y más responsabilidad recae sobre él.
cheewaca escribió:
Beatwin escribió:Bla bla bla bla...


Buenas "amigo", esta cuenta no te la tenía fichada, otra más para ignorados...

Aquí tienes toda la info que necesitas y la cual intentas desmentir reiteradamente:

http://www.google.es

Aquí toda la que necesitas para resolver tus dudas respecto al bench del tomb raider:

http://foro.noticias3d.com/vbulletin/sh ... p?t=447661

que no se a que vienen las gilipolleces de los benchs que nadie ha nombrado pero bueno... como siempre en tu línea.


Con Dios [oki]



lo digo por que no puedes soportar que alguien de su opinión defienda una GPU verde sin que cambien tu actitud y te vayas por al vía de tarifa... a mi mismo también me acusastes de multicuentas, y es por eso que te digo yo mismo esto.

PD: @paconan llevo bastante tiempo buscando a alguien serio para comparar una 390oc vs la 970oc, en el chapuzas no encontre nadie serio, solo muchos fantasmas rojos criticando las 970, yo se que tu eres un tío serio, yo acepto que la comparemos mas a fondo, si quieres abres un hilo y lo hacemos presentando diferentes pruebas, y tes de juegos de buen rollo para ver lo que hay de primera mano, y que se una quien quiera con estas GPUs... estaría entretenido estudiar mas a fondo, como rinden a según que frecuencias y si hay que apretarles mucho para superar los 1.500 mhz que es el OC estandar de las 970.

la verdad que mi gpu es bastante vaga 69,5 de asis lo máximo que saco para jugar estables son 1.560 mhz con voltaje de 1.285v, en fires no doy mas de 14.133 puntos de grafic, aunque esta herramienta no refleja como va a rendir en juegos.

lo máximo que he visto dar en una 970 es la de juanma con 14.450+- con 1.281v, yo creo que con 1.31v llegaría ya a la cifra de los 14.600, un tal weistor creo recordar con una 290 por agua lo he visto sacar algo mas de 14.600 en fires sin embargo luego en extreme la de juanma supera a la 290 por agua, si hacemos el hilo les pegare un toque para que aporten dos pata negras al hilo.

saludos.
Editado por metalgear. Razón: Mejor asi
Yo lo que no entiendo es porque estos hilos se alargan tanto, es mas deberían hasta cerrarse tras resolver la duda, se pregunta cual pillar de las dos, se deja claro que a día de hoy la 390 es mejor opción en la primera pagina y a otra cosa, el resto ya es que si la abuela fuma o monta en bici.
Beatwin escribió:
Vamos a ver, para evitar confusiones, aclaro que los shaders asíncronos y la computación asíncrona no son parte de DX12, nunca lo han sido. Son algo aparte, propio de AMD, como Gameworks de NVIDIA.


En tu poca vida por aquí ya has dicho demasiadas tonterías, y eso que dices vuelve a ser una mentira. No se que puta necesidad tenéis de agarraos a una marca a nivel fanboy como si fueran las tetas de una modelo. En fin, espero que los demás no se dejen contaminar mucho, por mi parte pasas a ignorados junto algún que otro colega verde, que no me gusta perder el tiempo.
Gaiden escribió:En tu poca vida por aquí ya has dicho demasiadas tonterías, y eso que dices vuelve a ser una mentira. No se que puta necesidad tenéis de agarraos a una marca a nivel fanboy como si fueran las tetas de una modelo. En fin, espero que los demás no se dejen contaminar mucho, por mi parte pasas a ignorados junto algún que otro colega verde, que no me gusta perder el tiempo.




Mucho me temo que eso que ha dicho sí es verdad. Los Async Shaders es una forma de HT que tiene AMD desde las GCN 1.0 pero no forma parte de las especificaciones de DX12. Otra cosa es que se vayan a usar de aquí en adelante o no, pero no forman parte de DX12.
Que no sea obligatorio de la spec no significa que no estén en la api, y lo de la comparativa con gameworks para mearse...pero vamos, que paso mucho, en serio...me cansan los fanboys, de lo que sea.
Gaiden escribió:Que no sea obligatorio de la spec no significa que no estén en la api, y lo de la comparativa con gameworks para mearse...pero vamos, que paso mucho, en serio...me cansan los fanboys, de lo que sea.



Los Async Shaders son usables hasta en DX11 lo que pasa es que nunca se han usado (como tiled resources que lleva con nosotros desde DX 11.3 y sólo lo ha usado the witcher 3), de hecho LiquidVR los soporta en DX11. Sobre los fanboys ya sabes que estoy completamente de acuerdo con lo que comentas, de hecho en este país, como he comentado anteriormente, eso ha hecho mucho pero que mucho daño a las comunidades españolas de hardware.
@FullKillerUltimate.

http://www.3dmark.com/3dm/8534411

Del baúl de los recuerdos...

Con unos "simples" 1200 / 1600

Por motivos personales no puedo usar el intel (no os preocupeis que no reventó aún)
Tengo que tirar del FX y en ese pc me falta bomba y radiador para poder pinchar una 290 por agua

@pupegbl ves? el mito de la potencia de OC bla bla bla fuera....
la gráfica del FullKiller y esa 290 gráfica más o menos parejas yendo apretaditas....
Beatwin está baneado por "Troll"
ionesteraX escribió:Yo lo que no entiendo es porque estos hilos se alargan tanto, es mas deberían hasta cerrarse tras resolver la duda, se pregunta cual pillar de las dos, se deja claro que a día de hoy la 390 es mejor opción en la primera pagina y a otra cosa, el resto ya es que si la abuela fuma o monta en bici.


Pues en la primera página yo he visto una opinión argumentada @wwwendigo donde defiende que "Mejor rendimiento a 1080p para la 970, mejor para la 390 en resoluciones superiores". Con un dato además demoledor en cuanto a que sea mejor una u otra "sin discusión", por lo menos a resolución FullHD que es la que usamos la mayoría de usuarios:

http://tpucdn.com/reviews/Gigabyte/GTX_ ... 0_1080.png

Entonces no está claro ni mucho menos cuál tarjeta es la mejor.

De cara a futuro, ahora mismo podemos hacer conjeturas en base a humo, diapositivas marketineras, el ashes y poco mas... vamos, que es mas fácil hacer un telescopio con dos piedras y un zapato que saber exactamente como afectará DX12 a las GPU actuales.

Es que ni en un juego tan "proAMD" como Ashes of the Singularity sale NVIDIA malparada con su "buque insignia"GTX 980 Ti (con permiso de la Titan X). Lo único que la Fury X la iguala, pero es que esta última tarjeta no es que la regalen precisamente.

"Los shaders asíncronos son una ventaja para DX12 y por tanto la R9 390 tiene más futuro". Error, esa característica es una ventaja para AMD, no para DX12 ya que no forma parte de dicha API (ni obligatoria ni optativa), aunque eso es lo que pretenden hacer creer, aunque no es asi. Ha hecho mucho daño el humo y marketing de Ashes of the Singularity.
paconan escribió:@pupegbl ves? el mito de la potencia de OC bla bla bla fuera....
la gráfica del FullKiller y esa 290 gráfica más o menos parejas yendo apretaditas....



Es que el mito del OC sólo ha servido a fanáticos que no prueban las cosas y no se molestan en ver la realidad sino en defender lo que compran como si les fuese la vida en ello en vez de comprender que la competencia beneficia a todo el mundo, a todo el mundo, inclusive a los fanáticos de una marca porque podrán comprar más barata su favorita si la competencia es dura. Es más, una golden sample AMD 290 se funde a una golden sample GTX970 a máximo OC posible en rendimiento. Hay 290 dando 15500 en firestrike, ni una sola GTX970 ni en el congelador del club de fitness es capaz de dar eso.

Hemos tenido que leer la tontería esa demasiado tiempo, igual que la tontería de que las Nvidia son mecheros consumiendo y que las AMD necesitan centrales nucleares para alimentarlas. Y ya no hablemos de la gran gilipollez de que la GTX970 funciona a 20º a full (fitness edition) y las AMD 290 a no menos de 110º con fusión nuclear acompañada.

Los fanboys y comerciales han repetido eso hasta quedarse sin manos y la gente lo ha repetido hasta la saciedad. Cual es la conclusión a día de hoy? gente muy nerviosa viendo cuando una AMD 290 se ha soltado el pelo a nivel de drivers y aprovechamiento por completo de la GPU.

La verdad es que debe de joder ser un fanático que se ríe de la competencia y que una tarjeta de AMD del 2013 denostada hasta la saciedad se suelte la melena de esta forma en pleno 2016 dejando en evidencia a la gran defendida (GTX970) que salió hasta más tarde y de la cual decían que dejaba en vergüenza hasta a la top de AMD del momento (290X). La verdad es que sí, debe de arder en el culo cosa fina tener la boca tan grande y zamparte semejante hostión en la boca.
paconan escribió:@FullKillerUltimate.

http://www.3dmark.com/3dm/8534411

Del baúl de los recuerdos...

Con unos "simples" 1200 / 1600

Por motivos personales no puedo usar el intel (no os preocupeis que no reventó aún)
Tengo que tirar del FX y en ese pc me falta bomba y radiador para poder pinchar una 290 por agua

@pupegbl ves? el mito de la potencia de OC bla bla bla fuera....
la gráfica del FullKiller y esa 290 gráfica más o menos parejas yendo apretaditas....

La mia a 1180/1350 ya saca 14009,la puedo apretar mas de núcleo,la mia a pesar de ser memorias Hynix a mas de 1360 da pantallazo negro.Es lo malo de ser tarjeta de lanzamiento.

De todas maneras venia a responder que lo mejor es que esperara,pero siempre en estos post hay alguien que viene a desinformar.
paconan escribió:@FullKillerUltimate.

http://www.3dmark.com/3dm/8534411

Del baúl de los recuerdos...

Con unos "simples" 1200 / 1600

Por motivos personales no puedo usar el intel (no os preocupeis que no reventó aún)
Tengo que tirar del FX y en ese pc me falta bomba y radiador para poder pinchar una 290 por agua

@pupegbl ves? el mito de la potencia de OC bla bla bla fuera....
la gráfica del FullKiller y esa 290 gráfica más o menos parejas yendo apretaditas....


una pena, tengo ganas de realizar pruebas serias con algún usuario con 390.

tu 290 esta por agua, la mía que es vaga por aire y metiendole 1.31 lo mismo hasta te coje, la de juanma ya lo hace. (eso solo hablando del fires)

ya te digo que firestrike es la herramienta mas insegura para juzgar una gpu en su rendimiento final en juegos, como prueba ya te digo que mismas frecuencias la 970 en fires extreme la 290 a 1.270mhz de weistor no alcanzaba a la 970 de juanma.

para mi es no es recomendable comprar una 390 con escasos meses, para eso ya están las 290 que sale bastante mas barata, y que llegan mas lejos como aquí se esta demostrando... otra cosa, también hay que matizar, que las 290 que he visto a esas alturas todas pasadas por agua y con mas voltaje de 1.2, lo que se traduce en muchísimo consumo, que por aire seria imposible de mantener, la 970 que he visto llegar a 14.450 han sido con temperaturas máximas de 62 grados estando por aire.

yo igualmente dejo en pie la oferta, cuando intento hablar con seriedad entro en este foro, no me gusta las interminables discusiones que se convierten en fanáticas como aquí esta ocurriendo ahora y no por parte de uno solo precisamente, si alguno con 390 se anima, yo pongo mi 970 para probarla con diferentes juegos tes y su GPUZ marcando parámetros utilizados... todo lo que se hable sobre firestrile para medir rendimientos en juego es tontería.

@Bolo_assassin yo también llevo la misma razón y es justamente el consejo que le di en mi primer comentario aquí antes de que esto entre en modo fanático (hoy dia no compraría ninguna nueva, mi 970 esta muy cerca de los 2 años ya).... por otra parte intenta subir tu 390 por aire a 1.270 mhz, lo mismo la nevera playera se te queda corta.

saludos.
FullKillerUltimate. escribió:
paconan escribió:@FullKillerUltimate.

http://www.3dmark.com/3dm/8534411

Del baúl de los recuerdos...

Con unos "simples" 1200 / 1600

Por motivos personales no puedo usar el intel (no os preocupeis que no reventó aún)
Tengo que tirar del FX y en ese pc me falta bomba y radiador para poder pinchar una 290 por agua

@pupegbl ves? el mito de la potencia de OC bla bla bla fuera....
la gráfica del FullKiller y esa 290 gráfica más o menos parejas yendo apretaditas....


una pena, tengo ganas de realizar pruebas serias con algún usuario con 390.

ya te digo que firestrike es la herramienta mas insegura para juzgar una gpu en su rendimiento final en juegos, como prueba ya te digo que mismas frecuencias la 970 en fires extreme la 290 a 1.270mhz no alcanzaba a la 970 de juanma.

para mi es no es recomendable comprar una 390 con escasos meses, para eso ya están las 290 que sale bastante mas barata, y que llegan mas lejos como aquí se esta demostrando... otra cosa, también hay que matizar, que las 290 que he visto a esas alturas todas pasadas por agua y con mas voltaje de 1.2, lo que se traduce en muchísimo consumo, que por aire seria imposible de mantener, la 970 que he visto llegar a 14.450 han sido con temperaturas máximas de 62 grados estando por aire.

yo igualmente dejo en pie la oferta, cuando intento hablar con seriedad entro en este foro, no me gusta las interminables discusiones que se convierten en fanáticas como aquí esta ocurriendo ahora y no por parte de uno solo precisamente, si alguno con 390 se anima, yo pongo mi 970 para probarla con diferentes juegos tes y su GPUZ marcando parámetros utilizados... todo lo que se hable sobre firestrile para medir rendimientos en juego es tontería.

saludos.

Tienes totalmente la razón,la mía esta metida en una nevera de playa.

Al usuario que pregunta,mejor que espere a las nuevas,si la tiene que comprar ya cualquiera de las dos me parece buena compra.
Beatwin escribió:
ionesteraX escribió:Yo lo que no entiendo es porque estos hilos se alargan tanto, es mas deberían hasta cerrarse tras resolver la duda, se pregunta cual pillar de las dos, se deja claro que a día de hoy la 390 es mejor opción en la primera pagina y a otra cosa, el resto ya es que si la abuela fuma o monta en bici.


Pues en la primera página yo he visto una opinión argumentada @wwwendigo donde defiende que "Mejor rendimiento a 1080p para la 970, mejor para la 390 en resoluciones superiores". Con un dato además demoledor en cuanto a que sea mejor una u otra "sin discusión", por lo menos a resolución FullHD que es la que usamos la mayoría de usuarios:http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_XtremeGaming/images/perfrel_1920_1080.png

Entonces no está claro ni mucho menos cuál tarjeta es la mejor.

De cara a futuro, ahora mismo podemos hacer conjeturas en base a humo, diapositivas marketineras, el ashes y poco mas... vamos, que es mas fácil hacer un telescopio con dos piedras y un zapato que saber exactamente como afectará DX12 a las GPU actuales.

Es que ni en un juego tan "proAMD" como Ashes of the Singularity sale NVIDIA malparada con su "buque insignia"GTX 980 Ti (con permiso de la Titan X). Lo único que la Fury X la iguala, pero es que esta última tarjeta no es que la regalen precisamente.

"Los shaders asíncronos son una ventaja para DX12 y por tanto la R9 390 tiene más futuro". Error, esa característica es una ventaja para AMD, no para DX12 ya que no forma parte de dicha API (ni obligatoria ni optativa), aunque eso es lo que pretenden hacer creer, aunque no es asi. Ha hecho mucho daño el humo y marketing de Ashes of the Singularity.


Únele que aún encima la única compatible con DX12.1 es la GTX 970, y después ya que la gente se escude en los async shaders, que ya digo cuál es su futuro tras ver la opinión del equipo de desarrollo de Hitman sobre éstos, NINGÚN futuro.

Porque tan simple como que tuvieron que romperse mucho la cabeza para usarlos correctamente y NO PERDER rendimiento (con AMD), gastando muchas horas de programador sólo en esta característica, para obtener, como bien señalaron, un 10% de mejora de rendimiento respecto a no usarlos. Y correr el riesgo de que vaya peor (por algo tuvieron que gastar tanto tiempo y por algo se quejaron sobre el infernal uso de esta técnica).

Si una técnica es puramente opcional, no representa per se una mejora gráfica, porque no lo es como sí lo pueden ser las nuevas técnicas de DX12.1, y además hay que programar para cada arquitectura, y resulta que la gran "valedora" de dicha técnica son las gpus de un fabricante, que representan el 20% del mercado, ya digo cuál es su futuro:

Ninguno, fuera de títulos esponsorizados. Si por favor, sólo para programar con DX12 ya se tienen que romper la cabeza los desarrolladores creando varios forks del mismo juego, cada uno teniendo en cuenta cada arquitectura y sus afinidades (cómo usar correctamente DX12 en nvidia o AMD, sin contar con intel que de todas formas podría significar bien el tercer fork necesario, al representar un mercado muy importante con sus integradas cada vez más potentes).

Pero nada, se ve que alguna gente quiere lanzar el mantra de que mucho mejor AMD, aunque se vean los resultados de rendimiento incluso por sites como TPU! que ya han sido amedrentados por AMD para que hicieran pruebas más positivas para ellos (caso Nanogate).

Así nos va. Algunos queriendo que su fe no sea cuestionada, no vaya a ser (¿para qué van a opinar o aportar datos los que no digan el sacrosanto mantra de la 390 es mejor, por mentira que sea en los datos objetivos?).

Fijate en la diferencia, entre decir "son similares" o "depende de la resolución que uses, o el juego", y estos amigos de los mantras que tanto afirman pero tan poco prueban.

Señor, dame paciencia.
Bolo_assassin escribió:La mia a 1180/1350 ya saca 14009,la puedo apretar mas de núcleo,la mia a pesar de ser memorias Hynix a mas de 1360 da pantallazo negro.Es lo malo de ser tarjeta de lanzamiento.

De todas maneras venia a responder que lo mejor es que esperara,pero siempre en estos post hay alguien que viene a desinformar.




Yo más que gente que viene a desinformar lo que veo es a los mismos de siempre con el mismo u otro nick desinformando sin parar y siempre en la misma dirección. Se podría entender algún fallo en alguna dirección u otra pero que siempre sea en la misma y hacia la misma marca ... flaco favor hacen al foro, la verdad. De hecho no sé ni como se consiente. Es demasiado descarado ya.

Es tan sumamente descarado que sean siempre los mismos que creo que la moderación debería tomar medidas sobre asunto por la credibilidad del portal y para que usuarios decentes no salgan despavoridos de leer determinadas cosas que se leen siempre por los mismos aquí.

A esa gente se le ha visto desinformar completamente y hasta desmentir informaciones oficiales, vamos, completamente vergonzoso y todavía siguen entrando a intentar repartir lecciones sin vergüenza ninguna y por descontado en la misma dirección, faltaría.
@FullKillerUltimate. Ahí tienes una imagen de este test tan fiable que tanto les gusta a los que tienen tarjeta Nvidia.
Es una captura de Diciembre del 2015 con la primera versión de de los Crimsom y a 1230/1500 y eso que es una 290.

Imagen


Ya tienes la 980ti?
186 respuestas
1, 2, 3, 4