Otro rumor: Nueva radeon R9 390X

maesebit escribió:
Gaiden escribió:Yo no se qué review estais viendo vosotros pero esa msi 390x rinde a la par de la 980, consume muy poco más, y ha mejorado de manera espectacular temperaturas y ruido respecto a la 290X

Juer, un poco más... Consume un 50% más que la 980. [+risas]

En el enlace que has puesto tú, el equipo completo con la 390X consume 510W y con una 980 Strix 360W, eso son 150 vatios de diferencia que en teoría son achacables a la gráfica. No sé que habrán testado, pero es una auténtica barbaridad. Eso sí, no creo que sea la diferencia real entre ambas con un uso normal.

A mi sinceramente, me decepciona que la 390X consuma lo mismo que la Fury X. No termino de comprender que sacasen la R9 285 sin venir a cuento y para que pasase sin pena ni gloria dentro de una gama donde no había lugar para ella, y que ahora no hayan sido capaces de sacar la gama nueva basada en GCN 1.2

Habrá a quien le dé lo mismo, pero a mi en verano me molesta mucho tener un cacharro al lado que parece una estufa.

Si comparamos esa MSI 390X Gaming con la MSI GTX 980 Gaming, la AMD, ni es más rápida, ni es más eficiente. Eso sí, es más barata, de momento... Y tiene mucha más VRAM cuya utilidad está por ver.

No es que me parezcan malas tarjetas, pero cuando uno saca un producto 8 meses más tarde que la competencia, se espera que la superes.


Si si, el doble, o el triple:

Imagen
Dfx escribió:Si si, el doble, o el triple:

Muchacho, me baso en los benchmark que se han puesto de la 390X. No sé a que vienes con una tabla donde se muestra la 290X de referencia haciendo un test sintético.

.Imagen

Adjuntos

maesebit escribió:
Gaiden escribió:Yo no se qué review estais viendo vosotros pero esa msi 390x rinde a la par de la 980, consume muy poco más, y ha mejorado de manera espectacular temperaturas y ruido respecto a la 290X

Juer, un poco más... Consume un 50% más que la 980. [+risas]


Vale, había mirado el consumo de la 980Ti en lugar de la 980 [+risas]

Imagen

De todas maneras el consumo, sino perjudica en temperaturas/ruido (que parece no ser el caso) es algo sobrevalorado..quiero decir, esta 390X jugando 4 horas al día/5 días a la semana durante un año (que va a ser que no) gasta ella sola 61€..la 980 que se quedaría 12/15€ menos, 25€ si quieres? y eso jugando 4 horas al día todo el año...es irrelevante (para mi) Tabla de gasto http://www.guru3d.com/articles_pages/ms ... iew,8.html

Y no, no es más rápida que la 980, es igual. Eficiente obviamente si consume más no lo es, pero ahí te he dejado el gasto...sobre la estufa pues hombre, en idle misma temp.

Imagen

En carga es más fresca incluso
Imagen

Y en sonoridad más silenciosa:
Imagen

Imagen

Así que tenemos una gráfica que rinde más o menos a la par que la 980, que consume más que la 980, pero que se calienta menos y hace menos ruido..y en torno a 80/100€ más barata.

Que si, que es un refrito..pero entonces, que mal lo hace nvidia ¬_¬
Guste o no que sea refrito, la gráfica cumple de sobra y con los datos en la mano, mejor inversión que la 980.

Que por cierto, que sea el mismo chip base para llamarla refrito, no significa que sea el mismo al 100%, de hecho este lleva cambios hardware como el soporte a true audio y alguna cosa más que he visto antes..y bajar 18º respecto a la 290X y subir rendimiento digo yo que más cosas habrán tocado/optimizado aunque sea al 90% el mismo.
Gaiden escribió:En carga es más fresca incluso

No, no es más fresca. El sistema de refrigeración será más eficiente y transfiere el calor de la GPU al ambiente más rápidamente.

Un equipo que consume 500w va a expulsar al ambiente mucho más calor que uno que consuma 300w, independientemente de que los componentes estén funcionando a 40º o a 80º

Yo venía de un equipo completamente AMD y overclockeado, y en verano era un infierno.

Por lo demás coincido contigo. Es una tontería pagar 50€ más para ganar en eficiencia y ahorrar 10€ al año, porque difícilmente lo vas a amortizar.
Gaiden escribió:
maesebit escribió:
Gaiden escribió:
Así que tenemos una gráfica que rinde más o menos a la par que la 980, que consume más que la 980, pero que se calienta menos y hace menos ruido..y en torno a 80/100€ más barata.

Que si, que es un refrito..pero entonces, que mal lo hace nvidia ¬_¬
Guste o no que sea refrito, la gráfica cumple de sobra y con los datos en la mano, mejor inversión que la 980.

Que por cierto, que sea el mismo chip base para llamarla refrito, no significa que sea el mismo al 100%, de hecho este lleva cambios hardware como el soporte a true audio y alguna cosa más que he visto antes..y bajar 18º respecto a la 290X y subir rendimiento digo yo que más cosas habrán tocado/optimizado aunque sea al 90% el mismo.


Cuidado. El resto de gráficas de la comparativa son las de referencia/turbina. No te fíes de eso, porque las web suelen comparar modelos personalizados con tablas de modelos referenciales. Si la comparamos con una g1 gaming de gigabyte posiblemente la 980 sea 10º o incluso más de fresca.

En resumen, es más fresca comparando con ésta:

Imagen

No con ésta:

Imagen

Imagen
Cierto @ismarub, además lo ideal al medir temps es que se haga mostrando la diferencia respecto a la temperatura ambiente, y no el total de la gráfica, pq tampoco sabemos la temp ambiente de cada una de las mediciones. De todas maneras ya en esa G1 entramos en los sistemas que monte cada ensamblador y ese es un sistema superior (tb cuesta 60€ más que la msi 390x) y la temp mostrada por esa 390X (según indican temperatura pico, la media es inferior, que será así para todas entiendo) no la veo ningún disparate ni una temp alta para la gráfica que es y lo que vemos día a dia.

En el hilo de the witcher los usuarios de 970 reportan esas temps, por ejemplo. Y es una temperatura muy controlada teniendo en cuenta la de la 290X. Mi 280X (sapphire dual x normal, no lleva ningún sistema avanzado de refrig) suele estar sobre 60º jugando y con witcher 3 pilla 70/71...yo no noto calor alguno y tengo la torre sobre la mesa junto al monitor...obviamente si pongo la mano detrás donde la gráfica expulsa aire o el venti trasero de la caja pues está calentito calentito XD
The Witcher 3 con por lo menos las maxwell es un juego que tira de TDP de forma bestial, lleva a los límites como no lo hacen otras. Es por el tipo de técnicas implementadas y por cómo de "eficiente" es este juego en las Maxwell (cuando realmente destacan tanto las Maxwell en este título, no es tanto porque se zancadillee a las demás tecnologías, es porque es el juego que de lejos he visto más tocapelotas para ir al TDP que le marques y forzar a reducir boost en un par de pasos, gracias a dios esto funciona bastante bien automáticamente gracias a la bajada de voltaje implícita).

O sea, que se calienta más que con otros juegos, y consume más. Es una buena medida de "eficiencia" de un juego 3D ver cómo lleva no al 100% de ocupación de la gpu, sino ver cómo lleva el consumo de la gráfica a sus barreras. Es justo el ejemplo más extremo con las 970 o 980.
josele69 está baneado por "faltas de respeto, flames, troleos y clones"
Gaiden escribió:Cierto @ismarub, además lo ideal al medir temps es que se haga mostrando la diferencia respecto a la temperatura ambiente, y no el total de la gráfica, pq tampoco sabemos la temp ambiente de cada una de las mediciones. De todas maneras ya en esa G1 entramos en los sistemas que monte cada ensamblador y ese es un sistema superior (tb cuesta 60€ más que la msi 390x) y la temp mostrada por esa 390X (según indican temperatura pico, la media es inferior, que será así para todas entiendo) no la veo ningún disparate ni una temp alta para la gráfica que es y lo que vemos día a dia.

En el hilo de the witcher los usuarios de 970 reportan esas temps, por ejemplo. Y es una temperatura muy controlada teniendo en cuenta la de la 290X. Mi 280X (sapphire dual x normal, no lleva ningún sistema avanzado de refrig) suele estar sobre 60º jugando y con witcher 3 pilla 70/71...yo no noto calor alguno y tengo la torre sobre la mesa junto al monitor...obviamente si pongo la mano detrás donde la gráfica expulsa aire o el venti trasero de la caja pues está calentito calentito XD


Bueno, los que reportan esas temps a saber como tienen la caja, etc, etc, etc. Con mi 970, en estos dias de caloraco extremo no pasa de 67 ºC en ni un solo momento. Decidme el sitio donde mas carga grafica haya y saco una captura si quereis.
Algunos reviews

http://www.guru3d.com/articles-pages/as ... ew,12.html
Imagen

Imagen

http://www.techspot.com/review/1019-rad ... page6.html
Imagen

http://videocardz.com/56711/amd-radeon- ... rks-leaked
Imagen

http://www.overclock3d.net/reviews/gpu_ ... g_review/1
http://www.eteknix.com/sapphire-nitro-r ... rd-review/
http://www.hardwarecanucks.com/forum/ha ... eview.html


Fury X el día 24 de junio,
Fury el 14 de julio,
Fury Nano en algún momento de verano, y
Dual (Fury X2) en otoño.
Imagen

Y desde videocardz la tabla del TDP entre la Rx-300 y GF 900, recuerden que el TDP no es medida del consumo del GPU, y aparte AMD suele reportar el valor tope [o maximo] mientras nvidia suele reportar el valor promedio.

Imagen


EyeFinity 4K con Fury X
http://www.legitreviews.com/12k-gaming- ... ard_166585

Imagen




.



Boh, esos datos no son creíbles.

Puedo llegar a creerme que en 4K, y mientras no se necesiten más de 4 GB, las Fury X con su memoria HBM y ancho de banda a raudales puedan sacarle ventaja a las 980 Ti en muchas pruebas, pero en todas.... más bien no. Más que nada porque supuestamente algunos de estos juegos sacan provecho a tener más de 4GB, como el mordor.

Pero lo que realmente me mosquea de estos datos es ver lo siguiente:

AC3, The Witcher 3, donde la AMD ganaría con un margen mayor que en otros juegos, juegos que van mejor en nvidia claramente, ¿ahora son victorias claras de AMD, WTF?.

Mientras, y esto es lo importante porque va en contraste:

Thief, Mordor, o Hitman Absolution van casi empatadas o por lo menos están más cerca, cuando son juegos que es de conocimiento público que van mejor en las AMD que en las nvidia.

Así que estos datos totalmente anómalos, donde la Fury X saca más ventaja en The Witcher 3 que en Hitman Absolution, no se lo cree ni el tato. Para más inri Hitman Absolution, un juego que es definido por su dependencia con el ancho de banda para escalar el rendimiento.

Podría añadir Crysis 3 a la ecuación, sobre todo si mete MSAA, porque entonces la dependencia con el ancho de banda jugaría precisamente a favor de la Fury X para sacar más rendimiento, no ese empate que se ve ahí.

También muy loco eso del Batman funcionando más rápido en la Fury X, pero en fin... parecen resultados inventados, además malamente, ya que los juegos que van mejor en AMD o en nvidia tienen "comportamientos raros" con lo que sabemos cómo suelen ir. Aunque no conozca la configuración usada en cada una, esos datos huelen a trabajo inventivo de un troll que quiere reírse de la comunidad.


PD: Lo más gracioso es que en wccftech aseguran que son resultados de tests "oficiales" que les han dado desde AMD, un tanto extraño porque si así fuera, aparecería no en wccftech de forma aislada (y su clon videocardz), sino en más lugares.

Ésta es la tabla de cómo habrían pasado las pruebas:

Imagen

Y simplemente, NO me puedo creer, por mucho interés que haya en manipular datos en un fabricante, que AMD haya pasado estos tests con tantos juegos con el filtro anisotrópico totalmente deshabilitado.

Eso es una barbaridad, no sé si le puede beneficiar tanto en rendimiento, pero desde luego no conozco a nadie que se llame gamer en PC que juegue con el filtro anisotrópico deshabilitado, yo NO juego con él si no es a 16X o como mínimo a 8X, y si no lo uso a 16X es porque el juego no me lo permite seleccionar directamente.

¿Shadow of mordor usnado 100% SSAA a 4K?. El equivalente de usar 8K (2X2 la resolución original) con una Fury, en ultra y este juego. Eso sí, sin aniso. Y 4 GB de VRAM. No way.
De todas maneras paciencia, si dentro de nada vamos a empezar a ver reviews reales y de usuarios cuando empiecen a estar a la venta.
Sí, ya veremos la realidad en su momento, de momento ya sabemos que la serie 300 es lo esperado, vitaminado por el camino tanto por el OC de fábrica como el uso desde el principio de mejores disipadores y PCBs.

Sobre la Fury, lo dicho, yo no me pronuncio sobre si podrá batir o no a la GTX 980 Ti, todo es posible. Pero no me gustan que se filtren datos que no tienen puto sentido. No me puedo creer que un juego pronvidia rinda de perlas en la Fury X y después otro que es más proAMD que otra cosa, se quede en empate el tema.

Hombre. La disculpa es unas condiciones rarísimas de tests (actualización de mi comentario previo). Pero que no me cuela ese uso masivo de condiciones bien raras, ese Thief sin ningún tipo de AA ni Aniso.... dios. [+risas] [+risas] [+risas]
wwwendigo escribió:Sobre la Fury, lo dicho, yo no me pronuncio sobre si podrá batir o no a la GTX 980 Ti, todo es posible.

Haciendo matemáticas, yo estoy seguro de que la Fury X estará a la altura de la 980ti de referencia, y probablemente la bata a 2160p en muchos casos. Pero hay que tener en cuenta que los modelos custom de la 980 ti alcanzan ganancias del 15% sobre la de referencia, y ahí sí que es seguro que la Fury X no llega, por lo que habrá que ver como overclockea esta última para ver si al final ofrece más rendimiento una Fury X o algo como la 980 TI G1 .
y lo de que la 280x rinda como la 970 es normal?
maesebit escribió:
wwwendigo escribió:Sobre la Fury, lo dicho, yo no me pronuncio sobre si podrá batir o no a la GTX 980 Ti, todo es posible.

Haciendo matemáticas, yo estoy seguro de que la Fury X estará a la altura de la 980ti de referencia, y probablemente la bata a 2160p en muchos casos. Pero hay que tener en cuenta que los modelos custom de la 980 ti alcanzan ganancias del 15% sobre la de referencia, y ahí sí que es seguro que la Fury X no llega, por lo que habrá que ver como overclockea esta última para ver si al final ofrece más rendimiento una Fury X o algo como la 980 TI G1 .


Pues eso, que al final ni puta idea. Es que se pueden hacer muchas cuentas y muchos "y si", pero la práctica siempre es distinta. Que debe ser parecido a groso modo, creo que todos nos lo esperamos, no creo que nadie espere que sea un 25% más rápida o lenta, si no que serán tarjetas que pelearán en un margen bastante más reducido.

Pero cuál es el potencial de cada uno, cuando Fiji es lo que podría llamarse un "TongaX2" con HBM, algo que destroza cualquier referencia que tomemos, pues Hawaii con su masivo ancho de banda no es realmente comparable por ser GCN 1.1 y no tener varias de las mejoras de GCN 1.2 vistas en Tonga (teselado, compresión de color), ni Tonga con su bus y limitaciones de ancho de banda es una buena base de cálculo para lo que será su hermano mayor hipervitaminado, al final al no tener una buena base referencial, el rendimiento ni dios lo conoce. Bueno sí, gente en AMD, claro.

PD: Será útil ver cómo Fiji con su mayor potencial de lejos en TMUs, shaders ROPs y ancho de banda, y los mismos 4 teseladores de Tonga, lleva el tema de la teselación. Porque Tonga tengo la impresión de que está limitado por lo menos en ciertas circunstancias por ser un chip más modesto.

Es una pena que no incluya algún teselador extra. Pero bueno... ahora se verá bien lo que "debió ser" en Hawaii (cuatro teseladores, pero bastante subóptimos comparados con los 2 teseladores de Tahiti, ya tonga mostró el camino donde había errado Hawaii por el error de diseño que fuera, bueno, sé que tiene que ver con el tema de buffers de almacenamiento de los triángulos generados por el teselado, pero poco más).
wwwendigo escribió:Que debe ser parecido a groso modo, creo que todos nos lo esperamos

Hombre, el rendimiento exacto claro que es imposible saberlo. XD

Pero a 1080p y 1440p el descomunal fillrate de la Fury X no debería suponer ninguna ventaja respecto a la 290X/390X, y las mejoras en tesselación pueden suponer un salto en situaciones muy concretas, pero aún así, NVIDIA sigue estando por encima en ese tema, por lo que no va a ser algo por lo que la Fury vaya a sacar ventaja a la 980 TI.

La incognita para mí, va a ser hasta que punto va a impactar en el rendimiento a 2160p el bestial ancho de banda del HBM unido a la compresión de color de GCN 1.2, pero ya digo que a 1080p y 1440p creo que el rendimiento va a ser bastante predecible.

Si me equivoco, aquí queda dicho para llevarme el ZAS cuando proceda. XD
maesebit escribió:
wwwendigo escribió:Que debe ser parecido a groso modo, creo que todos nos lo esperamos

Hombre, el rendimiento exacto claro que es imposible saberlo. XD

Pero a 1080p y 1440p el descomunal fillrate de la Fury X no debería suponer ninguna ventaja respecto a la 290X/390X, y las mejoras en tesselación pueden suponer un salto en situaciones muy concretas, pero aún así, NVIDIA sigue estando por encima en ese tema, por lo que no va a ser algo por lo que la Fury vaya a sacar ventaja a la 980 TI.

La incognita para mí, va a ser hasta que punto va a impactar en el rendimiento a 2160p el bestial ancho de banda del HBM unido a la compresión de color de GCN 1.2, pero ya digo que a 1080p y 1440p creo que el rendimiento va a ser bastante predecible.

Si me equivoco, aquí queda dicho para llevarme el ZAS cuando proceda. XD



La compresión de color sólo sirve para reducir el consumo de ancho de banda con render targets o framebuffers, no sirve para nada a la hora de cargar texturas, geometría, datos para gpgpu, etc. Está muy sobrevalorado como técnica, en gran medida por culpa de los websites que en no pocos casos muestran su falta de entendimiento al vender la versión de que la técnica sirve para todos los tipos de datos.

No señor, sólo para framebuffer. Y sólo gracias a que los motores gráficos actuales suelen ser del tipo "deferred" se le saca partido, ya que al no usar un modo de render inmediato, digamos que estos motores gráficos lo que hacen es renderizar contra un buffer ("framebuffer", mejor decir render target, pero lo pongo así para que se entienda) y después componer la imagen con sus distintas partes (este proceso se hace así por temas que tienen que ver con la iluminación y sombreado, más fáciles de gestionar de esta forma).

De todas formas, a la Fury no le hace falta compresión de color alguna con su ancho de banda, de hecho tener un ancho de banda bestial no necesariamente implica beneficios en rendimiento.

Mira a las GTX 200 de nvidia, tenían hasta 160GB/s de ancho de banda, como no pocas tarjetas gráficas actuales de gama media. ¿Son competitivas de alguna forma o se mostraron mucho más capaces en especial gracias a este ancho de banda tan grande para ese momento?

No. Mostraron una potencia y capacidades en resoluciones en consonancia con su potencia gráfica, ya sea en ROPs, shaders, etc. NO en el ancho de banda. Es útil para no limitar a la gráfica, pero un crecimiento de ancho de banda hasta el infinito en una gpu dada no implica más rendimiento a partir de cierto punto.

En ese sentido, viendo el ancho de banda que ya de por sí tienen las R9 290, no creo que ése sea un factor determinante. El problema actual de AMD no es el ancho de banda.
bueno chavales, parece que ya le están metiendo zarpa a las bios de las 390x

http://forums.guru3d.com/showthread.php?t=400050

incluso hicieron un mod en versión de 4 gigas [fiu]

también hay un tuto para modificar bios, aunque está en aleman
http://www.hardwareluxx.de/community/f1 ... st23594338
De regalo:

Imagen

Imagen

Consumos moderados. [sonrisa]
ismarub escribió:De regalo:

Imagen

Imagen

Consumos moderados. [sonrisa]


ojito que esa msi ya va subida a 1100 / 1525
http://www.techpowerup.com/vgabios/1730 ... 50521.html

para ir bien que necesitará unos 40amperios del carril de 12?
La gente no se lo cree, pero 8GB GDDR5 chupan lo suyo, eh? que si hawaii ya chupaba lo que no estaba escrito en chip completo pues con 8GB es un GL absoluto.
ismarub escribió:De regalo:
Imagen

Juer, 100 vatios más para añadirle un 10% de rendimiento sobre la 290X... Oooh

Parece que tenían ganas de trasladar a las gráficas lo que ya hicieron en las CPU con los FX-9370/9590 XD
Esos OC estaba claro que iban a pagarse a base de mas consumo, como en todas xD
Dfx escribió:Esos OC estaba claro que iban a pagarse a base de mas consumo, como en todas xD


Si ves los consumos que les salen aquí flipas.... xD:

http://www.techpowerup.com/reviews/MSI/ ... ng/28.html
wwwendigo escribió:
Dfx escribió:Esos OC estaba claro que iban a pagarse a base de mas consumo, como en todas xD


Si ves los consumos que les salen aquí flipas.... xD:

http://www.techpowerup.com/reviews/MSI/ ... ng/28.html


Si ya lo vi, normal, si todas van tan oceadas, no sorprende, era una grafica tragona y ahora encima con OC, eliminado lo del boost...

Yo empiezo a pensar que la nano sabian que no iba a llegar a tiempo y por eso esta segunda vida de las 290x renombradas o no querían que chafara ventas de estas con sobreprecio.
Dfx escribió:
wwwendigo escribió:
Dfx escribió:Esos OC estaba claro que iban a pagarse a base de mas consumo, como en todas xD


Si ves los consumos que les salen aquí flipas.... xD:

http://www.techpowerup.com/reviews/MSI/ ... ng/28.html


Si ya lo vi, normal, si todas van tan oceadas, no sorprende, era una grafica tragona y ahora encima con OC, eliminado lo del boost...

Yo empiezo a pensar que la nano sabian que no iba a llegar a tiempo y por eso esta segunda vida de las 290x renombradas o no querían que chafara ventas de estas con sobreprecio.


No sé, yo lo que veo claro es que las 390X son lo que son, 290X apretadas de clavijas a tope. La MSI en particular parece que más de la media, por eso también da de stock mejores resultados, y también por eso tiene un margen casi nulo de OC.

Aún así es un tarjetón, aunque beba lo suyo, la verdad es que MSI ha trabajado para crear un modelo bastante impresionante. A mí me gusta más mi GTX 970, pero tengo que reconocerle que la R9 390X de MSI tiene su aquél. :-|

PD: Sólo falta que bajen de precio y se pongan donde deberían.
Dfx escribió:
Yo empiezo a pensar que la nano sabian que no iba a llegar a tiempo y por eso esta segunda vida de las 290x renombradas o no querían que chafara ventas de estas con sobreprecio.


Pues yo pienso que tiene chips para aburrir en las fabricas porque estarán sacando más chips buenos de las obleas y que así se los quitan de encima, sacan pasta de la nada y crean una gama media un poco falsa.
ROTOR escribió:
Dfx escribió:
Yo empiezo a pensar que la nano sabian que no iba a llegar a tiempo y por eso esta segunda vida de las 290x renombradas o no querían que chafara ventas de estas con sobreprecio.


Pues yo pienso que tiene chips para aburrir en las fabricas porque estarán sacando más chips buenos de las obleas y que así se los quitan de encima, sacan pasta de la nada y crean una gama media un poco falsa.


Es lo que venia a decir con ese comentario, retrasar la nano implica vender esas 390x como "gama media" y acabar stocks.
Eluryh escribió:ya están disponibles: http://www.pccomponentes.com/tarjetas_g ... /gddr5/r9/


Desde el jueves se podían ya comprar. Por otra parte muy pillos la tienda. Han quitado el stock de las r9 200. No sé yo si se verán algunas rebajas. Como mucho esperar a amazon.es y tiendas de ese tipo.
Collons, kizas la pena pillar un bicho de éstos para jugar a 1080.
http://www.pccomponentes.com/movil/asus ... gddr5.html

Ahora hasta veo con buenos ojos el precio.
Pasaica por agua y con un voltaje de 1.41 o asi tiene que ser una delicia

Edito: parece que las 390x llevan un voltaje de 1.30 de serie ratataaaa ratataaaa ratataaaa
paconan escribió:Collons, kizas la pena pillar un bicho de éstos para jugar a 1080.
http://www.pccomponentes.com/movil/asus ... gddr5.html

Ahora hasta veo con buenos ojos el precio.
Pasaica por agua y con un voltaje de 1.41 o asi tiene que ser una delicia

Edito: parece que las 390x llevan un voltaje de 1.30 de serie ratataaaa ratataaaa ratataaaa


Esperate a ver si bajan las lightning xD
Aun no se si sea fiable esta tabla sobre las Rx-300, pero puede dar referencia del nivel GCN.

Imagen
paconan escribió:Collons, kizas la pena pillar un bicho de éstos para jugar a 1080.
http://www.pccomponentes.com/movil/asus ... gddr5.html

Ahora hasta veo con buenos ojos el precio.
Pasaica por agua y con un voltaje de 1.41 o asi tiene que ser una delicia

Edito: parece que las 390x llevan un voltaje de 1.30 de serie ratataaaa ratataaaa ratataaaa


Ahí está la causa del alto consumo. Aparte me huelo problemas con las memorias. Si dicen que son las mismas de las 290/x, éstas no subían mucho. Luego puede pasar que serán gráficas con problemas del estilo r9 280x con artifacts por un tubo.
teoricamente no son las mismas...
estás es la le están metiendo a las 390x
8192 MB, GDDR5, Hynix H5GC4H24AJR

frente a la serie 200
4096 MB, GDDR5, Hynix H5GQ2H24AFR
4096 MB, GDDR5, Hynix H5GC2H24BFR
4096 MB, GDDR5, Elpida EDW2032BBBG_DEBUG2


Imagen

bios mod para mutar la serie 200 XD
https://mega.co.nz/#!dU4AxRLI!zpCi2P-yb ... KPvAVt1UVU

fuente: http://forums.guru3d.com/showthread.php?t=400050
Pues vale, menos mal. Igual así no hay problemas con las frecuencias/estabilidad. Ya me parecía raro que fueran las mismas con más oc.
paconan escribió:teoricamente no son las mismas...
estás es la le están metiendo a las 390x
8192 MB, GDDR5, Hynix H5GC4H24AJR

frente a la serie 200
4096 MB, GDDR5, Hynix H5GQ2H24AFR
4096 MB, GDDR5, Hynix H5GC2H24BFR
4096 MB, GDDR5, Elpida EDW2032BBBG_DEBUG2


Imagen

bios mod para mutar la serie 200 XD
https://mega.co.nz/#!dU4AxRLI!zpCi2P-yb ... KPvAVt1UVU

fuente: http://forums.guru3d.com/showthread.php?t=400050


y no hay bios mod para las 290 a secas? xD
WiiBoy escribió:
paconan escribió:teoricamente no son las mismas...
estás es la le están metiendo a las 390x
8192 MB, GDDR5, Hynix H5GC4H24AJR

frente a la serie 200
4096 MB, GDDR5, Hynix H5GQ2H24AFR
4096 MB, GDDR5, Hynix H5GC2H24BFR
4096 MB, GDDR5, Elpida EDW2032BBBG_DEBUG2


Imagen

bios mod para mutar la serie 200 XD
https://mega.co.nz/#!dU4AxRLI!zpCi2P-yb ... KPvAVt1UVU

fuente: http://forums.guru3d.com/showthread.php?t=400050


y no hay bios mod para las 290 a secas? xD


fijate en los shadders de esa captura...
aunque a mi con la tri x no me inicia (pantalla negra y los 3 pitidos por fallo de gráfica)
@paconan las podio restaurar sin problemas ? xD o te las cargao
ismarub escribió:Pues vale, menos mal. Igual así no hay problemas con las frecuencias/estabilidad. Ya me parecía raro que fueran las mismas con más oc.


Ademas depende de la marca que te tocara, las Hynix si suben bastante. Te lo digo como poseedor de una 290 con memos Hynix.

La bios mod a mi con una TriX OC con memos Hynix no me arranca. De todas formas, llevan Dual Bios, asi que se restauran cambiando un switch y reflasheando @WiiBoy XD
Lo realmente interesante es saber hasta cuanto sube de frecuencia la GPU haciendole O.C a estas nuevas r9 390, ahi es donde se vera si son unas r9 290 con O.C de serie , o vienen suficientemente mejoradas como para subir la frecuencia de relog minimo 100mhz mas que las r9 290 , con eso y los 8gb de vram , la cosa seria muy interesante ya .
Zinclair escribió:Lo realmente interesante es saber hasta cuanto sube de frecuencia la GPU haciendole O.C a estas nuevas r9 390, ahi es donde se vera si son unas r9 290 con O.C de serie , o vienen suficientemente mejoradas como para subir la frecuencia de relog minimo 100mhz mas que las r9 290 , con eso y los 8gb de vram , la cosa seria muy interesante ya .


Pues de momento no suben mucho más:
Imagen
ROTOR escribió:
Zinclair escribió:Lo realmente interesante es saber hasta cuanto sube de frecuencia la GPU haciendole O.C a estas nuevas r9 390, ahi es donde se vera si son unas r9 290 con O.C de serie , o vienen suficientemente mejoradas como para subir la frecuencia de relog minimo 100mhz mas que las r9 290 , con eso y los 8gb de vram , la cosa seria muy interesante ya .


Pues de momento no suben mucho más:
Imagen


Creo que las r9 290/x se van a 1200/1240mhz , subiendo voltaje , entiendo que eso es sin sobrevoltaje , y si es sin voltaje , igualar a la la Lightning que es la r9 290x que mas preparada esta para el o.c , no esta nada mal .

aqui tirando a 1240mhz vs stock
https://www.youtube.com/watch?v=CL4hFOSS7No
https://www.youtube.com/watch?v=oed0Zoo8IcQ
En el primero de esos videos, por que es diferente la carga de memoria en las mismas escenas en varios juegos? que habia juegos que eran pocos megas, pero otros que la diferencia era varios cientos.
Ni idea , pero salvo en el juego de f1 , en todos los demás a mas potencia y mas fps , mas consumo de memoria ,
lo que no se es por que , por que los escenarios a cargar deberían de ser los mismos , pero seguro que alguien lo puede explicar.

pd: en el segundo video el the witcher 2 y el crysis también usan un poco menos de vram que en el O.C , pero claro aquí si exploras un trozo de escenario mas, ya te va a cargar mas vram.
Lo que me parece raro o desinteres por parte de los medios especializados españoles es que las tarjetas ya estan a la venta y no hemos visto ningun analisis todavia. Esto se parece a la tv que segun que cadena veas ya sabes lo que te toca.
ROTOR escribió:
Zinclair escribió:Lo realmente interesante es saber hasta cuanto sube de frecuencia la GPU haciendole O.C a estas nuevas r9 390, ahi es donde se vera si son unas r9 290 con O.C de serie , o vienen suficientemente mejoradas como para subir la frecuencia de relog minimo 100mhz mas que las r9 290 , con eso y los 8gb de vram , la cosa seria muy interesante ya .


Pues de momento no suben mucho más:
Imagen


Ojo, esa 390X parece que está funcionando además a 1,24-1,25 voltios, no a los 1,21V que llevan otras 390X, de ahí que consuma más de lo normal, y por lo tanto ese OC ya es con sobrevoltaje.
refloto un poco...

más atrás compartí una bios para mutar las 290(x) a 390(x)...
por lo que estoy viendo por otros lares... con las xfx y powercolor funciona (curioso, estos modelos también eran compatibles con la biosmod que liberaba el voltaje)

bueno... comparto un 3dmark comparando el antes y despues a igualdad de frecuencia (un xfire de 290)

http://www.3dmark.com/compare/fs/5162244/fs/5171902

después de mirarlo un poco... la cpu está 100mhz más oceada depues de la mutación... imagino que la puntuación en gráficos no debería estar afectada (la prueba de fisica está claro que si, y la ultima, que es el combinado... también)

edito: ojo, el bench no es mio... sacado de otro foro
paconan escribió:refloto un poco...

más atrás compartí una bios para mutar las 290(x) a 390(x)...
por lo que estoy viendo por otros lares... con las xfx y powercolor funciona (curioso, estos modelos también eran compatibles con la biosmod que liberaba el voltaje)

bueno... comparto un 3dmark comparando el antes y despues a igualdad de frecuencia (un xfire de 290)

http://www.3dmark.com/compare/fs/5162244/fs/5171902

después de mirarlo un poco... la cpu está 100mhz más oceada depues de la mutación... imagino que la puntuación en gráficos no debería estar afectada (la prueba de fisica está claro que si, y la ultima, que es el combinado... también)

edito: ojo, el bench no es mio... sacado de otro foro


deberia sacar el bench en las mismas condiciones... si no esta algo falseado, en firestrike 100mhz mas de cpu se notan!

a mi me pasara algo similar, cuanto mute la 7950 de msi (que tiene pcb de 7970) a 280x, hubo una mejora (incluso en el primer arranque, gpu-z marcaba los shaders desbloqueados!! imagino que fue una ida de olla, al siguiente reinicio ya volvieron a quedar como estaban) , en heaven subio un poquito la puntuacion de esa grafica, asi que imagino que igual los drivers están mas optimizados para según que modelo de tarjeta se detecte, aunque básicamente sean la misma...
720 respuestas
111, 12, 13, 14, 15