Nuevas AMD Polaris.

Según dicen para saltarse el NDA le puso el disipador de una lightning :O

No sé si las temperaturas serán debido a eso, aquí tenéis más info http://www.overclock.net/t/1602741/chip ... ise-update

He says he used the Lightning cooler to bypass the ban and NDA trap.
(pass the salt, again.)


Esperemos que sea por eso, porque si la de referencia alcanza esa temperaturas... ratataaaa

De todos modos, cogedlo con pinzas. Si al final se confirma ese rendimiento, basándonos en los resultados de otras tarjetas en ese test, tendría un rendimiento mejor de lo esperado. Se quedaría a un 18% de la 1070.

Saludos.
La verdad es que habiendo reducido a 14nm y presumiendo de poco consumo cuesta creer lo de los 91ºC
hit está baneado por "Troll"
como se lo montan estos de amd...la presento el dia 1...pongo un NDA hasta el 29 y cada pocos días suelto un leak para que la gente hable de mi... [+risas] [+risas] sacar todo ya y dejaros de tonterías hombre! XD XD
Si es de una lightning no encajara bien supongo, incluso siendo la de referencia serian demasiados grados, eso si aunque fuera fake creo que ya ha habido bastantes filtraciones para dudar de todas el rendimiento parece rondar el -20% con la 1070, lo cual me parece un producto rompedor.
Lo del chino cochino ese huele a fake que tira para atrás, con editar la BIOS de la tarjeta puedes poner lo que te de la gana.
Una pregunta, que tengo...

Mi monitor es vga, un acer del chichinabo. Ya he visto que la serie 10XX no dispone de esta salida. ¿Se sabe algo de polaris? Porque no es lo mismo comprar una gráfica nueva, que gráfica y monitor. Ya sé que puedo cambiar el monitor, pero llevo 7 años con él y el cabronazo aguanta como un campeón, y cambiar porque sí, pues como que no.
Vga no van a traer, como mucho dvi y podrias tirar de adaptador.
niñodepapa escribió:@wwwendigo cierto que Dx12 no es lo esperado, habrá que desarrollarlo y aun así no creo alcance lo que se esperaba. Cuando llegue su momento seguro tiene otra fuerte campaña, comparando rendimiento.


Lo único que tiene roto Quantum Break es el nombre. Puede que no te guste el juego por sus mecánicas, pero eso es como si digo que DOOM esta roto por que no va mejor en AMD. Respecto a ROTTOR más de lo mismo, ya me dirás el punto exacto de esas escenas complejas, por que en la base soviética se atascaba de lo lindo con Nvidia al igual que con las demás.





Al resto no entiendo muy bien por qué queréis comparar con juegos donde Nvidia ha metido la mano, como es el caso de Witcher 3, veis ahí estoy con wwwendigo, es mejor una muestra grande, algo así como unos 20 juegos de interés hoy día.


Lo de ROTTOR simplemente lo digo porque sí va mejor en cuanto a mínimos, si no va fino igualmente es otro tema, como ya he dicho por otro lado, no hay juegos DX12 bien rematados.

El caso de Quantum Break es por todas las cosas que ha forzado este juego a tener, sí o sí, para poder correrlo. Win 10, tarjeta DX12 compatible, la tienda online de microsoft en exclusiva, etc.

Todo esto ha afectado muy negativamente al juego, no funcionan perfiles SLI ni Crossfire porque el juego usa la nueva plataforma de "exes" de Windows, y además se ejecuta más bien en ventana sin bordes, lo cual lo hace incompatible con los modos multigpu (aunque detectaran al "exe", que no), y lo que es más, también da problemas con los programas de terceros para monitorización, grabación de partidas, etc, cualquier cosa que use un OSD sobrepuesto sobre el juego.

Después está el problema con DX12 en sí, ya que lo que muestra gráficamente no justifica los enormes requisitos técnicos, da igual si es nvidia como AMD, pide demasiado para lo que muestra incluso en el mejor de los casos.

Simple y llanamente DX12 está empezando muy, pero que muy mal como la API "salvadora" del gaming PC. Yo de AMD me replantearía volver a trabajar en el driver DX11 suyo y meter las técnicas de paralelización forzada de llamadas en el driver, aunque el API DX11 no contemple esto por sí mismo. A nvidia le ha ido bien con esto, y tiene pinta que DX11 se va a quedar por mucho tiempo.
hit escribió:Imagen


[qmparto] [qmparto] [qmparto]


Si con lo de async se refieren a lo de gsync y freesync les doy la razón y se la quito también. Me parece de p*ta vergüenza que para aprovecharlo te tengas que comprar el monitor de una marca o de otra. Que se pongan de acuerdo. ¿Lo próximo que es?¿un hdmi de amd y otro hdmi de nvidia? [facepalm]
@wwwendigo Lo he leido varias veces y ahora que lo dices, el SLI funciona perfectamente en modo ventana sin bordes.

Realmente el SLI si puede funcionar en las UWP, ahora mismo en ROTTOR forzando el perfil se puede, pero el tress fx se vuelve loco, en quantum break lo desconozco si se puede, pero ya lo dijo alguien de Microsoft que realmente si no hay perfiles SLI es por que no se quiere, no por que no se pueda, se puede apuntar al ejecutable de la plataforma solo que no hay exe y te tienes que buscar un poco la vida.

Sobre volver a DX11, no creo que valga la pena a estas alturas, DX12 se acabara imponiendo mas tarde o mas temprano para las novedades, sobretodo para los AAA y ahi AMD necesita estar fuerte.
tom_deluxe escribió:
hit escribió:Imagen


[qmparto] [qmparto] [qmparto]


Si con lo de async se refieren a lo de gsync y freesync les doy la razón y se la quito también. Me parece de p*ta vergüenza que para aprovecharlo te tengas que comprar el monitor de una marca o de otra. Que se pongan de acuerdo. ¿Lo próximo que es?¿un hdmi de amd y otro hdmi de nvidia? [facepalm]


Joder, jajajaja.

Async es por asynchronus computing, llevan anunciandolo como feature estrella hace bastante tiempo.
hit está baneado por "Troll"
tom_deluxe escribió:
hit escribió:Imagen


[qmparto] [qmparto] [qmparto]


Si con lo de async se refieren a lo de gsync y freesync les doy la razón y se la quito también. Me parece de p*ta vergüenza que para aprovecharlo te tengas que comprar el monitor de una marca o de otra. Que se pongan de acuerdo. ¿Lo próximo que es?¿un hdmi de amd y otro hdmi de nvidia? [facepalm]


lo ponía pork son graciosos...y la verdad es que los carteles estan currados...lo demás...pues que quieres que te diga...que si te pueden sacar mas pasta por un monitor te la van a sacar

si alguien encuentra la 3 de arriba o la segunda en 1080p porfavor que la ponga por aqui...le estare eternamente agradecido!
papatuelo escribió:
tom_deluxe escribió:
hit escribió:Imagen


[qmparto] [qmparto] [qmparto]


Si con lo de async se refieren a lo de gsync y freesync les doy la razón y se la quito también. Me parece de p*ta vergüenza que para aprovecharlo te tengas que comprar el monitor de una marca o de otra. Que se pongan de acuerdo. ¿Lo próximo que es?¿un hdmi de amd y otro hdmi de nvidia? [facepalm]


Joder, jajajaja.

Async es por asynchronus computing, llevan anunciandolo como feature estrella hace bastante tiempo.


También. Por un momento pensé en Adaptive Sync y se me hinchó la vena :Ð
Las puntuaciones del 3dmark11, test vanguardista donde los haya está a 720p, las malas lenguas dicen que a 1080 la 980 le pasaría por delante.

Pudieran ser todos fakes porque nada le costaba al chino este poner algún gameplay, o al menos usar una config más moderna: 1080 mínimo.

¿Tú qué opinas, amigo @wwwendigo?
DeFT escribió:Las puntuaciones del 3dmark11, test vanguardista donde los haya está a 720p, las malas lenguas dicen que a 1080 la 980 le pasaría por delante.

Pudieran ser todos fakes porque nada le costaba al chino este poner algún gameplay, o al menos usar una config más moderna: 1080 mínimo.

¿Tú qué opinas, amigo @wwwendigo?


De qué hablas? El Fire Strike Ultra es a 4K :-|

Que luego sea fake o no, pues ya lo veremos, no debe quedar mucho para ver reviews. Yo de todos modos estoy interesado en la gama alta, pero si la gama media les sale puntera hay más posibilidades de que saquen una gama alta crema.
DeFT escribió:Las puntuaciones del 3dmark11, test vanguardista donde los haya está a 720p, las malas lenguas dicen que a 1080 la 980 le pasaría por delante.

¿Tú qué opinas, amigo @wwwendigo?


Fake o no, es una falacia q alguien se invente q un bench expresamente para 4k va a hdready para sembrar la duda xddd
No se si vender mi Gygabyte R9 290 oc 4gb windforced para pillarme la RX 480.... ¿ Que pensáis? La verdad es que mi gráfica me ha dado muchas alegrías y no me había planteado cambiar hasta un par de años... Pero supe de esta nueva tarjeta y no se que hacer.¿ La vendo ahora antes de que se devalue mucho su precio ? Hasta ahora muchos juegos me corren a 2k rindiendo bien
TheBalaks escribió:No se si vender mi Gygabyte R9 290 oc 4gb windforced para pillarme la RX 480.... ¿ Que pensáis? La verdad es que mi gráfica me ha dado muchas alegrías y no me había planteado cambiar hasta un par de años... Pero supe de esta nueva tarjeta y no se que hacer.¿ La vendo ahora antes de que se devalue mucho su precio ? Hasta ahora muchos juegos me corren a 2k rindiendo bien


¿Por qué no te ciñes al plan inicial? ¿Qué ganarás cambiando ahora, un 10%? ¿Y si luego Vega es la hostia volverás a ser un ansias? Tienes un tarjetón que muchos ya querrían, tienes gráfica para 2 años mínimo. Espera, esperad a ver qué pasa a fin de año (los que tengáis algo decente), y los que no, una 480 a 250 es compra segura.

Ya sabes lo que dice el refrán; más vale 290 en mano, que 100 polaris volando...
TheBalaks escribió:No se si vender mi Gygabyte R9 290 oc 4gb windforced para pillarme la RX 480.... ¿ Que pensáis? La verdad es que mi gráfica me ha dado muchas alegrías y no me había planteado cambiar hasta un par de años... Pero supe de esta nueva tarjeta y no se que hacer.¿ La vendo ahora antes de que se devalue mucho su precio ? Hasta ahora muchos juegos me corren a 2k rindiendo bien



Hasta qu eno salga la RX480 es dificil aventurarse, lo mismo es un 40-50% mejor que la tuya te aguantara 2 añitos bien, lo mismo es una 290X / 390 y no te compensa. Esperate a fin de mes y decide.
TheBalaks escribió:No se si vender mi Gygabyte R9 290 oc 4gb windforced para pillarme la RX 480.... ¿ Que pensáis? La verdad es que mi gráfica me ha dado muchas alegrías y no me había planteado cambiar hasta un par de años... Pero supe de esta nueva tarjeta y no se que hacer.¿ La vendo ahora antes de que se devalue mucho su precio ? Hasta ahora muchos juegos me corren a 2k rindiendo bien


Yo en tu lugar no la vendía. Pagas mucho por ganar poco. Sigues teniendo una gran tarjeta gráfica.

El salto es más para gente con gtx660, gtx950, amd 7950... ahí sí hay un salto importante.
Yo tengo claro que voy a por esta...en relación calidad/precios va a ser la mejor.

En principio voy a jugar a 1080p y no tengo claro si quedarme con la de 4gb y aire,o ir a por la de 8gb por si en el siguiente lustro cambio a 4k y me da por hacer un sli...
-Angel- escribió:Yo tengo claro que voy a por esta...en relación calidad/precios va a ser la mejor.

En principio voy a jugar a 1080p y no tengo claro si quedarme con la de 4gb y aire,o ir a por la de 8gb por si en el siguiente lustro cambio a 4k y me da por hacer un sli...


Ve a por la de 8GB, el limitante en los juegos venideros no va a ser la resolucion, sino la calidad de algunos elementos como texturas. El modo "Hyper" de Mirror's Edge Catalyst recomienda 8 Gigas de VRAM independientemente de la resolucion, y en su dia juegos como TitanFall necesitaban 3 o mas para texturas ultra.

Los que pensais que la memoria de la grafica es solo por la resolucion podeis cagarla.
NosferatuX escribió:
-Angel- escribió:Yo tengo claro que voy a por esta...en relación calidad/precios va a ser la mejor.

En principio voy a jugar a 1080p y no tengo claro si quedarme con la de 4gb y aire,o ir a por la de 8gb por si en el siguiente lustro cambio a 4k y me da por hacer un sli...


Ve a por la de 8GB, el limitante en los juegos venideros no va a ser la resolucion, sino la calidad de algunos elementos como texturas. El modo "Hyper" de Mirror's Edge Catalyst recomienda 8 Gigas de VRAM independientemente de la resolucion, y en su dia juegos como TitanFall necesitaban 3 o mas para texturas ultra.

Los que pensais que la memoria de la grafica es solo por la resolucion podeis cagarla.


La verdad es que tienes razón,pero al haber con 4 y 8 gb me da la impresión de que es en esta gráfica es para soportar resoluciones superiores y que no tendrá potencia para utilizarlos como opciones superiores de texturas etc...vamos,que igual hay parámetros que va a petardear igualmente con 4 que con 8gb y que las de 8gb son mas para los que quieren una opción económica para un 4k.

Está claro que por 30€ ni me lo pienso,pero por 60€...son 60€ que puedo gastar en cambiar esta en 2 años.
-Angel- escribió:La verdad es que tienes razón,pero al haber con 4 y 8 gb me da la impresión de que es en esta gráfica es para soportar resoluciones superiores y que no tendrá potencia para utilizarlos como opciones superiores de texturas etc...vamos,que igual hay parámetros que va a petardear igualmente con 4 que con 8gb y que las de 8gb son mas para los que quieren una opción económica para un 4k.

Está claro que por 30€ ni me lo pienso,pero por 60€...son 60€ que puedo gastar en cambiar esta en 2 años.




Como te han dicho creo que te estás equivocando en esa elección, no sólo de resolución trata la VRAM y ya hay disponibles a día de hoy juegos que necesitan más de 4gb de VRAM para funcionar a tope inclusive a 1080p. Vamos, que no es cuestión de mañana, hoy ya estás corto con 4gb en determinados parámetros en ciertos juegos.

Vamos, no te recomiendo la de 4gb a no ser que busques algo lo más económicamente barato posible sabiendo que a día de hoy ya tendrás pegas en ciertos titulos.,
KailKatarn escribió:
-Angel- escribió:La verdad es que tienes razón,pero al haber con 4 y 8 gb me da la impresión de que es en esta gráfica es para soportar resoluciones superiores y que no tendrá potencia para utilizarlos como opciones superiores de texturas etc...vamos,que igual hay parámetros que va a petardear igualmente con 4 que con 8gb y que las de 8gb son mas para los que quieren una opción económica para un 4k.

Está claro que por 30€ ni me lo pienso,pero por 60€...son 60€ que puedo gastar en cambiar esta en 2 años.




Como te han dicho creo que te estás equivocando en esa elección, no sólo de resolución trata la VRAM y ya hay disponibles a día de hoy juegos que necesitan más de 4gb de VRAM para funcionar a tope inclusive a 1080p. Vamos, que no es cuestión de mañana, hoy ya estás corto con 4gb en determinados parámetros en ciertos juegos.

Vamos, no te recomiendo la de 4gb a no ser que busques algo lo más económicamente barato posible sabiendo que a día de hoy ya tendrás pegas en ciertos titulos.,


Pues mira,a por la de 8gb,mas vale prevenir,que curar ^^

Thx por las aclaraciones
@NosferatuX @DeFT @kaiserphantom Tienen razón la verdad es que no debería quejarme a veces nos entra el hype [facepalm] y no se por que me dio por ahí. Estoy contento con mi tarjeta y como dicen ustedes Voy a esperar un año a ver como van las nuevas gráficas en rendimiento. [oki] Hice una encuesta en 3d juegos y el 90% dicen lo mismo que aguanto bien 2 años [oki] [plas] [tadoramo]
Para diseño 3D cuál es mejor? La 980ti o está? La 980ti tiene 2860 cudas. Por eso lo pregunto
Buba-ho-tep escribió:Para diseño 3D cuál es mejor? La 980ti o está? La 980ti tiene 2860 cudas. Por eso lo pregunto



La 980Ti es más potente a todos los niveles, inclusive diseño 3D. Eso sí, desde luego en precio juegan en ligas completamente diferentes.
@KailKatarn Es que me venden una nueva por 500€ en eBay y no sé si pillármela.
Buba-ho-tep escribió:@KailKatarn Es que me venden una nueva por 500€ en eBay y no sé si pillármela.



Es complicado contestarte a eso porque todo depende del estado, tiempo de uso, si tiene garantía y tal, pero vamos, independientemente de todo eso y viendo a que precio están o quedarán las GTX1070 yo no pagaría más de 400 o como mucho 420 por una, pero claro, eso siempre depende de cada uno.

Un saludo!
por 500 me pillaría la 1070.
@KailKatarn Nueva de fábrica. El vendedor tiene 2 solo.

@Gromber Lo estuve meditando. La 1070 es más nueva, más potente para juegos pero, como punto flojo, tiene 1000 núcleos Cuda menos que la 980ti.

Ahora bien, ¿realmente depende de los Cuda para el diseño? Mil más no sé si será apreciable en los tiempos de render. Nunca he pasado de tener IMacs
hit está baneado por "Troll"
Imagen
@hit Esos resultados son de juegos supongo... De dónde sacáis las comparaciones? Me gustaría ver qué tal rinde con programas de diseño tochos como Autodesk Maya o Realflow.
hit está baneado por "Troll"
Buba-ho-tep escribió:@hit Esos resultados son de juegos supongo... De dónde sacáis las comparaciones? Me gustaría ver qué tal rinde con programas de diseño tochos como Autodesk Maya o Realflow.


si,son jugando...yo las comparaciones las saco mirando en otros foros(esta en concreto es de n3d)...de esos programas no sabría decirte...lo siento


Imagen

[fiu] [fiu]
@DeFT

Pues que no me fío de las filtraciones, y además tengo alergia a 3dmark como referente, a mí me gusta más ver el rendimiento en motores gráficos que realmente se partan el callo todos los díasn en forma de títulos concretos.

Ojalá de todas formas sea cierto que llega o incluso supera al rendimiento de la GTX 980, yo prefiero eso, que le saque una cierta ventaja a la 980 y que me pidan 300€ por ella, que se quede entre 970 y 980 y pidan 250€, por ejemplo (variante de 8 GB).

Ya veremos porque tiempo para ver rendimientos parece que habrá, con las 1070 totalmente fuera de stock y los precios despendolados por esta escasez por los piratas que hay en España en forma de tiendas (por la UE delante ya se ven algunas FE por 460€ pelados, alguna custom por 469€ de Inno3D, y ... poco más, porque no hay nada, triste pero cierto, stock en mínimos).

Estoy abierto a todas las alternativas porque tengo ganas de trastear este verano, y si una me lo pone mejor para pasar el rato, pues ésa, y si no... pues tiro con la GTX 970 dado que no es la falta de potencia lo que me mueve para esto (sobra no sobra, pero "necesitar" son palabras mayores). [+risas]


Dfx escribió:@wwwendigo Lo he leido varias veces y ahora que lo dices, el SLI funciona perfectamente en modo ventana sin bordes.

Realmente el SLI si puede funcionar en las UWP, ahora mismo en ROTTOR forzando el perfil se puede, pero el tress fx se vuelve loco, en quantum break lo desconozco si se puede, pero ya lo dijo alguien de Microsoft que realmente si no hay perfiles SLI es por que no se quiere, no por que no se pueda, se puede apuntar al ejecutable de la plataforma solo que no hay exe y te tienes que buscar un poco la vida.

Sobre volver a DX11, no creo que valga la pena a estas alturas, DX12 se acabara imponiendo mas tarde o mas temprano para las novedades, sobretodo para los AAA y ahi AMD necesita estar fuerte.


Coño, pero tú lo estás diciendo, FORZANDO el modo SLI, no de serie. Y además con el problema del TressFX (bastante curioso).

Y cuidado, no es lo mismo el ROTTOR en Steam que en la plataforma windows con toda la tostá (UWP y modo de ventana sin bordes), en Steam va "perfecto" en cuanto a que no necesita todas esas caralladas. Irá mejor o peor pero va. Con la versión de la tienda de microsoft, a juguetear.

Por cierto, supuestamente con UWP existen serios problemas para la detección de los exes por parte del driver gráfico y así habilitar los perfiles personalizados, esto es lo qu en teoría había detrás del fallo de los sistemas multigpu (y cualquier configuración personalizada en el driver para el programa, cosa nada extraña en sistemas monogpu). Si lo han arreglado y por fin funciona la autodetección de programas, bienvenido sea.

Pero me sigue pareciendo una colosal chapuza todo lo que tiene que ver con el binomio W10 y la tienda/plataforma de microsoft.


Sobre DX12 y DX11, es un hecho ya contrastado que es más fácil programar para DX11, así que muchísimos estudios pequeños se mantendrán usando DX11, porque además los potenciables beneficios de usar DX12 en su versión básica quedan limitados a poco más que la menor sobrecarga del API en cuanto a cpu, y muchos proyectos no tienen problemas en ese punto (y sí por ejemplo de potencia en la gpu, etc).

Como parece que no existe beneficio en cuanto a potencial gráfico ni nuevos efectos implementados realmente en DX12 (no por lo menos hasta que se empiece a usar DX12.1, lo que se ha visto hasta ahora con DX12 implementando las técnicas DX11 en supuestas formas más óptimas no llaman mucho la atención), pues más razones para usar DX11 en multitud de casos.

Sí, los engines grandes pueden permitirse el lujo de mantener ambas posibilidades, y además estos engines también los usan muchos desarrolladores pequeños, pero no todos.

Aparte está el hecho de que al ser DX12 exclusivo de W10 se tiene que mantener sí o sí paths de juegos para DX11, por no decir incluso DX9 si realmente quieres tener el máximo potencial de mercado posible, dado que te están limitando la plataforma objetivo. El mejor caso es Quantum Break, estoy seguro que sus ventas para windows10 son mínimas comparados con cualquier proyecto alternativo en DX12 existente, dado que estos sí mantienen un path alternativo de DX11 como mínimo.

La diferencia es que a microsoft le da igual que este juego no venda ya que lo está usando como promoción de W10/DX12, mientras otros están desarrollando para DX12 pero sin olvidar a los usuarios de DX11, porque es el mayor potencial de clientes que tienen.

Mira, por ejemplo mi propio caso, yo no uso W10 y por lo tanto estoy "bloqueado" en DX11, y no tengo intención de cambiar rápidamente a W10 aunque seguramente aproveche en el momento en que decida hacer una reinstalación del sistema. Y como yo muchos más que tienen alergia a ser "early adopters" de nada.

Saludos.
Buba-ho-tep escribió:@hit Esos resultados son de juegos supongo... De dónde sacáis las comparaciones? Me gustaría ver qué tal rinde con programas de diseño tochos como Autodesk Maya o Realflow.


¡Claramente pone fire strike ultra!
Es la tabla filtrada que corre en reddit desde ayer, cuando refutaban si el video del chino era real o no.
No compres ninguna todavía, bajarán sí o sí.
Esta tarde tendremos novedades en el PC Gaming Show?
hit escribió:Imagen

[fiu] [fiu]


490X?? eso es un fake como una casa no? más bien parece una 390...

PD: Cuándo se supone que empezarán a hablar de la 490? Supongo que poco después de sacar la RX480 deberían empezar a decir algo de la 490, y más si se supone que la han adelantado al último trimestre de este año, no? alguna posibilidad de que digan algo en la confe de hoy? (sí, estoy con el mono de ver la 490) [+risas] [+risas]
hit escribió:
Buba-ho-tep escribió:@hit Esos resultados son de juegos supongo... De dónde sacáis las comparaciones? Me gustaría ver qué tal rinde con programas de diseño tochos como Autodesk Maya o Realflow.


si,son jugando...yo las comparaciones las saco mirando en otros foros(esta en concreto es de n3d)...de esos programas no sabría decirte...lo siento


Imagen

[fiu] [fiu]


Fake

BIOS Part Number 113-T36G01-001

Que pertenece a esta tarjeta:

https://www.techpowerup.com/vgabios/181019/181019
Pacorrr escribió:
hit escribió:
Buba-ho-tep escribió:@hit Esos resultados son de juegos supongo... De dónde sacáis las comparaciones? Me gustaría ver qué tal rinde con programas de diseño tochos como Autodesk Maya o Realflow.


si,son jugando...yo las comparaciones las saco mirando en otros foros(esta en concreto es de n3d)...de esos programas no sabría decirte...lo siento


Imagen

[fiu] [fiu]


Fake

BIOS Part Number 113-T36G01-001

Que pertenece a esta tarjeta:

https://www.techpowerup.com/vgabios/181019/181019


Si, es fake. Eso apareció en videocardz para explicar lo fácil que es trucar el panel de control de Radeon y que aparezca lo que te de la gana.
@wwwendigo lo unico que se fuerza del perfil SLI es a que apunte a la app y no al ejecutable, luego que falten ahora ciertos arreglos para un modo como es el SLI minoritario, encima en una plataforma minoritaria, pues mas o menos es normal.

Es mas, se hablo de ello que UWP es perfectamente compatible, que lo unico que falta es el soporte, ya que ni el multigpu de DX12 ahora mismo funciona. Pero vamos, sin tress FX se puede jugar con SLI perfectamente.

Luego en otros como el forza o gears of war, el SLI no es necesario, con una 970 va sobrado.

Simplemente es para que tengas claro que el SLI y la venta sin bordes, no son incompatibles entre si, en el hilo del ROTTOR puse pruebas de como funciona perfectamente, incluso en otros juegos como F4.
Pacorrr escribió:Imagen

[qmparto]


no entiendo porque te ries.

Porque esta modificado? o porque con OC casi llega a una 1070?? XD
Pacorrr escribió: [qmparto]




Si esa tabla acaba siendo cierta y el precio cumple en este país preveo el tan de moda "sorpasso". Sería muy decente ese rendimiento con OC a un buen precio, sin lugar a dudas.
Pacorrr escribió:Imagen

[qmparto]


Perdona, esa risa es por que no te lo crees o por la bajada de pantalones que tendría que hacer nvidia con el precio de las 1070? no es muy exagerado el incremento con el OC? :-?
vergil escribió:
Pacorrr escribió:Imagen

[qmparto]


no entiendo porque te ries.

Porque esta modificado? o porque con OC casi llega a una 1070?? XD


Por lo segundo XD

Seguimos cogiéndolo con pinzas de todos modos, tampoco sabemos si 1400MHz es mucho overclock, no se saben las frecuencias finales, ni si esa tabla es fake o no.
la gente comprandose las 1070 por 500 euros y la 1080 por mucho mas xDDDDDDDDDD
MRVB está baneado por "Saltarse el ban con un clon"
Son fake....
5347 respuestas