Sacaran también un socket para tener que cambiar de placa base?
No dijeron nvidia, que no iban a utilizar esa arquitectura de shaders unificados?
Eso dijeron, y eso y los 700 millones de transistores me hacen desconficar
mucho de esa info
Si es verdad que tiene 700 millones de transistores debe ser que usa
dos chips o algo raro por que no creo que a estas alturas pueden hacer un
chip con esa cantidad de transistores, además de carisimo no podrían
suministrarle corriente y se calentaría que da gusto ...
Si se dejasen de tanta tarjetita nueva y se dedicasen los programadores a optimizar al máximo sus juegos para un hardware limitado, una 6800GT duraría como 5 años o más y no habría que cambiar de hardware cada dos por tres para jugar decentemente. Qué demonios, no creo que el oblivion vaya bien con el detalle a tope, nisiquiera con una tarjeta gráfica de ésas pinchada en un conroe E6800 con 4Gb de ram
Las nuevas G80 serán una pasada, pero 300W de consumo sólo en la gráfica me parece simple y llanamente una BURRADA.
Clockman escribió:Siento reventar el hilo pero ...
Si se dejasen de tanta tarjetita nueva y se dedicasen los programadores a optimizar al máximo sus juegos para un hardware limitado, una 6800GT duraría como 5 años o más y no habría que cambiar de hardware cada dos por tres para jugar decentemente. Qué demonios, no creo que el oblivion vaya bien con el detalle a tope, nisiquiera con una tarjeta gráfica de ésas pinchada en un conroe E6800 con 4Gb de ram
Las nuevas G80 serán una pasada, pero 300W de consumo sólo en la gráfica me parece simple y llanamente una BURRADA.
De acuerdo contigo pero es todo acerda del dinero, cuando me entere de los 250 de la ati, me parecio exagerado por eso queria saber cuanto consumira esta.. no se.. si en este año aparece una tarjeta con esos requerimientos me pondre de malas
Yo lo que estoy acojonado es con lo de 128 unified shaders at 1350 mhz.........
Joder, que el vanagloriado Xenos "solo" tiene 48 unidades a 500 Mhz..............
Brutal
Eso no dice mucho. No se sabe que eficiencia tendrían esos
shaders y además las tarjetas de Pc quieren usarlas para resoluciones
más altas (hay gente que juega a 2560x1600 y además pretende usar
AA)
Y claro tampoco es oficial (a mi cada vez me parecen más increibles
los datos que van apareciendo)