Mas informacion sobre Fermi (nueva generacion de Nvidia)

1, 2, 3, 4, 513
Aqui tenemos dos imagenes donde muestran las principales caracteristicas del nuevo procesador grafico de Nvidia:

Imagen

Imagen

Tendra 448 cores, en vez de 512 como se decia al principio y consumira 225W

Ire actualizando el hilo cuanta mas informacion tenga.

Saludos
¿fuente? porque por lo que he leído estas características provienen de fuentes bastante poco fiables...

Cierto, pero ese es el chip que formara parte de las fermi aparte del GT300 segun dice el articulo de donde lo he extraido:
http://forums.overclockersclub.com/inde ... pic=171001

O no he entendido bien el articulo y es un fail, si es asi, perdon [+risas]
Scrible escribió:

Cierto, pero ese es el chip que formara parte de las fermi aparte del GT300 segun dice el articulo de donde lo he extraido:
http://forums.overclockersclub.com/inde ... pic=171001

O no he entendido bien el articulo y es un fail, si es asi, perdon [+risas]


Eso es, esos datos son de las nVidia Tesla, que son gráficas orientadas a superordenadores y cosas del estilo, aunque en base son las mismas gpu que Fermi. Aun asi, 448 cores me parecen pocos, se quedaría muy cerca en potencia de la GTX295 y por lo tanto muy cerca también de la HD5870 (pero no al mismo precio) así que para escritorio, al menos la version "TOP" tiene que salir con 512 cores o sino nVidia se meterá el tortazo otra vez.

Yo creo que es que quieren sacar esas Tesla basadas en Fermi antes que las GPU de escritorio, y han recortado unos cuantos cores para sacar más unidades funcionales por oblea (se ve que el número de chips funcionales de 512 cores era patético).
lynnfield escribió:Yo creo que es que quieren sacar esas Tesla basadas en Fermi antes que las GPU de escritorio, y han recortado unos cuantos cores para sacar más unidades funcionales por oblea (se ve que el número de chips funcionales de 512 cores era patético).

Esos es lo raro que aunque las especificaciones estén ya las Tesla se supone que salen después de las GeForce

La verdad es que Fermi cada día pinta peor, lo han diseñado pensando más en computación que en gráficos (quizás pensando en el Larrabee, que Intel ha cancelado ...)
Por ejemplo lo del ECC Nvidia presume de que el chip tiene ECC a todos los niveles (chequeo y corrección de errores).
Cuando el ECC se activa parte de la memoria se dedica a guarda datos redundantes así
las versiones de 6 GB pasan a usar 4GB por que los otros dos se quedan para corrección. Pero aunque el ECC se desactive el chip sigue teniendo transistores dedicados a ello (que ocuparan bastante espacio)

El ECC en ciertos entornos de computación puede ser muy util (de hecho lo han incluido a petición de desarrolladores)
¿Pero y en juegos de que sirve? pues prácticamente de nada.
Así que la versión GeForce de Fermi tendra un montón de transistores ocupando espacio (aumentando el coste, TDP, etc ..) para nada (El ECC no esta solo en el controlador de memoria, sino en las caches, los registros, todo ...).
Estamos hablando de un chip mastodontico con 3000 millones de transistores (frente a los 2100 millones de las ATI) un 50% más de transistores pero un 30% de las ALU's
Vale que los shader de Nvidia son escalares y no vectoriales, pero aun así ...

Como Nvidia no este eliminado el ECC en la GeForce para "adelgazar" el chip, y así poder aumentar la velocidad de reloj reducir TDP etc ... ,o lo muy veo crudo para ellos.

Cada día esto me recuerda más a las FX 5800 [ayay]
Harl escribió:
lynnfield escribió:Yo creo que es que quieren sacar esas Tesla basadas en Fermi antes que las GPU de escritorio, y han recortado unos cuantos cores para sacar más unidades funcionales por oblea (se ve que el número de chips funcionales de 512 cores era patético).

Esos es lo raro que aunque las especificaciones estén ya las Tesla se supone que salen después de las GeForce

La verdad es que Fermi cada día pinta peor, lo han diseñado pensando más en computación que en gráficos (quizás pensando en el Larrabee, que Intel ha cancelado ...)
Por ejemplo lo del ECC Nvidia presume de que el chip tiene ECC a todos los niveles (chequeo y corrección de errores).
Cuando el ECC se activa parte de la memoria se dedica a guarda datos redundantes así
las versiones de 6 GB pasan a usar 4GB por que los otros dos se quedan para corrección. Pero aunque el ECC se desactive el chip sigue teniendo transistores dedicados a ello (que ocuparan bastante espacio)

El ECC en ciertos entornos de computación puede ser muy util (de hecho lo han incluido a petición de desarrolladores)
¿Pero y en juegos de que sirve? pues prácticamente de nada.
Así que la versión GeForce de Fermi tendra un montón de transistores ocupando espacio (aumentando el coste, TDP, etc ..) para nada (El ECC no esta solo en el controlador de memoria, sino en las caches, los registros, todo ...).
Estamos hablando de un chip mastodontico con 3000 millones de transistores (frente a los 2100 millones de las ATI) un 50% más de transistores pero un 30% de las ALU's
Vale que los shader de Nvidia son escalares y no vectoriales, pero aun así ...

Como Nvidia no este eliminado el ECC en la GeForce para "adelgazar" el chip, y así poder aumentar la velocidad de reloj reducir TDP etc ... ,o lo muy veo crudo para ellos.

Cada día esto me recuerda más a las FX 5800 [ayay]


Por lo que suele aparecer en las animaciones que tiene nVidia en su web, no parece que vayan a desactivar el ecc en la versión de escritorio pero en fin, a mi también me huele a GeForce FX v2.0. Se supone que los shaders son un poco diferentes de las actuales, pues operan con MIMD en vez de SIMD que segun nVidia para juegos es más eficiente, pero de todas formas no creo que con eso vayan a mejorar mucho y ya como la version de escritorio la dejen con 448 Shaders no se que pensarán hacer...

Por lo menos parece que la velocidad de los shaders la van a mantener más o menos igual que en las GTX200, 1,2-1,4Ghz que no está mal para tener casi el doble de ellos.
Bueno ahora si que empiezan a verse detalles sobre la arquitectura (en lo que a juegos se refiere)

http://www.anandtech.com/video/showdoc.aspx?i=3721
http://www.tomshardware.com/reviews/gf1 ... ,2536.html

En lugar de una unidad de teselacion como las Radeon HD5***
tendrá una por cada cluster
La GF100 tendrá 16 GPC cada uno con 32 cuda cores (como llama nvidia a los shaders)
Con su raster engine y su "PolyMorf Engine" que maneja la geometría e incluye la teselación
una de las tareas más complejas del diseño fue la sincronización entre estas unidades
y seguramente contribuyo al retraso...
Imagen

Tambien hablan de los nuevos modos CSAA x32 y las mejoras en el TMAA (AA de transparencias)
de lo que no hablan todavía es de los relojes ni del tdp, etc ... (el lanzamiento esta previsto para marzo)
Pero a los que les guste leer sobre arquitecturas de chip ya tienen para entretenerse [ayay]
sacada hoy...

http://www.guru3d.com/article/nvidia-gf100-fermi-technology-preview/2

The GF100 will have:

512 CUDA processors (Unified Shader cores)
16 geometry units
4 raster Units
64 Texture Units
48 ROP engines
384-bit GDDR5 memory bus
DirectX 11 compatible.

Además de esto, el consumo es una burrada para ser mono gpu y por lo que dijeron en el CES y analizaron el sample que tuvieron, es muy ruidosa, mide más de 25cm y se calienta horrores :S

EDITO: en esta misma web han puesto lo que da "a día de hoy"

"For our second demo we'll look at a side by side comparison of a GT100 (left screen) and GeForce GTX 285 (right screen) based graphics card rendering Far Cry 2. Settings are 1920x1200, 4xAA 16AA with ULTRA settings (Guru3D tests at very high). The time-demo is ranch small.

System specifications:

Core i7 960 processor @ default 3.2 GHz
6 GB Memory
Windows 7 64-bit
The average FPS end result for the GTX 285 is 50 frames per second and just over 84 Frames per second for the GF100."


Es a simple vista una barbaridad viendo como la 5870 apenas saca 9 fps más que una GTX 285. Joe farcry 2 lo ha hecho nvidia o que? xDDD. Bueno a decir verdad es el único juego "pro-nvidia" que veo en las reviews donde hay un clarísimo favor a las tarjetas verdes :)

Quienes la quieran ya pueden preparar 500 talegos por tener una
Impresionantes cifras sí, pero supongo que Fermi necesitará otra caja de PC con dos fuentes de alimentación de 1220w cada una para que funcione... Yo creo que aunque la potencia gráfica es importante, también deberían centrar esfuerzos en la optimización y el consumo...
Avtom escribió:Impresionantes cifras sí, pero supongo que Fermi necesitará otra caja de PC con dos fuentes de alimentación de 1220w cada una para que funcione... Yo creo que aunque la potencia gráfica es importante, también deberían centrar esfuerzos en la optimización y el consumo...


AMEN! XD
Es un poco imposible pq por mucho que quieran reducir calor / consumo, el incremento en rendimiento generacional está ahí, y aunque se den casos contenidos (vease 5870 es el doble de potente que 4870 y consumen parejos o algo menos) no suele ser así ni mucho menos.

Lo que si que me mosquea es que "casualmente" hayan escogido FarCray2 para hacer esa prueba, cuyo caso es el único donde peor paradas salen las ATIs... más que curioso :)

Y la verdad tampoco es de sorprender que sean mejores q ue las ATIs a nivel general pues saldrán con 6 meses de diferencia respecto a estas últimas, y 6 meses en términos tecnológicos es pasar de la edad de piedra a los vuelos espaciales XD

Bromas aparte, las espero con impaciencia para que ATI baje sus precios y saque drivers más decentes.
Siii, lo he vito esta mañana, van a ser una burrada, en tesselation, y el los benchs dx11 le pega una paliza a la 5870. Que vbien que me espere, va a caer, va a caer, VA A CAER UNA en mis manos.
Test oficial del unigine proporcionado por nvidia
Imagen
VA A CAER UNA en mis manos.


Vas a gastarte también el pastón que vale? XD Hombre, por webos tiene que rendir más que las ATI, sólo por los 6 meses de demora... Sino, menuda estafa jeje.

Ya veremos que pasa que ATI ha anunciado ya su revisión de la RV870, lo que se traducirá en una 5890. Ya se vuelve a poner caliente la cosa jejej
Vas a gastarte también el pastón que vale?

Si no es la gtx380, es la gtx360, la que ande mas cercana rendimiento/precio que la 5870
Como hoy me siento pitoniso auguro que va a valer por lo menos, la 360 100 ó 120€ más que la 5870.

La 380 se acercará segurísimo a los 500€ y consumos de la 5970, cosa que realmente yo no me compraría porque una dual, es una dual ^^

El precio va a dictar su éxito o fracaso inicial.
Que va, no creo que la 360 este tan cara, estara sobre el precio de la 5870, y la 380 al precio de la 5970 (esperemos que menos [+risas] ). Y tampoco creo que consuman tanto.
Ya han dicho que sip, aparte del descomunal ruido y calor que emiten, pero vaya, no creo que más que una 5970 con OC jejejeje
djohny24 escribió:Como hoy me siento pitoniso auguro que va a valer por lo menos, la 360 100 ó 120€ más que la 5870.

La 380 se acercará segurísimo a los 500€ y consumos de la 5970, cosa que realmente yo no me compraría porque una dual, es una dual ^^

El precio va a dictar su éxito o fracaso inicial.


decir que se te ve el plumero es obvio no??... pero tenía que decirlo... en fin...

lo más normal, a la par que triste, es que tengas razón y que las GF100 sean carillas... eso sí, tengo una ligera sesación de que la GTX360 puede andar sobre 300-350€ y la GTX380 moverse sobre los 400-450€, que dados esos datos (supongo realizados en condiciones óptimas para nvidia), no son precios para tirarse de los pelos viendo la importante mejora sobre la HD5870 en algunos de los aspectos más importantes del nuevo DX11...

personalmente, dado que el SLI de GTX260 me está empezando a tocar bastante las narices, en vista de que fermi no era más que humo, humo y humo, estaba considerando tirarme a una HD5870 o incluso un CFX de HD5850, pero ahora sí que voy a esperar a ver qué sale en claro de de las GF100 y dependiendo de precios, rendimientos, consumos y demás, quizás una GTX380 o dos GTX360...
jaja sip, lo admito, pero por los precio / rendimiento. También indirectamente me interesa que salgan cuanto antes para que el mercado sufra una reducción de precios importante o al menos tangible.

Realmente merece tanto la pena tirar por gráficas de tan alto rendimiento? Cierto es que ahí están las primeras cifras y espero que no sean meras operaciones de marketing y contener a la gente, porque si realmente tienen un precio razonable y ATI no tiene competencia directa en precio / rendimiento, volveré a cogerme una nvidia como cuando en su día tenía las 6800 / 8800GTS.

Soy chaquetero y lo primero es mirar la guita, por eso "defiendo" a quien defiendo (con ciertos argumentos a ser posible). No me lo tengáis muy en cuenta [snif]

Ah EDITO:

Me deje de poner posts atrás esta noticia que no se comentó pero que también afecta a susodicha tarjetica:

http://www.fudzilla.com/content/view/17122/65/

"The card features a dual slot design and needs two power connectors, which is actually nothing new for this part of the graphics market. The cooler completely surrounds the card and our first impression was that the card was noisy and probably quite hot."

Imagen

Jo, por qué no las hacen todas más pequeñas?? Inclusive ATI. Realmente, no caben en una placa "normal"?
hombre eso de que merezca o no la pena depende en gran medida del nivel de exigencia que uno tenga...

por citarte mi caso particular, mi nivel de exigencia es, COMO MINIMO, 1920x1200 detalle máximo... GENERALMENTE, 1920x1200 detalle máximo AAx4 (por las características de mi monito)... IDEALMENTE, 1920x1200 detalle máximo filtros máximos... como te puedes hacer una idea, en este nivel cada fps vale su peso en oro, con lo cual PARA MI sí que merencen la pena (obviamente me lo puedo permitir y siempre dentro de un magen... no me voy a gastar 100-200€ más por unos tristes 5fps)...

evidentemente, con lo visto hoy, y a pesar que es bastante plausible que esos datos de mejora se rebajen un poquito en tests "neutrales", las GF100 tienen bastante pinta de poder con cierta holgura y bastante más cuando hablamos de exigencia brutal (filtros 32xCSAA, tesselation en DX11, físcas por GPU)... ¿que hay que verlas en acción en tests serios? es obvio, pero por el momento pintan bastante bien...

PD: yo no defiendo a nadie, así no me pueden sacar los colores... simplemente compro lo que me interesa y punto... se vive mejor xDD...

PD2: un prototipo es eso... no creo que sean tarjetas extremadamente ruidosas (seguramente esa llevara el ventilador al 80 o 100%) y ni excesivamente calientes ni tragonas (una GTX285 tira con una fuente de 550W, esperad lo mismo)...

PD3: pues hombre siendo gama entusiasta, están enfocadas a gente con cajas del mismo palo... aunque he visto un mod de un pavo que se ha metido una HD5870 en una caja "custom" con una placa mini-ITX DFI P55 y una RL con radiador triple (y no precisamente pequeño), así que todo es buscarse la vida y tirar de dremel xD...
LordArthas escribió:lo más normal, a la par que triste, es que tengas razón y que las GF100 sean carillas... eso sí, tengo una ligera sesación de que la GTX360 puede andar sobre 300-350€ y la GTX380 moverse sobre los 400-450€


Esos precios los firmaba ya mismo. Ojalá me equivoque, pero puestos a jugar a pitonisos, veo más GTX360 acercándose a los 400 y GTX380 a los 500.

El problema es que no me gustaría cambiar de ensamblador y seguir con EVGA, lo que haría que la broma me saliera todavía más cara, aunque merece la pena. En fin, esperaremos acontecimientos...
Manjimaru escribió:
LordArthas escribió:lo más normal, a la par que triste, es que tengas razón y que las GF100 sean carillas... eso sí, tengo una ligera sesación de que la GTX360 puede andar sobre 300-350€ y la GTX380 moverse sobre los 400-450€


Esos precios los firmaba ya mismo. Ojalá me equivoque, pero puestos a jugar a pitonisos, veo más GTX360 acercándose a los 400 y GTX380 a los 500.

El problema es que no me gustaría cambiar de ensamblador y seguir con EVGA, lo que haría que la broma me saliera todavía más cara, aunque merece la pena. En fin, esperaremos acontecimientos...


La verdad es que no veo necesario cambiar una GTX 285...es una grafica mas que respetable.Rinde mas que mi 5770 que es de la nueva generacion.Pero bueno,siempre podras sacar algo de dinero por ella.

Eso si,precios inflados eh?Eso de la relacion calidad/precio...no lo deben de llevar bien XD
Si os interesa en Guru3D acaban de poner una Preview de la tecnología en las GF100:
http://www.guru3d.com/article/nvidia-gf ... -preview/1

Solo explican las tecnologías por eso, no hay comparativas ni nada.
De esa misma info es sobre la que estamos hablando, y si alguna comparativa hay por ahi suelta que destrozan a la 5870, o que la compraran con la 285
En algunos sitios comentan que la supuesta GTX380 a nVidia le sale más cara de fabricar que a ATI la HD5970, mmm, lo bueno es que como salgan por los precios que comentais ATI bajara los precios de las suyas y nVidia tendrá que hacer lo mismo, una GTX360 por 300€ que rinda un poco más que la HD5870 estaría muy bien.

Aun asi, Fermi no deja de ser una obra maestra de arquitectura, realmente se han roto la cabeza los ingenieros de nVidia con las Polymorph engine y los raster engine. [360º]
espero que sean un pepino
El hecho de sacar este tipo de arquitectura es una maravilla sin duda, lo que me apena es que muchas tecnologías quedan en el olvido porque no sacaron soporte para juegos / programas, espero que aquí no ocurra y poco a poco si se nota en liberar rendimiento a la CPU/GPU sería un puntazo como lo era en su día Transform & Lighting, que liberaba muchísima carga dando además formas más complejas.

A ver en que queda todo esto!
A ver que tal salen las tope de gama.
Personalmente no espero que se crujan demasiado a un CF de 5870's. En el Unigine saco 72,4 fps de average XD
Pero oye, si así es, yo no tengo firmado nada con ATI. xDDD
Y yo me pregunto porque no emplean las tecnologias que estan utilizando para ION y sacan series para pc de sobremesa con consumos reducidos, tamaño reducido y temperaturas reducidas. Si analizamos bien no hay termino medio, pasamos de gráficas integradas con muy poco rendimiento a centrales nucleares enormes caras y calurosas. No podrían coger una gtx285 y manteniendo su rendimiento optimizarla?, reducir los nm del procesador,etc
En nvidia el salto es muy cualitativo en cuanto a rendimiento y consumo, si que se le echa en falta un producto en la mitad, que tenga un consumo contenido, con un rendimiento para el usuario "normal".
Ballantines escribió:Y yo me pregunto porque no emplean las tecnologias que estan utilizando para ION y sacan series para pc de sobremesa con consumos reducidos, tamaño reducido y temperaturas reducidas. Si analizamos bien no hay termino medio, pasamos de gráficas integradas con muy poco rendimiento a centrales nucleares enormes caras y calurosas. No podrían coger una gtx285 y manteniendo su rendimiento optimizarla?, reducir los nm del procesador,etc


Creo que van a hacer algo asi, sacar gt200 a 40nm, pero para gama media. De todas formas no comparemos ION con Fermi, que posiblemente estemos hablando de 50 veces más rendimiento como minimo, y una tarjeta mucho más capacitada para todo. Bastante habrán hecho ya con el consumo, de donde no hay no se puede sacar jeje...

Tambien los Atom consumen mucho menos que los Core 2 Duo, y de la diferencia de rendimiento es mejor no hablar jeje ;) .
djohny24 escribió:jaja sip, lo admito, pero por los precio / rendimiento. También indirectamente me interesa que salgan cuanto antes para que el mercado sufra una reducción de precios importante o al menos tangible.

Realmente merece tanto la pena tirar por gráficas de tan alto rendimiento? Cierto es que ahí están las primeras cifras y espero que no sean meras operaciones de marketing y contener a la gente, porque si realmente tienen un precio razonable y ATI no tiene competencia directa en precio / rendimiento, volveré a cogerme una nvidia como cuando en su día tenía las 6800 / 8800GTS.

Soy chaquetero y lo primero es mirar la guita, por eso "defiendo" a quien defiendo (con ciertos argumentos a ser posible). No me lo tengáis muy en cuenta [snif]

Ah EDITO:

Me deje de poner posts atrás esta noticia que no se comentó pero que también afecta a susodicha tarjetica:

http://www.fudzilla.com/content/view/17122/65/

"The card features a dual slot design and needs two power connectors, which is actually nothing new for this part of the graphics market. The cooler completely surrounds the card and our first impression was that the card was noisy and probably quite hot."

Imagen

Jo, por qué no las hacen todas más pequeñas?? Inclusive ATI. Realmente, no caben en una placa "normal"?


Y créeme, este es un asunto que me preocupa, los componentes de PC en vez de ir disminuyendo de tamaño, van creciendo, es una tendencia que me esta empezando a molestar.

PD: Interesante foto, buen aporte.
lynnfield escribió:
Ballantines escribió:Y yo me pregunto porque no emplean las tecnologias que estan utilizando para ION y sacan series para pc de sobremesa con consumos reducidos, tamaño reducido y temperaturas reducidas. Si analizamos bien no hay termino medio, pasamos de gráficas integradas con muy poco rendimiento a centrales nucleares enormes caras y calurosas. No podrían coger una gtx285 y manteniendo su rendimiento optimizarla?, reducir los nm del procesador,etc


Creo que van a hacer algo asi, sacar gt200 a 40nm, pero para gama media. De todas formas no comparemos ION con Fermi, que posiblemente estemos hablando de 50 veces más rendimiento como minimo, y una tarjeta mucho más capacitada para todo. Bastante habrán hecho ya con el consumo, de donde no hay no se puede sacar jeje...

Tambien los Atom consumen mucho menos que los Core 2 Duo, y de la diferencia de rendimiento es mejor no hablar jeje ;) .



Por eso digo, que pasamos de un extremo a otro, de consumo minimo y rendimiento ajustado a rendimiento bruto y consumo exagerado. Sin embargo la "gama media" que sacan, como la gtx260 y la gtx250 siguen siendo igual de grandotas y bastorras que sus hermanas mayores. Podrian intentar que la gama media fuera single slot o incluso con refrigeracion pasiva.
Parece que ya tenemos los nombres para las nuevas Fermi... GTX480/470. La serie GTX380/370 a tomar por cu*****. Con una 310 hay de sobra XD
Seguro que han modificado ya tanto esta nueva serie de arriba a abajo que hasta han tenido que cambiar el nombre.

Un Saludo.
e4ff00 escribió:Parece que ya tenemos los nombres para las nuevas Fermi... GTX480/470. La serie GTX380/370 a tomar por cu*****. Con una 310 hay de sobra XD
Seguro que han modificado ya tanto esta nueva serie de arriba a abajo que hasta han tenido que cambiar el nombre.

Un Saludo.


Eso es lo que quieren que pensamos en marketing ...

Al menos no habra confusion con los modelos 3**M (los de portatiles) que anunciaron hace poco y son 2**M renombradas.

Tampoco olvidemos que se saltaron las 1** y los modelos que salieron como la GT140 era otro chip renombrado :o
Eh? Lol, hay que joderse, estos de nvidia son la bomba poniendo nombres, que te apuestas que ahora apareceran graficas de la serie 200 renombradas, como si fueran de la 300. [qmparto]
Anubi escribió:que te apuestas que ahora apareceran graficas de la serie 200 renombradas, como si fueran de la 300. [qmparto]


Si, y la gente comprando y pensando que son las nuevas Fermi... esperemos de que no haya muchos asi, victimas de confusion.

EDITO: aaaah y como ahora se trata de un nombre nuevo vamos a subir mas los precios, que hay excusa XD
e4ff00 escribió:
Anubi escribió:que te apuestas que ahora apareceran graficas de la serie 200 renombradas, como si fueran de la 300. [qmparto]


Si, y la gente comprando y pensando que son las nuevas Fermi... esperemos de que no haya muchos asi, victimas de confusion.

EDITO: aaaah y como ahora se trata de un nombre nuevo vamos a subir mas los precios, que hay excusa XD


La gente que las compre no lo hara pensando que es una Fermi, entre otras cosas porque no tendrá ni idea de lo que narices es Fermi XD. Estas gráficas no me la colarán ni a tí, ni a mi, ni a nadie de aquí porque sabemos del tema, se la colaran al pobrecillo de turno que vaya al MierdaMarkt o a una tienda poco seria, vamos, lo de siempre.
Marcos1 escribió:
e4ff00 escribió:
Anubi escribió:que te apuestas que ahora apareceran graficas de la serie 200 renombradas, como si fueran de la 300. [qmparto]


Si, y la gente comprando y pensando que son las nuevas Fermi... esperemos de que no haya muchos asi, victimas de confusion.

EDITO: aaaah y como ahora se trata de un nombre nuevo vamos a subir mas los precios, que hay excusa XD


La gente que las compre no lo hara pensando que es una Fermi, entre otras cosas porque no tendrá ni idea de lo que narices es Fermi XD. Estas gráficas no me la colarán ni a tí, ni a mi, ni a nadie de aquí porque sabemos del tema, se la colaran al pobrecillo de turno que vaya al MierdaMarkt o a una tienda poco seria, vamos, lo de siempre.


Bueno en el mediamarkt les colaran una nvidia serie 7xxx a precio de una fermi.
Anubi escribió:Eh? Lol, hay que joderse, estos de nvidia son la bomba poniendo nombres, que te apuestas que ahora apareceran graficas de la serie 200 renombradas, como si fueran de la 300. [qmparto]


pues al paso que van no me parecería descablellado que sacaran el GT212, la revisión del GT200 a 40nm con soporte DX10.1, vamos de la familia de las GT220/240 pero con chicha, con la denominación GTX300, aunque ya es algo tarde (en octubre, al ver que no llegaban con fermi, era buen momento)... y seguro que por rendimiento no iban muy por debajo de las HD5000...

en fin, los catetos que no leen ni tienen intención de hacerlo) a pagar religiosamente lo mismo que ya tienen...
nvidia = caro
ati= barato

eso si la nvidia se comera a las ati, pero ati ya a ganado suficiente antes sikiera de que las nvida ayan salido
Por fin dan fechas para la salida oficial de las graficas, y es mas de lo que se esperaba, para finales de abril, principios de mayo, pero lo bueno es que aseguran que habra disponibles varios modelos para cumplir con la gama media-alta y baja
VIA http://www.guru3d.com/news/volume-nvidi ... -may-2010/
Anubi escribió:Por fin dan fechas para la salida oficial de las graficas, y es mas de lo que se esperaba, para finales de abril, principios de marzo, pero lo bueno es que aseguran que habra disponibles varios modelos para cumplir con la gama media-alta y baja
VIA http://www.guru3d.com/news/volume-nvidi ... -may-2010/


Finales de abril principios de mayo o sea que quedan más de 2 meses (casi 3) ...
Corregido [+risas] es lo que queria poner, pero se me fue la pinza
Joooe, menos mal que acabe comprandome la 5970 porque si no me da algo, esperando hasta abril o mayo
Yo por lo menos me espero a las reviews, si no me convencen, o 5870 o 5770cf
Pues nada, habrá que armarse de paciencia...

Yo contaba con ellas para marzo, y ver el "Metro 2033" con DX11 y physX, que al final llevará efectos de los 2 tipos...

El problema es que luego sean la puta caña y por "desesperaos" habernos gastado el dinero en una serie 5, que sería una buenísima compra también, me parecen gráficas increíbles, pero puestos a invertir 400/500€ más vale estar convencido de lo que uno compra, y no hacerlo por prisa, además innecesaria...

Un saludo
Y digo yo, veo a la gente vendiendo como locos GTX que costaron un paston y 4570 hacia arriba para pillarse casi la misma grafica pero co DX11....

Pero si aun no hay nada para DX11 y se sabe que va a tardar un tiempo, y los juegos actuales van perfectamente hasta con una 8800GT (yo tengo una) y juego a todo...porque tanta prisa en que saquen algo que ahora mismo no hace falta?

Este mundo es de locos, la gente critica a las consolas porque solo tienen una duracion de 5 años, y en pc en cambio la gente como loca por cambiar de grafica y cpu cada año sino es antes...yo desde luego no pienso cambiar de pc cada año, simplemente por moda o porque los programadores pasen de optimizar codigos en pc y solo lo hagan para consola....
nogarder escribió:Y digo yo, veo a la gente vendiendo como locos GTX que costaron un paston y 4570 hacia arriba para pillarse casi la misma grafica pero co DX11....

Pero si aun no hay nada para DX11 y se sabe que va a tardar un tiempo, y los juegos actuales van perfectamente hasta con una 8800GT (yo tengo una) y juego a todo...porque tanta prisa en que saquen algo que ahora mismo no hace falta?

Este mundo es de locos, la gente critica a las consolas porque solo tienen una duracion de 5 años, y en pc en cambio la gente como loca por cambiar de grafica y cpu cada año sino es antes...yo desde luego no pienso cambiar de pc cada año, simplemente por moda o porque los programadores pasen de optimizar codigos en pc y solo lo hagan para consola....


Yo cambie a una ATI 5770,pero porque antes tenia una 8500GT 512MB DDR3 XD que me iban los juegos como la mierda,pero lo que dices es cierto,veo gente con GTX295 vendiendolas de 2ª mano para comprar una GTX 495 XDDDD pero bueno,si tienen el dinero hay que respetar que se lo gasten en lo que les de la gana.Ahora,yo tengo claro que mi grafica va a durar como minimo 2 años y medio.

Salu2!
628 respuestas
1, 2, 3, 4, 513