Mas informacion sobre Fermi (nueva generacion de Nvidia)

Nvidia me parece que como no tenga un as bajo la manga , la ha cagado.
DeFT escribió:EDITO: Pues no pude leer ninguna review... Juas, cómo os toman el pelo.


Cuenta con el desfase horario, a las 7 pm de allí son aprox. las 2 am de aquí.



Saludos!
http://www.guru3d.com/article/geforce-g ... 80-review/

Traductor automatico

Veredicto final

¡Ouch! Mis dedos heridos de escribir. Oye, ¿sabes qué, definitivamente, tanto como la GeForce GTX 470 y 480. En cuanto al rendimiento son las cosas un aspecto muy sólido, incluso con controladores beta temprana. ¿Podría esta serie han sido puestos en libertad hace seis meses, todo el mundo habría sido histérica con comentarios delirando. Pero sí ... hay, por supuesto, fue la misma empresa ATI, que definitivamente tiene su derecho material en el primer intento y salió corriendo como un perro con un hueso de carne fresca de Niza para masticar. El listón está muy alto por el bien de ATI.

Es cierto que si bien es muy fuerte, tanto la GeForce GTX 470 y 480 no son un slam dunk jonrón más rápido en comparación con la ATI 5800 serie única de soluciones de GPU. La referencia Radeon HD 5870 mantiene con la GTX 480 bastante bien en muchas ocasiones y un hecho es que la picadura, su precio está bajando poco a poco hacia 429 dólares, que baja de 469 dólares (que es un hecho interesante por sí mismo, ya que fue lanzado en 399 USD). ATI obtiene mucho beneficios de la liberación de sus drivers Catalyst 10,3 (utilizados en esta revisión). El nuevo driver trae incremento en el rendimiento en toda la Radeon HD 5800 y 5900 series. Rendimiento se ha mejorado en un montón de títulos de juegos. ¿No han liberado ATI Catalyst 10,3 a tiempo, este examen se han analizado diferentes. Usted probablemente notará un examen o dos en la web utilizando controladores antiguos.

Lo divertido es, en un par de meses, lo mismo sucederá con los controladores de NVIDIA para los nuevos, el 10% aquí, el 7% no .. hey, así es como funciona.

Aun así, cuando coinciden los resultados de todos los títulos de la prueba, la GeForce GTX 480 victorias en casi todas partes, excepto en Anno 1404 e, irónicamente, 3DMark Vantage. Hay escenarios en los que la GTX 480 está muy cerca de los 5870, pero también hay situaciones en las que la GTX 480 completa y totalmente inicia la Radeon HD 5870 en las nueces proverbial. Lo que me sorprendió fue el hecho de que dicen de hasta 1280x1024 a 1920x1200 NVIDIA parece más fuerte que la competencia. Y a 2560x1600 las cosas tienden a igualar mucho más.

Cuando nos concentramos únicamente en la GTX 480 ahora por un minuto, sin clasificar y tema de debate, evidentemente tiene que ser el TDP - la tarjeta cuando está estresado utilizará cerca de 250 Watts y que sin duda es el consumo de energía muy fuerte, especialmente en comparación con ATI Radeon 5870 con un TDP de 188W solo. Usted va a necesitar un PC decentemente ventilado como el calor de la GeForce GTX 480 produce es abundante. No se equivoquen, la tarjeta se pondrá caliente, muy caliente. Así que eso es definitivamente algo que usted necesita para mantenerse en la parte posterior de su cabeza.

Al final, sin embargo, la GeForce GTX 480 es una tarjeta gráfica que patea traseros, que es sin duda la GPU más rápida sola tarjeta gráfica basada en el bloque. El rendimiento es grande e impresionante y bien, es sólo una tarjeta de enfermos de jugar todos los juegos modernos con cualquier resolución o la preferencia de calidad de imagen.

La GeForce GTX 470 después - obviamente esta tarjeta está alineado contra el ATI Radeon HD 5850. Se puede competir con ella muy bien. Precio sabio es definitivamente la más interesante de las dos tarjetas a prueba hoy. Esperamos que, una vez que la disponibilidad de volumen se activa, esta tarjeta se reducirá a aproximadamente 300 USD. En cuanto al rendimiento que estamos buscando a un producto que se posiciona Smack Down en la ATI Radeon HD 5850 Medio nivel de rendimiento y, como tal, es una tarjeta muy agradable a propio. TDP de 215W sabios nos parece que el consumo de energía es razonable, y mucho, como la GTX 480, también necesitamos afirmar que la salida de calor de la tarjeta en la actualidad es alto, pero aunque no tan alta como la GTX 480. De hecho, tenemos la corazonada de que NVIDIA que reprogramar el delta del RPM del ventilador muy pronto, lo que obligó el RPM de velocidad del ventilador en un 70% que ni siquiera todos los ruidosos, empujó de nuevo a las temperaturas de 80 grados Celsius, realmente rápido. El sabio juego es, obviamente, el rendimiento y la gran calidad de imagen que los resultados se ranking muy alto también. Dinero frente al rendimiento sabia yo diría que la GTX 470 es el ganador de las dos en realidad.

Como este artículo ha puesto de manifiesto, los títulos más recientes de software se beneficiarán enormemente de la nueva serie NVIDIA GeForce 400 tarjetas gráficas. Planeta 2033 es simplemente impresionante para jugar y cuando se mira el Just Cause 2 puntos de referencia todo lo que puede hacer es sentarse allí, ver, con la boca abierta. Impresionante a la vista y el rendimiento es simplemente brillante combinado con ajustes de calidad masiva de la imagen. Consolas .. comer tu corazón!

Así que ahí lo tienen ustedes, las temperaturas en el TDP y definitivamente se puede considerar insignificante, pero para la mayoría de ustedes que no es un problema, son sin duda mirando la GPU más rápida en el bloque en sus respectivas categorías. Los beneficios adicionales para las tarjetas de NVIDIA PhysX son de curso que definitivamente está ganando más terreno desde el año pasado. Es una buena característica a tener, seguro ... CUDA, nosotros no hemos hablado mucho todavía. Pero, obviamente, la GPU GF100 están plenamente CUDA listo, de hecho, la arquitectura se ha diseñado con CUDA en mente. En el cómputo lado de las cosas que sabemos una cosa segura, la GF100 debe ser impresionante.

Rendimiento DX11 - lo que hemos observado en nuestras sesiones de prueba es que la GeForce GTX 470 y 480 mantienen su posición muy bien en aplicaciones DX11. Rendimiento mosaico es francamente increíble, la opción de poner un tesselator HW en cada SM (grupo de sombreado) definitivamente parece ser la decisión correcta de hacer una arquitectura inteligente.

Muy bien, déjame cerrar esta conclusión. Cuando miramos exclusivamente a la calidad de imagen y el rendimiento del juego bruta, que es donde la GTX 470 ($ 349) y 480 ($ 499) brillan, que están imponiendo, impresionante y sin duda las tarjetas que ofrecen una enorme cantidad de rendimiento. La fuerza bruta es lo que recibirá con estos productos. Tuvimos una explosión para la prueba segura de que los conductores prudentes y simplemente no encuentra cualquier tipo de cuestiones. Precio / prestaciones sabio sentimos la GTX 480 tiene un precio de un corte demasiado alta sin embargo. Y con una diferencia de 150 USD que hace que el ganador de los dos la GTX 470. El consenso genérico tiene que ser que la GeForce GTX 480 es definitivamente más rápido que el buque insignia de la que actualmente encabeza sola GPU desde el rojo del equipo, la Radeon HD 5870. Como tal, la GeForce GTX es más que suficientemente convincente y hace una impresión muy fuerte. NVIDIA recupera la corona de rendimiento y está de vuelta en la silla como un vaquero después de un tiroteo dura, montar a su caballo en la puesta de sol. Nunca, nunca tiene la industria de tarjetas de gráficos estado tan cerca en lo que respecta a la competencia pura, y ustedes saben lo que ... nos encanta.

Ahora traiga en las juntas Board Partner "y vamos a algunos comentarios más por ahí. En la semana que viene debería ver algunos disponibilidad decente en el e-cola. Y bueno .. mayo 2010 tal vez ya para mediados de la primera gama de la serie de clases de 400 productos?
Llevo un rato intentando leerlo, pero esta saturado el server, lol
solo me dio tiempo a ver el bench del battlefield, la 470 igual que la 5850, y la 480 4fps mas que la 5870
La ostia, 35 páginas de review en inglés, bueno, me lo voy a tomar con calma.

Si leo el texto del traductor automático puede que mi castellano se vea gravemente dañado.

4 fps más que la HD 5870... juas, 6 meses para eso, qué grandes nVidia! Más cara, más consumo y casi igual de rendimiento, para lanzar esto te esperas otros 6 meses y luchas contra la serie HD 6xxx, total...


Saludos!
litio5000 escribió:http://hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

videos de ruido y consumo.


La ostia, como chupan!!

Guru3D tiene el server petadísimo, no logro entrar.


Saludos!
bueno, pues no ha sido el ostión FX que me temía... de hecho hasta tienen buena pinta y todo...

eso sí, lo drivers parecen verdes (esto sí que es vergonzoso), en unos test la GTX480 se acaba puliendo hasta la HD5970 (¿?!!!) y en otros es peor que la GTX295... esperemos mejoras, aunque auguro guerra...
LordArthas escribió:bueno, pues no ha sido el ostión FX que me temía... de hecho hasta tienen buena pinta y todo...

eso sí, lo drivers parecen verdes (esto sí que es vergonzoso), en unos test la GTX480 se acaba puliendo hasta la HD5970 (¿?!!!) y en otros es peor que la GTX295... esperemos mejoras, aunque auguro guerra...


¿ No te ha parecido hostión ?...

Pues a mi no me han convencido lo más mínimo. Con ese consumo, por encima de los 90º una gtx 480 single GPU, 100 € más cara que una 5870, y en el "Bench" de Crysis a 1900x1200 de Guru 3D solo le saca 6 fps de media a la 5870... ufff

Si no es hostión, por lo menos es patinazo... XD

Igual cada uno lo ve de una manera, pero para mi no es un producto a la altura de lo esperado...
A mi tampoco me han convencido lo mas minimo pero e de decir q tampoco estan tan y tan mal como se comentaba, si los drivers estan verdes pero tampoco creo q como los depuren ganen una barbaridad. Lo mas preocipante son la temperatura y el consumo respecto a sus competidoras por cierto tb se ve q en algunos test tienen un rendimiento superior a las ati y en otros bajan un monton.
estas graficas con OC se derriten...
ostión para nada... las 9700/9800 pro arrasaban literalmente a las FX5800/5900, éstas por lo menos son mejores que sus homónimas ATI... no sé por qué se esperaba que la GTX480 doblara a la HD5870, nvidia ha tenido problemas con el diseño del chip, pero no deja de ser el mismo chip que iba a salir en noviembre, no le pidáis peras al olmo que un rediseño del chip hubiera llevado a nvidia a perderse directamente esta generación (que visto lo visto, si hubieran sacado el GT212 con 384SP a 40nm DX10.1 hasta les hubiera ido mejor)...

luego el consumo, pues el que anda en estos niveles no creo que se preocupe del gasto... el precio es novedad de lanzamiento, en cosa de un mes se estabilizará sobre los 380-400€ la GTX480 y los 280-300€ la GTX470 (y tampoco es que las HD5870 sean un regalo, que bajarlas de 350€ es complicado)...

y 6fps en Crysis pueden traducirse en 20 en cualquier otro juego... eh!!! y el Metro 2033 va a a haber que empezar a nombrarlo, que manda cojones el jueguecito xDD...

PD: eso sí, hasta dentro de un mes o dos no se verá si ha habido patinazo (lo mismo hay unos BigBang por ahí) y el tamaño del mismo...
Manjimaru escribió:
LordArthas escribió:bueno, pues no ha sido el ostión FX que me temía... de hecho hasta tienen buena pinta y todo...

eso sí, lo drivers parecen verdes (esto sí que es vergonzoso), en unos test la GTX480 se acaba puliendo hasta la HD5970 (¿?!!!) y en otros es peor que la GTX295... esperemos mejoras, aunque auguro guerra...


¿ No te ha parecido hostión ?...

Pues a mi no me han convencido lo más mínimo. Con ese consumo, por encima de los 90º una gtx 480 single GPU, 100 € más cara que una 5870, y en el "Bench" de Crysis a 1900x1200 de Guru 3D solo le saca 6 fps de media a la 5870... ufff

Si no es hostión, por lo menos es patinazo... XD

Igual cada uno lo ve de una manera, pero para mi no es un producto a la altura de lo esperado...


La objetividad me lleva a que veáis que no son acordes ni en rendimiento, consumo y precio, son tres puntos negativos, eso sin contar la falta de stock que habrá, la infinidad que saldrán mal, etc.

Si no queréis ver un NV30 segunda parte es otra cosa, para mí lo son. Si no me alegro de que se hayan dado el gran batacazo es porque al haber competencia directa bajarían (por fin) los precios de las 58x0, aunque esto sólo sucederá cuando nvidia sea razonable (que no lo será). Así que, para mí como si se hubieran saltado esta generación.

Para quien no sea importante el consumo puede verlo de dos formas: una menor factura de la luz (que esta cada vez sube más y ni os enteráis) y más conciencia por el medio ambiente.
La verdad q como dice lordarthas la gente se esperaba la panacea, q si doblarian la 5870 etc. Y la realidad es q estarian a la par mas o menos. Pero tb estoy deacuerdo con deft q tiene varios puntos negro y importantes: consumo, temperatura (llegando casi a los 90 i pico en carga) y eso q no estamos en verano , y tb el precio.
MIrar lo que rula ya por ahí

Imagen

que cachondos...cocinando ,por cierto parece que Ati estan subiendo de precio en vez de bajar.

Fuente
foro noticias 3d
Consumen y se calientan bastante más que la HD 5870 siendo esta más barata, añadido a la no notable ganancia de rendimiento. Si esto no es patinazo que baje el santo de las gráficas y lo vea.

Yo no sé si es por los drivers o optimización de algunos juegos, pero los resultados de rendimiento son muy dispares. Con el Far Cry 2 me he quedado así: Oooh


Saludos!
litio5000 escribió:MIrar lo que rula ya por ahí

Imagen

que cachondos...cocinando ,por cierto parece que Ati estan subiendo de precio en vez de bajar.

Fuente
foro noticias 3d


ATI es una empresa (con lo que sólo quiere beneficios) pero podría ganarse el corazón el respeto de muchos si tuviera una actitud coherente y no tan capitalista... Aunque supongo que al estar tan cerca de los americanos todo ese afán de lucro se pega...
No creo que cambie, no voy a negar que siempre he sido más de AMD y ATI por eso de ser David contra Goliath, pero no me gusta su política. De los males siempre el menor, y aunque ATI sea malo, Nvidia siempre será peor en todo. (Doctor, ¿qué me pasa, soy un fanboy? D:)
DeFT escribió:si tuviera una actitud coherente y no tan capitalista... Aunque supongo que al estar tan cerca de los americanos todo ese afán de lucro se pega...


Claro, ATI tendría que ser una ONG.
Justamente antes he visto que la HD 5770 ha subido de precio... Está claro que ATI no es una ONG pero eso no quita que podamos estar decepcionados. En parte es culpa de nVidia por no estar a la altura, si hubieran sido más competentes, otro gallo cantaría.


Saludos!
firewire escribió:Justamente antes he visto que la HD 5770 ha subido de precio... Está claro que ATI no es una ONG pero eso no quita que podamos estar decepcionados. En parte es culpa de nVidia por no estar a la altura, si hubieran sido más competentes, otro gallo cantaría.


Saludos!

¿Dónde? Siguen por 140-150... en pccomp...
Yo no he dicho que fuera una ONG, sino que nvidia tiene ganado a pulso que es una compañía pésima que no cuida a sus clientes, etc. etc. etc. En la generación 48x0 ATI lo hizo de 9, en esta lo está haciendo de 7 y bajando. La putada es que sólo haya una alternativa. Habrá que confiar en el larrabee xDDD
firewire escribió:Justamente antes he visto que la HD 5770 ha subido de precio... Está claro que ATI no es una ONG pero eso no quita que podamos estar decepcionados. En parte es culpa de nVidia por no estar a la altura, si hubieran sido más competentes, otro gallo cantaría.


Saludos!


Yo compré la 5850 por 250€ el día que salió. El problema es que se venden como churros, porque son buenas gráficas, y si la demanda aumenta, el precio también, eso es libre mercado, es el comprador el que paga libremente 300€ por la 5850, por lo tanto la 5850 vale 300€, porque consume muy poco, porque genera poco calor, porque lleva meses de anticipación puliendo los drivers, porque tiene mucha más experiencia con las aplicaciones DX11... y después de lo que acaba de mostrar Nvidia, los precios de ATI no van a bajar, probablemente suban porque hay mucha gente que estaba esperando los datos de Fermi para renovar la gráfica.

Como conclusión, si alguien necesita gráfica, que espabile o que espere a que Nvidia espabile.

Corrijo: no la compré por 250€, creo que me salió por 220€+gastos en pccomponentes.
El gran problema de ATI -que es canadiense a diferencia de nVidia que es estado unidense- es la falta de coherencia y solides entre sus departamentos, aunque los que se encargan de la ingenieria nos deleitan con hardware muy competitivo y de gran rendimiento en el software deja mucho que desear sin estar a la altura de los esfuerzos que hacen los otros en el diseño, que han mejorado es cierto pero que les falta mucho en el rendimiento en linux, OpenGL y que decir del CCC. De esto, ATI y algun departamento encargado de relacionarse con el sector de juegos y promover sus tecnologias como Stream Computing tampoco hacen gran cosa, el año pasado leimos que estuvo en platicas con algunos desarrolladores de ingenios para la simulacion de la fisica y de repente ya no se sabe nada, dias despues esta en platicas con otro y de nuevo nada se sabe, deberia concretarse en solo uno pero sobre todo en dar apoyo a la comunidad que los apoya, ya por ejemplo cuando libera el codigo de los controladores para Linux poca o nula asistencia les a dado a quienes decidieron tomar ese codigo y optimizarlo, muy malo por ATI que no es lo que podria ser por esa simple razon de picar aqui y picar alla.

Regresando al tema de las GTX400 en un analisis de TechPowerUp¡ esto es lo que opinan.

Imagen

Costo.
* According to NVIDIA the suggested retail price of the GeForce GTX 480 is USD 499. Whether this will hold up in the market we will see and depends on supply and demand.


Lo bueno.
* Fastest single GPU card to-date
* DirectX 11 support
* Substantial performance improvements in DirectX 11
* GDDR5 memory
* Software voltage control seems possible
* Native HDMI output
* Support for NVIDIA 3D Vision Surround
* Support for CUDA, PhysX and 3D Vision
* Improvements to integrated HDMI audio device


Lo malo.
* High power draw
* Noisy cooler
* High temperatures
* Fairly high price
* Paper launch
* High temperatures and power draw makes SLI and triple SLI difficult
* Limited availability
* Only 480 shaders
* DirectX 11 won't be relevant for quite a while

8.2 The first comparable thing to the NVIDIA GeForce GTX 480 that comes to the mind are the powerful yet gas-guzzling SUVs that are used for cross-country drives with heavy loads, comfortably. Often stereotyped with fuel-inefficiency, those vehicles don't compromise one bit on performance, space, passenger comfort, loads of accessories, utilities and features. Same is the case with GeForce GTX 480. The card sports solid overall build quality. It offers all the features you'd want from a graphics card of this generation, plus a lot of features which surprisingly have takers. This is the most powerful graphics processor till date, and one of the most complex pieces of silicon ever made with NVIDIA packing 3.2 billion transistors into a chip.

The GeForce GTX 480 shines in nearly all games in our test bench, giving out the highest performance figures for a single-GPU graphics card. It especially performs well in some of the newest DirectX 11 generation tests, something worth discerning. The fact that it's a single GPU accelerator works to its advantage. Multi-GPU graphics cards require application profiles specific to the game you're playing, could encounter certain limitations when running in windowed modes, among other more trivial issues. A single-GPU graphics card by design eliminates most of those.
For a larger part of our review, the GTX 480 doles out performance higher than the GeForce GTX 295, and stays in the second place. In DirectX 11 applications, particularly in tests involving heavy geometry processing load using hardware tessellation, the GTX 480 shines due to NVIDIA's distributed and parallelized implementation of hardware tessellation processing units on the GPU.
At the highest resolutions however, we expected more from the GTX 480. With 1.5 GB of memory and over 170 GB/s of memory bandwidth at its disposal, it should have been able to motorboat through high-resolution tests. At 2560 x 1600 pixel resolution, the GeForce GTX 295 takes a slight performance lead. This isn't acceptable for a card of its stature. The performance advantage the GTX 480 has over competing graphics cards seems to go down with increase in resolution. Either that's because it's faster in lower resolutions (around the 1080p mark), or that it's slower with higher resolutions.

The elaborate cooling mechanism does allow for some overclocking, although don't expect to set records with it. Anyone looking to top leaderboards even at the tech-forum level with the GTX 480 should spare some dough on at least water-cooling. This is where a slightly scary flip-side of the GTX 480 starts. The GPU runs extremely hot! NVIDIA set its thermal limits at a vaporizing 105 degrees Celsius. It's a pleasant 22 degrees this time of the year being Spring, but the GTX 480 still scores a scorching 96 degrees Celsius on typical gaming load. Crossing the 100 degrees mark won't be tough for this GPU in even slightly hotter places, especially with Summer coming up.
To keep it from pretty much pulverizing itself, NVIDIA's elaborate two-slot GPU cooler keeps up, respecting NVIDIA's thermal limits. Besides thick heatpipes that make the card easily an inch taller than it should typically be, and the hot grill on the obverse side that doubles up as a heat sink, the fan chips in with heavy air flow. During even the slightest 3D load, the fan spins up. Keeping this in mind NVIDIA gave the fan a more powerful motor than what it used in the past on similar cooling assemblies. The result is a loud cooler which ranks amongst some of the loudest when on load, in our test bed. NVIDIA first publicized its maximum board power as 295W, retracted it and posted it as "250W" probably fearing bad PR. We disagree with their 250W figure. Investigating maximum board power, we landed at the 320W mark, which is way off NVIDIA's claims. Get ready to have at least a 600W PSU if you plan to run one of these, or a 900~1000 Watter for 2-way SLI. While at 10.5 inches length it's not as long as some of the latest cards from ATI, it still needs a very airy case to work in. For SLI, NVIDIA recommends that you use only NVIDIA-certified cases as only those will be able to keep the two or three cards from fuming up.
..



http://www.techpowerup.com/reviews/NVID ... mi/36.html


en benchmarkreviews las palabras del editor se me hicieron interesantes con el enfasis que da a otras posibilidades fuera del campo de la generacion de imagenes digitales 3D.


Editor's Opinion: Fermi GF100

NVIDIA heard the dinner bell ring many months ago when Microsoft introduced DirectX-11 along side Windows 7, and they've been crawling to the table ever since. Details of the new NVIDIA Fermi GPU architecture were first leaked out to the Web as early as September 2009, which makes exactly half a year between myth and reality. ATI helped set the table with their Radeon HD 5000 series, and even enjoyed some appetizers while a few DX11 games were released, but NVIDIA managed to take a seat just in time for supper. Unfortunately for NVIDIA, ATI showed up wearing its best Sunday blue's, while Fermi's suit is still at the cleaners. None of this really matters though, because now NVIDIA can eat as much as they want.

..

Even if you're only after raw gaming performance and have no real-world interest in CUDA, there's reason to appreciate the GF100 GPU. New enhancement products, such as the NVIDIA GeForce 3D Vision Gaming Kit, double the demands on frame rate output and hence require more powerful graphics processing. This is where products like the GeForce GTX470 and GTX480 deliver the performance necessary to enjoy the extended gaming experience. I'm a huge fan of GeForce 3D-Vision, which is why it's earned our Editor's Choice Award, and Fermi delivers the power necessary to drive up to three monitors. The newly dubbed NVIDIA 3D-Vision Surround (stereo) requires three 3D-Vision capable LCD, projector, or DLP devices and offers bezel correction support. Alternatively, NVIDIA Surround (non-stereo) supports mixed displays with common resolution/timing.

Even some older game titles benefit by the Fermi GF100 GPU, beyond just an increase in frame rates. For example, Far Cry 2 will receive 32x CSAA functionality native to the game, but future NVIDIA Forceware driver updates could also further add new features into existing co-developed video games. Additionally, NVIDIA NEXUS technology brings CPU and GPU code development together in Microsoft Visual Studio 2008 for a shared process timeline. NEXUS also introduces the first hardware-based shader debugger. NVIDIA's GF100 is the first GPU to ever offer full C++ support, the programming language of choice among game developers.

..

Fermi is also the first GPU to support Error Correcting Code (ECC) based protection of data in memory. ECC was requested by GPU computing users to enhance data integrity in high performance computing environments. ECC is a highly desired feature in areas such as medical imaging and large-scale cluster computing. Naturally occurring radiation can cause a bit stored in memory to be altered, resulting in a soft error. ECC technology detects and corrects single-bit soft errors before they affect the system. Fermi's register files, shared memories, L1 caches, L2 cache, and DRAM memory are ECC protected, making it not only the most powerful GPU for HPC applications, but also the most reliable. In addition, Fermi supports industry standards for checking of data during transmission from chip to chip. All NVIDIA GPUs include support for the PCI Express standard for CRC check with retry at the data link layer. Fermi also supports the similar GDDR5 standard for CRC check with retry (aka "EDC") during transmission of data across the memory bus.

The true potential of NVIDIA's Fermi architecture has still yet to be seen. Sure, we've already poked around at the inner workings for our NVIDIA GF100 GPU Fermi Graphics Architecture article, but there's so much more that goes untested. Heading into April 2010, only a private alpha version of the Folding@Home client is available. The difference between work unit performance on the GeForce GTX 480 is going to surpass ATI's Radeon HD 5870 without much struggle, but it's uncertain how much better the performance will be compared to the previous-generation GeForce GTX 285. Until the GeForce GTX470/480 appears on retail shelves, and until a mature GeForce 400-series WHQL Forceware driver is publicly available, many of the new technologies introduced will remain untapped.


http://benchmarkreviews.com/index.php?o ... itstart=15
Review de la 470 la cual sale muy bien parada....
http://www.tweaktown.com/articles/3203/ ... dex11.html

La verdad parece que tienen buena pinta, y que los drivers estan muy verdes....
aunque las temperaturas que alcanzan me parecen excesivas...incluso para mi
En resumen, las graficas estan bastante bien, PERO el gran fallo que tienen es su consumo, calor (95º en full ahora? puf, no las quiero ver en verano ratataaaa ) y el precio. La gran baza que tienen a su favor es que tesselan muy muy bien, y eso se va a notar en una gran mejora de rendimiento en los juegos dx11 que va a dejar a ATI en pañales, a no ser que saquen algun driver milagroso, tambien me ha sorprendido lo bien que escala el AA.
Anubi escribió:En resumen, las graficas estan bastante bien, PERO el gran fallo que tienen es su consumo, calor


De lo que se deduce que Nvidia ha tenido que calcinar sus micros para poder volver al mercado con cifras de fps competitivas.

Con 100$ y 120W más no tiene ningún mérito el rendimiento de Fermi, para eso le haces OC a una 58XX. Te sale más barato y no tienes que comprar fuente de alimentación nueva.

http://hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/8
[H]ard|OCP escribió:We are seeing some trades back and forth; in some games the GTX 480 is slightly faster, in other games the HD 5870 is slightly faster. There wasn’t anything that really stood out, other than Metro 2033. Once again, we have to factor in cost, power, and heat. The GeForce GTX 480 consumes more power than the HD 5870, produces more heat, and costs more money (which might also include the cost of a new PSU). It doesn’t seem like the best value with all this factored in.

[H]ard|OCP escribió:In all our gameplay testing today, not once did the GeForce GTX 470 provide a superior gameplay experience compared to the Radeon HD 5850, even in Metro 2033. In fact, performance was very close between both video cards, and in some cases the Radeon HD 5850 proved to provide faster framerates. Looking strictly at performance, these video cards are equal.

Of course, we have to look beyond just performance, as metrics such as cost and power consumption come into play. The GeForce GTX 470 is more expensive than the Radeon HD 5850. We are seeing some great deals on Radeon HD 5850 cards starting to crop up, and the fact is that the Radeon 5850 can be purchased with a lot less of your cold hard cash. Looking at power, the GeForce GTX 470 consumes a good bit more power than the Radeon HD 5850, while also producing higher thermals.

The HD 5850 is the clear value winner when compared to the GTX 470. We have been telling you that the Radeon 5850 is the best value in enthusiast video cards since last year and the GTX 470 does nothing to change that.
Anubi escribió:En resumen, las graficas estan bastante bien, PERO el gran fallo que tienen es su consumo, calor (95º en full ahora? puf, no las quiero ver en verano ratataaaa ) y el precio. La gran baza que tienen a su favor es que tesselan muy muy bien, y eso se va a notar en una gran mejora de rendimiento en los juegos dx11 que va a dejar a ATI en pañales, a no ser que saquen algun driver milagroso, tambien me ha sorprendido lo bien que escala el AA.


No parece ser tan buena en el teselado.
Destacan en los benchmarks optimizados para nvidia (y patrocinados por nvidia), pero en los juegos dx11 actuales no hay diferencia en rendimiento, ni siquiera en Metro 2033 :/
Queda decir ademas que seguro que los ejemplares enviados para testeo no tienen nucleas desactivados por puro marketing asi que esperas a la caida de fps con gpu's capadas xd
KBM escribió:Queda decir ademas que seguro que los ejemplares enviados para testeo no tienen nucleas desactivados por puro marketing asi que esperas a la caida de fps con gpu's capadas xd


Si te refieres a que en las reviews las GTX480 tienen 512 shaders no, tienen 480, tal vez alguna filtracion antigua pueda haber empleado dicho modelo, pero no es el caso de las reviews de ayer.

Respecto a la tesselación, las Fermi tienen una implementacion bastante más avanzada que ATI (simplemente por que el tesselador de las HD5800 no dista del de las 4800, 3800 y 2900, pues al fin y al cabo es la misma arquitectura). Tampoco es que las fermi tengan una rendimiento en tesselacion para tirar cohetes, pero al activarlo si que parece que pierden bastantes menos fps que las HD5800.
Para montar un SLI de GTX 480 con una fuente de 1050W basta?
con 1050w basta y sobra,,,, un sli no consume el doble consume unos 580w tmb depende de que fuente estemos hablando salu2
con 1050w basta y sobra,,,, un sli no consume el doble consume unos 580w tmb depende de que fuente estemos hablando salu2


Esta valdría http://www.tacens.com/riii1050s.php??

Gracias por contestar

Un Saludo!
Crackman escribió:
con 1050w basta y sobra,,,, un sli no consume el doble consume unos 580w tmb depende de que fuente estemos hablando salu2


Esta valdría http://www.tacens.com/riii1050s.php??

Gracias por contestar

Un Saludo!


Te han dicho ya que sí.
lynnfield escribió:
KBM escribió:Queda decir ademas que seguro que los ejemplares enviados para testeo no tienen nucleas desactivados por puro marketing asi que esperas a la caida de fps con gpu's capadas xd


---

Respecto a la tesselación, las Fermi tienen una implementacion bastante más avanzada que ATI (simplemente por que el tesselador de las HD5800 no dista del de las 4800, 3800 y 2900, pues al fin y al cabo es la misma arquitectura). Tampoco es que las fermi tengan una rendimiento en tesselacion para tirar cohetes, pero al activarlo si que parece que pierden bastantes menos fps que las HD5800.


Y eso de donde te lo sacas???
un tipo de overclockers.net dice tener el motor del unigine, y comenta esto
Originalmente Escrito por stallone

Hola. Soy NoahDiamond, de los foros de OCN. Sí, el motor (gráfico) usa llamadas a CUDA. No, el motor no soporta 64-bit. Sí, está optimizado para Nvidia, no batirá ningún record. El Unigine está escrito penosamente, y depende únicamente de unas cuantas librerías propias.

"Replication" es una característica usada para procesadores gráficos que funciona por debajo de DirectX 11 que puede dar un aumento de rendimiento. Algunas tarjetas lo soportan nativamente, y otras no. La serie HD 5000 lo soporta, pero no se puede activar fácilmente. Puedes activarlo o en los archivos .bat, o al empezar el benchmark, presionando la tecla "~", y escribiendo el comando:

d3d11_render_use_replication 1

Escribiendo "d3d11_render_use_replication" puedes ver si la opción está activada.

"PSSM shadow geometry replication by geometry shader (controlled by the folowing console variables: gl_render_use_geometry_replication, d3d10_render_use_replication, d3d11_render_use_replication)."

Es un atajo para renderizar sombras, y que puede causar artifactos en la versión actual del benchmark Heaven 2.0. Cuando testeas con tarjetas que no puede manejar adecuadamente esta opción, puede causar artifactos en las zonas de sombras, y puede hacer que las sombras "bailan", dependiendo de el uso de la caché de la GPU.

Las tarjetas 5870/5970 lo pueden manejar bastante bien debido a su uso de caché, pero está realmente escrito para las tarjetas Fermi que tienen una caché separada en niveles para almacenar instrucciones.

Y con respecto a Tesselation... Voxels (píxeles volumétricos) son un método más eficiente para renderizar detalles complejos, y ahorra una ENORME cantidad de cálculos y memoria, y puede ser ejecutado directamente en las unidades de tessellation dedicadas. Tessellation era una gran idea, pero requiere un modelo separado y conjuntos de texturas, pues "seaming" es un problema cuando no existe como una dualidad en los conjutos de datos del programa. Para evitar los huecos en "seaming", los modelos/texturas necesitan unirse/montarse, y Unigine no está afectado por ese problema.

En Tesselation el problema de los huecos "seam" no existe en en el motor gráfico 4A usado en Metro 2033, Dirt 2 o Aliens vs. Predator 2010. Los autores de esos programas tuvieron en cuenta el problema y trabajaron con las funciones de Tesselation.

El motor gráfico id Tech 5 usó otro enfoque distinto, y es increíble como se ve ese motor gráfico a día de hoy. No quiero parecer como un fanboy de John Carmack, pero él se ha tomado tiempo para escribir su software, y los motores gráfico id Tech siempren han estado en lo más alto, usando esta tecnología.

Fermi "IRÁ BIEN" en el benchmark Unigine Heaven, pero no será nada en la realidad, pues el motor gráfico no toma en cuenta que Tesselation, Physx, Render y los procesos de Shader todos tienen que trabajar juntos en los mismos "CUDA cores (procesadores)".

En pocas palabras, el benchmark es un juego TWIMTBP (The Way Is To Mean To Be Played, es decir, patrocinado por Nvidia). Muchos juegos creados por THQ y EA han capado/recortado intencionadamente las tarjetas ATI, y varias medidas legales han surgido debido a esto. Ejemplos principales de esto son los juegos Crysis y Need for Speed. Fueron capados totalmente en las tarjetas ATI hasta que salieron parches más tarde. Ahora las tarjetas ATI los dominan.

Nvidia está en una posición de márketing ahora, y están teniendo GRANDES pérdidas netas, pero ellos están inflando su valor de mercado a través de volver a comprar acciones de inversores por más de lo que ellos pagaron, y omitiendo pérdidas recursivas de sus declaraciones financieras. Si lees entre líneas, y miras a su posición, ellos necesitan un gran empuje, y la única manera de hacer esto es parando el hype de márketing, dejar de "sobornar" a desarrolladores, y volver a lo que ellos eran en principio. Un fabricante de chips.

TMSC está cansado de trabajar con ellos, los integradores de tarjetas no quieren tratar con ellos, Apple ha abandonado sus "añadidos" por el momento, muchos fabricantes de portátiles dejaron de integrar sus chipsets, aunque usan su tarjetas PCI Express, y Microsoft está enfadados con su software mal programado causando la mayoría de "cuelges" en Vista durante sus dos primeros años desde su salida, ocasionando otro "pleito".

Intel ya no quiere trabajar con ellos, y se han asociado con AMD para integrar las tarjetas ATI Radeon en los chips de Intel. Intel y AMD/ATI están ahora trabajando conjuntamente en la industria, con un acuerdo en el que AMD se queda en la gama baja y media de chips tanto por rendimiento como por precios, e Intel se queda en la gama alta y media de chips. Todos los chips de Intel con dual PCI Express soportan CrossfireX, y ATI está usando la licencia de Intel para Havok. Intel provee optimizaciones para AMD, y AMD está proveyendo soluciones integradas de gama alta para Intel.

Mientras tanto, Nvidia ha perdido sus derechos para producir nuevos CPU sockets y ha cesado de producir chipsets, y se ha visto forzada para licenciar SLI a otros fabricantes de placas base para poder vender sus productos.

Podría seguir, pero Nvidia necesita un producto muy bueno, y necesita hacer dinero, y viendo que sus nuevos productos tiene bajos niveles de stock y a un alto precio para salir al mercado actual, será para ellos díficil recuperarse. Nvidia gastó su dinero en comprar empresas pequeñas como Ageia, 3dfx, otras pequeñas empresas, e intentando aumentar su negocio en el sector con Tesla. Ahora están perdiendo dinero más rápido de lo que pueden recuperarlo.

Fermi es lo que las otras versiones anteriores de tarjetas CUDA han sido... Emuladores con un consumo alto. Ellos ejecutan DirectX en CUDA, Tessellation en CUDA, OpenCL en CUDA, OpenGL en CUDA, y esto no ayuda.

Aquí hay una forma de saber si tal característica en Nvidia está siendo emulada, ver si es un programa CUDA. Si lo es, no es a nivel de hardware, sino software paralelo. Nvidia PUEDE, y SE ESCAPARÁ haciendo ejecutar una gran cantidad de Tessellation en los benchmarks, pero no aguantarán en juegos donde se tiene que ejecutar otros procesos.

La nueva GTX 480 es básicamente dos GTX 275 chips que han sido reducidos, actualizados, extendidos y unidos en una única GPU. Esa es la causa por la que consumen tanta energía.

En la industria del automóvil, suelen decir "No hay sustituto para los desplazamientos", pero todos sabemos que este ya no es el caso. Es lo mismo para tarjetas gráficas. El futuro de las tarjetas Gráficas es hardware dedicado para funciones que pueden ser usadas para múltiples funciones y que no están restringidas, con múltiples SIMD de datos de entrada y procesar instrucciones "out of order".

Sí, hago posts largos... pero a veces es difícil encajar información detallada en un slogan.

Si quieres un slogan, es éste. Nvidia está muriendo, están perdiendo su valor bursátil BIEN por debajo del 50% de la industria, y están en una posición delicada. ATI se ha centrado en desarrollar hardware más avanzado y especializado qe puede hacer más por menos dinero, y están bien posicionados a lo largo del mapa y en todas las posiciones.

Por cierto. ¿Alguno de los presente tiene un teléfono con Tegra?


Saludos.

es una traduccion de noticias 3d, el original esta en ingles
es muy interesante.... esperemos que nvidia no se vaya a la mierda o ati tendrá el mercado libre para hacer lo que quiera... y eso no se puede permitir
fuente http://www.overclock.net/software-news/695743-ngohq-unigine-heaven-benchmark-2-0-a-18.html
sir asistant escribió:un tipo de overclockers.net dice tener el motor del unigine, y comenta esto
Originalmente Escrito por stallone

Hola. Soy NoahDiamond, de los foros de OCN.
...
Por cierto. ¿Alguno de los presente tiene un teléfono con Tegra?
Saludos.


Uf, pintan bastos para Nvidia... La explicación es muy buena detallando al pormenor del porque de ciertas puntuaciones, movimientos empresariales y algún "milagro" en FPS, ciertamente es "cruda" pero parece bastante objetiva.

AMD/ATI se lo ha currado con la serie 5xxx pero espero que Nvidia no se hunda, siempre es bueno tener competición.
En resumen, chicha para fanboys, mal asunto para la competencia.

Saludos.
Un post muy interesante Asistant. De ser todo cierto, temblad. ATi da el mismo asco que nvidia. ¿Por qué coño no hay más compañías de chips gráficos? Kyro II, S3Virge, Matrox... :/
DeFT escribió:Un post muy interesante Asistant. De ser todo cierto, temblad. ATi da el mismo asco que nvidia. ¿Por qué coño no hay más compañías de chips gráficos? Kyro II, S3Virge, Matrox... :/


Porque esas dos se las meriendan, querría saber yo que bicharracos con Glide tendríamos a dia de hoy si 3Dfx no fuese fagocitada por Nvidia, o que hubiese sido si Nec siguiese con la serie PowerVR.

Los únicos que podrían plantar algo de cara en el asunto, los de intel, son más bien mancos sacando GPUs (en cuanto a rendimiento 3d ojo).

Un saludo.

PD yo me quedo con mi 260, hasta que reviente.
aber si intel se pone las pilas o tendremos un futuro muuuuy negro
ati poniendo los precios que le sale de los cojones....
lo peor esque la serie 5800 de ati ya esta subiendo de precio, una vez vi en pccomp la 5850 a 220 y hora están a 267... cuando al principio valian 237 con un juego....
la que se va a montar...
esperemos que fermi2 esten a la altura.
pd- se nota que las fermi estan superoverclockeadas para dar la talla ante ati, esos consumos y temps no son normales...
Muy interesante el post, echando la vista al pasado, muchas cosas de lo que dice tienen sentido.


Saludos!
Esta claro que ATI ha ganado esta generacion por goleada, en la anterior gano en precio rendimiento.
Pero en esta las Nvidia no tienen un rendimiento tan superior (no en escala a la complejidad del chip)
Nvidia parece que ha moridido más de lo que ha podido tragar con esos 3200 millones de transitores, y los recortes de unidades (y seguramente en velocidad de reloj) echan por tierra el chip
Ademas aunque se pueda decir que fermi es el chip más rápido la tarjeta más rápida sigue siendo de AMD (la HD 5970) por que Nvidia lo tiene crudo para meter dos monstruos de esos en una tarjeta (a menos que le metan un TDP mayor de 300W), la HD5970 ya se ve limitada en esos 300W ...

Lo peor de todo es de cara al futuro, por que los 28 nm seguramente van a tardar (TSMC aun tiene problemas con los 40nm como para pasarse rápido a los 28) y para colmo la alternativa más factible seria Global Foundries (que son las antiguas fabricas de AMD y que aun controla en parte)...
Y bueno pensando en el "refresco" de las 4** y en la siguiente generacion no se que pretenderan hacer si no bajan los nm, como nvidia esta tan centrada en la computacion
cuda, opencl, etc ... parece que eso hace más complejas.

Y la alternativa de Intel el Larrabe fue cancelado ...
Yo, definitivamente paso de esta generacion de tarjetas, ni ATI ni NVidia, me quedo con la serie GTX200 y esperare a la siguiente a ver que se cuece, seguramente para la serie 500 o 600, como la quieran llamar habran subsanado cosas, o incluso saquen nuevas iteraciones de los actuales chips que mejoren el tema del consumo y el calor. Pero por ahora, segun lo visto, ningun interes.
Woah,

GTX480:
Please note, in this case 'hot' is more literal than figurative, the GPU here is running at 87C, far hotter than any card that expects to have a realistic life span should be at. Unconfirmed reports from China have the card hitting 98C on furmark. Don't expect these 'puppies' to have a long life, even in dog years.


Como extrae del post original, la vida útil de estas gráficas será corto, muy corto.

Parece que Nvidia ha tenido que hacerle OC a manta de serie a las Fermi para estar a la altura de las ATI 5xxx series.

Fuente:http://www.semiaccurate.com/2010/03/23/nvidia-bends-definition-honesty-gtx480-benches/

EDIT: Por lo que he leído en posts más arriba y contrastándolo por inet, no se pueden hacer tarjetas PCi-express que superen los TDP-300W, el estándar no lo permite y los fabricantes OEM tampoco. Al parecer, la ATI 5970 funcionaria mejor si pudiese superar esos TDP-300W pero no puede por lo anteriormente mencionado... ¿acaso lo intentó ATI primero y le dieron largas [comor?]
Vandroy escribió:Yo, definitivamente paso de esta generacion de tarjetas, ni ATI ni NVidia, me quedo con la serie GTX200 y esperare a la siguiente a ver que se cuece, seguramente para la serie 500 o 600, como la quieran llamar habran subsanado cosas, o incluso saquen nuevas iteraciones de los actuales chips que mejoren el tema del consumo y el calor. Pero por ahora, segun lo visto, ningun interes.


Yo mas menos pienso como tu, las nvidia ni de coña a no ser k cambie el tema consumo/calor y de las ati pues no se, los drivers me dan miedo, son buenas tarjetas pero este tema siempre me ha echado para atras. Desde mi pentum 4 y mi Ati 9600pro solo he tenido nvidia, y la verdad es k encantado pero en estos momentos para mi esta claro k ATI pule en calidad/precio y en calor/consumo/ruido, y como ya han dicho la mejor marca es la k nos da las mejores condiciones. No me kiero imaginar un SLI de GTX4*0 con los dos bichos a 90ºC... ratataaaa
La cosa es k a mi 2º pc desde k le puse la pantalla full hd no le da el pecho casi, la 8800gt ta en su limite y me esta rondando seriamente el tema de una 5850 o 5870 para mi primer pc y asi pasar la gtx260 al 2º, lo cual tb implica fuente nueva... Si no es por esto la verdad es k con la 260 toy encantado y aguantaria lo k hiciese falta.
S2
nastuno escribió:... Al parecer, la ATI 5970 funcionaria mejor si pudiese superar esos TDP-300W pero no puede por lo anteriormente mencionado... ¿acaso lo intentó ATI primero y le dieron largas [comor?]


Es un estandard del pci-e 75 W por el slot 75W por el conector de 6 pines y 150W por el de 8
y como mucho se permite un conector de 6 más uno de 8
De todos modos creo que la 5970 permite mediante drivers subir el voltaje para overclockear más, eso supera el TDP de 300W, pero como depende del usuario AMD/ATI se lava las manos...
viendo el panorama o me compro una 275/285GTX o nada...lo mismo digo que bokoy...Drivers de ATI dan miedo (Artefactos)...Nvidia me ha ido genial desde mi aun 8800GT... *Suspiro* Creo que me rindo....
Yo la verdad es q no se q hacer me estoy montando el pc y me estaba esperando para hacerme con la grafica (como mucha gente para comparar) y ahora me encuentro con esto. Lo q me da miedo de ati son los drivers, o me pillo una gtx 260 o una 5850 la gtx 275 no creo q valga la pena pq tiene el mismo precio casi q la 5850 y es un poco mas potente q la 260.
Respecto a las nuevas tarjetas com habeis dicho el proceso de fabricacion estaba pensado en principio de 22nm y con los problemasm tubieron q subir a 40nm y aqui el problema q han tenido de salir del paso de alguna manera. Creo q con nuevas revisiones estas tarjetas seran muy buenas, pero ahora mismo no.
628 respuestas
14, 5, 6, 7, 813