DeFT escribió:EDITO: Pues no pude leer ninguna review... Juas, cómo os toman el pelo.
Veredicto final
¡Ouch! Mis dedos heridos de escribir. Oye, ¿sabes qué, definitivamente, tanto como la GeForce GTX 470 y 480. En cuanto al rendimiento son las cosas un aspecto muy sólido, incluso con controladores beta temprana. ¿Podría esta serie han sido puestos en libertad hace seis meses, todo el mundo habría sido histérica con comentarios delirando. Pero sí ... hay, por supuesto, fue la misma empresa ATI, que definitivamente tiene su derecho material en el primer intento y salió corriendo como un perro con un hueso de carne fresca de Niza para masticar. El listón está muy alto por el bien de ATI.
Es cierto que si bien es muy fuerte, tanto la GeForce GTX 470 y 480 no son un slam dunk jonrón más rápido en comparación con la ATI 5800 serie única de soluciones de GPU. La referencia Radeon HD 5870 mantiene con la GTX 480 bastante bien en muchas ocasiones y un hecho es que la picadura, su precio está bajando poco a poco hacia 429 dólares, que baja de 469 dólares (que es un hecho interesante por sí mismo, ya que fue lanzado en 399 USD). ATI obtiene mucho beneficios de la liberación de sus drivers Catalyst 10,3 (utilizados en esta revisión). El nuevo driver trae incremento en el rendimiento en toda la Radeon HD 5800 y 5900 series. Rendimiento se ha mejorado en un montón de títulos de juegos. ¿No han liberado ATI Catalyst 10,3 a tiempo, este examen se han analizado diferentes. Usted probablemente notará un examen o dos en la web utilizando controladores antiguos.
Lo divertido es, en un par de meses, lo mismo sucederá con los controladores de NVIDIA para los nuevos, el 10% aquí, el 7% no .. hey, así es como funciona.
Aun así, cuando coinciden los resultados de todos los títulos de la prueba, la GeForce GTX 480 victorias en casi todas partes, excepto en Anno 1404 e, irónicamente, 3DMark Vantage. Hay escenarios en los que la GTX 480 está muy cerca de los 5870, pero también hay situaciones en las que la GTX 480 completa y totalmente inicia la Radeon HD 5870 en las nueces proverbial. Lo que me sorprendió fue el hecho de que dicen de hasta 1280x1024 a 1920x1200 NVIDIA parece más fuerte que la competencia. Y a 2560x1600 las cosas tienden a igualar mucho más.
Cuando nos concentramos únicamente en la GTX 480 ahora por un minuto, sin clasificar y tema de debate, evidentemente tiene que ser el TDP - la tarjeta cuando está estresado utilizará cerca de 250 Watts y que sin duda es el consumo de energía muy fuerte, especialmente en comparación con ATI Radeon 5870 con un TDP de 188W solo. Usted va a necesitar un PC decentemente ventilado como el calor de la GeForce GTX 480 produce es abundante. No se equivoquen, la tarjeta se pondrá caliente, muy caliente. Así que eso es definitivamente algo que usted necesita para mantenerse en la parte posterior de su cabeza.
Al final, sin embargo, la GeForce GTX 480 es una tarjeta gráfica que patea traseros, que es sin duda la GPU más rápida sola tarjeta gráfica basada en el bloque. El rendimiento es grande e impresionante y bien, es sólo una tarjeta de enfermos de jugar todos los juegos modernos con cualquier resolución o la preferencia de calidad de imagen.
La GeForce GTX 470 después - obviamente esta tarjeta está alineado contra el ATI Radeon HD 5850. Se puede competir con ella muy bien. Precio sabio es definitivamente la más interesante de las dos tarjetas a prueba hoy. Esperamos que, una vez que la disponibilidad de volumen se activa, esta tarjeta se reducirá a aproximadamente 300 USD. En cuanto al rendimiento que estamos buscando a un producto que se posiciona Smack Down en la ATI Radeon HD 5850 Medio nivel de rendimiento y, como tal, es una tarjeta muy agradable a propio. TDP de 215W sabios nos parece que el consumo de energía es razonable, y mucho, como la GTX 480, también necesitamos afirmar que la salida de calor de la tarjeta en la actualidad es alto, pero aunque no tan alta como la GTX 480. De hecho, tenemos la corazonada de que NVIDIA que reprogramar el delta del RPM del ventilador muy pronto, lo que obligó el RPM de velocidad del ventilador en un 70% que ni siquiera todos los ruidosos, empujó de nuevo a las temperaturas de 80 grados Celsius, realmente rápido. El sabio juego es, obviamente, el rendimiento y la gran calidad de imagen que los resultados se ranking muy alto también. Dinero frente al rendimiento sabia yo diría que la GTX 470 es el ganador de las dos en realidad.
Como este artículo ha puesto de manifiesto, los títulos más recientes de software se beneficiarán enormemente de la nueva serie NVIDIA GeForce 400 tarjetas gráficas. Planeta 2033 es simplemente impresionante para jugar y cuando se mira el Just Cause 2 puntos de referencia todo lo que puede hacer es sentarse allí, ver, con la boca abierta. Impresionante a la vista y el rendimiento es simplemente brillante combinado con ajustes de calidad masiva de la imagen. Consolas .. comer tu corazón!
Así que ahí lo tienen ustedes, las temperaturas en el TDP y definitivamente se puede considerar insignificante, pero para la mayoría de ustedes que no es un problema, son sin duda mirando la GPU más rápida en el bloque en sus respectivas categorías. Los beneficios adicionales para las tarjetas de NVIDIA PhysX son de curso que definitivamente está ganando más terreno desde el año pasado. Es una buena característica a tener, seguro ... CUDA, nosotros no hemos hablado mucho todavía. Pero, obviamente, la GPU GF100 están plenamente CUDA listo, de hecho, la arquitectura se ha diseñado con CUDA en mente. En el cómputo lado de las cosas que sabemos una cosa segura, la GF100 debe ser impresionante.
Rendimiento DX11 - lo que hemos observado en nuestras sesiones de prueba es que la GeForce GTX 470 y 480 mantienen su posición muy bien en aplicaciones DX11. Rendimiento mosaico es francamente increíble, la opción de poner un tesselator HW en cada SM (grupo de sombreado) definitivamente parece ser la decisión correcta de hacer una arquitectura inteligente.
Muy bien, déjame cerrar esta conclusión. Cuando miramos exclusivamente a la calidad de imagen y el rendimiento del juego bruta, que es donde la GTX 470 ($ 349) y 480 ($ 499) brillan, que están imponiendo, impresionante y sin duda las tarjetas que ofrecen una enorme cantidad de rendimiento. La fuerza bruta es lo que recibirá con estos productos. Tuvimos una explosión para la prueba segura de que los conductores prudentes y simplemente no encuentra cualquier tipo de cuestiones. Precio / prestaciones sabio sentimos la GTX 480 tiene un precio de un corte demasiado alta sin embargo. Y con una diferencia de 150 USD que hace que el ganador de los dos la GTX 470. El consenso genérico tiene que ser que la GeForce GTX 480 es definitivamente más rápido que el buque insignia de la que actualmente encabeza sola GPU desde el rojo del equipo, la Radeon HD 5870. Como tal, la GeForce GTX es más que suficientemente convincente y hace una impresión muy fuerte. NVIDIA recupera la corona de rendimiento y está de vuelta en la silla como un vaquero después de un tiroteo dura, montar a su caballo en la puesta de sol. Nunca, nunca tiene la industria de tarjetas de gráficos estado tan cerca en lo que respecta a la competencia pura, y ustedes saben lo que ... nos encanta.
Ahora traiga en las juntas Board Partner "y vamos a algunos comentarios más por ahí. En la semana que viene debería ver algunos disponibilidad decente en el e-cola. Y bueno .. mayo 2010 tal vez ya para mediados de la primera gama de la serie de clases de 400 productos?
litio5000 escribió:http://hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7
videos de ruido y consumo.
LordArthas escribió:bueno, pues no ha sido el ostión FX que me temía... de hecho hasta tienen buena pinta y todo...
eso sí, lo drivers parecen verdes (esto sí que es vergonzoso), en unos test la GTX480 se acaba puliendo hasta la HD5970 (¿?!!!) y en otros es peor que la GTX295... esperemos mejoras, aunque auguro guerra...
Manjimaru escribió:LordArthas escribió:bueno, pues no ha sido el ostión FX que me temía... de hecho hasta tienen buena pinta y todo...
eso sí, lo drivers parecen verdes (esto sí que es vergonzoso), en unos test la GTX480 se acaba puliendo hasta la HD5970 (¿?!!!) y en otros es peor que la GTX295... esperemos mejoras, aunque auguro guerra...
¿ No te ha parecido hostión ?...
Pues a mi no me han convencido lo más mínimo. Con ese consumo, por encima de los 90º una gtx 480 single GPU, 100 € más cara que una 5870, y en el "Bench" de Crysis a 1900x1200 de Guru 3D solo le saca 6 fps de media a la 5870... ufff
Si no es hostión, por lo menos es patinazo...
Igual cada uno lo ve de una manera, pero para mi no es un producto a la altura de lo esperado...
foro noticias 3d
litio5000 escribió:MIrar lo que rula ya por ahí
que cachondos...cocinando ,por cierto parece que Ati estan subiendo de precio en vez de bajar.
Fuenteforo noticias 3d
DeFT escribió:si tuviera una actitud coherente y no tan capitalista... Aunque supongo que al estar tan cerca de los americanos todo ese afán de lucro se pega...
firewire escribió:Justamente antes he visto que la HD 5770 ha subido de precio... Está claro que ATI no es una ONG pero eso no quita que podamos estar decepcionados. En parte es culpa de nVidia por no estar a la altura, si hubieran sido más competentes, otro gallo cantaría.
Saludos!
firewire escribió:Justamente antes he visto que la HD 5770 ha subido de precio... Está claro que ATI no es una ONG pero eso no quita que podamos estar decepcionados. En parte es culpa de nVidia por no estar a la altura, si hubieran sido más competentes, otro gallo cantaría.
Saludos!
Costo.
* According to NVIDIA the suggested retail price of the GeForce GTX 480 is USD 499. Whether this will hold up in the market we will see and depends on supply and demand.
Lo bueno.
* Fastest single GPU card to-date
* DirectX 11 support
* Substantial performance improvements in DirectX 11
* GDDR5 memory
* Software voltage control seems possible
* Native HDMI output
* Support for NVIDIA 3D Vision Surround
* Support for CUDA, PhysX and 3D Vision
* Improvements to integrated HDMI audio device
Lo malo.
* High power draw
* Noisy cooler
* High temperatures
* Fairly high price
* Paper launch
* High temperatures and power draw makes SLI and triple SLI difficult
* Limited availability
* Only 480 shaders
* DirectX 11 won't be relevant for quite a while
8.2 The first comparable thing to the NVIDIA GeForce GTX 480 that comes to the mind are the powerful yet gas-guzzling SUVs that are used for cross-country drives with heavy loads, comfortably. Often stereotyped with fuel-inefficiency, those vehicles don't compromise one bit on performance, space, passenger comfort, loads of accessories, utilities and features. Same is the case with GeForce GTX 480. The card sports solid overall build quality. It offers all the features you'd want from a graphics card of this generation, plus a lot of features which surprisingly have takers. This is the most powerful graphics processor till date, and one of the most complex pieces of silicon ever made with NVIDIA packing 3.2 billion transistors into a chip.
The GeForce GTX 480 shines in nearly all games in our test bench, giving out the highest performance figures for a single-GPU graphics card. It especially performs well in some of the newest DirectX 11 generation tests, something worth discerning. The fact that it's a single GPU accelerator works to its advantage. Multi-GPU graphics cards require application profiles specific to the game you're playing, could encounter certain limitations when running in windowed modes, among other more trivial issues. A single-GPU graphics card by design eliminates most of those.
For a larger part of our review, the GTX 480 doles out performance higher than the GeForce GTX 295, and stays in the second place. In DirectX 11 applications, particularly in tests involving heavy geometry processing load using hardware tessellation, the GTX 480 shines due to NVIDIA's distributed and parallelized implementation of hardware tessellation processing units on the GPU.
At the highest resolutions however, we expected more from the GTX 480. With 1.5 GB of memory and over 170 GB/s of memory bandwidth at its disposal, it should have been able to motorboat through high-resolution tests. At 2560 x 1600 pixel resolution, the GeForce GTX 295 takes a slight performance lead. This isn't acceptable for a card of its stature. The performance advantage the GTX 480 has over competing graphics cards seems to go down with increase in resolution. Either that's because it's faster in lower resolutions (around the 1080p mark), or that it's slower with higher resolutions.
The elaborate cooling mechanism does allow for some overclocking, although don't expect to set records with it. Anyone looking to top leaderboards even at the tech-forum level with the GTX 480 should spare some dough on at least water-cooling. This is where a slightly scary flip-side of the GTX 480 starts. The GPU runs extremely hot! NVIDIA set its thermal limits at a vaporizing 105 degrees Celsius. It's a pleasant 22 degrees this time of the year being Spring, but the GTX 480 still scores a scorching 96 degrees Celsius on typical gaming load. Crossing the 100 degrees mark won't be tough for this GPU in even slightly hotter places, especially with Summer coming up.
To keep it from pretty much pulverizing itself, NVIDIA's elaborate two-slot GPU cooler keeps up, respecting NVIDIA's thermal limits. Besides thick heatpipes that make the card easily an inch taller than it should typically be, and the hot grill on the obverse side that doubles up as a heat sink, the fan chips in with heavy air flow. During even the slightest 3D load, the fan spins up. Keeping this in mind NVIDIA gave the fan a more powerful motor than what it used in the past on similar cooling assemblies. The result is a loud cooler which ranks amongst some of the loudest when on load, in our test bed. NVIDIA first publicized its maximum board power as 295W, retracted it and posted it as "250W" probably fearing bad PR. We disagree with their 250W figure. Investigating maximum board power, we landed at the 320W mark, which is way off NVIDIA's claims. Get ready to have at least a 600W PSU if you plan to run one of these, or a 900~1000 Watter for 2-way SLI. While at 10.5 inches length it's not as long as some of the latest cards from ATI, it still needs a very airy case to work in. For SLI, NVIDIA recommends that you use only NVIDIA-certified cases as only those will be able to keep the two or three cards from fuming up.
..
Editor's Opinion: Fermi GF100
NVIDIA heard the dinner bell ring many months ago when Microsoft introduced DirectX-11 along side Windows 7, and they've been crawling to the table ever since. Details of the new NVIDIA Fermi GPU architecture were first leaked out to the Web as early as September 2009, which makes exactly half a year between myth and reality. ATI helped set the table with their Radeon HD 5000 series, and even enjoyed some appetizers while a few DX11 games were released, but NVIDIA managed to take a seat just in time for supper. Unfortunately for NVIDIA, ATI showed up wearing its best Sunday blue's, while Fermi's suit is still at the cleaners. None of this really matters though, because now NVIDIA can eat as much as they want.
..
Even if you're only after raw gaming performance and have no real-world interest in CUDA, there's reason to appreciate the GF100 GPU. New enhancement products, such as the NVIDIA GeForce 3D Vision Gaming Kit, double the demands on frame rate output and hence require more powerful graphics processing. This is where products like the GeForce GTX470 and GTX480 deliver the performance necessary to enjoy the extended gaming experience. I'm a huge fan of GeForce 3D-Vision, which is why it's earned our Editor's Choice Award, and Fermi delivers the power necessary to drive up to three monitors. The newly dubbed NVIDIA 3D-Vision Surround (stereo) requires three 3D-Vision capable LCD, projector, or DLP devices and offers bezel correction support. Alternatively, NVIDIA Surround (non-stereo) supports mixed displays with common resolution/timing.
Even some older game titles benefit by the Fermi GF100 GPU, beyond just an increase in frame rates. For example, Far Cry 2 will receive 32x CSAA functionality native to the game, but future NVIDIA Forceware driver updates could also further add new features into existing co-developed video games. Additionally, NVIDIA NEXUS technology brings CPU and GPU code development together in Microsoft Visual Studio 2008 for a shared process timeline. NEXUS also introduces the first hardware-based shader debugger. NVIDIA's GF100 is the first GPU to ever offer full C++ support, the programming language of choice among game developers.
..
Fermi is also the first GPU to support Error Correcting Code (ECC) based protection of data in memory. ECC was requested by GPU computing users to enhance data integrity in high performance computing environments. ECC is a highly desired feature in areas such as medical imaging and large-scale cluster computing. Naturally occurring radiation can cause a bit stored in memory to be altered, resulting in a soft error. ECC technology detects and corrects single-bit soft errors before they affect the system. Fermi's register files, shared memories, L1 caches, L2 cache, and DRAM memory are ECC protected, making it not only the most powerful GPU for HPC applications, but also the most reliable. In addition, Fermi supports industry standards for checking of data during transmission from chip to chip. All NVIDIA GPUs include support for the PCI Express standard for CRC check with retry at the data link layer. Fermi also supports the similar GDDR5 standard for CRC check with retry (aka "EDC") during transmission of data across the memory bus.
The true potential of NVIDIA's Fermi architecture has still yet to be seen. Sure, we've already poked around at the inner workings for our NVIDIA GF100 GPU Fermi Graphics Architecture article, but there's so much more that goes untested. Heading into April 2010, only a private alpha version of the Folding@Home client is available. The difference between work unit performance on the GeForce GTX 480 is going to surpass ATI's Radeon HD 5870 without much struggle, but it's uncertain how much better the performance will be compared to the previous-generation GeForce GTX 285. Until the GeForce GTX470/480 appears on retail shelves, and until a mature GeForce 400-series WHQL Forceware driver is publicly available, many of the new technologies introduced will remain untapped.
Anubi escribió:En resumen, las graficas estan bastante bien, PERO el gran fallo que tienen es su consumo, calor
[H]ard|OCP escribió:We are seeing some trades back and forth; in some games the GTX 480 is slightly faster, in other games the HD 5870 is slightly faster. There wasn’t anything that really stood out, other than Metro 2033. Once again, we have to factor in cost, power, and heat. The GeForce GTX 480 consumes more power than the HD 5870, produces more heat, and costs more money (which might also include the cost of a new PSU). It doesn’t seem like the best value with all this factored in.
[H]ard|OCP escribió:In all our gameplay testing today, not once did the GeForce GTX 470 provide a superior gameplay experience compared to the Radeon HD 5850, even in Metro 2033. In fact, performance was very close between both video cards, and in some cases the Radeon HD 5850 proved to provide faster framerates. Looking strictly at performance, these video cards are equal.
Of course, we have to look beyond just performance, as metrics such as cost and power consumption come into play. The GeForce GTX 470 is more expensive than the Radeon HD 5850. We are seeing some great deals on Radeon HD 5850 cards starting to crop up, and the fact is that the Radeon 5850 can be purchased with a lot less of your cold hard cash. Looking at power, the GeForce GTX 470 consumes a good bit more power than the Radeon HD 5850, while also producing higher thermals.
The HD 5850 is the clear value winner when compared to the GTX 470. We have been telling you that the Radeon 5850 is the best value in enthusiast video cards since last year and the GTX 470 does nothing to change that.
Anubi escribió:En resumen, las graficas estan bastante bien, PERO el gran fallo que tienen es su consumo, calor (95º en full ahora? puf, no las quiero ver en verano ) y el precio. La gran baza que tienen a su favor es que tesselan muy muy bien, y eso se va a notar en una gran mejora de rendimiento en los juegos dx11 que va a dejar a ATI en pañales, a no ser que saquen algun driver milagroso, tambien me ha sorprendido lo bien que escala el AA.
KBM escribió:Queda decir ademas que seguro que los ejemplares enviados para testeo no tienen nucleas desactivados por puro marketing asi que esperas a la caida de fps con gpu's capadas xd
con 1050w basta y sobra,,,, un sli no consume el doble consume unos 580w tmb depende de que fuente estemos hablando salu2
Crackman escribió:con 1050w basta y sobra,,,, un sli no consume el doble consume unos 580w tmb depende de que fuente estemos hablando salu2
Esta valdría http://www.tacens.com/riii1050s.php??
Gracias por contestar
Un Saludo!
lynnfield escribió:KBM escribió:Queda decir ademas que seguro que los ejemplares enviados para testeo no tienen nucleas desactivados por puro marketing asi que esperas a la caida de fps con gpu's capadas xd
---
Respecto a la tesselación, las Fermi tienen una implementacion bastante más avanzada que ATI (simplemente por que el tesselador de las HD5800 no dista del de las 4800, 3800 y 2900, pues al fin y al cabo es la misma arquitectura). Tampoco es que las fermi tengan una rendimiento en tesselacion para tirar cohetes, pero al activarlo si que parece que pierden bastantes menos fps que las HD5800.
Originalmente Escrito por stallone
Hola. Soy NoahDiamond, de los foros de OCN. Sí, el motor (gráfico) usa llamadas a CUDA. No, el motor no soporta 64-bit. Sí, está optimizado para Nvidia, no batirá ningún record. El Unigine está escrito penosamente, y depende únicamente de unas cuantas librerías propias.
"Replication" es una característica usada para procesadores gráficos que funciona por debajo de DirectX 11 que puede dar un aumento de rendimiento. Algunas tarjetas lo soportan nativamente, y otras no. La serie HD 5000 lo soporta, pero no se puede activar fácilmente. Puedes activarlo o en los archivos .bat, o al empezar el benchmark, presionando la tecla "~", y escribiendo el comando:
d3d11_render_use_replication 1
Escribiendo "d3d11_render_use_replication" puedes ver si la opción está activada.
"PSSM shadow geometry replication by geometry shader (controlled by the folowing console variables: gl_render_use_geometry_replication, d3d10_render_use_replication, d3d11_render_use_replication)."
Es un atajo para renderizar sombras, y que puede causar artifactos en la versión actual del benchmark Heaven 2.0. Cuando testeas con tarjetas que no puede manejar adecuadamente esta opción, puede causar artifactos en las zonas de sombras, y puede hacer que las sombras "bailan", dependiendo de el uso de la caché de la GPU.
Las tarjetas 5870/5970 lo pueden manejar bastante bien debido a su uso de caché, pero está realmente escrito para las tarjetas Fermi que tienen una caché separada en niveles para almacenar instrucciones.
Y con respecto a Tesselation... Voxels (píxeles volumétricos) son un método más eficiente para renderizar detalles complejos, y ahorra una ENORME cantidad de cálculos y memoria, y puede ser ejecutado directamente en las unidades de tessellation dedicadas. Tessellation era una gran idea, pero requiere un modelo separado y conjuntos de texturas, pues "seaming" es un problema cuando no existe como una dualidad en los conjutos de datos del programa. Para evitar los huecos en "seaming", los modelos/texturas necesitan unirse/montarse, y Unigine no está afectado por ese problema.
En Tesselation el problema de los huecos "seam" no existe en en el motor gráfico 4A usado en Metro 2033, Dirt 2 o Aliens vs. Predator 2010. Los autores de esos programas tuvieron en cuenta el problema y trabajaron con las funciones de Tesselation.
El motor gráfico id Tech 5 usó otro enfoque distinto, y es increíble como se ve ese motor gráfico a día de hoy. No quiero parecer como un fanboy de John Carmack, pero él se ha tomado tiempo para escribir su software, y los motores gráfico id Tech siempren han estado en lo más alto, usando esta tecnología.
Fermi "IRÁ BIEN" en el benchmark Unigine Heaven, pero no será nada en la realidad, pues el motor gráfico no toma en cuenta que Tesselation, Physx, Render y los procesos de Shader todos tienen que trabajar juntos en los mismos "CUDA cores (procesadores)".
En pocas palabras, el benchmark es un juego TWIMTBP (The Way Is To Mean To Be Played, es decir, patrocinado por Nvidia). Muchos juegos creados por THQ y EA han capado/recortado intencionadamente las tarjetas ATI, y varias medidas legales han surgido debido a esto. Ejemplos principales de esto son los juegos Crysis y Need for Speed. Fueron capados totalmente en las tarjetas ATI hasta que salieron parches más tarde. Ahora las tarjetas ATI los dominan.
Nvidia está en una posición de márketing ahora, y están teniendo GRANDES pérdidas netas, pero ellos están inflando su valor de mercado a través de volver a comprar acciones de inversores por más de lo que ellos pagaron, y omitiendo pérdidas recursivas de sus declaraciones financieras. Si lees entre líneas, y miras a su posición, ellos necesitan un gran empuje, y la única manera de hacer esto es parando el hype de márketing, dejar de "sobornar" a desarrolladores, y volver a lo que ellos eran en principio. Un fabricante de chips.
TMSC está cansado de trabajar con ellos, los integradores de tarjetas no quieren tratar con ellos, Apple ha abandonado sus "añadidos" por el momento, muchos fabricantes de portátiles dejaron de integrar sus chipsets, aunque usan su tarjetas PCI Express, y Microsoft está enfadados con su software mal programado causando la mayoría de "cuelges" en Vista durante sus dos primeros años desde su salida, ocasionando otro "pleito".
Intel ya no quiere trabajar con ellos, y se han asociado con AMD para integrar las tarjetas ATI Radeon en los chips de Intel. Intel y AMD/ATI están ahora trabajando conjuntamente en la industria, con un acuerdo en el que AMD se queda en la gama baja y media de chips tanto por rendimiento como por precios, e Intel se queda en la gama alta y media de chips. Todos los chips de Intel con dual PCI Express soportan CrossfireX, y ATI está usando la licencia de Intel para Havok. Intel provee optimizaciones para AMD, y AMD está proveyendo soluciones integradas de gama alta para Intel.
Mientras tanto, Nvidia ha perdido sus derechos para producir nuevos CPU sockets y ha cesado de producir chipsets, y se ha visto forzada para licenciar SLI a otros fabricantes de placas base para poder vender sus productos.
Podría seguir, pero Nvidia necesita un producto muy bueno, y necesita hacer dinero, y viendo que sus nuevos productos tiene bajos niveles de stock y a un alto precio para salir al mercado actual, será para ellos díficil recuperarse. Nvidia gastó su dinero en comprar empresas pequeñas como Ageia, 3dfx, otras pequeñas empresas, e intentando aumentar su negocio en el sector con Tesla. Ahora están perdiendo dinero más rápido de lo que pueden recuperarlo.
Fermi es lo que las otras versiones anteriores de tarjetas CUDA han sido... Emuladores con un consumo alto. Ellos ejecutan DirectX en CUDA, Tessellation en CUDA, OpenCL en CUDA, OpenGL en CUDA, y esto no ayuda.
Aquí hay una forma de saber si tal característica en Nvidia está siendo emulada, ver si es un programa CUDA. Si lo es, no es a nivel de hardware, sino software paralelo. Nvidia PUEDE, y SE ESCAPARÁ haciendo ejecutar una gran cantidad de Tessellation en los benchmarks, pero no aguantarán en juegos donde se tiene que ejecutar otros procesos.
La nueva GTX 480 es básicamente dos GTX 275 chips que han sido reducidos, actualizados, extendidos y unidos en una única GPU. Esa es la causa por la que consumen tanta energía.
En la industria del automóvil, suelen decir "No hay sustituto para los desplazamientos", pero todos sabemos que este ya no es el caso. Es lo mismo para tarjetas gráficas. El futuro de las tarjetas Gráficas es hardware dedicado para funciones que pueden ser usadas para múltiples funciones y que no están restringidas, con múltiples SIMD de datos de entrada y procesar instrucciones "out of order".
Sí, hago posts largos... pero a veces es difícil encajar información detallada en un slogan.
Si quieres un slogan, es éste. Nvidia está muriendo, están perdiendo su valor bursátil BIEN por debajo del 50% de la industria, y están en una posición delicada. ATI se ha centrado en desarrollar hardware más avanzado y especializado qe puede hacer más por menos dinero, y están bien posicionados a lo largo del mapa y en todas las posiciones.
Por cierto. ¿Alguno de los presente tiene un teléfono con Tegra?
Saludos.
sir asistant escribió:un tipo de overclockers.net dice tener el motor del unigine, y comenta estoOriginalmente Escrito por stallone
Hola. Soy NoahDiamond, de los foros de OCN.
...
Por cierto. ¿Alguno de los presente tiene un teléfono con Tegra?
Saludos.
DeFT escribió:Un post muy interesante Asistant. De ser todo cierto, temblad. ATi da el mismo asco que nvidia. ¿Por qué coño no hay más compañías de chips gráficos? Kyro II, S3Virge, Matrox... :/
Please note, in this case 'hot' is more literal than figurative, the GPU here is running at 87C, far hotter than any card that expects to have a realistic life span should be at. Unconfirmed reports from China have the card hitting 98C on furmark. Don't expect these 'puppies' to have a long life, even in dog years.
Vandroy escribió:Yo, definitivamente paso de esta generacion de tarjetas, ni ATI ni NVidia, me quedo con la serie GTX200 y esperare a la siguiente a ver que se cuece, seguramente para la serie 500 o 600, como la quieran llamar habran subsanado cosas, o incluso saquen nuevas iteraciones de los actuales chips que mejoren el tema del consumo y el calor. Pero por ahora, segun lo visto, ningun interes.
nastuno escribió:... Al parecer, la ATI 5970 funcionaria mejor si pudiese superar esos TDP-300W pero no puede por lo anteriormente mencionado... ¿acaso lo intentó ATI primero y le dieron largas