GF4: la Xbox pierde fuelle!

Joder, este mundillo es una locura! Aun no tenemos la Xbox, y ya nos anuncian los detalles definitivos de las GF4!
El precio de la Ti4600 con sus 128 MB a 3.0 ns es de solo $349.90!

Imagen


A este paso, no se donde vamos a llegar!

Las anuncian el dia 6, aunque todos ya sabes todo lo que se tiene que saber!

Imagen
Yo creo que me pillare la 5 o la 6, porque de momento solo tengo el portatil, y paso de gastarme una pasta en la 3 o en la 4 :(



Saludos!!!
pues no lo sé yo tampoco
lo que sí sé es q las geforce3 salieron hace un año y aun hoy la 3, sin Ti, vale todavía unas cincuenta-sesenta y algo mil pelas, lo cual si que es una auténtica locura
pocos juegos hacen uso total de las caracteristicas de las gforce3, y aun mucha menos gente tiene una, y ya estan sacando las 4
De todas maneras según he leído por ahí no supone nada realmente nuevo, un par de cosillas mejoradas(dos vertex shader no?) y sobretodo mas memoria, mas velocidad, mas ancho de banda y poca cosa mas, en fin, un asco para intentar vender mas y tener excusa para mantener precios altos :(
Será pues hora de q al q le interese se compre la gf3 bien d precio
Esta GF4 es "mas de lo mismo". No tiene nada nuevo. Supongo que hasta la GF5 no se sacaran otro conejo de la chistera con inventos nuevos...
Yo ya paso de ellos, tengo mi GF3 desde junio '01 (80 y pico mil) y no han sacado nada que utilice los pixel shader ni mierdas de esas...
Por eso prefiero las consolas, les sacan el jugo antes.
Siempre pasa lo mismo, es ley de vida que salgan cosas mejores, pero no os preocupeis, no veremos un Dead or alive 3 en Pc para esa tarjeta, ni veremos, un Shenmue 2, en todo caso tal vez veamos algun fps que aproveche un poco sus posibilidades, pero como ya sabemos, el pc no es un hardware cerrado, por lo tanto dudo mucho que veamos juegos tan espectaculares como los que saldran para Xbox, ni el Devil may cry de PS2, ni su GT 3 los veremos en pc, al menos en muchos años XD pues imaginar los juegos de Xbox XD XD aun no he visto un juego como Sonic adventure 2 en pc, si, esa maravilla de Dreamcast, para mi uno de los plataformas mas preciosos y divertidos que he jugado junto con Jak and Dexter de Ps2 ;)


Un saludo y no os preocupeis porque saquen nuevos chips :P
Originalmente enviado por Tails
aun no he visto un juego como Sonic adventure 2 en pc, si, esa maravilla de Dreamcast, para mi uno de los plataformas mas preciosos y divertidos que he jugado junto con Jak and Dexter de Ps2 ;)


Un saludo y no os preocupeis porque saquen nuevos chips :P


Ole!!!
Ojo que la GF4 es el NV25 y la Xbox es la NV2a mientras que la GF3 es la NV17...

Digamos que la GF4 encuanto a caracteristicas tecnicas gana, pero ligeramente al NV2a de la Xbox...pero como es para PC y no esta en anillo 0 sino muchas mas otras capas por encima, digamos que iran par a par las dos encuanto a eficiencia...

Quizas la GF4 se salga mejor en el tema del AA ya que incorpora una nueva tecnica, cosa que elNV2a de la Xbox lleva el Quincunx

Lo que pasa es que por mas que saquen buen hardware en el PC, nunca habrá un juego que lo aproveche tanto como ocurrira en la Xbox u otra consola...

No se puede comparar una consola con un PC porque en teoria la GF2 ya movia mas que el EE de la PS2 y seria incapaz de poder emular la PS2 en un PC con una GF2 o GF3 o incluso GF4...

Y dudo mucho que eso pueda ocurrir con la GF4 emulando el NV2a de la Xbox...
pues no se su saldran juegos realmente que aprovechen el potencial de la gf4 pero sus cifras son realmente acojonantes sobre todo la de gama alta es un pedazo de bicho terrible

y no creo que esto afecte mucho a la xbox aun que todo son juegos tanto de pc como de consola para mi el rdenador lo dejo para juegos de estrategia como EAGE OF EMPIRES me parece que se escribe asi donde la potenciad de calculo tiene que ser mu grande y las consolas no pueden

y donde la GF 4 vendra de perlas

adios a tosssss
Originalmente enviado por Raine
Ojo que la GF4 es el NV25 y la Xbox es la NV2a mientras que la GF3 es la NV17...


La GF3 es el NV20.
El NV17 es el chip de los portatiles:

NVIDIA NV17
NVIDIA introduces the fastest, most comprehensive and feature-rich computing experience ever realized on a mobile platform. From notebooks powerful enough to replace your desktop PC, to those that are both thin and light, NVIDIAs next-generation mobile GPUs provide unprecedented mobile computing experiences.
COMDEX - LAS VEGAS, NEVADA - NOVEMBER 12, 2001 - Addressing the major concerns of today's most demanding road warriors: battery life, DVD playback, performance, and size, NVIDIA® Corporation (Nasdaq: NVDA) today introduced their new-generation mobile graphics processing unit (GPU), code-named NV17M. With its stellar power management features, including NVIDIA's PowerMizer Technology; integrated Video Processing Engine (VPE); revolutionary antialiasing technology for superior display quality; and an ultra-efficient memory architecture--NVIDIA's new mobile GPU provides graphics capabilities previously unavailable on a portable platform.


La NV20 es la GF3 Ti 500

el Nv17 es la primera GF3 ..

y el NV17M es la GF3 Go o como se llame
XDXDXDXD

GF4 esta basado en el chip de Xbox... q a su vez, es una macroevolución del GF3, sobretodo en cuanto a las unidades de T&L se refiere.

Basicamete, GF3 es una Xbox supercapada, y GF4 es a la Xbox como la Gf2 MX400 es a la GF2 Ultra.
Es decir, GF4 es una Xbox capada.

Principalmente son iguales, pero la unidad de T&L es mas lenta (genera menos polígonos en principio, pero ya se acerca a la Xbox, q es lo unico q las diferencia).

Ambas tienen3 motores de Pixel Shaders (o son 4) y otros tantos de Vertex Shaders, como en Xbox. La memoria si que es claramente superior, pero esto se debe a que mientras en una consola se suele renderizar a 640x480 a 24/32bits (depende juego), en PC generamos de forma estandar un minimo de 1024x768x32bits (4 veces mas de demanda de ancho de banda en la memoria), lo cual... planta el por que de 660MHz en la RAM de la GF4 Ti4660, y 550 en la Ti4400(no conozco su velocidad)?

Basicamente es eso, una Xbox "capada".

El otro tema de no ver los juegos esos en PC es por dos razones: Variedad extrema de Hardware (aumentan los costes y tiempos de desarrollo/beta test) y la nula posesion de un Kernel exclusivo para juegos, lo que provoca q nunca se aproveche el Hard... (aunque las Direct X 8.1 y las proximas DX9 en WinXP crean un agujero mas grande dentro del SO para la programación de los juegos, haciendo posible una programación a menor nivel).

Ala, Salu2 q no me enrollo mas... :P

PD: Hasta el día 6, no sabremos nada real de verdad, asi q todo conjeturas, no creeis?
Lo mejor de todo esto es que las gf3 bajaran de precio pk si las g4 son tan "baratas" (si el precio es el que dice M3D) no me lo negareis, tendran ke vajar las gf3 por guevos y las gf2 se convertiran en las nuevas tnt2
Pero en principio, nVIDIA queria conseguir lo siguiente en el mercado:

Nuevas graficas == Antiguas Graficas
--------------------------------------------------
GF2 MX 400 == TNT 2 Vanta (la cutre grafica)
GF2 Ti == GF2 MX 200
GF3 Ti200->Ti500 == GF 2 Ultra
GF4 MX (3 modelos) == GF2 Ti ->GF 3 Ti200 (rinden parecido segun parece)
GF 4 Ti4400/4600 == GF 3 / GF 3 Ti500

Lo que quieren es pillar todo le abanico del mercado para tener a los consumidores reales (esos q no tienen mas de 25/30 para una grafica y q les jode mogollon estar menos de 3 años con una 3D).

Salu2.

PD: Esa creo q es la unica manera de intentar tirar a su competencia actual en la gama media: Ati 7500 y todas las Kyro.
Originalmente enviado por shadow land
GF4 es a la Xbox como la Gf2 MX400 es a la GF2 Ultra.
Es decir, GF4 es una Xbox capada.


Ya sera menos no? No creo que eso sea una comparacion justa!

Creo que la GF4 es bastante mas que eso, por no decir mas que la Xbox, o te crees que lo que Nvidia desarrollo hace un año aun no tienen permiso para superarlo, o que?
Y lo del kernel de juegos... te olvidas de que los PC tambien van a 2 Ghz ya...

La Xbox esta muy bien, pero ya esta superada...
Originalmente enviado por Raine


La NV20 es la GF3 Ti 500

el Nv17 es la primera GF3 ..

y el NV17M es la GF3 Go o como se llame


Esto esta sacado de los drivers 27.20:

%NVidia.Nv10% = nv4, PCI\VEN_10DE&DEV_0100
%NVidia.Nv10DDR% = nv4, PCI\VEN_10DE&DEV_0101
%NVidia.Nv10GL% = nv4_WSApps, PCI\VEN_10DE&DEV_0103
%NVidia.Nv11% = nv4, PCI\VEN_10DE&DEV_0110
%NVidia.Nv11DDR% = nv4, PCI\VEN_10DE&DEV_0111
%NVidia.Nv11GL% = nv4_WSApps, PCI\VEN_10DE&DEV_0113
%NVidia.NvCrush11% = nv4_Crush11, PCI\VEN_10DE&DEV_01A0
%NVidia.Nv15% = nv4, PCI\VEN_10DE&DEV_0150
%NVidia.Nv15DDR% = nv4, PCI\VEN_10DE&DEV_0151
%NVidia.Nv15BR% = nv4, PCI\VEN_10DE&DEV_0152
%NVidia.Nv15GL% = nv4_WSApps, PCI\VEN_10DE&DEV_0153
%NVidia.Nv17.1% = nv4, PCI\VEN_10DE&DEV_0170
%NVidia.Nv17.2% = nv4, PCI\VEN_10DE&DEV_0171
%NVidia.Nv17.3% = nv4, PCI\VEN_10DE&DEV_0172
%NVidia.Nv17GL.1% = nv4_WSApps, PCI\VEN_10DE&DEV_0178
%NVidia.Nv17GL.2% = nv4_WSApps, PCI\VEN_10DE&DEV_017A
%NVidia.Nv17GL.3% = nv4_WSApps, PCI\VEN_10DE&DEV_017B
%NVidia.Nv20% = nv4, PCI\VEN_10DE&DEV_0200
%NVidia.Nv20.1% = nv4, PCI\VEN_10DE&DEV_0201
%NVidia.Nv20.2% = nv4, PCI\VEN_10DE&DEV_0202
%NVidia.Nv20DCC% = nv4_DccApps, PCI\VEN_10DE&DEV_0203
%NVidia.Nv25.1% = nv4, PCI\VEN_10DE&DEV_0250
%NVidia.Nv25.2% = nv4, PCI\VEN_10DE&DEV_0251
%NVidia.Nv25.4% = nv4, PCI\VEN_10DE&DEV_0253
%NVidia.Nv25GL.1% = nv4_WSApps, PCI\VEN_10DE&DEV_0258
%NVidia.Nv25GL.2% = nv4_WSApps, PCI\VEN_10DE&DEV_0259
%NVidia.Nv25GL.4% = nv4_WSApps, PCI\VEN_10DE&DEV_025B


---------------------------------------------------------------------------------

NVidia.Nv20DCC = Quadro DCC = Geforce3 Quadro

por lo tanto:

NVidia.Nv20 = Geforce3

Convencido ya o no?
o te crees que lo que Nvidia desarrollo hace un año aun no tienen permiso para superarlo, o que?


No es bien asi, ya que el NV2a está conjuntamente desarrollado por Nvidia y MS con lo que parte de esa tecnologia está protegida por parte de MS, quizas lo que concierne a la optimización de las librerias Directx a bajo nivel...

Además aunque se haya fabricado hace un año no quiere decir que no esté desfasado en cuanto a tecnologia...por el contrario, lo que dijo Shadow que la la GF4 aunque tenga mayor ancho de banda es para el tema de la resolucion de colores y pixeles ya que el PC requiere mas ancho de banda, pero en cuanto a poligonos, me atreveria decir que el Nv2a los muve mas que la GF4...

Hasta que la presenten oficialmente, no se podrá decir nada mas...
Es que soy el unico de la pradera que NO SE CREE que la Xbox mueva 125 millones de poligonos?
Joder, a Nvidia y a M$ les molan decir estas barbaridades, pero todos sabemos que despues, nanai.
La GF4 claro que tiene mayor ancho de banda, y seguro que en poligonos tambien bate a la Xbox. O os creeis que la Xbox y su NV2A son la piedra filosofal en cuanto a poligonos se refiere?
Por favor....
Pues no te lo creas...yo si...

Es mas..creo que la Xbox me ha demostrado de sobra su potencial ...con los juegos que tengo y los que voy a tener...
Originalmente enviado por M3D
Es que soy el unico de la pradera que NO SE CREE que la Xbox mueva 125 millones de poligonos?


M3D, yo tp me lo acabo de creer :-)
tampoco os creeis q el GS de Sony es capaz de renderizar 150 millones de polígonos por segundo? por que los renderiza, al igual q la Xbox si usas el programa de nVIDIA q convierte los conjuntos de polígonos a vectores... haz una pelota gigante y a ver cuantos mueve... NV2A es una tecnologia COMPRADA por MS y no dio permiso a nVIDIA a sacar algo equivalente hasta 2 años mas tarde, es decir, las DirectX 9. (por eso aquello de los 200 Millones de dolares por el chip, mas 100 por el de sonido/multimedia, mas lo q costase la adaptacion del P3... creo recordar q NEO era de los q decia q Xbox no habia costado mas q cuatro asquerosos duros en I+D... q nVIDIA sea una maquina y necesite la mitad de tiempo para desarrollar lo mismo q sony o menos en el tema 3D, no quiere decir q no se invierta en I+D)

GF4 es una Xbox capada en el tema polígonal. (no he nombrado el resto ya q no se conoce, pero parece ser q sera equivalente o casi).

Si os lo quereis creer o no lo de los 125millones haced lo q querais... PS2 mueve 66 millones a traves del EE (100% de uso), lo cual no quiere decir, q el GS no sea capaz de transformar los 150 millones q os comente.

Salu2

PD: El tema del minikernel hace muchisimo M3D... en Xbox pueden programar absolutamente un juego 100% en ensamblador, en PC, es sencillamente imposible, ya q tienes q pasar por las DirectX (4º anillo: Kernel + Driver + SO + Direct X), mientras q en Xbox en C (programacion estandar) estas ya programando directamente el 2º anillo: Kernel + DirectX).

Hacer los juegos en PC en MS DOS seria infinitamente mas poderoso q con Windows, pero MS DOS es una mierda para el resto de aplicaciones... y en MS DOS seria el sueño en cuanto no hubiese "DirectX", si los hubiese, seria lo mismo. La ventaja de las consolas reside en ese MiniKernel, no en su hardware, por que Xbox, de aqui a un año, ya no sera la BOMBA del HARDWARE... habra hardware mejor de aqui a 6 meses (Ati Radeon 9000 (R300)).
Bueno,

Parece que nadie se acuerda que desde windows nt 4.0 el subsitema grafico esta incluido en el nucleo del mismo para que se pueda acceder más rapido ( hubo criticas en su momento porque eso hacia un servidor sensible a que un driver de video jugara una mala pasada, por eso esta el modo vga de wnt ). Una cosa es lo que puede hacer un pc y otra muy diferente que un programador quiera o sepa hacer y si tira de hardware y no optimiza pero los resultados son los mismos puta madre. Creo sinceramente que con el tema de las consolas la gente no ves mas alla de su ombligo, es decir si no es la consola que tengo es una mierda.

Y que conste que tengo una ps2 y opino que los juegos no son nada buenos excepto un par de excepciones ( gt3 y no me gustan mucho los juegos de coches )
donde podemos programar juegos a nivel hardware hoy por hoy?
VIDEOCONSOLAS. son el unico sistema "cerrado" y sin variaciones...

Es una razon muy simple, o haces un programa especifico para un PC especifico, o q vas a hacer, programar para las Kyro, Savage, Voodoo, nVIDIA, Ati, Matrox? para las SB PRO/16, SB live, Fortissimo, MUSE, Aureal3d, Seissmic (Philips), Terratec, etc, etc, etc... para Intel y AMD (ensamblador) y Cyrix/Via C3? hoy por hoy, es sencillamente "imposible" programar un juego en PC a nivel Hard... solo hay pequeñas excepciones q pueden acercarse como Commandos 2 q se basa todo en Soft y por tanto puede tirar de librerias graficas (aunque depende del DirectX) y acercarse mas a ese bajo nivel.

El ultimo juego q recuerdo aprovechar como dios manda el hard fue el Quake 1, el primer juego 3D real q parecia q todo era 3D de verdad... todo MS DOS, sin aceleradoras de por medio... y aunque basado en OpenGL, todo se basaba en librerias propias dle Carmack en VESA y Cia... (si no recuerdo mal, pero no aseguro...).

Pues eso, q es mu chungo el tema en PC... esla unica ventaja q les veo a las consolas sobre PC, la posibilidad directa de programar el Hard/Kernel y saltarse a la torera librerias de apollo externas si te viene en gana, o aprovecharlas exclusivamente para determinadas cosas...

Salu2.
habra hardware mejor de aqui a 6 meses (Ati Radeon 9000 (R300)).

NV2A es una tecnologia COMPRADA por MS y no dio permiso a nVIDIA a sacar algo equivalente hasta 2 años mas tarde, es decir, las DirectX 9.

Esta claro que nVIDIA no va a respetar ese "pacto" si es que realmente existe porque lo dudo mucho, porque sino Ati se le hecha para alante en el mercado y eso no lo va a permitir nVIDIA. Tampoco me creo que Xbox mueva los poligonos que anuncia como tampoco lo hace PS2.
la cosa es q el pacto acaba mas o menos en 6 meses (poco mas) q es el ciclo de sigue nVIDIA entre generaciones/subgeneraciones...
Es decir, con la llegada de DirectX9 veremos una nueva generacion de monstruos 3D (Radeon R300 sera compatible, y sale para finales de verano) y GeForce 5 (o como se llame) es de suponer, q saldra alla por Octubre/noviembre... pero bueno, ya veremos...

Xbox no mueve los polígonos q anuncia, XGPU (El NV2A si q los genera y los mueve con el T&L independientemente de la CPU, otra cosa es q los llegues a ver algun dia, alguien a vista la famosa demo de Sony del dinosaurio con PSX en un juego? yo no), y PS2 mueve sus 66 millones de polígonos solo CPU, pero no los veras en un juego, por que eso son polígonos planos, sin iluminacion ni nada... son 20 millones con una textura, y filtrados... asi q ves bajando... eso siempre es el maximo teorico (los altavoces tienen 300w, claro, pero de PMPO), lo cual es casi imposible de ver...

Salu2.
Esto parece mas un post de Hardware sobre PC que de la XBox XD XD XD

La GF4 solo es una GF3 con un par de procesadores mas, pero no creo que suponga un cambio tan radical como para pasar de la GF3, o incluso la 2, a la 4.



Saludos!!!
no se q cambio real supondra, pero imaginarme jugar a DOOM 3 con todos los efectos activados (incluso los efectos de texturas DOT3 mediante pixel shaders o las 8 texturas por superficie) a unas 50fps a 1024 en vez de unos "tristes" 30 justos de una GeForce 3 sin esos pixel shaders... pues no se, es un suponer, pero esos 2 motores de mas, dan una gran ventaja sobre GF3 (mitad de pasadas para hacer lo mismo... ;) en lo q se usen, claro).
Ahora no lo notas, pero en q salga Unreal II y Cia, te aseguro q lo notaras, y mucho!

Ahora ni un solo juego en PC aprovecha las T&L de verdad, NI UNO! algunos se les nota su uso (Black & White, Giants...) pero eso no es nada... espera a q programen juegos para DirectX 8.1 REALES y q te digan, minimo recomendado GeForce 3 (es decir, q haran uso de los "Shaders" o sea, nFINITI FX de nVIDIA o Pixel Tapresty de ATI, en juegos como Duality, Strident, Doom 3, Unreal II, U tournament II), no taras la diferencia.. estamos al final de una generación de juegos, la siguiente, sera un salto generacional casi como lo fue el salto de las 3D via software (Quake I) a las via Hard (Quake II/Unreal), q habia un habismo en calidad gráfica entre unos y otros (y no me refiero a los filtrados...

Y es que estamos hablando de ver por ejemplo sombras en las texturas gracias a mapas de nivel!! Es decir, texturas "3D", deformación de dichas texturas a voluntad, aplicación de efectos sobre ellas en tiempo real, modificacion del entorno de forma no fija (podras hacer una deformación en un pared provocada por una explosion teniendo en cuenta X variables, como hace RedFaction, pero muchisimo mejor)...

en serio, en q se aprovechen estas funcionalidades veremos virguerias técnicas q nada tiene q ver con los juegos actuales.

Solo se una cosa, GeForce 3 DCC renderizo en tiempo real la película de Final Fantasy, a 30fps (mas o menos), pero la rederizo!! (P4 a 1,5GHz y 256RDRAM)... asi q imaginate lo q se puede lograr... y el salto cualitativo q se puede llegar a ver.

Pero como siempre, esto depende de los programadores y no del hardware... como se suele decir: Dos no discuten si uno no quiere... aqui lo mismo (casi;))

Salu2
Originalmente enviado por shadow land
GeForce 3 DCC renderizo en tiempo real la película de Final Fantasy, a 30fps (mas o menos


1 fotograma tardo 1/10 seg. o sea, 10 fps.

http://www.nvidia.com/view.asp?IO=final_fantasy
me lo creo, aunque no acabo de encontrarlo por la web, me lo creo, aunque en la misma web de nVIDIA lei hace tiempo q la mayor parte de las escenas se renderizaban a 30 fps enquitando las de sobrecarga polígonal (q hay unas cuantas)... pero bueno, el hecho es q 3 DCC moverian FF sin problemas, mientras q Sqaure bastantes EE trabajando en paralelo para poder renderizar la película, lo q da que pensar... no?

De todas formas, hacer eso bajo Windows 2k, 3DSMax y DirectX (supuestamente inferior para estos menesteres q la norma OpenGL 1.3) esta q muy bien.

Bueno, igual da, no?

Con esto ganamos los usuarios, si es q queremos, claro, eso si, no hay q ir antes de hora a por las cosas... ;) Yo sigo feliz con mi Kyro II jugando a 1024 a 32bits a todo sin problema alguno... y es la polla.

Salu2.
Y eso depende del fotograma, no es lo mismo un fotograma en el que solo se ven un fondo 2d del espacio a un fotograma donde hay muchos personajes simultaneamente, algunos fotogramas tardaron varios segundos, lo cual no es en tiempo real ni de coña, que no quiere decir que la GF3 no sea una buena tarjeta grafica, solo que Nvidia tragiversa los datos para hacer marketting, igual que hacen todas las compañias.
es que Sony tuvo q fabricar un Superordenador basado en el Emotion Engine para poder renderizar la película, y ni siquiera en tiempo real, en ese "ordenata" habia mogollon de CPU's (no recuerdo el numero, pero eran muchas) trabajando en paralelo... y no era tiempo real, o dama muy pocos frames por segundo en las pruebas de rendimiento y una "simple" GF3 es capaz de generar Tiempo Real... algo q cuesta 90 billetes en salida (por que la DCC es una GF3 con una resistencia cambiada de sitio).

Solo me refiero a eso...

Salu2.
Originalmente enviado por shadow land
es que Sony tuvo q fabricar un Superordenador basado en el Emotion Engine para poder renderizar la película


Que yo sepa la peli se hizo con Maya y se renderizo con Renderman, nada que ver con EE.
Lo que tu dices es un prototipo llamado GScube, presentado en el Siggraph 2000.

Imagen

CPU: 128-bit "Emotion Engine" x 16
System clock frequency: 294.912MHz
Main memory: Direct RDRAM
Memory size: 2GB (128MB x 16)
Memory bus bandwidth: 50.3GB/s (3.1GB/s x 16)
Floating point performance: 97.5GFLOPS (6.1GFLOPS x 16)
3D CG geometric transformation: 1.04Gpolygons/s (65Mpolygons/s x 16)

Graphics: Graphics Synthesizer I-32 x 16
Clock frequency: 147.456MHz
VRAM size: 512MB (embedded 32MB x 16)
VRAM bandwidth: 755GB/s (47.2GB/s x 16)
Pixel fill rate: 37.7GB/s (2.36GB/s x 16)
Maximum polygon drawing rate: 1.2 Gpolygons/s (73.7Mpolygons/s x 16)
Display color depth: 32-bit (RGBA: 8 bits each)
Z depth: 32-bit
Maximum resolutions: 1080/60p (1920x1080, 60FPS, progressive)
Merging functions: Scissoring, alpha test, Z sorting, alpha blending

Sound: Emotion Engine native audio
Maximum output channel: 16
Sampling frequency: 48kHz
Output data length: 16-bit
Output data format: AES/EBU digital audio format
Ok, pero de todos modos tu mira los fotogramas renderizados con la GF3 y los fotogramas de la pelicula original y no tienen nada que ver, los de la GF3 son cutrisimos comparados con los de la pelicula.

O sea que aunque la GF3 renderizara la pelicula no lo hizo con la calidad original de la pelicula.
comparar un render en tiempo real con la misma animación renderizada mediante: renderman/maya/PovRay (no os rias... XD)/lightwave/3DS MAX x.x (os aseguro q se renderizo mediante ligthwave... conozco a alguien de la distribuidora de este producto en españa... (o una de las q lo distribuyen jejeje)), la calidad siempre sera incomparable... eso es muy dificil de igualar, y pasaran unas decadas hasta q se llegue a igualar... es tan simple como q en el tiempo real, aun no se usan técnicas de raytracing, si no de ray casting, q es parecido, pero no lo mismo. Aunque se incluye algo d eraytracing es mínimo...

Salu2.
No me tienes que dar clases de infografia, hace muchos años que uso lightwave, 3dsmax, etc..., me referia precisamente a que nvidia hizo publicidad engañosa, la mayoria de la gente si les dicen que la GF3 renderizo la pelicula de final fantasy se creen que lo hizo con la misma calidad que la pelicula, y eso estaras de acuerdo conmigo en que es publicidad engañosa, no?
pero eso es marketing... mientras no mientras, si solo das una verdad "a medias"... pues no es ilegal.

La verdad, todo es rederizar, pero como llamar a la diferencia entre RayCastin y RayTracing (la verdad, yo de infografía mas bien poco, lo q se, lo se por curiosidad en las 3D y lo poco q he programado bajo OpenGl por "gusto"...)

Es q nVIDIA (como todas) se basa en eso, en los "tontos" (digamoslo como a mi me gusta: Desinformados) del mundo 3D para hacer vales esas premisas, nada mas...

Salu2.

PD: Seguro q no usaron (aunque fuese en parte) el superordenata de Sony los de Square? yo juraria q si, lo habia leido en varias partes... pero bueno, nose... en cierto modo me extrañaba q usasen una Super PS2 para render en vez de tarjetas o macrotarjetas como las WildCat y tal q hay en PC, o sea, tarjetas q en tiempo real van "de culo", pero q para eso se salen del mapa.
Hablando de todo, ¿sabeis que maquina lleva ya la GF4?, no un PC no. Un [email=http://www.apple.com/es/powermac/]MAC[/email] , por supuesto.


Salu2
y? ni que fuese exclusividad de Apple las Geforce leches...

ademas, ya vi hace tiempo los benchmarks con GF 4 y no son muy espectaculares q digamos, incluso el de Dual 1GHz... pero bueno, es Apple... empresa cerrada y manipuladora como pocas... (bueno, como todas, pero unas mas q otras).

Son los primeros q no hacen comparativas parciales... pero gueno, la verdad, q los MAC lleven una GF4 no me dice absolutamente nada... :-?

Salu2
Mueve 3 veces mas polígonos q GeForce 3 gracias a su segundo Vertex Shader (cerca de los 100Millones por Segundo, Xbox 125, ahora veis por que decia lo de "capada"?)
Esto esta sacado de Tomshardware...

Los resultados por ahora con drivers "beta" para GF4, es q todas las Ti son superiores a la Gf3 Ti500 sin excepcion (no las MX), las MX son GeForce 2 Dopadas y aunque alguna ride casi igual que la GF3 Ti200, con la nueva generación se quedara atras, ya que no posee ni pixels ni Vertex Shaders... :(
En OpenGL, en principio parece rendir alguna un 20% mas que las GF3 Ti500, habra q ver como rinden bajo Unreal II cuando lo lancen... ;)

La arquitectura de memoria ha sido mejorada, asi como la compresion de datos en el buffer Z. El rendimiento de AA a aumentado, y el Quincux y FSAA2x rinden casi igual, y mucho mejor q con las GF3 Ti500.

Unas foto: Ahora veo de nuevo el efecto "pelo" exclusivo de la Xbox hasta hace bien poco y q TH3 va a emplear para generar cesped 3D real.
Imagen
Imagen
Imagen

Salu2.
joooooooooooooooooooooooooooooder...

¿Esto lo mueve en tiempo real?...
si, son imagenes provenientes de las demos tecnologicas de nVIDIA, del mismo estilo a las que hubo con GF3 q nadie creia (el famoso camaleon, por ejemplo)

espera q pongo unas de tomhardware de otra demo tecnologica pero que no es de nVIDIA...

Basadas en una demo tecnologica de MiddleWare de una empresa alemana: Codecult. La demo se llama ColdCreatures
Imagen
Imagen
Imagen

todo tiempo real.

Salu2
JJJJJJJJOOOOOOOOOOOOOODDDDDDDDDDDEEEEEEEEEEERRRRRRRRRRR!!!!!!!!!!!!!!!!!!!!! Menuda pasada!!!! :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O :O
Simplemente alucinante. Vete tu a saber cuando veremos juegos de esos en PC, aunque haber si tenemos suerte y los vemos en XBOX!! ;)
El efecto de pelo es una pasada. [Alaa!]
Joder, menuda pasada de graficos!!!

A ver cuando lo aplicacan a los juegos!



Saludos!!!
Esos graficos para el Doom3 y sus hasta 250000 polígonso por personaje y 8 texturas por superficie mas efectos luminicos y 3D sobre las mismas... con ese juego nos cagaremos en los pantalones... XDXDXD (30fps en GeForce 3 asegurados por John Carmack).

Bueno, parece ser, q al final, GF 4 Ti4600 es exactamente el NV2A de Xbox, el mismo (o practicamente iguales, en algo se diferenciaran, por que aunque tienen la misma potencia real en GIGAFlops, tiene mas transistores... sera por que ademas de chip gráfico, hace de Chipset/North bridge con le P3 y el resto).

Bueno, pegado literal de la web de nVIDIA:

GeForce4 Ti 4600 Triangles per Second:136 M
Fill Rate: 4.8Billion AA Samples/Sec
Operations per Second: 1.23 Trillion (132 GIGAFlops)
Memory Bandwidth: 10.4Gb/s
Maximum Memory:128MB

GeForce4 Ti 4400 Triangles per Second:125M
Fill Rate:4.4Billion AA Samples/Sec
Operations per Second:1.12 Trillion
Memory Bandwidth:838GB/sec
Maximum Memory:128Mb
Velocidades (Core/MEM)
GF4 Ti4600: 300/660 (el sample de nVIDIA q esta en todos sitios lleva memoria a 2.8nanos!! y se puede overclokear hasta casi los 760MHz!!!)
GF4 Ti4400: 275 (300?)/550 (los samples de nVIDIA poseen el Core a 300MHz... supongo q las versiones de calle iran tb a esa velocidad, o si no, seran overclokeables sin dificultad ni "riesgo real" hasta los 300MHz minimo).

Salu2 y a disfrutar del futuro... :)
Originalmente enviado por shadow land
Mueve 3 veces mas polígonos q GeForce 3 gracias a su segundo Vertex Shader (cerca de los 100Millones por Segundo, Xbox 125, ahora veis por que decia lo de "capada"?)


Parece que le tienes mania a la GF4 tu...
Si esto esta sacado de la web de nVIDIA realmente:

GeForce4 Ti 4600 Triangles per Second:
Fill Rate:
Operations per Second:
Memory Bandwidth:
Maximum Memory:

136 Million
4.8 Billion AA Samples/Sec.
1.23 Trillion
10.4GB/Sec.
128MB

GeForce4 Ti 4400 Triangles per Second:
Fill Rate:
Operations per Second:
Memory Bandwidth:
Maximum Memory:


125 Million
4.4 Billion AA Samples/Sec.
1.12 Trillion
8.8GB/Sec.
128MB


136 millones son mas que 125 millones, verdad? ;)
has leido mi ultimo post? creo q no, ya q esos datos los he puesto yo tb. Lo que tu pones ahi, era mi "conclusión" prematura tras leer el articulo de nuestro amigo "toms"... q ni el mismo parecia tener datos reales de la potencia de GF4 (ni nadie segun se ve hasta esta misma tarde q los ha colgado nVIDIA en la web).

Sigo pensando que algo le falta a ese chip respecto a Xbox... faltan casi 20 millones de transistores (diferencia entre NV2A y NV25) y en Xbox hay reproducción por hardware de DVD como en las GF4 MX, pero no la hay en la GF4 Ti estandar (cosa extraña por otra parte).

Bueno, q da igual, de todas formas, hay un mínimo de 50Mhz de diferencia entre la GF4 Ti4600 y la NV2A, asi q hay diferencias, aunque solo sea en el diseño dle chip... ;) (yo no me referia solo a la potencia bruta si no a las características reales del producto...)..

Espero ya con ansia la VooDoo 7XD perdon, la GeForce 5!! XDXDXD

Salu2 y a disfrutar...
claro que he leido tu ultimo post, los datos los he puesto a modo de cita, sino, analiza mi frase: "Si esto esta sacado de la web de nVIDIA realmente..."
46 respuestas