Hollywood vs Flipper

Bueno, ya sé que hace tiempo que no salen hilos de esos y precisamente porque ahora se ha calmado el ambiente he decidido abriri ese hilo.
El caso es que me gustaria enumerar las diferencias que hay entre el hollywood y el flipper y qué podrian significar esas de cara a los gráficos de los juegos.

La primera diferéncia y la única que conozco es el aumento de velocidad. El Flipper iba a 162Mhz si no recuerdo mal y el Hollywood tiene una velocidad de procesador de 243 Mhz.
A mas ciclos por segundo, mejores resultados, eso es de cajón (siempre hablando en el caso de dos procesadores idénticos pero a velocidades distintas).
He escuchado programadores que dijeron que gracias a ese incremento en la velocidad del GPU la Wii seria capaz de mostrar resoluciones de 480p con mas facilidad que NGC.

Sin embargo, no creo que el Hollywood sea un Flipper a 243 Mhz y punto, pero claro, yo no sé nada mas.
¿Alguien sabe que otras diferencias hay entre el Hollywood y el Flipper?
¿Se podria decir que el Hollywood esta al mismo nivel que la GPU de Xbox (1) o sigue habiendo una diferéncia tan notable como la habia entre la GPU de GC y la de Xbox?
la diferencia entre los chips graficos de Xbox y Wii esque el de la xbox puede hacer shares por hardware y no por software, simplemente esa
Hombre pero hay mas cosas a parte de eso. Sin embargo, eso de hacer los shaders por software o por hardware...
¿No podia aplicar ningún efecto la GPU de GC por hardware? Lo digo porque de ser así no seria mucho mejor que lo que llevaba PS2...

Pero además de eso esta la capacidad poligonal y todo eso fruto de la estructura interna de ambas GPU, en donde la de Xbox (1) se pulia a la de GC.
¿Ha mejorado eso la GPU de Wii respecto a la de GC?
Los rumores dicen que nintendo le pago lo mismo a ati que m$ para la grafica de x360.

No creo que solo hayan metido una seta roja de turbo xd
cubeplayer escribió:Hombre pero hay mas cosas a parte de eso. Sin embargo, eso de hacer los shaders por software o por hardware...
¿No podia aplicar ningún efecto la GPU de GC por hardware? Lo digo porque de ser así no seria mucho mejor que lo que llevaba PS2...

Pero además de eso esta la capacidad poligonal y todo eso fruto de la estructura interna de ambas GPU, en donde la de Xbox (1) se pulia a la de GC.
¿Ha mejorado eso la GPU de Wii respecto a la de GC?


Perdon estas hablando de GC y Xbox o de Wii y Xbox
Flipper era el GPU de GC y Hollywood el de Wii. En teoria la cosa estaria en enumerar las características que hacen mejor GPU al Hollywood que no al Flipper.
De momento yo he dicho la velocidad, ya que como mínimo sabemos que el Hollywood es clavado al fliper pero mas rápido.
Solamente por la velocidad ya sabemos que el Hollywood es, como mínimo, 1.5 veces mas potente que el Flipper.

Luego también esta bien comparar con el GPU de Xbox ya que mas o menos se saben las diferencias (bastante grandes) qeu habia entre el GPU de GC y la GPU de Xbox, por tanto, como mejor sea el GPU de Wii, menor sera la diferencia entre esa y el GPU de Xbox y ya todos sabemos lo que era capaz de hacer una Xbox...
Términos:

ATi = VPU (Visual Processing Unid)
nVidia = GPU (Graphics Processing Unit)

La Wii no tiene una VPU ni GPU ni nada pq no tiene shaders y demás programables por hardware, ese término no se puede usar, el término GPU nace en nVidia con la GeForce 3 (la primera GPU del mercado) Hollywood no es más que un Chip Gráfico, aunque se suelen englobar todo lo referente con la gráfica en GPU por comparativo a la CPU del sistema pero no es realmente válido.

Del Hollywood poco se sabe, salvo que es 100% compatible con Flipper y que tiene mayor frecuencia al funcionar a 243Mhz y que está construido con un proceso de 90 nm CMOS, o esque quizas eso sea todo... [burla3]
que quereis q os diga yo me pongo a jugar al zelda T.P. de wii y no estoy pensando en si esto lo mueve una xbx una ps2 ni nada simplemente me divierto, yo creo q ya esta bien de comparaciones, wii es wii y al q le guste y la compre y al q no q mire el resto de opciones del mercado
Odin llevas toda la razon, pero piensa que compras una consola de nueva generacion.., y que hasta la fecha, los juegos que han sacado son inferiores en graficos a los de gamecube.., es decir, es normal, que el personal se plantee si se vera algo mejor que en el cubo o como maximo llegaremos a ver los mismos graficos. Ya es sabido que nada mas salir al mercado ninguna consola se luce, pero si se nota el cambio grafico de una generacion a otra, cosa que con esta.., aun na de na :P
Yo por ahora estoy disfrutando mucho con los juegos que he pillado, y con eso me conformo ^^
Me gustaría saber como va el tema de la caché del procesador de Wii, en comparacion con Flipper por ejemplo y de que va el tema de los buses del sistema. Creo que por que tenga unos Mhz más que Flipper no signifique demasiado ¿o me equivoco?
No, por tener unos pocos mas Mhz no cambia apenas nada la cosa, es mas la cualidad de proceso, el bus, las cosas que haga a nivel hardware...
Pues cambiar cambia que puede mover una cantidad de poligonos mucho mayor y puede mostrar mas efectos en pantalla que en GC no se podia, no obstante no tiene shaders programables, pero si se pueden hacer a base de software
A ver si encontramos datos para comparar y los ponemos.

Y por favor, abstenerse posts tipo 'pos si quieres graficos comprate la pesetrés'.
|NFERNO escribió:Términos:

ATi = VPU (Visual Processing Unid)
nVidia = GPU (Graphics Processing Unit)

La Wii no tiene una VPU ni GPU ni nada pq no tiene shaders y demás programables por hardware, ese término no se puede usar, el término GPU nace en nVidia con la GeForce 3 (la primera GPU del mercado) Hollywood no es más que un Chip Gráfico, aunque se suelen englobar todo lo referente con la gráfica en GPU por comparativo a la CPU del sistema pero no es realmente válido.


O_o pero quien te ha engañado de esa forma?
Pero si lo que decís es que en Wii los efectos se tienen que programar por software como en ps2... ¿significa eso que el Hollywood no es mucho mejor que el rasterizador que llevaba PS2?
Porque si se trata de CPU, el EE era muy superior al Gekko y supongo que tambien debe ser bastante superior al Broadway y yo estaba convencido que la diferencia entre GC y PS2 estaba en el chip gráfico de GC.
¿Pero que tiene de mejor entonces el flipper qeu el rasterizador de PS2 si no permite efectos por hardware?
cubeplayer escribió:Pero si lo que decís es que en Wii los efectos se tienen que programar por software como en ps2... ¿significa eso que el Hollywood no es mucho mejor que el rasterizador que llevaba PS2?
Porque si se trata de CPU, el EE era muy superior al Gekko y supongo que tambien debe ser bastante superior al Broadway y yo estaba convencido que la diferencia entre GC y PS2 estaba en el chip gráfico de GC.
¿Pero que tiene de mejor entonces el flipper qeu el rasterizador de PS2 si no permite efectos por hardware?

esq si los permite, solo q no permite los mismos q permitia la gpu de xbox ni etsa permite los mismos q flipper y hollywood


vamos, q no sigue los standards de facto marcados por DX, pero si hace otros efectos por hardware
Ok, es decir que no son los mismos efectos que en Direct X por ejemplo.
Pero bump mapping y todo eso sí lo soportaba el Flipper de GC no?
Cuales eran las diferencias entre los efectos soportados por hardware de la GPU de GC y la de Xbox (1)?
cubeplayer escribió:Ok, es decir que no son los mismos efectos que en Direct X por ejemplo.
Pero bump mapping y todo eso sí lo soportaba el Flipper de GC no?
Cuales eran las diferencias entre los efectos soportados por hardware de la GPU de GC y la de Xbox (1)?


no te los se decir de memoria, tienen cada nombrecito q... [+risas]
pero por ejemplo, en lugar de los pixel shaders flipper tenia algo llamado texture environment q daba resultados similares
ElChabaldelPc escribió:O_o pero quien te ha engañado de esa forma?


No si ahora tu ignorancia y desconocimiento en el tema me va a enseñar algo...


ElChabaldelPc escribió:...en lugar de los pixel shaders flipper tenia algo llamado Texture EnVironment q daba resultados similares


Si ya, el Flipper soporta "Texture Environment" menuda novedad si hasta la 3dfx Voodoo 2 de hace 9 años ya lo soportaba...

El Flipper es similar en características a tarjetas DX7, y si soporta modos tan vistosos como: Environment Mapping, Multi-Texture Mapping o Bump Mapping pero de ahí a Shaders programables hay un trecho y el Hollywood será muy similar.
|NFERNO escribió:
No si ahora tu ignorancia y desconocimiento en el tema me va a enseñar algo...



tocate los huevos, el chico q dice q las gpus nacieron con la gf3 me viene a enseñar algo


dame datos campeon, antes de q me descojone en tu cara [qmparto]
Cuando salieron los chips gráficos realmente programables es donde nace el termino GPU vas tomando nota? apúntalo 2 veces que luego ya sabemos lo que te pasa, y dá la casualidad que por supuesto tú ignoras que la GF3 es el primer "chip gráfico programable" (al menos del ambito comercial) que el término se haya extrapolado desde los tiempos de los chips gráficos monolíticos y te aventures a llamar GPU hasta a una Trident ISA no es mi problema.

Se me olvidaba comentar que el termino GPU se ha impuesto sobre el VPU, incluso las últimas tarjetas gráficas de AMD/ATi las HD 2x00 usan GPU envez de su propio VPU como hasta ahora hacian; no deja de ser lo mismo.

De todas formas nose ni cómo te atreves a pedirme datos, si en lo que llevas de hilo sólo has escrito humo haciéndote el interesante.

Toma culturízate un poco


-Fuente Wikipedia:

GeForce 3 Año de lanzamiento: 2001

Versión DirectX: 8.0

Número de transistores: 57 millones

Características destacadas:

Vertex Shader y Pixel Shader programables
Optimización del bus de memoria (LightSpeed Memory Architecture)
Incorporación de multisampling anti-aliasing
El procesador GeForce 3 fue lanzado prácticamente sin competencia real, ya que por parte de las compañías rivales no había un producto con similares características, siendo siempre un producto de gama alta del que nunca se desarrolló una versión económica. Asimismo, se trata del primer GPU programable con implementación nativa a la primera versión de DirectX 8.
|NFERNO escribió:Cuando salieron los chips gráficos realmente programables es donde nace el termino GPU vas tomando nota? apúntalo 2 veces que luego ya sabemos lo que te pasa, y dá la casualidad que por supuesto tú ignoras que la GF3 es el primer "chip gráfico programable" (al menos del ambito comercial) que el término se haya extrapolado desde los tiempos de los chips gráficos monolíticos y te aventures a llamar GPU hasta a una Trident ISA no es mi problema.

Se me olvidaba comentar que el termino GPU se ha impuesto sobre el VPU, incluso las últimas tarjetas gráficas de AMD/ATi las HD 2x00 usan GPU envez de VPU como hasta ahora hacian.

De todas formas nose ni cómo te atreves a pedirme datos, si en lo que llevas de hilo sólo has escrito humo haciéndote el interesante.

Toma culturízate un poco


-Fuente Wikipedia:

GeForce 3 Año de lanzamiento: 2001

Versión DirectX: 8.0

Número de transistores: 57 millones

Características destacadas:

Vertex Shader y Pixel Shader programables
Optimización del bus de memoria (LightSpeed Memory Architecture)
Incorporación de multisampling anti-aliasing
El procesador GeForce 3 fue lanzado prácticamente sin competencia real, ya que por parte de las compañías rivales no había un producto con similares características, siendo siempre un producto de gama alta del que nunca se desarrolló una versión económica. Asimismo, se trata del primer GPU programable con implementación nativa a la primera versión de DirectX 8.

ye sto proq lo digas tu y me pegues las especificaciones de la gforce 3 o q?

porq si tiramso de la wikipedia tengo q decirte q:
http://en.wikipedia.org/wiki/Graphics_processing_unit
no tienes ni idea
Será pq yo al menos digo algo, tú no tienes ni argumento, lo que pone en el enlace no cambia ni contradice nada de lo que he dicho, aprende a comprender lo leido.

Anda toma una perla, aunque el termino GPU si que se usa a partir de la GF3 por su salto en programabilidad, desde la GeForce 256 en cierto modo si sería válido emplearlo...


Lo siento estoy acostumbrado a debatir con personas civilizadas que aportan entre todos algo y no a tratar con gente impulsiva y que se comporta como un chiquillo cuando ya no lo es.

Como esto se está desviando y no quiero destrozar el hilo del amigo no voy a continuar con tu jueguito.

Si quieres intentar definir algo (que lo dudo) me envias un privado que por mi parte no hay problema.

S2
ahora entro yo en la discordia :-) si miras de donde as sacado la info de la gf3 veras que mas arriba pone lo siguiente

GeForce 256

Año de lanzamiento: 1999

Versión DirectX: 7.0

Número de transistores: 23 millones

Características destacadas:
[/B]
* Procesador de 256 bits

* Aparece el GPU: Procesador gráfico compuesto de un solo chip con capacidad necesaria para montar/recortar y renderizar triángulos, con soporte de T&L en hardware, todo esto capaz de trabajar en conjunto con un rendimiento igual o mayor a 10 millones de polígonos por segundo.

* Soporte hardware de Transform & Lighting

* Soporte de Cube Enviroment Mapping (cube mapping)

* Implementación de memoria DDR (última versión)

[/B]NVIDIA acuñó el término GPU (Graphics Processing Unit -unidad de procesamiento de gráficos-) [/B] para describir a un procesador gráfico moderno. El GeForce256 tuvo un relativo éxito, pero sólo en tarjetas gráficas caras pensadas para un usuario exigente o como tarjeta de desarrollo profesional barata. Su máximo competidor fue el primer procesador Radeon de ATi Technologies. ATi pensó el término VPU (Visual Processing Unit -unidad de procesamiento visual-) para referirse a sus GPUs; por lo tanto, GPU y VPU son sinónimos.

aunque a mi me explicaron que en si como dicen hay vpu y gpu es sinonimo y se puede utilizar el termino de forma indiferente y que nvidia y ati lo acuñaron esos terminos para hacer una distincion nula ya que los terminos se utlizaban ya antes de que ellos los acuñaran como suyos
|NFERNO escribió:Será pq yo al menos digo algo, tú no tienes ni argumento, lo que pone en el enlace no cambia ni contradice nada de lo que he dicho, aprende a comprender lo leido.

Anda toma una perla, aunque el termino GPU si que se usa a partir de la GF3 por su salto en programabilidad, desde la GeForce 256 en cierto modo si sería válido emplearlo...


Lo siento estoy acostumbrado a debatir con personas civilizadas que aportan entre todos algo y no a tratar con gente impulsiva y que se comporta como un chiquillo cuando ya no lo es.

Como esto se está desviando y no quiero destrozar el hilo del amigo no voy a continuar con tu jueguito.

Si quieres intentar definir algo (que lo dudo) me envias un privado que por mi parte no hay problema.

S2

q no dije nada? dije q no tienes razon y te puse un link a tu qrida wikipedia donde no mencionan NADA de lo q tu dijiste y comienzan llamando GPU a lo q llebaba el comodore, eres tu el unico q se obceca en ponerme especificaciones tecnicas de la gforce3 y adecir q es asi porq es asi

debes estar acostumbrado a debatir con monos sin cerebro q te dicen q si a todo,porq muy rapido te enfadas cuando te dicen q no tiene ningun sentido las tonterias q estas diciendo

en fin, un dia mas y un troll mas en el foro de wii, espero que al menos haya servido para q te calen y sepan como andarse contigo
bueno, y discusiones a parte, que ya os vale ;-)

Al final podríamos intentar hablar de las diferencias que hay realmente entre un procesador y otro no? Qué a mi también me interesa.
Según parece tiene el doble de pipelines, y la unidad TEV (que es la que efectua bump mapping,Normal mapping y demas palabros techies por hard) ha sido mejorada, y según dijo Eggbercht (el jefe de Factor 5) la tasa de relleno era alrededor del triple de lo que tenia GC, y alrededor del doble de lo que poseía la primera caja X.
Uff, cada vez que sacais la "unidad tev", me dejais por los suelos.., he leido bastante y ni aun asi me ha quedado claro lo que se puede lograr con ella.., exactamente a que se asemeja con una tarjeta grafica de pc??? es este el chip que renderiza, dibuja, etc???? es un ayudante del nucleo de la tarjeta para el mismo proposito¿?
nakuada: Y te agradezco que entres, al fin alguien que expone hechos y no que va pataleando por el hilo.

Info fiable sacada del corporate milestone de NVIDIA:

1999. Launch of NVIDIA GeForce 256; the World's First GPU

2000. Launch of NVIDIA GeForce2 Ultra; the World's First Gigapixel GPU

2001. Introduction of the Industry's First Programmable GPU; NVIDIA GeForce3


-Aquí es justo cuando el término moderno "GPU" y lo que las define nace realmente dado el gran salto que supone un chip gráfico programable y sus posibilidades futuras.

|NFERNO escribió:Anda toma una perla, aunque el termino GPU si que se usa a partir de la GF3 por su salto en programabilidad, desde la GeForce 256 en cierto modo si sería válido emplearlo...


Como ves ya hacía yo incapié en lo que dices, no olvides que GPU por si sólo es un simple acrónimo aunque pueda ser muy válido por las técnica comerciales, hasta la llegada de los Pixel Shader y Vertex Shader programables que crea un antes y un despues desde los rasterizados se menospreciaba.


ElChabaldelPc tu intento de crear demagogia barata sólo convencería a un inepto.

Perdona cubeplayer [+risas]
Jajaj menudas discusiones que se han montado aquí.
Pero lo que ha dicho Jose.O es interesante, eso sí, cuando sepamos un poco (los mortales de a pié) que hace cada cosa.
Es decir, ¿la tasa de relleno (el fill rate será ¿no?) en que influye en un juego? He leído que es el número de pixels que puede dibujar la GPU en pantalla por segundo. Eso tendria que ver con la alta resolución pero... ¿Para que nos sirve eso que sea el doble que en GC si vamos a estar limitados siempre a los 480p?
A no ser que también signifique que se puede aumentar el framerate de los juegos con respecto en GC gracias a eso....

¿El doble de pipelines significa que la consola podrá renderizar mas polígonos en pantalla?
He encontrado una entrevista a UbiSoft hablando del chip Hollywood antes de salir la Wii al mercado y la verdad notareis que al final la Wii tubo recortes.

EN: As we saw in many current-gen titles, 480p can result in significant jaggies. Can we expect AA and AF from Ubisoft's Wii titles?

XP: Red steel will have 4x Antialiasing and 8x Anisotropic Filtering.


El RedSteel final no sólo no tiene AA ni AF sino que tiene menos detalle poligonal que los videos de aquel E3.


EN: We've been hearing a lot of consistent talk about 60fps at 480p widescreen from other developers. Is this something we'll see a lot of on Wii?

XP: I believe so yes.


La realidad esque el juego final tiene bajones importantes de fps.


EN: For us graphics whores, what kind of sweet graphical effects will we see in Red Steel or Rayman that we haven't seen in Gamecube games?

XP: We have alot of self shadowing going on, also we will have some normal maps and bump maps things like that.


Aunque lo soporte de sobra, que juego de Wii habeis visto con Bump mapping? aunque sea sólo a 480p algo de debería notar el efecto.


No aporta una visión clara de la Wii que todos tenemos, pera quizas si de la que podría haber sido, para los curiosos aquí la podeis leer entera:

http://www.motherboardpoint.com/t75906-update-on-situation-with-wiis-graphical-capabilities-hollywood-gpu.html

S2
|NFERNO yo creo que mas que recortar la Wii en realidad los de Ubisoft se lo han currado menos de lo que deberian.
Ellos mismos dijeron dias después que habian preferido sacar al mercado productos inacabados o echos con prisas porque no se tomaban las ventas de Wii en serio.
De salir un Red Steel 2 yo creo que algo de eso sí que lo veriamos.
No te digo que no, muchos títulos de Wii son la prueba del mínimo esfuerzo, de todas formas es bastante significativo lo que comentan del antialiasing y del filtrado anisotrópico, pq no lo usaran? mira el WiiSports tiene algunas texturas bastante buenas le iría genial un AF 8x o 16x en el campo de golf :D, pero sin embargo no lo aplican nunca :( no puede hundir tanto los fps en juegos tan simplones [mad]
Wii Sports tampoco es que sea la panácea en cuanto a gráficos. Usaron texturas resultonas pero vamos, modelados y todo lo demás esta por los suelos.
No sé yo si requiere de mucho esfuerzo el usar eso que dices pero a poco que lo requiera seguro que no lo hicieron.

Yo creo que debemos esperar un poco a los grandes, a ver Mario galaxy o MP3 y aún así solo estariamos hablando de juegos desarrollados en GC de base pero aprovechandose de un tiempo extra de desarrollo para aprovechar la Wii.

Me gustaria ve que tal queda un Red Steel 2, juego que sí seria hecho para Wii desde 0.
Contestando a Inferno, comentar que Sonic y los anilloshace uso de Bump Mapping.
|NFERNO escribió:nakuada: Y te agradezco que entres, al fin alguien que expone hechos y no que va pataleando por el hilo.

Info fiable sacada del corporate milestone de NVIDIA:

1999. Launch of NVIDIA GeForce 256; the World's First GPU

2000. Launch of NVIDIA GeForce2 Ultra; the World's First Gigapixel GPU

2001. Introduction of the Industry's First Programmable GPU; NVIDIA GeForce3


-Aquí es justo cuando el término moderno "GPU" y lo que las define nace realmente dado el gran salto que supone un chip gráfico programable y sus posibilidades futuras.


aun basandonos en los datos adornados para captar compradores de una web como datos fehacientes [qmparto] esto nos demuestra q tu msimo no te lees tus propias cosas y q el ter,ino GPU se usaba antes de gforce 3 y por supuesto no son necesarios pixel shaders para llamar a algo GPU (en todo caso nvidia se vanagloria de q sea la priemra gpu programable)


pero en fin, tu sigue en tu mundo de fantasia y vuelve a decir feliz y contento q lo q lleba wii no es una gpu porq no puede usar pixel shaders [sonrisa]


asta la proxima cagada |nfenito, tranquilo q estare alli apra señalar tus errores [burla2]
¿Bump mapping en sonic y los anillos secretos? Como no sea en sonic y el malo final, no sé donde mas lo hay.
¿Pero pk no se hace uso del bump mapping en los escenários? Seguramente hubiese quedado un suelo mas sólido y vistoso...

Porque lo que no entiendo tampoco y que sucede en sonic es que por ejemplo las texturas del suelo tienen muy poca resolución y digo yo que con 88MB de RAM a alta velocidad (mucho mas alta que la velocidad de la RAM de la primera Xbox o GC) + los 3MB de Ram embebida se las podrian haber currado mas ¿no?
Ya veo que lo tuyo es pisar hilos pero habrá que ayudar a meloncito a terminarse la bolsa.

ElChabaldelPc escribió:aun basandonos en los datos adornados para captar compradores de una web como datos fehacientes


Que fácil es hablar sin prueba alguna, ya que hablas con tanta ligereza lo que debes mostrar esque esos datos que pone NVIDIA no son verídicos y demostrarlo sino no se ni para que hablas.


ElChabaldelPc escribió:vuelve a decir feliz y contento q lo q lleba wii no es una gpu porq no puede usar pixel shaders


Desde el principio hablo de "Shaders Programables" siendo los pixel shaders una parte de ellos, si te crees que me estás cítando hazlo bien.


Vuelvo más al origen, el término moderno y lo que ello conlleva sale desde la GF3 para intentar marcar ya una diferencia por ser programable (márquetin puro) pero no quita que sea desde entonces cuando se utilice.

Quizás NVIDIA se adueñó del termino pero es lo que hay con los acrónimos, igual que el actual SLI, tiene gancho eso no hay duda.

En realidad algo de razón si llevas (eso si, sin saberlo ni mucho menos demostrarlo ya que según tus razonamientos lo que tiene Wii es una GPU pq si.¿?), se puede aceptar que el sistema LSI llamado Hollywood de la Wii se le puede llamar GPU pero aunque no debería por lo ya expuesto en post anteriores (de clara progresión) no deja de ser una restructuración más global del término en unapostura totalmente comercial el usar esas siglas, cosa que nos lo revela claramente la gama HD 2x00 de AMD/ATi, por lo tanto ahora mismo se le puede llamar GPU a cualquier chip gráfico unificado que se monte.

Razón lógica llevaba puedes releer el hilo si aún tienes dudas, quizás no conté el tema comercial siendo en el donde surge todo este rollo de la GPU y donde se ha ido desarrollado para ya no ser fiel a lo que hace unos años era.

Para la próxima Chavalito espero que al menos te dignes a aportar algo propio, exponer hechos o ideas y no tus típicas frases de irreflexivo que no llevan a ninguna parte.


Jose.O: Gracias por la info, intentaré catarlo ;-)
Pero ahora pongamos que el término GPU solo se puede aplicar en los casos que tú dices.
¿Cuales son esos efectos programables que Hollywood no soporta por hardware?
De hecho: ¿que efectos son soportados por hardware en el Hollywood?
cubeplayer escribió:Pero ahora pongamos que el término GPU solo se puede aplicar en los casos que tú dices.
¿Cuales son esos efectos programables que Hollywood no soporta por hardware?
De hecho: ¿que efectos son soportados por hardware en el Hollywood?

No soportaria por hardware el aplicar un comportamiento que nos de la gana a la textura de un objeto segun cambie la fuente de luz. Por ejemplo, otros tipos de bump mappings, simulaciones de materiales inventados por el programador, etc...

Cuales puede hacer por hard? los definidos. Bumb mappings standard, specular shader (el fairy shader exageradiiiiiiiiiiiisimo del mario galaxy), etc...
meloncito escribió:No soportaria por hardware el aplicar un comportamiento que nos de la gana a la textura de un objeto segun cambie la fuente de luz. Por ejemplo, otros tipos de bump mappings, simulaciones de materiales inventados por el programador, etc...

Cuales puede hacer por hard? los definidos. Bumb mappings standard, specular shader (el fairy shader exageradiiiiiiiiiiiisimo del mario galaxy), etc...

Ok, entonces eso ya le da cierta ventaja a por ejemplo lo que llevaba PS2, que incluso el bump mapping estandar tenia que hacerse por software.
Eso si, tengo que resolver esa duda porque si no reviento:
¿Que diferencias hay entre el bump mapping estandar y uno programable?

De todos modos, indagando un poco, he encontrado eso sobre el TEV de GC:

"The TEV and "pixel shaders" are basically cute acronyms for what used to be called color combiners. The TEV also incorporates the Texture reading part of the pipeline.

A color combiner is in general implemented as a single logic op, in NVidia's case thats public (register combiner docs) and is of the form
A op1 B op2 C op1 D
where op1 is either Dot Product or multiply, op2 is either add or select.
As you can see by repeating this multiple times with some register manipulation between stages you can do most basic math. Pixel shaders just provide a simple consistent interface to this (and other vendors implementations).

The TEV uses a different basic combine operation which is a little more limited. However since the Texture reads can be interleaved with the combiner operations it allows you to do things that would require multipass render on NV2X.

So as an example
on NV2X I have to write


Texture Read
Texture Read
.
.

Combiner Op
Combiner Op
Combiner Op
Combiner Op
.
.
.

On Flipper I can write

Texture Read
Combiner Op
Combiner Op
Texture Read
Combiner Op
Combiner Op
Texture Read
Combiner Op
Combiner Op
.
.
.

I guess the easiest explanation is that Flipper has simpler units for combining and reading textures, but allows more complex arrangements of the units.
So if one of the texture reads is dependant on a previous combiner Op and you can't squeeze the ops into the texture addressing instructions the NV2X would require multipass to do the same thing."

¿Quiere decir eso que el chip gráfico de GC sí puede ofrecer shaders programables?
Ahí pone bien claro que se pueden combinar operaciones a placer, y de hecho en Rebel stricke mismo puedo ver el mismo tipo de bump mapping que en cualquier juego de Xbox y no uno mas limitado.
cubeplayer dijo: ¿que efectos son soportados por hardware en el Hollywood?
Imagen

Al menos sabemos que los mismos que ya tenía la GameCube tienen que ser soportados por su compatiblidad, en el siguiente enlace hay bastante documentación técnica sobre el Flipper:

http://www.segatech.com/gamecube/overview/index.html


El SW. Rogue Squadron II es un buen ejemplo de lo que los programadores cuando se lo curran pueden lograr.

Imagen


Mi esperanza está en el Vicious y el Torque Engine desde que anunciaron su motor de desarrollo optimizado para Wii, estos motores podrían exprimir a tope la Wii, y de extenderse facilitar toda clase de efectos a los programadores sin tener que complicarse en saber como utilizar eficientemente el TEV como reemplazo de los shaders programables.

Yo si se van tomando en serío el progresivo y sacan todos los juegos a 480p incluso en 576p (si lo hablitasen) y con soporte 16:9 (que para algo lo fijas en la consola) ya me parecería un buen paso en favor de Wii.
¿Pero que limitacion hay en el TEV que hace que el Flipper/Hollywood no entre en la definición que has puesto de GPU?
Porque en el texto que he copiado dicen que basicamente son lo mismo pero que el NV2A soporta operaciones mas complejas y el TEV del Flipper permite una mayor libertad de combinaciones, pero que al fin y al cabo, ambas cosas son lo mismo ¿no?
Me temo que Nintendo no me envio la documentación técnica que necesitamos y de AMD/ATi no dicen ni una muestra, para saber con certeza que se puede esperar del TEV, de todas formas toma algo orientativo en el tema:

The "Texture EnVironment", this is the Wii form of a programmable pixel shader. This thing is what developers talk about when they say the Wii can't do stuff the Xbox can. The Xbox has programmable shaders. The Wii doesn't. They will gladly tell you that too. But they won't tell you that the Wii has its own version, the TEV Engine.

There really isn't much to say about the TEV Engine. Except that the Wii uses it as a replacement of programmable shaders. That's it, that's that.
Pero precisamente por lo que pone aquí se deduce que el TEV es basicamente lo mismo que los shaders programables de la primera Xbox en concepto, pero que funciona de distinta manera y ofrece resultados distintos.
Encontes, sí que seria válido englobar a Hollywood dentro del término GPU que tu usaste ¿no?
No esque sea lo mismo, pero con maña se pueden lograr resultados similares de algunos efectos, digamos que puedes terminas simulando el efecto deseado pero con los shaders programables directamente los llamarias sin complicarte tanto.

El Texture Environment lleva usándose en tarjetas gráficas casi una década voy a ser un poco técnico pero veamos un poco que se puede hacer bajo OpenGL

-Todo se reduce a pasadas y al usar o no transparencias, con texturas de cuatro componentes: Las funciones del texture environment afectan al color y al canal alpha de la siguiente manera:

GL_MODULATE (por defecto) modularía los valores de fragmentación del color y del alpha con valores en la textura.

GL_DECAL usa los valores de la textura del canal alpha al color del blend con el color de los polígonos generando una mezcla, sin embargo no afectaría al valor del alpha fragmentado.

GL_BLEND utiliza el color de las texturas como factor del blending, y lo mezcla (blends) con el color especificado en al función GL_TEXTURE_ENV_COLOR. Modula fragmentos del valor alpha con el valor del alpha de la textura. Resumiendo esta función del TEV es útil para las texturas que contienen datos de luminiscencia o de intensidad.

GL_REPLACE substituye fragmentos del alpha por el alpha de la textura. Basicamente sirve para crear polígonos texturizados con áreas transparentes.


-Con texturas formadas por 3 componentes: Las funciones del texture environment afectan al color de este modo:

GL_MODULATE (x defecto) en este caso ahora sólo modularía fragmentos del color con el color de la textura.

GL_DECAL utilizaría el valor del color de la textura y la parte del valor alpha.

GL_BLEND utiliza el color de la textura como método para mezclar, y tambien vuelve a tirar del blend para mezcla con el color especificado en la función GL_TEXTURE_ENV_COLOR. Es lo mismo que antes pero sin tener en cuenta canales alpha.

GL_REPLACE remplaza trozos del color con el color de la textura.


Imagen

Foto de un ejemplo, cuantas mas pasadas (o capas) mejor resultado para lograr el efecto como el reflejo del agua, pero claro afectaría más gravemente al rendimiento.

Pese a todo lo dicho seguimos igual en no saber que puede ofrecer Hollywood hasta que se pueda catar algo de documentación técnica.
Pero entonces sigo sin entender algo. ¿Efectos como el bump mapping no se hacian en GC a traves del TEV?
Si es así entonces digamos que tanto Flipper como Hollywood no soportan nada por hardware, y como en PS2 se tiene que hacer todo por software. Es decir que el Flipper seria como el rasterizador de PS2 mas o menos.
¿O a caso efectos como el bump mapping no se hacen a traves del TEV?
Según tengo entendido al tener un Bump mapping real no es necesario el uso del Texture Environment para poder mostrarlo, de ser así algo que ganamos :)
Ok así pues estan los efectos soportados por hardware, que es lo que hace que Flipper sea superior al rasterizador de PS2 y luego el TEV para intentar emular por software efectos que no estan por hardware, como se hacia en PS2.

Entonces es facil llegar a la conclusion de que el Hollywood tambien incorpora nuevos efectos soportados por hardware como el normal mapping, que se usa en el Dewy's adventure.
54 respuestas
1, 2