kusfo79 escribió:- Otro nivel es cuando un chip se encarga de dibujar la pantalla, según los contenidos de una VRAM, y la CPU solo se tiene que encargar de actualizar dicha VRAM. Esto podría ser lo que hace la EGA, la VGA...
kusfo79 escribió:Tenia una tarjeta dedicada de video, fuera una CGA, una EGA, una VGA, y esta en cierta manera ya se encargaba del dibujado por si misma, y tenía su própia ram, etc.
Sigue sin quedarme claro; ¿las tarjetas EGA, VGA, etc, son sólo
MEMORIA o también son
RASTERIZADORES? Es decir; ¿la labor de "copypastear" lo que hay en el frame-buffer hasta la pantalla de vuestra casa se puede considerar "renderizar"?. Porque si lo son eso quiere decir que muchas tendrían diferente tasa de relleno; ¿la VGA rellena pixels más rápido que la EGA?
Vamos de nuevo con Barrio Sésamo, si la dirección de trabajo es la siguiente:
C.P.U ------> Framebuffer -----> tarjeta de vídeo ------> monitor
Entonces el paso que hace la CPU "volcando" sus cálculos en el framebuffer se puede considerar una especie de dibujado/rasterizado/renderizado, interno ¿¿¿???
Quiero saber específicamente cúanto trabajo tiene por ejemplo un 486 o Pentium moviendo un QUAKE en modo software, el cual a mí entender son al menos 2 fases; aplicación, transformación, y quiero entender si le toca dibujar/rasterizar/renderizar algo, no acabo de pillar que significa "volcar" la información en el framebuffer; ¿la vuelca cómo una sopa en una olla, o se pone a dibujar con lápiz internamente, y luego la EGA, VGA, etc, lo escupe en la pantalla?.
EMaDeLoC escribió:Y efectivamente Sexy, en la PSX el rasterizador y el GTE liberan mucha carga de trabajo al procesador en esa materia.
Bueno, el GTE de la PlayStation no lo cuento cómo ayuda extra porque no es más que una anexo de la CPU al que puede recurrir cuando quiera, exactamente igual que la FPU de un Pentium sólo que siendo infinitamente más débil (el GTE) por ser incapaz de hacer cálculos reales en coma flotante. Si bien el 99% de juegos de MS-DOS y los primeros de Windows' 95 utilizaban enteros igual que las consolas para las transformaciones, en cuanto vinieron títulos más demandantes con altas dosis de triángulos los PC se escindieron a años luz de las 32 bits cuando las FPU comenzaron a ser usadas a saco, hasta que finalmente llegaron las GPU's auténticas con shaders programables que le quitaron ya la última carga que soportaban.
Vamos que si no utilizaron las FPU's en Pc y cargaron durante mucho tiempo todo el trabajo "geométrico" en el core fue porque quisieron, no porque sus FPU no pudiesen gestionar con el canto del nabo la mierdigeometría de los años 93, 94, 95, 96, QUAKE al margen. Aunque bueno ahora que lo pienso esto no cambia el hecho de que un PlayStation para hacer Destruction Derby use CPU+GTE+CHIP GRÁFICO+VRAM, y un PC sólo CPU+TARJETA (que bueno, lleva la memoria dentro), o sea que habría que aceptar barco al final.