kusfo79 escribió:- Otro nivel es cuando un chip se encarga de dibujar la pantalla, según los contenidos de una VRAM, y la CPU solo se tiene que encargar de actualizar dicha VRAM. Esto podría ser lo que hace la EGA, la VGA...
kusfo79 escribió:Tenia una tarjeta dedicada de video, fuera una CGA, una EGA, una VGA, y esta en cierta manera ya se encargaba del dibujado por si misma, y tenía su própia ram, etc.
Sigue sin quedarme claro; ¿las tarjetas EGA, VGA, etc, son sólo
MEMORIA o también son
RASTERIZADORES? Es decir; ¿la labor
de "copypastear" lo que hay en el frame-buffer hasta la pantalla
de vuestra casa se puede considerar "renderizar"?. Porque si lo son eso quiere decir que muchas tendrían diferente tasa
de relleno; ¿la VGA rellena pixels más rápido que la EGA?
Vamos
de nuevo con Barrio Sésamo, si la dirección
de trabajo es la siguiente:
C.P.U ------> Framebuffer -----> tarjeta
de vídeo ------> monitor
Entonces el paso que hace la CPU "volcando" sus cálculos en el framebuffer se puede considerar una especie
de dibujado/rasterizado/renderizado, interno ¿¿¿???
Quiero saber específicamente cúanto trabajo tiene por ejemplo un 486 o Pentium moviendo un QUAKE en modo software, el cual a mí entender son al menos 2 fases; aplicación, transformación, y quiero entender si le toca dibujar/rasterizar/renderizar algo, no acabo
de pillar que significa "volcar" la información en el framebuffer; ¿la vuelca cómo una sopa en una olla, o se pone a dibujar con lápiz internamente, y luego la EGA, VGA, etc, lo escupe en la pantalla?.
EMaDeLoC escribió:Y efectivamente Sexy, en la PSX el rasterizador y el GTE liberan mucha carga de trabajo al procesador en esa materia.
Bueno, el GTE
de la PlayStation no lo cuento cómo ayuda extra porque no es más que una anexo
de la CPU al que puede recurrir cuando quiera, exactamente igual que la FPU
de un Pentium sólo que siendo infinitamente más débil (el GTE) por ser incapaz
de hacer cálculos reales en coma flotante. Si bien el 99%
de juegos
de MS-DOS y los primeros
de Windows' 95 utilizaban enteros igual que las consolas para las transformaciones, en cuanto vinieron títulos más demandantes con altas dosis
de triángulos los PC se escindieron a años luz
de las 32 bits cuando las FPU comenzaron a ser usadas a saco, hasta que finalmente llegaron las GPU's auténticas con shaders programables que le quitaron ya la última carga que soportaban.
Vamos que si no utilizaron las FPU's en Pc y cargaron durante mucho tiempo todo el trabajo "geométrico" en el core fue porque quisieron, no porque sus FPU no pudiesen gestionar con el canto del nabo la mierdigeometría
de los años 93, 94, 95, 96, QUAKE al margen. Aunque bueno ahora que lo pienso esto no cambia el hecho
de que un PlayStation para hacer Destruction Derby use CPU+GTE+CHIP GRÁFICO+VRAM, y un PC sólo CPU+TARJETA (que bueno, lleva la memoria dentro), o sea que habría que aceptar barco al final.