Problemas con la versión de X360 de RAGE.

1, 2, 3, 4, 5
Kyojinmaru escribió:Pera hombre... vuelve el listillo... yo no veo ninguna XBox en mi casa te vuelvo a decir... pero bueno... sigue con tu ignorancia, como tu dices,

Pero sin embargo ves PS3 en las casas ajenas...

que tu si que te has owneado diciendo que tengo un PC de 100€

Cita donde yo digo que tu pc sea de 100€... na deja, no es la primera cita que te pido y tampoco la vas a encontrar.

llamándome XBoxer

llamándome sonier...

sigues owneandote con lo de que RAGE es multi, ya he dicho que en este caso, la versión de 360 sale perjudicada

Pero Rage sigue siendo multi, es un hecho. Y yo te sigo diciendo dónde lo usan las "hordas sonier" para atacar a la 360... sigo esperando la cita..

el que no sabe actualizar para crear un nuevo post,

Mira, hablando de listillos y ni siquiera sabe leer, te remito a la pregunta que le hice a key_sora. Actualiza cuando YA has escrito el post y antes de darle a "Enviar"
Ains, cuanto aprendiz de diseñador web hay por aquí que no saben ni como funciona el estado en un navegador ;)

he dicho bastante, tanto como para no volverte a decir nada mas, no mereces mi tiempo.

Con dios hermano. Y recuerda revisar tu ordenador, algo anda mal si el qIV no te tira a medio ;)

Key_Sora escribió:
-Niño pequeño eres bastante si [carcajad] [carcajad]

Dios los cría y ellos se me juntan ;)
Los niños más pequeños le intentan buscar las cosquillas a los mayores, es ley de vida y no me molestas, todo lo más me alegras el día ;=

-Mira los psot y te daras cuenta de quien falto al respeto primero.

Es increible lo que les cuesta a algunos poner una cita... será que no lo encuentras?

Actualiza la pagina sin meterte en editar, y cuando aparezca un nuevo post de alguien respondes, tan dificil es de entender.

Y si alguien escribe un post mientras yo estoy actualizando el mío? Qué hago, actualizo?
Además, eres el adalid del buen uso de los foros ahora? Ha de escribirse como key_sora dice, para que no se canse?
No intentes justificar tu pereza, asúmela...

-Creo que ya te he contestado a toso ahora asimila estos conceptos nuevos y duerme bien de noche, que mañana sera otro dia [qmparto] [qmparto]

Cuando la falta de argumentación se hace patente los necios recurren al desprecio.
Tus argumentos no tienen sentido alguno, asi de claro, no te esfuerces.
Que actualizes donde ves los post que se han escrito, no donde los editas, no pense que tardases tanto en captar algo tan facil.
Sim embargo a lo de "comandos de teclado" no me contestaste eh [carcajad]
Joder, que asco de hilo. En lo que se ha convertido. xDDD

Sobre cual juego es mejor, a mi me ha gustado mucho lo que se ha visto sobre RAGE. Que por cierto, hay que tener en cuenta que es multi. Sobre el GoW 2 se ha visto mucho mas. Desde monstruos gigantescos, hasta decenas de monstruos en pantalla. Y todo aparentemente a un framerate estable. Del Rage solo un pequenyo video ingame, pero no se ven ni batallas ni nada.
Quien diga que Carmack es un paquete, o que idTech 5 es inferior a ue3 (si nos ponemos tontos, idTech 4 es muy superior a ue3 aunque solo sea por el sistema de iluminación y sombreado volumétrico), es un jodido necio ignoránte en el mundillo de la informática y la tecnología.

Carmack fue el primero en desarrollar un motor 3D sobre la faz de la tierra
Carmack, de nuevo, fue el primero en implementar capacidades multihilo/multinucleo a un motor 3D sobre la faz de la tierra (Quake 1 para PentiumPro)
UE3 adolece de muchas cosas, y entre ellas, una nula adaptación a la arquitecturad e 360.

Quien se atreva a decir que carmack no tiene ni puta idea de optimización, lo que debería hacer es leer un poquito sobre él. Por que digamos que el 99,9% de los desarrolladores del planeta, a su lado, quedan en el más absoluto de los ridiculos. Tanto en la cara de optimización y rendimiento de su código, como en la belleza y simpleza del mismo (y el que no sea programador, no entenderá como un "codigo" puede ser bello).

Estamos hablando de un pavo que es requerido por nVIDIA, ATI, Intel, Microsoft, la NASA, NSA y otros organismos para ayudar y ofrecer ideas.
Estamos hablando de un pavo que en ratos libres construye cohetes espaciales.
Estamos hablando de un pavo, el cual, básicamente, no tiene ayuda (ni quiere) en iD Software para el desarrollo de tecnología (optimización, debugeo, investigación, evolución).
Estamos hablando de un pavo, al cual toda la industria se rinde a sus pies (Epic incluida) y le toma como referencia.
Estamos hablando de un pavo, el cual a lanzado los que probablemente sean los motores 3D más optimizados de la historia (La versión de doom 3 en PC, tiene más de 10 versiones distintas de cada shader, optimizado para cada tipo de gráfica, hasta aquellas 100% compatibles con ARB 2).

Y aquí hay algún gilipollas que dice que la tecnología de RAGE es mierda? que Gears 2 mola mazo, y que doom 3 esta optimizado con el culo? Especialmente sin ningúno de los dos en la calle?

Pues sinceramente, quien diga algo similar a la ultima linea, que se dedique a la cría de pepinillos, que le irá mejor en su vida que opinando sobre lo que no tiene ni la más minima pajolera idea.
shadow land escribió:Y aquí hay algún gilipollas que dice que la tecnología de RAGE es mierda? que Gears 2 mola mazo, y que doom 3 esta optimizado con el culo? Especialmente sin ningúno de los dos en la calle?

Pues sinceramente, quien diga algo similar a la ultima linea, que se dedique a la cría de pepinillos, que le irá mejor en su vida que opinando sobre lo que no tiene ni la más minima pajolera idea.


Precisamente es lo mismo que yo digo desde hace rato no se puede comparar sin haber salido a la calle.
shadow land escribió:blablablablabla


Sonyer!!!!!!!1


xD
Duqe escribió:Joder, que asco de hilo. En lo que se ha convertido.

Y usté que lo diga :(


Sobre cual juego es mejor, a mi me ha gustado mucho lo que se ha visto sobre RAGE. Que por cierto, hay que tener en cuenta que es multi. Sobre el GoW 2 se ha visto mucho mas. Desde monstruos gigantescos, hasta decenas de monstruos en pantalla. Y todo aparentemente a un framerate estable. Del Rage solo un pequenyo video ingame, pero no se ven ni batallas ni nada.

Lo gracioso es que es imposible decir que juego es mejor o peor, para empezar porque son proyectos muy distintos y además es muy subjetivo porque depende de los gustos personales. El caso es que cuando se habla de motores y ahí ya la subjetividad no tiene nada que ver, ya no es cuestión de opiniones, es así.

Yo de momento he visto mejor iluminación, espacios más abiertos y detalle de personajes y entornos en el Tech5 que en lo que se ha visto del UE3, algo que nadie todavía ha podido (o querido) discutir, muy a mi pesar. Lo gracioso es que que es NORMAL que sea superior porque es un motor NUEVO. El UE4 le dará sopas con ondas al Tech5 y así seguimos evolucionando.

Pero ¡ay amigo! que nadie se meta con la consola de tus amores (aunque no la tengas) que entonces estas jodido!

ShadowLand, no deberías ni haberte molestado, total ni siquiera lo van a apreciar. Si se permiten el lujo de opinar sobre JC sin ni siquiera conocer lo que ha hecho por los gráficos 3D durante la útlima década, está claro que no harán mucho caso de lo que les pongas, es como si les hablas del "carmack's reverse" (anda si ese tío tiene el mismo nombre que el algoritmo que comprueba si un punto está ocluido.. </ironic>)


PD: Y Shadow no está exagerando con Carmack, es más se queda corto.
zheo escribió:
Duqe escribió:Joder, que asco de hilo. En lo que se ha convertido.

Y usté que lo diga :(


Sobre cual juego es mejor, a mi me ha gustado mucho lo que se ha visto sobre RAGE. Que por cierto, hay que tener en cuenta que es multi. Sobre el GoW 2 se ha visto mucho mas. Desde monstruos gigantescos, hasta decenas de monstruos en pantalla. Y todo aparentemente a un framerate estable. Del Rage solo un pequenyo video ingame, pero no se ven ni batallas ni nada.

Lo gracioso es que es imposible decir que juego es mejor o peor, para empezar porque son proyectos muy distintos y además es muy subjetivo porque depende de los gustos personales. El caso es que cuando se habla de motores y ahí ya la subjetividad no tiene nada que ver, ya no es cuestión de opiniones, es así.

Yo de momento he visto mejor iluminación, espacios más abiertos y detalle de personajes y entornos en el Tech5 que en lo que se ha visto del UE3, algo que nadie todavía ha podido (o querido) discutir, muy a mi pesar. Lo gracioso es que que es NORMAL que sea superior porque es un motor NUEVO. El UE4 le dará sopas con ondas al Tech5 y así seguimos evolucionando.


¿Pero ves como en el fondo opinamos similar?
Claro que es normal que sea superior al Unreal engine 3 puesto que es mas nuevo, yo solo digo que no me parece bien comparar todavia hasta que el Rage no este a la venta.
Por mi parte no tengo mas que decir, espero que hayamos terminado con esta estupida discusión, cada uno tiene su opinion sino no la vida no tendria gracia.
Un saludo [oki]
ue3 se ha quedado ya desfasado en varios aspectos técnicos, por muy espectacular que luzca gears 2.

La iluminación y el sombreado desde el primer día a sido muy inferior a la mostrada y lucida por id tech 4 (doom 3).

Los shaders son eso, shaders, y se pueden meter en cualquier engine 3D a piñon.

El simple hecho de ofrecer libertad total al artista (y un ahorro del 50% en las modificaciones), ya implica que el motor es mucho más poderoso y complejo que ue3, bastante limitado en esos aspectos.

Luego, podemos hablar que id Tech 5 ha sido optimizado para cada plataforma en particular para sacar provecho de las caracteristicas de cada hardware (fueron contratadas varias de las mejores mentes del sector para portar y optimizar a 360 y ps3, además del propio carmack), cosa que por ejemplo, ue3 no hace, por que Epic simple y llanamente, se ha dedicado a embutir el motor y hacer que funcione, y ha tardado 3 años en empezar a optimizar minimamente el mismo. Y una muestra de ello, es la incapacidad de uso de Antialiasing en la 360.

Y de los juegos, lo dicho, hasta que no esten ambos en la calle... mejor no compararlos. id Software, cada titulo interno que ha lanzado, ha sido la referencia tecnológica durante un par de años, Epic... eso no lo ha logrado nunca.



Zheo, UE4 no saldrá para esta generación de maquinas. Y Epic volverá a columpiarse de nuevo con su motor en consolas, por no esperar al lanzamiento de estas para planificarlo.
Lo gracioso es que es imposible decir que juego es mejor o peor, para empezar porque son proyectos muy distintos y además es muy subjetivo porque depende de los gustos personales. El caso es que cuando se habla de motores y ahí ya la subjetividad no tiene nada que ver, ya no es cuestión de opiniones, es así.

Yo reconozco que en principio y aunque la diferencia no sea muy grande, los escenarios del Rage pintan algo mejor que los del GoW 2. No asi los personajes, que aun siendo diferentes, los veo bastante bien a ambos.

De todos modos el video mostrado del Rage es con el motor del juego, pero no ingame. Me refiero a que no vemos al personaje que manejamos, ni vemos combates, ni fisicas, etc.
Adama escribió:
zheo escribió:Partiendo del tema que el tocino aún no tiene mucho que ver con la velocidad y sin cebarme demasiado en remarcar que tiras los balones más lejos y más fuera que Casillas.
¿Cuál es ese "efecto 'cuello de botella'"? Estoy interesado en ello...


Principalmente, que la memoria de video de la PS3 es de 256 MB y para acceder a los otros 256 MB hay una penalización del copon. Esa es una.


Pero la memoria de la PS3 no corría a 3,2 Ghz?
A mi un tio de PCBOX me dijo que si me pillaba un Core 2 Duo del copón era mejor que en vez de pillar una memoria con muchos megas de RAM sería mejor que me pillara una con una interface de memoria y una frecuencia altas, porque el producto de ambas me iba a dar el ancho de banda disponible. Eso estaba por encima de la capacidad de la memoria, porque si la banda pasante era elevada, nunca tendría cuellos de botella.
Bien, corriendo la memoria de la PS3 a 3,2 Ghz y teniendo un ancho de bus decente (que supongo que lo tendrá), no creo que te vayas a encontrar muchos cuellos de botella.
De todas maneras, luego le preguntaré al tio de PCBOX a ver lo que me dice [qmparto]
Al capullo ese de pcbox se le ha olvidado comentar dos cosas:

es estupido poner memoria más rapida de la que puede absorver la cpu (y los C2D estan "limitados" en ese aspecto).
a veces... solo a veces... tienes que cargar los programas en la ram para que se puedan ejecutar... bajo el planteamiento de este pavo, un ordenador con 512MB a 4GHz debería ir la ostia de bien... pero mejor no hacemos la prueba a ver si algúno se queda en ridiculo. (Todavía estoy por ver a alguien de pcbox que termine de saber de lo que habla)

Duqe escribió:
Lo gracioso es que es imposible decir que juego es mejor o peor, para empezar porque son proyectos muy distintos y además es muy subjetivo porque depende de los gustos personales. El caso es que cuando se habla de motores y ahí ya la subjetividad no tiene nada que ver, ya no es cuestión de opiniones, es así.

Yo reconozco que en principio y aunque la diferencia no sea muy grande, los escenarios del Rage pintan algo mejor que los del GoW 2. No asi los personajes, que aun siendo diferentes, los veo bastante bien a ambos.

De todos modos el video mostrado del Rage es con el motor del juego, pero no ingame. Me refiero a que no vemos al personaje que manejamos, ni vemos combates, ni fisicas, etc.


un detalle. id nunca ha usado cinemáticas pre-renderizadas. todo es tiempo real. Siempre.
shadow land escribió:
Duqe escribió:
Lo gracioso es que es imposible decir que juego es mejor o peor, para empezar porque son proyectos muy distintos y además es muy subjetivo porque depende de los gustos personales. El caso es que cuando se habla de motores y ahí ya la subjetividad no tiene nada que ver, ya no es cuestión de opiniones, es así.

Yo reconozco que en principio y aunque la diferencia no sea muy grande, los escenarios del Rage pintan algo mejor que los del GoW 2. No asi los personajes, que aun siendo diferentes, los veo bastante bien a ambos.

De todos modos el video mostrado del Rage es con el motor del juego, pero no ingame. Me refiero a que no vemos al personaje que manejamos, ni vemos combates, ni fisicas, etc.


un detalle. id nunca ha usado cinemáticas pre-renderizadas. todo es tiempo real. Siempre.

Ya, pero me refiero que solo se ve el escenario, algun personaje del juego y algun enemigo. Junto con algun trocillo de carrera de coches. Todo con el motor del juego, pero no ingame. Vamos, que no ves a nadie jugando, pegando tiros, conduciendo el coche, etc. A ver el juego en movimiento me refiero.
lostzilla escribió:Pero la memoria de la PS3 no corría a 3,2 Ghz?

La X D R corre a 3,2 Ghz, la GDDR3 del RSX a va como la de la 360 (es la misma memoria) 700Mhz (1,4Ghz efectivos por el DDR)

Lo que te dijo el de PCBOX era más o menos cierto, pero como todo también hay que tener un equilibrio. El problema actual es que la memoria es muchísimo más lenta que los procesadores. Digamos que el procesador tiene que "esperar" constantemente a recibir datos de la memoria. (simplificando mucho)

Bien, corriendo la memoria de la PS3 a 3,2 Ghz y teniendo un ancho de bus decente (que supongo que lo tendrá), no creo que te vayas a encontrar muchos cuellos de botella.

El ancho de bus de la memoria es de 64bits, pero aún así, al ser mucho más rápida que la GDDR3, tiene más ancho de banda teórico, y por tanto más que la 360 (25Gb/sec contra unos 22Gb/sec). El caso es que esa memoria X D R es "solo" accesible desde el Cell. Si es el RSX el que accede a ella hay una penalización y el ancho de banda efectivo se reduce a 20Gb/sec maomeno. El RSX accede a sus 26 mb de GDDR3 a 22Gb/sec
Duqe escribió:Ya, pero me refiero que solo se ve el escenario, algun personaje del juego y algun enemigo. Junto con algun trocillo de carrera de coches. Todo con el motor del juego, pero no ingame. Vamos, que no ves a nadie jugando, pegando tiros, conduciendo el coche, etc. A ver el juego en movimiento me refiero.


precisamente eso es ingame, aunque no se vea a nadie pegando tiros.

in-game == ejecutado en tiempo real.
no in-game == precalculado o pre-renderizado.
Vale, pero a que en el video del Rage no hay nadie jugando? Si es el motor del juego el que lo mueve, pero solo nos muestran como se ve el juego. Pues a eso me refiero.
Duqe escribió:Vale, pero a que en el video del Rage no hay nadie jugando? Si es el motor del juego el que lo mueve, pero solo nos muestran como se ve el juego. Pues a eso me refiero.


el primer video de presentación hace un huevo de meses se veía al kart dar vueltas manejado por un pavo.


Pero vamos, que no salga un tio jugando, para ti eso ya no lo hace ser en tiempo real y reflejo de lo que es capaz el motor... entonces supongo que en su día con las imagenes con sombras photoshopeadas de UT 2003 (de esa misma epic que algúnos veneran), serían 100% reales por que salían moñacos pegando tiros, no?
shadow land escribió:
Duqe escribió:Vale, pero a que en el video del Rage no hay nadie jugando? Si es el motor del juego el que lo mueve, pero solo nos muestran como se ve el juego. Pues a eso me refiero.


el primer video de presentación hace un huevo de meses se veía al kart dar vueltas manejado por un pavo.


Pero vamos, que no salga un tio jugando, para ti eso ya no lo hace ser en tiempo real y reflejo de lo que es capaz el motor... entonces supongo que en su día con las imagenes con sombras photoshopeadas de UT 2003 (de esa misma epic que algúnos veneran), serían 100% reales por que salían moñacos pegando tiros, no?

No si aqui por lo visto es cuestion de discutir. xDDD

A que viene eso de EPIC del 2003?? Yo flipo.
a un ejemplo de que poniendote gráficos (y videos) teóricamente ingame, te la pueden meter doblada.


id, y más en concreto, carmack, tiene una reputación que mantener (viven de sus motores, y sus juegos), así que siempre lo que muestran es tiempo real, y contenido real del siguiente juego.
shadow land escribió:a un ejemplo de que poniendote gráficos (y videos) teóricamente ingame, te la pueden meter doblada.


id, y más en concreto, carmack, tiene una reputación que mantener (viven de sus motores, y sus juegos), así que siempre lo que muestran es tiempo real, y contenido real del siguiente juego.

Pero que me estas contando? Si quieres defender a Carmack ve y discute con uno que lo critique. Que yo aun no lo he hecho. xDD

Os veo muy alterados eh. jeje
Resumiendo: que aunque no se vea una mano agarrando un arma y una barra de vida, lo que se ve en el video es todo en tiempo real, y cuando juegues se va a ver exactamente igual :p
shadow land escribió:ue3 se ha quedado ya desfasado en varios aspectos técnicos, por muy espectacular que luzca gears 2.

La iluminación y el sombreado desde el primer día a sido muy inferior a la mostrada y lucida por id tech 4 (doom 3).

Los shaders son eso, shaders, y se pueden meter en cualquier engine 3D a piñon.

El simple hecho de ofrecer libertad total al artista (y un ahorro del 50% en las modificaciones), ya implica que el motor es mucho más poderoso y complejo que ue3, bastante limitado en esos aspectos.

Luego, podemos hablar que id Tech 5 ha sido optimizado para cada plataforma en particular para sacar provecho de las caracteristicas de cada hardware (fueron contratadas varias de las mejores mentes del sector para portar y optimizar a 360 y ps3, además del propio carmack), cosa que por ejemplo, ue3 no hace, por que Epic simple y llanamente, se ha dedicado a embutir el motor y hacer que funcione, y ha tardado 3 años en empezar a optimizar minimamente el mismo. Y una muestra de ello, es la incapacidad de uso de Antialiasing en la 360.

Y de los juegos, lo dicho, hasta que no esten ambos en la calle... mejor no compararlos. id Software, cada titulo interno que ha lanzado, ha sido la referencia tecnológica durante un par de años, Epic... eso no lo ha logrado nunca.



Zheo, UE4 no saldrá para esta generación de maquinas. Y Epic volverá a columpiarse de nuevo con su motor en consolas, por no esperar al lanzamiento de estas para planificarlo.

y ke lo digas... ID Software se ha caracterizado por sentar estandares en sus motores ke luego vienen otras compañias desarrolladoras y adoptan EN SUS MOTORES AÑOS DESPUES (lo de las sombras dinamicas del IDTech4, kiza salga en el UE4, en unos 4-5 años... y nosotros ya lo podemos disfrutar desde el 2004 ocn la salida del D3... no me kiero ni imaginar lo optimizado ke estara ese apartado en el IDTech5)...

en lo ke ha destacado Epic, y eso hay ke decirlo, es en la jugabilidad y en el "appeal" ke dan sus juegos...

recuerdo en los viejos tiempo (jeje... como suena de raro eso), cuando salio el Q3 y meses despues el UT, tecnologicamente iban muy a la par, pero la gente preferia mas el UT quel Q3 por su jugabilidad y etc. y de alli fue ke se monto Epic en el coche ene ke van hoy... mientras ID sigue en su bola de ofrecer motores robustos y con tecnologia de punta en cada nueva release... aunke no se han masificado tanto como los de Epic.

en fin, yo siempre he preferido el modelo de ID al de Epic, aunke no kito ke los juegos hechos con el UE3 se vean de lujo hoy dia (y por eso el "worshippin" de la gente hacia este).
Pitxardo escribió:Resumiendo: que aunque no se vea una mano agarrando un arma y una barra de vida, lo que se ve en el video es todo en tiempo real, y cuando juegues se va a ver exactamente igual :p

Si pero el caso es que en el video solo ves una camara aerea que te muestra el escenario, algunos personajes, y coches. Luego algunos enemigos. Pero no ves la interactividad. No ves las fisicas de los combates, por ejemplo. A eso me refiero.

Joer, no se si es que me explico mal o que.

Y vuelvo a decir que a mi aparentemente se me ve mejor el Rage que el GoW 2. No los personajes o enemigos, que aun siendo diferentes, en ambos estan cojonudos. Pero el escenario del Rage es muy muy realista.

Vuelvo a repetir esto pq la gente ya entra en plan de discutir y lo hace con el primero que pillan. xD
zheo escribió:
lostzilla escribió:Pero la memoria de la PS3 no corría a 3,2 Ghz?

La X D R corre a 3,2 Ghz, la GDDR3 del RSX a va como la de la 360 (es la misma memoria) 700Mhz (1,4Ghz efectivos por el DDR)

Lo que te dijo el de PCBOX era más o menos cierto, pero como todo también hay que tener un equilibrio. El problema actual es que la memoria es muchísimo más lenta que los procesadores. Digamos que el procesador tiene que "esperar" constantemente a recibir datos de la memoria. (simplificando mucho)

Bien, corriendo la memoria de la PS3 a 3,2 Ghz y teniendo un ancho de bus decente (que supongo que lo tendrá), no creo que te vayas a encontrar muchos cuellos de botella.

El ancho de bus de la memoria es de 64bits, pero aún así, al ser mucho más rápida que la GDDR3, tiene más ancho de banda teórico, y por tanto más que la 360 (25Gb/sec contra unos 22Gb/sec). El caso es que esa memoria X D R es "solo" accesible desde el Cell. Si es el RSX el que accede a ella hay una penalización y el ancho de banda efectivo se reduce a 20Gb/sec maomeno. El RSX accede a sus 26 mb de GDDR3 a 22Gb/sec


Si, pero estamos hablando de anchos de banda, anchos de banda que jamás se van a llenar porque no hay masa de datos para hacerlo y por la velocidad a la que estos se mueven.
Es solamente un valor máximo, pero que sieve para refrendar que no pueden haber cuellos de botella con estas memorias (bueno, la banda pasante de las GDDR3 tiene truco, pero es de sobra conocido y ya da pereza comentarlo xD).
Y la "penalización" que hay de leer datos desde el X DR por el RSX de la PS3 es irrisorio. Tendríamos que hablar en términos de millonésimas de segundo para tratarlo correctamente. Además, si eso supusiera lentitud en el tráfico de datos, la GDDR3 es VRAM y el Cell puede leer y escribir datos en ella sin tener que pasar por la X DR, así que siempre estaría en manos de los programadores la solución. Pero como ya digo, no hace falta solución alguna porque no hay una pérdida de velocidad en el tránsito de datos entre las memorias de la PS3 para que eso redunde en que las texturas carguen mas lentas o en que los efectos de iluminación sean mas chusqueros (solo por poner dos ejemplos tontos xD).
lostzilla escribió:Si, pero estamos hablando de anchos de banda, anchos de banda que jamás se van a llenar porque no hay masa de datos para hacerlo y por la velocidad a la que estos se mueven.


he parado de leer aquí.

No se en que te basas para decir eso, pero esa premisa es incorrecta. No existe sistema ha dia de hoy que tenga suficiente ancho de banda a memoria, ya sea por culpa del bus de unión, por culpa del procesador, o por culpa de la smemorias, pero no existe la maquina sin cuello de botella. Y menos si hablamos de gpus.

A ver si te vas a creer que si se usan 25MB de texturas, solo se necesitan 25MB de ancho de banda para generar la imagen.
shadow land escribió:
lostzilla escribió:Si, pero estamos hablando de anchos de banda, anchos de banda que jamás se van a llenar porque no hay masa de datos para hacerlo y por la velocidad a la que estos se mueven.


he parado de leer aquí.

No se en que te basas para decir eso, pero esa premisa es incorrecta. No existe sistema ha dia de hoy que tenga suficiente ancho de banda a memoria, ya sea por culpa del bus de unión, por culpa del procesador, o por culpa de la smemorias, pero no existe la maquina sin cuello de botella. Y menos si hablamos de gpus.

A ver si te vas a creer que si se usan 25MB de texturas, solo se necesitan 25MB de ancho de banda para generar la imagen.

y ke lo digas... la gente cree kel tamaño en disco de las texturas es igual al tamaño en memoria de las mismas... NADA mas lejos de la realidad.

por poner un ejemplo, el otro dia mientras compilaba un nivel de un juego ke estoy haciendo (ya estoy en fase final de desarrollo... o eso creo, jeje... los ke han hehco juegos saben a lo ke me refiero.), al cargar las texturas y tal, el solo aplicativo se comio la friolera de 1GB de ram... y eso era para hacerle cache a lastexturas y tal... y si tu vas a ver cuanto pesan esas texturas en disco, solo eran 50 megas o asi. no voy a entrar en detalles tecnicos ni nada por el estilo, pero no keda demas decir ke cuando un juego arranca, el ancho de banda de la makina donde este se ejecuta, SIEMPRE sufre, y aveces no da abasto para lo ke se necesita hacer, y es por eso kel OS entra a hacer caching y cosas de esas.
de 50MB a 1GB????? pero si DXTC y cía suelen tener un ratio de 1:5... como diablos te zampo 1 giga de ram?????? es más, cuando se usan texturas comprimidas, estas se cargan comprimidas a la ram gráfica :S (o eso he creido siempre... por lo menos con mis cutre-experimentos)



creo que he entendido mal... es el editor el que se zampo 1GB de ram, no? Eso quizas se deba a que carga todas las texturas (se usen o no) en ram, para tener acceso a las mismas...
shadow land escribió:de 50MB a 1GB????? pero si DXTC y cía suelen tener un ratio de 1:5... como diablos te zampo 1 giga de ram?????? es más, cuando se usan texturas comprimidas, estas se cargan comprimidas a la ram gráfica :S (o eso he creido siempre... por lo menos con mis cutre-experimentos)



creo que he entendido mal... es el editor el que se zampo 1GB de ram, no? Eso quizas se deba a que carga todas las texturas (se usen o no) en ram, para tener acceso a las mismas...


precisamente ese fue uno de los problemas iniciales... ademas, tu sabes ke con el rollo del mip map y cosas de esas, la memoria ke se consume es abismal... especialmente si las texturas ke usas son muy grandes.

ahora ya no necesito ese mismo giga para compilar los niveles, pero siempre la cuenta va en al menos 300-400 megas, ke tampoco son moco de pavo.

el problema ke si veo venir es cuando vaya a compilar el juego por completo, con todos sus niveles y tal... eso demanda mucha memoria y tiempo de proceso... pero bueno, almenos tengo una serie de niveles precompilados ke me ahorraran tiempo.

sobre lo de las texturas comprimidas, no te sabria decir a ciencia cierta, pues no las he usado aun.
Acabo de leer que el id tech 4 está optimizado como el ojal Oooh

Si el doom 3 es de los pocos juegos del 2004 en adelante (por no decir el único) en el que no tengo ningún bajón de fps. Y eso es mucho decir en mi patata con cables (amd athlon xp 1,6Ghz, 256 mb de ram y una geforce 5700le)

Estoy casi seguro de que el tech 5 será mejor motor que el ue3. Sólo hay que ver los lastres del ue3 (como la carga tardía de texturas) y que el rage tirará a 60 fps.
shadow land escribió:No existe sistema ha dia de hoy que tenga suficiente ancho de banda a memoria


He parado de leer aquí xD
Sabes lo que son 25,6 GB/s?
Son 25,6 GB/s xD
Sabes cual es el ancho de banda del Cell?
300 GB/s de pico record sumando todas las SPUs y el propio nucleo.
De donde sacas esos datos para poder llenar esas bandas pasantes?
Un BD de una capa da para 25 GB y uno de doble capa para 50, asi que se supone que o bien cargamos todos los datos del juego de una tacada (estaríamos un rato viendo el now loading xD) o bien lo cargamos de dos tajadas, porque esa sería la única manera (y ni por esas, porque, como bien dices, los datos están comprimidos).
Porque sino de donde vas a sacar ese tráfico de datos para llenar dichas bandas o crear cuellos de botella?
Los anchos de banda son máximos posibles. Supongo que el cuerpo humano podría aguantar un ingesta de 60 perritos calientes seguidos pero yo desde luego no podría llegar a esa marca (si, es un ejemplo chungo pero es lo que hay xD).
Con el volumen de datos que manejan en los juegos actuales, los flops que pueden realizar los procesadores y los anchos de banda que tienen las memorias del sistema, gráficas y cachés, es imposible ver cuellos de botella.
En único casi posible sería por la velocidad de lectura del disco (oí por ahí que la velocidad 2x de un BD es mas lenta que la velocidad 12x del lector de la 360, pero ni por esas porque gran parte de los juegos de PS3 llevan instalación en HD), pero con los valores que se manejan, ni por esas.
No tenéis muy claro lo que es el ancho de banda o la banda pasante, me parece a mi [qmparto]
es obvio que no sabes de lo que hablas.

300GB/s internos dentro de la cpu, no fuera de ella. Fuera de ella es en una maxima (que diga zheo el ancho de banda a X*D*R de ps3, que no me lo se de memoria) trayendo datos en paquetes de X bits, si no se necesitan paquetes de ese tamaño exacto, el rendimiento se cae debido a la arquitectura en ring de la Rambus, cosa que ya pasaba en ps2.

una imagen, se genera mediante la lectura REPETIDA de normalmente CIENTOS de texturas.

pongamos una escena que requiere 10 pasadas para ser generada (probablemente más en MGS 4, o Killzone 2).

Pon unos 200MB de texturas en uso, ahora, aplica 10 pasadas a esos 200MB para los diferentes efectos = 2GB. Eso, multiplicalo digamos por 60 imagenes. 60 x 2 = 120GB/s.

Lo siento, pero te acabo de desmontar el invento, y eso que he explicado MUY MAL el tema por que no tengo ganas de poner un churro de tropocientas lineas, o de buscar una explicación técnica que no entenderas visto lo visto.

Algúnos creeis que sabeis de lo que hablais, y simplemente ois camapanas, y no sabeis de donde vienen.

Entre otras cosas, tu confundes espacio de almacenamiento con velocidad de transmisión. Y que una cosa ocupe 2MB, no quiere decir que se requieran 2MB de velocidad para leerla.
Bueno he visto el pekeño estropicio que hay por aqui y espero que os tranquiliceis por que si no tendremos que repartir gases lacrimogenos aparte de los post-it que se han repartido en cada perfil conflictivo

un saludo y sed buenos...

newdreamer
lostzilla escribió:
shadow land escribió:No existe sistema ha dia de hoy que tenga suficiente ancho de banda a memoria


Sabes cual es el ancho de banda del Cell?
300 GB/s de pico record sumando todas las SPUs y el propio nucleo.

Yo si, pero tú no.
Ese ancho que citas y no sabes de dónde es del EIB y para interconexión entre ppu y spus. Además es teórico, y no tiene nada que ver con lo que estamos hablando. Es como si dices que el ancho de banda de tu ordenador es la velocidad del FSB :S

Porque sino de donde vas a sacar ese tráfico de datos para llenar dichas bandas o crear cuellos de botella?

De pasar datos a memoria varias veces por segundo por ejemplo en la GPU, por ejemplo sólo se puede pintar un shader a la vez, cada vez que cambias de shader hay transferencia de memoria, y cada material es básicamente un shader. Y como eso otras cuantas cosas más, diferentes consultas a diferentes buffers en VRAM, etc.
Respecto a la ram el hecho de que una CPU procesa información muchísimo más rápido que lo que una memoria puede tener algo que ver.

No tenéis muy claro lo que es el ancho de banda o la banda pasante, me parece a mi [qmparto]

Qué es la banda pasante? Buscando por google parece la definición de ancho de banda real, pero si te digo la verdad la primera vez que lo oí fue recientemente y tenía toda la pinta de una cutretraducción de algún término inglés.

Sin embargo en tus comentarios has metido varias patadas, así relajemos los ánimos.

PD: Según he leído, si, la "banda pasante" es el ancho de banda real. Lo dicho, a saber de dónde habrá salido ese término.


PD: ¿Qué estropicio se ha montado aquí? El post se calentó y luego nos relajamos, todos tan amigos. Ojalá todos acabaran así oiga :)
shadow land escribió:es obvio que no sabes de lo que hablas.

300GB/s internos dentro de la cpu, no fuera de ella. Fuera de ella es en una maxima (que diga zheo el ancho de banda a X*D*R de ps3, que no me lo se de memoria) trayendo datos en paquetes de X bits, si no se necesitan paquetes de ese tamaño exacto, el rendimiento se cae debido a la arquitectura en ring de la Rambus, cosa que ya pasaba en ps2.


Se cae a cuanto? A 1 GB/s? xD
Si a una GDDR3 no le das instrucciones de escritura o lectura seguida tambien pierde rendimiento.
A que viene esto?
Pues a lo mismo que viene la arquitectura en ring de la Rambus, o sea, a nada xD

shadow land escribió:una imagen, se genera mediante la lectura REPETIDA de normalmente CIENTOS de texturas.


Cientos de texturas que ya están cargadas en memoria y ultracomprimidas.

shadow land escribió:pongamos una escena que requiere 10 pasadas para ser generada (probablemente más en MGS 4, o Killzone 2).

Pon unos 200MB de texturas en uso, ahora, aplica 10 pasadas a esos 200MB para los diferentes efectos = 2GB. Eso, multiplicalo digamos por 60 imagenes. 60 x 2 = 120GB/s.

Lo siento, pero te acabo de desmontar el invento, y eso que he explicado MUY MAL el tema por que no tengo ganas de poner un churro de tropocientas lineas, o de buscar una explicación técnica que no entenderas visto lo visto.


Pues macho, si con esa explicación poco técnica me desmontas, no quiero ni conocer la técnica (mejor te ahorro navegar por la wikipedia, porque parece que esa es tu fuente xD).
Los shaders se aplican sobre los datos ya cargados. Son instucciones del API que se aplican a texturas, modelados, etc. No hace falta renderizar los frames de nuevo para aplicar los efectos, se aplican al vuelo sobre los datos ya renderizados. Eso lo primero. Lo segundo es que esos 200 megas que has puesto de ejemplo son una borrachera de megas. Con los algoritmos de compresión y las resoluciones que se manejan hoy día en consolas, esa cifra es de risa (por lo alta, digo. Solo mirate un poco el tema de mods de texturas de algunos juegos mas o menos recientes para PC y yo creo que ya lo verás claro).
Y bueno, 60 imágenes por segundo creo que en esta generación creo que lo mueve el Hexic HD del XBLA y alguno mas. El resto van a menos de 30 FPS y a resoluciones reescaladas desde resoluciones no HD.
Simplemente me he limitado a desmontar ese "ejemplo" (yo no sabía como denominarlo) que has puesto. No me voy a meter en temas mas técnicos sin venir a cuento.

zheo escribió:Yo si, pero tú no.
Ese ancho que citas y no sabes de dónde es del EIB y para interconexión entre ppu y spus. Además es teórico, y no tiene nada que ver con lo que estamos hablando. Es como si dices que el ancho de banda de tu ordenador es la velocidad del FSB :S


El ancho de banda de un Cell es de 300 GB/s (entre las cachés de PPU y los SPUs, que yo no he dicho lo contrario).
Ahora, que tu me digas que es teórico y que el otro día hiciste una prueba en tu casa y te dió 250 GB/s... pues que quieres que te diga.
Esto no es lo que diga yo y punto. El ancho de banda se saca con una fórmula matemática (ancho de la memoria del bus*el rango de datos) y las fuentes son de la misma IBM (no de xboxerforevah.com).

zheo escribió:De pasar datos a memoria varias veces por segundo por ejemplo en la GPU, por ejemplo sólo se puede pintar un shader a la vez, cada vez que cambias de shader hay transferencia de memoria, y cada material es básicamente un shader. Y como eso otras cuantas cosas más, diferentes consultas a diferentes buffers en VRAM, etc.
Respecto a la ram el hecho de que una CPU procesa información muchísimo más rápido que lo que una memoria puede tener algo que ver.


Lo de antes. Los shaders son algoritmos escritos en el API de la consola que aplican efectos sobre pixels ya renderizados (o pintados, como te guste mas).
No hay que renderizar ni un vertice de mas para aplicar un efecto canal alpha, de iluminación, de refracción o de deformacion procedural.
Por otro lado, las memorias no procesan nada (supongo que habrás tenido una errata al escribirlo), pero si, te aseguro que los que elaboran la arquitectura de las consolas aspiran a usar memorias (de video, de sistema y cachés) que pueda pasar el tráfico de datos que les viene de la CPU y GPU sin generar cuellos de botella.
Sé que es díficil de creer, pero la gente que hace esas cosas tienen carreras universitarias xD

zheo escribió:Qué es la banda pasante? Buscando por google parece la definición de ancho de banda real, pero si te digo la verdad la primera vez que lo oí fue recientemente y tenía toda la pinta de una cutretraducción de algún término inglés.


Es banda pasante. No hay que buscar cutretraducciones (es lo bueno de no emplear anglicismos por una vez xD).
Es lo mismo que ancho de banda, si.

zheo escribió:Sin embargo en tus comentarios has metido varias patadas, así relajemos los ánimos.


No, si yo he entrado relajado en este hilo y creo que sigo igual. Los que estábais en un estado de excitación un poco superior al mio eráis otros. En estas condiciones no me gusta postear, pero ya que estamos... xD
lostzilla escribió:
Se cae a cuanto? A 1 GB/s? xD
Si a una GDDR3 no le das instrucciones de escritura o lectura seguida tambien pierde rendimiento.
A que viene esto?
Pues a lo mismo que viene la arquitectura en ring de la Rambus, o sea, a nada xD


La arquitectura ofrece un mayor o menor ancho de banda en la lectura escritura de datos dependiendo del tamaño de los paquetes que circulan por el bus y por el "ring" de reparto entre los modulos de memoria. Es una de las razones por las que la serie 2x00 de ATi no aprovechaba al 100% el ancho de banda teórico que le ofrecía la ram instalada en esas placas. Ese bus, en un momento dado, puede dividir por dos o más el rendimiento TEORICO en ancho de banda. Xenon de 360 también puede mover internamente varios cientos de gigas por segundo, pero sin embargo entre la cpu y la gpu solo hay 12GB/s (full duplex) de ancho de banda TEORICO REAL.

Cuando los buses se basan en "rings" o "handlers" (uso habitual en GPUs) NUNCA, repito NUNCA se alcanza el rendimiento teórico maximo del bus, ni de casualidad, ni en condiciones optimas, es sencillamente imposible, por que entran en juego elementos de condicionamiento de eleccion, y es una minima latencia añadida, que impide ese aprovechamiento maximo, latencia provocada por la decisión de a donde, y por donde, se envia un paquete de datos X.


lostzilla escribió:Cientos de texturas que ya están cargadas en memoria y ultracomprimidas.


Si, 200MB ya comprimidas. No se de que juegos hablas tu, yo hablo de juegos como Crysis, MGS 4, o similares que si usan cantidades INGENTES de megas de texturas YA COMPRIMIDAS en su estado previo a su carga a ram (sea de la gráfica, o de la cpu). El ratio de compresión maximo, es de 5:1, y en nVIDIA no puedes usar compresion de normal maps o bump mappings vía GPU.


lostzilla escribió:Pues macho, si con esa explicación poco técnica me desmontas, no quiero ni conocer la técnica (mejor te ahorro navegar por la wikipedia, porque parece que esa es tu fuente xD).


no necesito la WikiPedia, soy programador, y en ratos libres hago "tonterías" en mi casa, hace años con OpenGL, luego con DirectX, luego me pase a SDL + OpenGL, y ahora XNA... creo que SE de lo que hablo. La gráfica tiene unos poco Kb de cache donde se almacenan ciertos datos para su proceso, pero cada vez que un shader requiere escribir en una textura, hay que cargarla, leerla y procesarla. Si un engine para mostrar una escena requiere hace 10 pasadas en una textura, esa textura se leerá 10 veces salvo que las pasadas sean totalmente secuenciales, cosa, sencillamente, imposible, salvo que solo uses una única textura.

Los shaders se aplican sobre objetos, pero los objetos necesitan texturas, y las texturas no se planchan una unica vez, se leen diversas veces.


lostzilla escribió:Los shaders se aplican sobre los datos ya cargados. Son instucciones del API que se aplican a texturas, modelados, etc. No hace falta renderizar los frames de nuevo para aplicar los efectos, se aplican al vuelo sobre los datos ya renderizados. Eso lo primero. Lo segundo es que esos 200 megas que has puesto de ejemplo son una borrachera de megas. Con los algoritmos de compresión y las resoluciones que se manejan hoy día en consolas, esa cifra es de risa (por lo alta, digo. Solo mirate un poco el tema de mods de texturas de algunos juegos mas o menos recientes para PC y yo creo que ya lo verás claro).


si 200MB te parecen una borrachera de megas... bienvenido a la nueva generación, donde hay varios gigas de texturas por juego... joder, RallySport Challenge 2 de Xbox ya usaba en algúnos circuitos de 500MB de texturas COMPRIMIDAS.

Y nadie a hablado de "renderizar frames", hablo de leer de nuevo información NECESARIA para la generación de una escena final. Las texturas no solo se planchan una vez, pueden plancharse 1 o más, o plancharse una y ser leidas y procesadas varias, y si se procesan varias veces (cosa demasiado habitual), y no se puede hacer de forma secuencial (lo normal en el 99,9% de los casos), el ancho de banda requerido para esa textura, se multiplica por X veces, tantas veces como lecturas sean necesarias.
Y bueno, 60 imágenes por segundo creo que en esta generación creo que lo mueve el Hexic HD del XBLA y alguno mas. El resto van a menos de 30 FPS y a resoluciones reescaladas desde resoluciones no HD.[/quote]

precisamente no se alcanzan los 60fps por limitación de ancho de banda gráfico, no por imposibilidad de potencia de calculo. La cantidad de pasadas necesarias para generar una escena, los diferentes efectos aplicados a las texturas, etc, etc, y la brutal necesidad de lectura de texturas (y de los frame buffers para efectos como Blur Motion...)


lostzilla escribió:Simplemente me he limitado a desmontar ese "ejemplo" (yo no sabía como denominarlo) que has puesto. No me voy a meter en temas mas técnicos sin venir a cuento.


Cuando sepas como funciona una maquina internamente, y no te conformes con leer algo que no comprendes, en la Wikipedia, si quieres, vuelve. Que por aquí algúnos nos dedicamos profesionalmente al mundo de la programación, y otros con más suerte, directamente, a la programación de videojuegos.


Tienes mucho que aprender para intentar darnos lecciones a algúnos. Yo por ahora, seguire jugueteando con XNA y sus shaders por las tardes, y por las mañanas, programando profesionalmente, que para eso me pagan, no para perder el tiempo leyendo articulos que no entiendo en la wikipedia, o sacando información de donde no debo




editado:

no, gramaticalmente no es lo mismo ancho de banda, que banda pasante.

ancho de banda no es un anglicismo, es una adaptación a nuestro idioma del ancho de bits de un bus. la banda pastante... es algo que pasa, pero no hace referencia en ningún momento a "lo ancho" de eso.

Nunca se ha usado banda pasante, nunca.
Paso de discutir mucho más porque hay cosas que no dominas y estás mezclando: sólo algunos apuntes.

El ancho banda teórico de 300Gb del cell es para transmitir datos dentro del propio procesador, con lo cual aquí no se para qué lo sacas a colación en una discusión de ancho de banda de memoria, yo creo que oyes campanas y no sabes dónde.
El ancho de banda real del EIB no llega a 300, llegó como máximo a unos 280 en una prueba optimizada que no hice yo, pero quizá te suene quién la hizo: IBM. Está en un paper sobre el cell que puedes encontrar en su web, esa a la que me diriges y que yo me pateé hace bastante para estudiar la arquitectura del Cell. En el caso del Cell es debido a que el flujo de datos entre SPUs y PPU ha de coordinarse muy bien para alcanzar esos máximos -por ejemplo- como hay 9 elementos conectados al mismo bus hay que establecer prioridades, por tanto cuando uno transmite puede que alguno de los elementos tenga que esperar.


Las texturas "cargadas y ultra-comprimidas en memoria de vídeo" han de moverse de un lado a otro para poder procesarse, y por tanto gastan ancho de banda. Es algo BASICO de arquitectura de hardware que un procesador sólo puede acceder a datos locales, y que esta capacidad es MUY limitada, la RAM es almacenamiento intermedio , y si quieres acceder a más datos tienes que transferirlos de memoria a procesador y vuelta a memoria para guardarlos. Una GPU sigue siendo un procesador, así que ata cabos. Como ha dicho Shadow en su ejemplo, hay que mover muchas veces por segundo una gran cantidad de datos ya que seguimos pretendiendo generar imágenes en tiempo real y eso come el ancho de banda más rápido que triki galletas.

Lo de antes. Los shaders son algoritmos escritos en el API de la consola que aplican efectos sobre pixels ya renderizados (o pintados, como te guste mas).

No, los shaders son algoritmos escritos en dos lenguajes distintos pero equivaletes a día de hoy (CG y HLSL) Y no aplican "efectos" sobre píxeles ya renderizados sino que modifican el color del pixel por medio de ese algoritmo para generar el pixel final en la pantalla. Es decir que pintan.
Eso por supuesto si consideramos que estás hablando sólo de fragment shaders, que también están los vertex y geometric, que ahí la frase de "aplican efectos sobre pixels ya renderizados" no tiene ni sentido.

No hay que renderizar ni un vertice de mas para aplicar un efecto canal alpha, de iluminación, de refracción o de deformacion procedural.

De nuevo, eso suponiendo que hables de fragment shaders. Los geometric shaders si pueden generar geometría. Pero supongo que se te habrá colado.
De todas maneras lo que yo te contaba y tú no has comprendido es que esos SHADERS están cargados en memoria, pero has de pasárselos al procesador de la GPU para aplicarlos, y eso consume ancho de banda. Los motores ordenan los materiales entre otras cosas por shaders para minimizar esos cambios de materiales en una escena y ahorrar ancho de banda y cambios de estado en la GPU.

Por otro lado, las memorias no procesan nada (supongo que habrás tenido una errata al escribirlo),

Efectivamente, lo que quería decir es que las memorias son mucho más lentas transmitiendo datos que una CPU procesándolos. De ahí los "cuellos de botella".

te aseguro que los que elaboran la arquitectura de las consolas aspiran a usar memorias (de video, de sistema y cachés) que pueda pasar el tráfico de datos que les viene de la CPU y GPU sin generar cuellos de botella.

Tú lo has dicho: aspiran. Otra cosa es que lo consigan porque la física y el dinero también tienen mucho que decir en este asunto.

Sé que es díficil de creer, pero la gente que hace esas cosas tienen carreras universitarias xD

Una carrera universitaria como una ingeniería informática, que es la que yo tengo o te referías a otra?.
Vaya por donde el vacile nos ha salido mal.

Por último un par de consejos: no sabes con quién estás hablando, pero Shadow si sabe de lo que habla. Así que las ironías sobre la wikipedia deberías ahorrartelas, porque podrías salir escaldado. Ya somos dos que te decimos que estás diciendo algunas cosas sin sentido. Yo humildemente pensaría si me estaré equivocando.

PD: He llegado tarde...
eso come el ancho de banda más rápido que triki galletas.


Oye, oye, un respeto pseudo sonyer que yo contigo no me he metido XD
Uff, de verdad, me da mucha pereza contestar (aunque os he leido, que conste).
Solo voy a contestar a una cosa que me ha hecho gracia.
Yo tambien soy ingeniero informático (de gestión, para ser exactos).
No sé que ingeniería has hecho tu, pero en la mía no me enseñaron a crear hardware ni a programar videojuegos (de verdad) en entornos 3D (eso si, te haría un tetris en ensamblador para chuparse los dedos).
A ti si te enseñaron durante tu ingeniería?
A mi no :(
Así que ya sabes, me refería a las "otras carreras" xD

Y lo de la wikipedia os lo habéis tomado a mal?
La información no se genera sola en el cerebro (alguos claman que si). La wikipedia es una gran fuente de información siempre y cuando se desarrolle con documentación mas técnica.
Por eso decía que para ponerme frases de la wikipedia (porque nadie se acuerda de cuantas alus tiene cada pipeline de la gráfica de la PS3 asi a bote pronto, por ejemplo), pues mejor que no, porque ya la tengo bastante chequeada.

Y alegrad la cara!!! Yo me lo paso bien con estas conversaciones xD
O que preferís, que os llame sonyers o xboxers y palante? [qmparto]
triki1 escribió:Oye, oye, un respeto pseudo sonyer que yo contigo no me he metido XD

DON sonyer para tí XD


lostzilla escribió:Yo tambien soy ingeniero informático (de gestión, para ser exactos).
No sé que ingeniería has hecho tu, pero en la mía no me enseñaron a crear hardware ni a programar videojuegos (de verdad) en entornos 3D (eso si, te haría un tetris en ensamblador para chuparse los dedos).
A ti si te enseñaron durante tu ingeniería?

No, verás es que a mi no me enseñaron todo en la ingeniería. Ni a tí.Lo que nos dieron las bases para que usándolas nos pudiéramos buscar las habichuelas.

Lo que si me enseñaron es a conocer el hardware y saber cómo interacturan cada uno de sus componentes, así como las connotaciones que eso tiene. Lógicamente a diseñar hardware no, porque eso también tiene componentes físicos, pero si sabes cómo funciona un hardware conoces las limitaciones.
Leyéndote parece que se fabrica memoria más rápida sólo para sacarnos los cuartos porque total nunca usaremos todo su ancho de banda.

También me enseñaron cálculo y álgebra, la base para poder comprender cómo se generan escenas 3D.

Con todo eso Junto con y créditos de libre que en vez de gastarlos en clases "maría" para sacar los créditos con un simple trabajo, decidí meterlos en cursos y talleres de programación, y por mi cuenta programando y leyendo artículos incluso desde antes de entrar en la carrera, pues he hecho mis cosillas. Pocas pero algo se.

La carrera no te da un título para presumir. Te da unas bases, tú decides si quieres aprovecharlas o no.
O que preferís, que os llame sonyers o xboxers y palante? [qmparto]

Hombre, puestos a elegir... pues pikmin XD
podeis ser un pokito más suaves en las contestaciones?

ains...

Muy buenos los aportes técnicos, que yo desconozco pero si es verdad que la carrera informática es un 1 % de todo lo que puedes aprender sobre el tema...

el resto, curiosidad y ganas...

newdreamer
suaves en las contestaciones?? que pasa, que estamos en un asilo de ancianos y si no lo hacemos rollo niño 2 dos meses se nos va a saltar el corazón?




lostzilla, como te han dicho, ingenieria solo es una base, y no te da la verdad absoluta de nada, y conociendo a algúnos profesores, lo que te da es una visión 100% distorsionada de la realidad, que no es lo mismo.
lostzilla escribió:La información no se genera sola en el cerebro (alguos claman que si).



xDD si tu supieras la de información que se genera sola en el cerebro de algunos debido a malinterpretaciones y a suposiciones, y que la suelta en el foro como si nada alucinarias

de hecho viendo que llevas un tiempecito por aki deberias saberlo :)

y no va por ninguno de los que estais discutiendo en este post, no os ofendais... va mas por algunos posers que se las dan de entendidos y no tienen ni guarra y proponen cosas por proponer con el unico fin de piratear su ps3 o su lector philips-liteon
Bueno, pues como mucho no puedo aportar, pero la conversación me ha resultado muy divertida. Un par de cositas:

Banda pasante si que es la acepción castellana correcta( al menos en varios libros publicados en nuestro pais) para ancho de banda, yo me reia de mi profesor cuando la utilizaba, pero al final, me tuve que comer mis risas...

Y otra cosilla, para lostzilla, en serio, cuando has comentado lo de "shaders aplicados al pixel ya renderizado" y lo de "si tal textura ya esta en memoria no hay que volver a leerla"....Coño, has chirriado muy mucho tio, imagino que habrá sido un lapsus, pero leñe, ha cantado mucho hasta para alguien con tan pocos conocimientos como yo.

PD: El hilo era mas divertido cuando iba en plan "carmack puto sonyer", jurs jurs jurs.
filetefrito escribió:Banda pasante si que es la acepción castellana correcta( al menos en varios libros publicados en nuestro pais) para ancho de banda, yo me reia de mi profesor cuando la utilizaba, pero al final, me tuve que comer mis risas...

Pues mira, está bien saberlo, yo también me como las risas.
Lo raro es que en google encuentras con ese término cosas de filtrados de señales, que es de donde proviene también lo de acho de banda :P

Otra cosa, esos libros publicados en nuestro país, por quién están traducidos? Si son sudamericanos a lo mejor de ahí proviene el fallo.
Que ningún compañero allende los mares se me mosquee, pero ciertas españolizaciones de términos ingleses de algunos autores chirrían (arrays -> arreglos, pointer -> apuntador, remove -> remover... ) y esta simplemente podría ser otra.
esa aceptación será valida para una cutre traducción realizada en mejico como se realiza en demasiados libros técnicos, que las realiza gente que no es del gremio, y traducen de forma literal.

Banda pasante, no es una aceptación correcta. Es más, literalmente, no tiene absolutamente nada que ver con su significado al uso.

Cuando se habla de anch ode banda, hablamos de cuanto puede pasar por un sitio (la banda/bus), si dices banda pastante, estas hablando de un algo (bus/banda) que pasa "por ha saber donde".

lo siento, pero es una mala traducción, como otras muchas que se realizan en el sector.
Voy a buscar los libros, a ver si los tengo, y os pongo los que son y editorial...
PD: Me parece que los libros han volado, eran ambos de editorial ANAYA multimedia, uno se titulaba tal cual "Redes de area local", y el otro uno de estructura de computadores ( y bastante antiguo, del 96 o algo así, el tema de buses, memorias y tal estaba desfasadilo, en el que hablaba de los modulos dimm como futuros)...Y luego lo lei en bastantes fotocopias del mismo profesor.
Y lo que os digo, yo me descojonaba el primer dia de clase cuando explicaba conceptos basicos ( es que suena totalmente chicano), lo comente con el ingeniero de mi piso, que me comentó que el si que lo había oido en alguna ocasión expresado así, y luego en el libro, cuando lo lei, pues me mordí los nudillos un poquito.
te lo digo por experiencia propia, que en los libros de programación, especialmente ANAYA en los viejos (traducidos en mexico, o chile muchos de ellos, por gente que no era informática), se metían cada gambazo en los terminos de flipar.

Tu sabes lo que es un Apuntador?
Es un tio que apunta cosas, o ayuda a los actores a seguir el guion. No un puntero de C. Pues así, mil.
shadow land escribió:te lo digo por experiencia propia, que en los libros de programación, especialmente ANAYA en los viejos (traducidos en mexico, o chile muchos de ellos, por gente que no era informática), se metían cada gambazo en los terminos de flipar.

Tu sabes lo que es un Apuntador?
Es un tio que apunta cosas, o ayuda a los actores a seguir el guion. No un puntero de C. Pues así, mil.

Los libros de programación se compran en inglés. Y hoy en día en amazon.
Salen antes y no tienes que rezar para que la traducción sea correcta, que algunas se las traen. Tengo un libro de programación en MFC que tenía que leer una frase en español, traducirla LITERALMENTE al inglés de nuevo y luego interpretarla. Lo digo en serio, el libro traía cosas como esta:
"La línea inferior:
bla bla bla resumen de la exposición anterior"

Si traduces de nuevo al inglés literalmente te queda
"bottom line:
bla bla bla resumen de la exposición anterior"

y "bottom line" seguido de un resumen se traduce más o menos como "resumiendo", "en resumen". Pues esa era una traducción de un libro... ya ves.

Y ya no entramos en los típicos libros españoles de programación, que parece que lo único que sabemos hacer es meter una explicación sencilla y luego hala, código a dolor. Tengo un libro de j2me que me hace listados COMPLETOS de un programa que se ejecutaría correctamente para explicar los ejemplos, cuando eso está en el CD que acompaña. Ya os imaginaréis lo bien fijado que queda un concepto si para explicar lo que hacen 3 líneas de código te meten 1 página y media sin ni siquiera usar negritas o cursiva para palabras clave ni nada. Eso si, páginas llenas la de dios
yo los llevo varios años comprando ahí.

pero oye, en los tiempos mozos me era imposible xD
206 respuestas
1, 2, 3, 4, 5