Nuevo video de Doom 3

Sagitario escribió:Es superdotado :P Pero el tio nacio en el 70, tiene 34 años, asi que de niño solo tiene la cara xDD (no es un viejo pero menos un niño xDD). Os recomiendo que leais el ebook 'Masters of Doom' que cuenta como se metieron en esto John Carmack y John Romero (Alfonso John Romero es su nombre completo xDD). John Carmack era el puto amo, Romero era la hostia programando, pero se echaba carreras con Carmack a ver quien portaba mas rapido unos juegos de Apple II a IBM PC, y Carmack le daba mil vueltas xDD Romero se lo tenia muy creido y Carmack lo vapuleo al parecer de una forma impresionante. Ahora bien, estaba un poco zumbado, lo tuvieron un año en una especie de reformatorio por entrar en su instituto para robar unos Apple II xDDD
Y para el que no lo sepa, Carmack en su tiempo libre hace cohetes ;) Debe de tener unos conocimientos de matematicas y de fisica... buah, el puto amo... DIOS!!
ALABADO SEA EL SEÑOR!!!

PD: Leed el ebook ese que merece la pena :)

Asias, no conocia el ebook. Ya me lo estoy bajando. [tadoramo]
Sagitario escribió:Es superdotado :P Pero el tio nacio en el 70, tiene 34 años, asi que de niño solo tiene la cara xDD (no es un viejo pero menos un niño xDD). Os recomiendo que leais el ebook 'Masters of Doom' que cuenta como se metieron en esto John Carmack y John Romero (Alfonso John Romero es su nombre completo xDD). John Carmack era el puto amo, Romero era la hostia programando, pero se echaba carreras con Carmack a ver quien portaba mas rapido unos juegos de Apple II a IBM PC, y Carmack le daba mil vueltas xDD Romero se lo tenia muy creido y Carmack lo vapuleo al parecer de una forma impresionante. Ahora bien, estaba un poco zumbado, lo tuvieron un año en una especie de reformatorio por entrar en su instituto para robar unos Apple II xDDD
Y para el que no lo sepa, Carmack en su tiempo libre hace cohetes ;) Debe de tener unos conocimientos de matematicas y de fisica... buah, el puto amo... DIOS!!
ALABADO SEA EL SEÑOR!!!

PD: Leed el ebook ese que merece la pena :)


si no recuerdo mal el tio no tiene carrera universitaria, o sea, q cualquiera de nosotros al terminar el bachillerato de ciencias deberíamos tener más nivel que el cuando empezo sus "jueguecitos" XD Lo que si que ha hecho (y lo ha dicho muchas veces), aparte de ser un crack programando, es leer libros de 3D a patadas)

lo del cohete es una pena q ganasen los que salieron en la tele hace poco, por lo que se ve, los permisos de vuelo los tiene parados carmack desde hace casi un año, y si cohete es 10 veces más barato que el otro (el q salia en la tele) para hacer lo mismo.
Anarkoman escribió:PD: El juego aqui cuando sale? He estado mirando y me ponia 23 en una web y 20 en otra......alguien se sabe la fecha?

Día 20.

Por cierto, poned vosotros orden o lo pondré yo.
MoRdOrEye escribió:Darkcaptain pues vas dando en el clavo xD La compré cuando el Max Payne. El Call of Duty lo juego a 1024 en detalle alto, muy suave todo (hay quien dice q con la GF4 lo tiene q poner en medio y 800 :S).

Es una buena tarjeta, si le miras el ancho de banda por ponerte un ejemplo, es de 6.5 GB/s mientras q en la geforce 2 mx era de 1.5 GB. La memoria a 400 Mhz. Vamos, que se pega con la 4 MX.

El Unreal 2 lo he podido jugar al mínimo, lo mismo que el unreal tournament 2.

Y para que te hagas a la idea, he podido jugar al Far Cry a 30 fps bastante constantes xD Y me pude pasar la demo del painkiller (uf, el juego iba como ralentizado, no tenía frameskip xD). Pero vamos, que si la pusiese en una cpu actual, bastantes juegos seguirían tirando igual que con una ati 9000 o una gf4 mx (excepto los típicos q ya no dejan, como prince of persia, etc.).

Una buena tarjeta merece la pena, pq vale, todas se desactualizan. Pero por lo menos, mientras dura, estás jugando a buena calidad. Lo triste fue gastarse 25 mil pts en una gf2 MX (lo q hizo la mayoría) para apenas poder jugar 4 meses a 1024. Y ya te digo, esperé un poco, y gasté 33 mil en la pro, no los 500€ que se gastan algunos en bichos. Por cierto, aquí es el mismo caso, me he esperado a que la Pro bajase.

Comprar ahora una 9800 Pro lo veo un acierto. Q vas a comprar, una 9600, para que en navidad ya haya que cambiarla? Todo tiene un coste.

Ya sé que dentro de dos años no puedo rular lo pepino, pero q quieres q haga? Me puedes decir: cómprate una 9200. Pero esque con una 9200 no rulo ni lo actual xD (y lo digo pq mi hermano tiene una en su P42.8, y por ej el battlefield le da los mismos fps que a mí en mi athlon 900!! XD).

Además, yo me tengo que cambiar YA de PC, pq esto ya va de pena. Los que cambien dentro de un año, lo jugarán más suelto que yo, ya lo sé. Pero igual que yo voy a jugar suelto lo que jugó a duras penas quien se actualizó hace 1 año, esto siempre va a ser así :)

Salu2.




Yo he pensado lo mismo, me he quedado a cuadros. Debe ser superdotado el tío xD


Pues entonces tu grafica si ke la has aprovechado bien, por ke ya te puedo asegurar ke si es cierto lo ke dices (ke puedes jugar al call of duty y has podio jugar al menos al Far cry con 30 fps) ya es mejor ke mi Geforce 4 MX de 128 mb.

Pues nada.. ale a disfrutar xDD

Salu2.

PD: Es increible los posts ke se llegan a cerrar, hay a veces ke voy a comentar algo y me encuentro con un candao ke no veas xD
El juego se sale. :D
si no recuerdo mal el tio no tiene carrera universitaria, o sea, q cualquiera de nosotros al terminar el bachillerato de ciencias deberíamos tener más nivel que el cuando empezo sus "jueguecitos"

al parecer estudio dos semestres en la universidad de Kansas y lo dejo para trabajar como programador

Off topic: ¿se sabe porque Romero dejo ID Software?
Xbox -----------------------------------------> 179 Euros
Doom3 -----------------------------------------> 50 Euros
Jugar en el sillon con una linda tele y un 5.1 ----->Priceless!
[sati]
JrS-76 escribió:El juego se sale. :D

al parecer estudio dos semestres en la universidad de Kansas y lo dejo para trabajar como programador

Off topic: ¿se sabe porque Romero dejo ID Software?


Efectivamente Carmack no tiene la carrera ni nada de esto, el tio es listo y ha aprendido el solo leyendo libros como un cabron. Si no es el puto amo por nada ;)
Romero lo dejo porque no tenia las mismas ideas que Carmack:
Mientras que Carmack queria hacer buenos juegos, Romero queria crear un imperio (eso dice el ebook que he dicho antes :P), y asi le salio Daikatana [jaja] la avariacia rompio el saco [sati] [sati] [sati]
Te cagas de guay, que ganas tengo de que salga ya el joio
Xbox -----------------------------------------> 179 Euros
Doom3 -----------------------------------------> 50 Euros
Jugar en el sillon con una linda tele y un 5.1 ----->Priceless!



JeJe, totalmente de acuerdo. No hay nada como jugar tirado en el sofa pasandolas putas porque escuchas a un zombie acercarse por tu espalda (Ah no, si era mi abuela!!)

CARMACK = DIOS [tadoramo] [tadoramo] [tadoramo] [angelito]
shadow land escribió:si no recuerdo mal el tio no tiene carrera universitaria, o sea, q cualquiera de nosotros al terminar el bachillerato de ciencias deberíamos tener más nivel que el cuando empezo sus "jueguecitos" XD Lo que si que ha hecho (y lo ha dicho muchas veces), aparte de ser un crack programando, es leer libros de 3D a patadas)


SemiOfftopic.

El 98% de lo que cualquiera utiliza en su trabajo lo ha aprendido por si mismo, no en ninguna clase de formacion academica, y esto se aplica a cualquier cosa: desde el oficinista de correos a carmack, pasando por tecnicos/admins de informatica como tu y yo, etc...

/SemiOfftopic.

Saludos cordiales.

pd. carmack cara de niño...jejeje...uds no han visto fotos del Gates a esa edad verdad? [qmparto]
Como rayáis por el tema de rendimiento del juego :O

Hay una cosa a tener en cuenta sobre Doom 3. si alguien sabe optimizar el codigo de un juego para rularlo "bien" en diferentes configuraciones es John Carmack. Los que tengáis tarjeta gráficas del año de maria castaña lo sabréis. Yo mismo he rulado con mi ex-GF2MX400 el Call of Duty a 1204 todo full y funcionando sin problemas, bajones de framerate tiene, nos ha jodio, pero no es para alarmarse. Y así con otros cuantos juegos provenientes del engine del Quake 3 (Return To Castle Wolfesntein, Medal of Honor...). Que pasa, que es muy bonito ver los juegos a 1280x1024x32 todo full, con anisotrpico 8x y FSAA 4x y mil movidas mas a 200 fps por segundo. Si somos asi de tiquismiquies soltemos billetes. Para el resto de la humanidad con hacer funcionar el juego medianamente bien nos hara felices y nuestra cartera seguirá teniendo fondos para otros menesteres.

En fin, que me acabo de pillar una FX5200 por 60 euros y no tengo ningun problema en hacer funcionar Far Cry, Toca Race Driver 2, Painkiller... y espero que Doom 3 asi lo haga.

Y todo queda en que cada uno se gaste el dinero como le salga de los cojones que para eso es suyo (pero no os rayéis tanto con el tema VGA y rendimientos que se os va la pinza demasiado).
el problema epi, no es como rallamos o dejamos de rallar.

es que estos juegos estan hechos para que, o tienes un cañonazo de tarjeta (segun se ve ultimamente, una 9700 como minimo, y es una tarjeta que el año pasado no bajaba de los 300 euros), o los juegos sencillamente no te van a tope.

y eso es una p*tada, pq cuando notas realmente una evolucion en la calidad de los juegos, es con los graficos a tope (por lo menos, que se note lo nuevo en graficas que incorpora el juego) y disfrutarlo con un framerate suave.

como se ve far cry en una 9200 (y da igual el procesador, pq va igual del culo en un ath1333 y en un P4 2,8), por ejemplo, da pena, de verdad...ya se que es un ejemplo critico, pero es asi.

y lo peor es que doom III debio salir publicado hace mas de un año, y se hubiera publicado en fechas, seguro que los requisitos recomendados no eran "9800 pro" [tomaaa]

y ante todo esto, no es de extrañar que muchos manden a tomar por culo el PC, con sus colgadas, sus actualizaciones y sus puñetas, y se pasen a consola...para luego quejarse de que las conversiones se hacen con el culo y que en el PC del amigo (que suele ser un cañonazo...todo el mundo tiene la suerte de tener un amigo con una grafica de 400 euros) el juego va como la seda y parte al de consola hasta por las orejas.

resumiendo: que la mitad de las quejas que los usuarios tienen de los juegos las tienen pq nadie del "tinglado" mueve un dedo para que no las tengan.

saludos cordiales.
Y de donde se puede bajar ese "Masters of Doom"? He mirado en google pero no aparece...

Me interesa mucho, link please ;)
yo lo bajo de la mula.....

y con respecto a todo esto de las graficas... yo mismo e sufrido lo que es gastarce una pasta en una grafica y luego arrepentirce muchisimo porque por el mismo dinero podria pasarla bomba con una consola y algun juego mucho mas divertido que lo que rula en PC.

En su momento tenia una g-force3 ti500 cuando esa era la mejor de las graficas y en mi pais me costo unos 800 dolares... y la pase muy mal cuando me di cuenta que para lo unico que de verdad la usaba era para los BENCHMARKS!!!!! es muy duro... darce cuenta que te gastaste la pasta de 1 año para ver un numero al final de un programa y conpararlo con el de otros!!.

y despues de esa etapa vi MI LUZ con la vuelta a las consolas y a los mejores años de mi vida como jugador...
le sigo viendo demasiado parecido al house of dead (al menos en el video) :? [tomaaa]

PD: espero que no vaya igual de lento que en el video, porque en el video te daba tiempo a tomarte un cola cao, mirar la tele, leerte el master of doom [+risas] y elegir el arma tres veces [+risas] [+risas]
GXY escribió:es que estos juegos estan hechos para que, o tienes un cañonazo de tarjeta (segun se ve ultimamente, una 9700 como minimo, y es una tarjeta que el año pasado no bajaba de los 300 euros), o los juegos sencillamente no te van a tope.

y eso es una p*tada, pq cuando notas realmente una evolucion en la calidad de los juegos, es con los graficos a tope (por lo menos, que se note lo nuevo en graficas que incorpora el juego) y disfrutarlo con un framerate suave.

Te estas equivocando ya que aqui no hablamos de un FarCry o de un Painkiller... estamos hablando de Doom3, cuyo motor sera usado hasta la saciedad durante los 5 años siguientes para hacer juegos (vease el motor del Quake3, o el de Wolf3D, etc). Si con nuestras tarjetas pudieramos ahora mismo moverlo con todo a tope, los juegos que vendran en estos 5 años pareceran clones de Doom3 e id Software sabe que eso no puede ser, ademas de que eso de que no notas realmente la evolucion en la calidad de los juegos... te vas a cagar xDDD La primera vez que probe la alpha del D3 fue con una GF2MX a calidad bajisima y casi me corro XDD Imaginate cuando me pille mi R9600XT... la pantalla se quedo blanca XDDD
Y ademas este juego todavia podra sorprendernos mas cuando pillemos la siguiente tarjeta grafica y verlo en detalle Ultra-high...
Yo creo que esta todo bien pensado, teniendo en cuenta la trascendencia del juego :P
El Doom3 en XBOX para MI (recalco, en MI opinión) no lucirá tan bien como el de PC, por mucho que juegues en un sillón y con 5.1 (que debe ser que un ordenador no tiene de ese sonido). De momento con monitor de 19'' me sobra, pero si quereis competición se conecta el ordenata a la TV y tan tranquilos eh? :P

Luego, si el DOOM3 hubiera salido el año pasado los requisitos serían los mismos que ahora, con la jodienda de que ni pagando podrías jugarlo decentemente ya que no había tarjetas, o si las había tendrías que pagar mucho más. Durante el proceso de desarrollo se puede congelar el apartado tecnológico de un juego (es decir no añadir más features que lo sobrecarguen) y centrarse en los demás aspectos (inlcuyendo, entre otros a la jugabilidad, diseño de niveles, historia... y optimización ;)) Eso tiene la ventaja de que una vez que sale el juego hay hardware más potente a precios más asequibles.
seamos serios, la 5200 no vale ni para cagar. Es muy inferior a una GeForce 4 Ti 4200 de 64MB, rinde menos con los shaders 1.1 y si le activas los 2.0 se HUNDE en la más absoluta miseria. Juegos "TWIMTBP", son optimizadisimos para rular en nVIDIA (aunque el doom 3 sea un TWIMTBP no esta optimizado para estas) y se pierde calidad gráfica por TODOS lados, los que decis que una 5200 "va bien", es por que no habeis visto una miserable GeForce 4 Ti, o una Radeon 9500 o "mejor"... simplemente.

Es más, la 5200 es la sustituta de las GF4MX, y en determinados entornos, rinden menos que estas. En los PC's nuevos se montan para el novato que no tiene ni idea este contento y diga: "mira, tengo un gráficon! una GeForce FX de esas con chorrocientas megas!!"

Salu2
Habéis visto que en la web que alojan el vídeo, ya comienzan a hablar de nuevo de la peli del Doom3? La última vez que oí hablar, fue en una Nintendo acción, de cuando iba a salir el juego para SNES xD Salía una pequeña noticia, y la foto del chuachenegger.

La noticia es esta (alguien sabe alemán?):

Doom - The Movie kommt 2006?!
e.v.o
Montag, 19.07.2004 - 01:00


Wie ich soeben von moviefans.de erfahren habe, sollen die Dreharbeiten zur Doom-Verfilmung im September 2004 in Prag starten! Das Ganze wird von Warner Bros. produziert und man darf gespannt sein, wie der Film wird. Die Dreharbeiten sollen voraussichtlich bis Febuar 2005 gehen. Mit einem Kinostart vor 2006 ist nicht zu rechnen. Eben 'When It's Done'. Ob Dwayne 'The Rock' Johnson die Hauptrolle übernehmen wird, ist weiterhin unklar. Spekuliert wurde darüber in einer früheren Meldung.

Quelle: moviefans.de


http://doom3.planet-multiplayer.de/news.php
GXY, no todo el mundo keremos jugar a los juegos a tope. Por eso existen las graficas de gama media y baja.

El que quiera simplemente jugar a un juego que se pille una FX5200 o una 9100 (aunke la 2º sea mejor que la primera). Al DooM no se como jugará, pero podra hacerlo.

El que quiera disfrutar un poko mas que se pille una 9600xt o una 5600 o alguna de ese estilo. Podra jugar con mas detalles.

El que quiera jugar con graficos mejores, que se pille la 5900 o la 9800. Lo podra jugar con calidad impresionante.

El que quiera jugar con todo a tope, que se pille una 6800 o una x800 y tan felices. Sera el que mejor lo vea.

El que quiera jugarlo en la XBOX, que lo haga. Tendra la ventaja de jugarlo sin problemas de ningun tipo.

Y ya esta, no creo que se tenga que hablar mas de que noseke de graficas etc, que si que rallais, rallais demasiado. Que cada uno haga lo que quiera...parece que odiais a la 9800 o algo por el estilo algunos de por aqui...
No se que es peor si el remedio o la enfermedad, pero aqui teneis la traduccion via google:

¡Cómo acabo de recibir de moviefans.de, el trabajo que da vuelta es salir para la película de la condenación en septiembre de 2004 en Praga! El conjunto es producido por Warner Bros. y uno puede ser filtrado, mientras que se convierte la película. El trabajo que da vuelta es ir probablemente a Febuar 2005. En un comienzo 2006 del cine hace no está ser contada. Uniformemente ' Cuando Se hace '. Si Dwayne ' la falda ' Johnson asumirá el control el papel principal, es más a fondo confuso. Uno especulado sobre él en un mensaje anterior.

Mucha grafico 3d, mucho GHz pero ¿Nunca van a hacer un simple traductor semidecente?
franaloper escribió:No se que es peor si el remedio o la enfermedad, pero aqui teneis la traduccion via google:

¡Cómo acabo de recibir de moviefans.de, el trabajo que da vuelta es salir para la película de la condenación en septiembre de 2004 en Praga! El conjunto es producido por Warner Bros. y uno puede ser filtrado, mientras que se convierte la película. El trabajo que da vuelta es ir probablemente a Febuar 2005. En un comienzo 2006 del cine hace no está ser contada. Uniformemente ' Cuando Se hace '. Si Dwayne ' la falda ' Johnson asumirá el control el papel principal, es más a fondo confuso. Uno especulado sobre él en un mensaje anterior.

Mucha grafico 3d, mucho GHz pero ¿Nunca van a hacer un simple traductor semidecente?


jeje
'the rock' traducido como 'la falda', ese gran wrestler/actor de grandes pelis como el rey escorpion
shadow land escribió:seamos serios, la 5200 no vale ni para cagar. Es muy inferior a una GeForce 4 Ti 4200 de 64MB, rinde menos con los shaders 1.1 y si le activas los 2.0 se HUNDE en la más absoluta miseria. Juegos "TWIMTBP", son optimizadisimos para rular en nVIDIA (aunque el doom 3 sea un TWIMTBP no esta optimizado para estas) y se pierde calidad gráfica por TODOS lados, los que decis que una 5200 "va bien", es por que no habeis visto una miserable GeForce 4 Ti, o una Radeon 9500 o "mejor"... simplemente.

Es más, la 5200 es la sustituta de las GF4MX, y en determinados entornos, rinden menos que estas. En los PC's nuevos se montan para el novato que no tiene ni idea este contento y diga: "mira, tengo un gráficon! una GeForce FX de esas con chorrocientas megas!!"

Salu2


Pues debo estar ciego querido amigo, tengo una FX5200 y rinde perfectamente a pesar de todo lo mierda que dices que es (¿que esperas por 60 euros?). Ahora mismo acabo de pillarme el Toca Race Driver 2 y estoy jugandolo con TODAS las opciones graficas activadas al maximo y a 1024x768 sobre un Duron 1300 (nForce2 Ultra 400 + 512 DDR400) y corre a las mil maravillas. Vale no va a 60fps, pero a 30 tambien se juega muy bien, ¿ no crees ? ¿ Petardeos ? Claro, de vez en cuando me tengo que comer alguno, pero tampoco es parar cortarse las venas. Y asi podemos seguir con unos cuantos juegos mas.

Tarjeta de mierda, pues mira, lo mismo lo es, Queria una tarjeta DX9 para salir de paso hasta pillarme una 9600XT. Cuando lo considere necesario, cuando el dinero acompañe y el precio (no me pienso gastar mas de 150 euros en una VGA) caerá. Mientras, la FX5200 me da lo que cuesta y mas. Veo los juegos tal y como salen en las imagenes (anisotropico y demas pijadas aparte) y va muy bien de velocidad. ¿ Que no voy a rular Doom 3 a tope ? Pues mira, que problema mas gordo, tampoco me voy a poner a llorar, lo puedo jugar en Xbox o dentro de un año cuando me pille una VGA. Mientras tengo juegos de sobra para jugar. Las prisas no van conmigo ;)
no, no ves los juegos tal y como salen en las imagenes.

La GeForce FX 5600 por ejemplo no representa correctamente las transparencias ni efectos de agua en FarCry (ni remotamente) comparado con las Ati o las FX 5800 en adelante, pero NI remotamente.

y no, FX 5200 NO es DirectX si por eso entendemos cumplir directX 9, por que no cumple ni los minimos en rendimiento.

y permiteme dudar lo del toca, y más en un 1300... amos, si la 5600 le dan espasmos con todo a tope, no me vengas tu ahora a decirme q en un duron 1300 una 5200 va bien.

Conformate si quieres, pero no quieras vender lo que no es. la 5200 es como en su dia las TNT "vanta", un chip de relleno para ordenadores de uso ofimatico y poco más.

joder, q solo tienes q hacer una captura de tus imagenes (usa farcry mismo en una zona a ser posible con agua o efectos de luces) y comparalo con la tajreta más cutre DirectX 9/8.1 de Ati y quizas te asustes.

la realidad es la realidad, y no se puede cambiar, y con esto no quiero venderte nada. Solo que no intentes convencer d elo que no es a la gente. Por que un amigo tb se quiso comprar la 5200 para "salir del paso" y tras arduas discusiones, pille una y se la enseñe (P4 2,6@3,02 y 1GB DDR 400) en directo... sabemos lo que significa apestoso? pues eso dijo: "joder, es apestosa", y solo la comparamos con una Radeon 9100 de 64MB de las normales.

solo falta q alguien me diga q juga al HALO a 1024 fluido con una FX5200, entonces ya me partire la caja durante horas ;)
shadow land escribió:no, no ves los juegos tal y como salen en las imagenes.

La GeForce FX 5600 por ejemplo no representa correctamente las transparencias ni efectos de agua en FarCry (ni remotamente) comparado con las Ati o las FX 5800 en adelante, pero NI remotamente.

y no, FX 5200 NO es DirectX si por eso entendemos cumplir directX 9, por que no cumple ni los minimos en rendimiento.

y permiteme dudar lo del toca, y más en un 1300... amos, si la 5600 le dan espasmos con todo a tope, no me vengas tu ahora a decirme q en un duron 1300 una 5200 va bien.

Conformate si quieres, pero no quieras vender lo que no es. la 5200 es como en su dia las TNT "vanta", un chip de relleno para ordenadores de uso ofimatico y poco más.

joder, q solo tienes q hacer una captura de tus imagenes (usa farcry mismo en una zona a ser posible con agua o efectos de luces) y comparalo con la tajreta más cutre DirectX 9/8.1 de Ati y quizas te asustes.

la realidad es la realidad, y no se puede cambiar, y con esto no quiero venderte nada. Solo que no intentes convencer d elo que no es a la gente. Por que un amigo tb se quiso comprar la 5200 para "salir del paso" y tras arduas discusiones, pille una y se la enseñe (P4 2,6@3,02 y 1GB DDR 400) en directo... sabemos lo que significa apestoso? pues eso dijo: "joder, es apestosa", y solo la comparamos con una Radeon 9100 de 64MB de las normales.

solo falta q alguien me diga q juga al HALO a 1024 fluido con una FX5200, entonces ya me partire la caja durante horas ;)


No estoy convenciendo a nadie ni a mi. Estoy comentando como funciona la 5200 en mi ordenador, y si, funciona asi , ¿ no lo crees ? Pues tu mismo, el que juega soy yo, no tu. ¿ Por que iba a mentirte ? No me paga nVidia ni el vendedor de la tienda, es mas, me la sudan lo dos.

En cuanto al ejemplo de Far Cry pues seguramente tendras razón, de sobra es conocida la mejor calidad visual de las ATi en el tema de Pixel Shaders, pero yo no he dicho que lo juege FULL. Que diga que juego los juegos como en las imagenes es cierto, pero tampoco es una estadistica 100%, no seas tan estricto al leer mis palabras.

Todos esos datos tecnicos estan muy bien, que si es mejor una que otra, que si DX9, que si es una Vanta... perfecto, pero a mi eso no me interesa, me interesa jugar y que se vea bien. Y se ve bien, que cojones.

Y te sigo diciendo que es una tarjeta de 60 euros, ¿ por que le pides lo mismo que a una Radeon 9800 Pro de 300 ? El que compra esta tarjeta sabe lo que tiene y lo que da de si, si la compra es por que quiere y yo asi lo hice, no estoy diciendo que sea la mejor ni espero que lo sea. Tengo lo que he pagado por ella.
hay tarjetas mejores por ese rango de precio.

la calidad gráfica de los shaders no es superior en Ati, si no que realmente lo es en nvidia, solo q como son unos zopencos, tienen q avtivar el modo 16bits, reducir drasticamente la calidad, y de paso, para que vaya MINIMAMENTE fluido, rehacer todo el codigo de shaders, haciendo que no se parezca en nada, a lo que era originalmente.

En serio, echa un vistazo por ahí, por que veo que no lo has hechado.

Y no, no pido una 9800, pero cualquier 9000 es mejor, y valen lo mismo.
shadow land escribió:hay tarjetas mejores por ese rango de precio.

la calidad gráfica de los shaders no es superior en Ati, si no que realmente lo es en nvidia, solo q como son unos zopencos, tienen q avtivar el modo 16bits, reducir drasticamente la calidad, y de paso, para que vaya MINIMAMENTE fluido, rehacer todo el codigo de shaders, haciendo que no se parezca en nada, a lo que era originalmente.

En serio, echa un vistazo por ahí, por que veo que no lo has hechado.

Y no, no pido una 9800, pero cualquier 9000 es mejor, y valen lo mismo.


Hay tarjetas mejores, de acuerdo. ¿ Cuando he dicho yo lo contrarío ?

Vistazo he echado de sobra, y me he decicido por nVidia gama baja en vez de por ATí aun sabiendo que estas serían una leve mejor opción. Mis razones tengo y no las voy a exponer aqui. De todas formas para gastarme 60 euros en una VGA no me voy a recorrer medio mundo en busca de la opción que me de 5 frames mas en el Far Cry.

Te me vas por los cerros de Ubeda Shadow y no es tan complejo esl asunto.
pues "disfruta" de tu 5200, yo no podría, ni ahora, ni cuando salio al mercado la susodicha.
shadow land escribió:pues "disfruta" de tu 5200, yo no podría, ni ahora, ni cuando salio al mercado la susodicha.


Yo si XD Las consecuencias de jugar con una Voodoo 2 hasta hace unos añitos XD
shadow land escribió:pues "disfruta" de tu 5200, yo no podría, ni ahora, ni cuando salio al mercado la susodicha.


Gracias! ;)

Y no seas tan terco shadow land [beer]
Que yo sepa directX son unas especificaciones, y las FX cumplen las especificaciones del shader model 2.0
Otra cosa es que según qué tarjeta rinda más o menos, pero las especificaciones las cumple así que una FX5200 se considera "directX9"

De hecho DirectX 9 también especifica los shaders 3.0 de las geforce FX6xxx


AL halo en 1024 no juego yo a tope ni con mi fx 5900 XT y un athlon 1800XP sin sufrír algúna "rascada" ... :(
zheo escribió:Que yo sepa directX son unas especificaciones, y las FX cumplen las especificaciones del shader model 2.0
Otra cosa es que según qué tarjeta rinda más o menos, pero las especificaciones las cumple así que una FX5200 se considera "directX9"

De hecho DirectX 9 también especifica los shaders 3.0 de las geforce FX6xxx

Efectivamente, las FX (incluyendo la 5200) soporta por hardware DX9, solo que como siempre hay gama alta, media y baja, y la FX5200 es gama baja, por lo tanto soporta DX9 por hardware pero con un rendimiento bajo.
Los shaders 3.0 los soporta pero creo que solo la version 9.0c que aparecera con el SP2 de WinXP
Y se ve bien, que cojones.

Si bueno si, verse se ven bien todas. También habria que mirar que modelo de fx5200 es..si SE o xt..memorias samsung o hynix...128MB o 256MB. De todas formas lo podeis pintar del color que querais, tal como dice shadowland "para ordenadores de uso ofimatico y poco más". También podeis mirar benchmarks de páginas americanas ..¡Ah, si no salen! Por algo será...


Respecto al video, por fin he conseguido bajarlo y es lo mismo que habia antes pero con algun añadido. Destacar que la ambientación recuerda bastante a peliculas como Alien: el 8º pasajero o Aliens: el regreso... esas camillas de operaciones y cuando esta iluminando con la linterna en las paredes estan calcadas, En otra escena aparece un moustro metido en un contenedor de cristal..parece muerto pero cuando te acercas...ughhh igualito a Aliens que también tenian un bitch para examinar en un contenedor de cristal..http://www.iespana.es/alien2001/graficos/Alien_gra/a02-35.jpg
Esto me parece un acierto, SHOOT-EM-UP+JUEGO DE TERROR.(supongo que habra los mismos sustos que pegan los aliens en las peliculas....

Bueno ya veremos. [babas]
Dr.MUERTE escribió:
Si bueno si, verse se ven bien todas. También habria que mirar que modelo de fx5200 es..si SE o xt..memorias samsung o hynix...128MB o 256MB. De todas formas lo podeis pintar del color que querais, tal como dice shadowland "para ordenadores de uso ofimatico y poco más". También podeis mirar benchmarks de páginas americanas ..¡Ah, si no salen! Por algo será...


Pero que pesados que sóis. ¿ He dicho yo que la FX5200 sea un pepino de tarjeta, el no va mas o la oferta que nadie deje escapar ? NO. Solo he dicho que me he pillado por 60 euros esta vga y estoy la mar de contento con ella por que me rinde muy bien y me ha salido por cuatro duros. Opciones mejores hay, ya lo sé, pero he elegido esta y es mi "problema" (como lo véis vosotros).

A ver si ahora todo el mundo va a tener que comprarse Radeones 9800 Pro o FX5950. Para algo estan las gamas bajas, medias y altas coño.

Y ya que estas tan interesado en la FX5200: 128Mb a 572 Mhz, core a 250 Mhz, AGP8x, DX9, salida DVI y trae disipadores en las memorias y ventilador en el micro. ¿ algo mas ?
Para los muy desesperados han puesto un contador hacia atrás en la pagina de la UAC
http://www.ua-corp.com/
faltan 13 dias 22 horas 45 minutos y bajado xDD
Pues qué quereis que os diga, con la fx5200 mi novia jugaba al PoP y al XIII, por poner un ejemplo, mientras yo me tenía que joder con una geforce normal y no catarlos.
Para echar una partida está bien para el precio que tiene. Incluso si quieres dedicarte a la programación de vjuegos y no tienes mucha pasta, con esa tarjeta puedes tener casi todo lo nuevo de DirectX9 por 50-60 euros, que no está nada mal.
yo estoy hasta los mismisimos ***** de la fx 5200, me la pille el verano pasado y encima genrica ke va cn unos disipadores de plastiko kutre ke no disipa vamos eske no tiene ni nombre y x ejemplo el halo no lo puedo ni rular y le va mejor a un amigo ke tne una gf4mx440 de 64, y asi una larga lista de juegos como el PES 3 yo os recomiendo ke no os la compreis sino os deprimireis.
El disipador dudo que sea de plástico porque sino ahora mismo tendrías una montada en el ordenador que flipas.

prueba a cargar el halo como "halo.exe -use11" o incluso "halo.exe -useff" ambos sin las comillas.

Por otro lado, ¿cómo ve tu amigo de la geforce 4 mx el halo? Dudo mucho que con la calidad de tu tarjeta (cuando pruebes las dos formas de cargarlo que te digo comprenderás)
87 respuestas
1, 2