Half Life 2 seria injugable en muchas placas nVidia

Segun pude leer en TR, Valve acaba de anunciar que HL2 seria injugable en las FX5200Ultra y FX5600Ultra y que la FX5900Ultra podria llevar el juego a tan solo 30FPS

A partir de un analisis se comprobo que la ATI 9600PRO superaria a la FX5900Ultra por casi 20FPS, y la 9800PRO directamente duplicaria a la FX5900Ultra. Todo esto se debe a los problemas que tienen las NV3x al correr bajo DX9, donde las ATI les llevan ventaja. Los testeos fueron hechos a 1024X768 a 32bit color sin Antialissing y con trilinear filtering standar.

Valve estubo trabajando con nVidia para solucionar el problema con un codigo llamado "mixed match" el cual llevaria la perfomance mas adelante: la 5900Ultra ahora correria el HL2 a 50FPS (solo 10 detras de la 9800PRO) pero a pesar de eso sigue siendo injugable en las FX5200Ultra y FX5600Ultra. Igual Valve dice que estas optimizaciones requieren mucho esfuerzo y gastos adicionales que ellos si pudieron afrontar pero que serian imposibles para developers mas pequeños.

Para que los usuarios de esas 2 placas no se queden afuera se esta pensando hacer correr el HL2 en DX8, aunque eso significaria que muchos efectos graficos se perderian. Lo curioso es que despues de testear el juego en DX8, la GF4 Ti4600 le gano por casi 20FPS a la FX5600Ultra y quedo a algo asi como 7FPS de la FX5900Ultra. Cabe destacar que a pesar de ir en DX8, el HL2 en las FX5200Ultra y FX5600Ultra no va a poder llegar a 30FPS.

Al final los NV3x han sido un dolor desde que nVidia los saco al mercado. Como sera que Valve dijo que optimizar el HL2 para el "mixed match" le ha costado 5 veces mas lo que fue optimizar el juego mismo en DX9. Segun ellos, solo se tomaron el trabajo de hacer esa optimizacion debido a que muchisimos de sus usuarios usan placas nVidia, total los que usan ATI no lo necesitaban.

Algunos ya estan acusando a Valve debido a su trato con ATI para distribuir HL2 con sus placas, pero al parecer este no es el caso, y es incluso nVidia la que esta jugando sucio al no revelar las configuraciones internas de los chips NV3x. Solo resta esperar a que salga el juego y verlo en persona. Todavia esta la esperanza de que nuevos drivers mejoren la situacion, pero no esperen milagros.
a mi me suena a lio de faldas de Valve con ATi...
goto escribió:a mi me suena a lio de faldas de Valve con ATi...


¿por que?

¿por que haya ingenieros deATI en el equipo de desarrollo del juego?
¿por la presentación del "lanzamiento" de hace un año la hicieron
en conjunción con ATI?

Que pronto se pica la gente.

Por cierto dicen como ira con la serie 6 (las Geforce 6800)
Entonces de jugarlo con mi 4200ti me olvido no?
y com mi gforce3 ti500 winfast? xDDDDDDDDD
¿cómo lo habrá hecho Carmack y su equipo con el DOOM3 que lo optimizaron para ambas tarjetas? [poraki] [poraki]
me parece ¡vergonzoso! este juego, solo por lo que se ha retrasado, la tomadura de pelo de sus precios, la "guerra" que están provocando entre los usuarios de ATI y NVIDIA, lo único que se merece es que se vaya al garete y que sea uno de esos grandes fiascos. Espero que lo compre poquísima gene, es más, que ni siquiera se lo bajase la peña de donde todos sabemos!!!

¡como me jode este tipo de historias! ahhhhgggggg!!!!

[uzi] VALVE

Salu2.
zheo escribió:¿cómo lo habrá hecho Carmack y su equipo con el DOOM3 que lo optimizaron para ambas tarjetas? [poraki] [poraki]

Dios usa OpenGL siempre, donde supuestamente las nVidia dan mejor rendimiento que las ATI

PD: no hace falta que diga quien es Dios, no? xDD
Pero eso es un "comunicado oficial" o tan solo uno de los cientos de rumores que purulan por foros y webs de internet? Firma alguien del equipo de desarrollo tales afirmaciones? No creo que, aunque ATI haya soltado una pasta a los de Valve para que en sus tarjetas vaya mejor, signifique que Nvidia vaya a mover el juego en su gama alta como una Ati de gama Media-Baja... vamos, no tendría sentido y podría reducir drasticamente las ventas del juego.
Recordad hermanos: Las Direct X las trae el Diablo... [666]
De verdad que es una pena.
Tenia muchas ganas de jugar a este juego pero como
tengo una 5900 XT tendre que dejarlo correr.

La verdad es que los de Valve cada vez me tocan las
nasrices, primero tanto en su página como en la de aTI
sale que HL2 esta optimizado para las ATI 9x00
despues nos hacen un "CHOU de lanzamiento" junto con ATI
donde dicen que va mejor con las ATI por casualidad
por que no esta optimizado para nignuna tarjeta y que lo regalaran con
las XT y luego nos salen con la trola del robo (sigo sin entender como
un robo puede retrasar un año el desarrollo de un juego)

En fin que no tienen la más minima crediblidad, sencillamente
lamentabla.

Lo dicho una verdadera pena por que me encanto el HL y
estaba esperando HL2
Ya, pero los shaders se escriben de una manera independiente de la API y eso es lo que más hay que optimizar para cada tarjeta
mientras ke vaya de puta madre en minimos y en 640x480 con mi super geforce 4 440mx no abra problema [beer] :Ð
Ahora es cuando de verdad me alegro de haberme cambiado a ATI, con mi 9800pro va a ir de lujo, al igual que el doom3 , pero espero con muchísimas más ganas el HL2.
Vaquero escribió:Ahora es cuando de verdad me alegro de haberme cambiado a ATI, con mi 9800pro va a ir de lujo, al igual que el doom3 , pero espero con muchísimas más ganas el HL2.


Ya somos dos, yo me pase a una Radeon 9600 (hace tiempo) y pienso mover el HL 2 y el Doom 3 sin despeinarme xDD

Xcierto os molesta qponga qel HL 2 esta optimizado para las Radeon 9x00 y demas, y digo yo, instalo el Hitman 3 y me sale un bonito logo qpone optimizado para tarj Nvidia, y pones el Thief 3 y el mismo logo y pones el... y mismo logo... y Doom 3 qva a estar optimizado para las Nvidia, casulamente usa OpenGL justamente donde mejor se mueven las Nvidias y peor las ATIs (aunq van a tirar bien), solo yo me doy cuenta de qesto es un Nvidia Vs ATI y estan buscando aliados :P


PD: Con una GF 6800, se movera a 30ftps!?? xDDDDDDDD
Con una 6800 GT (para Agosto caerá... je je je) espero poder jugar al Half-Life 2 en 640x480 con todo al mínimo por lo menos a 32 Frames... Si al final resultará que el juego se moverá mejor con mi querida 9600XT que con la futura 6800GT... vivir para ver... lo próximo será el DoomIII verlo mejor con mi más antigua Gforce4 mx que con la 9600XT... Señores... bienvenidos a la involución!!!!
Me parece muy triste hasta donde esta llegando esto del negocio de las tarjetas gráficas, ya no vale con que tengamos que actualizar de gráfica cada seis meses (mi Radeon 9600 Pro parece que estará para el arrastre cuando llegue el Doom 3), sino que parece que a partir de ahora tendremos que comprarnos dos tarjetas una de ATI y otra de NVIDIA para poder disfrutar de todos los juegos...

Señores, una cosa es querer hacer negocio, pero un poco de cordura por favor!!!
LAS gf 4 ti siguen dando guerra xDDDDDD
No os creáis nada, cuando lo veáis entonces habláis [barret]
ES SOLO UN RUMOR.

Valve no ha dicho nada de que sea injugable en graficas nvidia.

Parece mentira que la gente se crea estas tonterias cuando un juego de estas alturas tiene que ir optimizado para multitud de equipos.
Hay que ver la discusion que se lia por algo que es mas falso....

NADA MAS TENEIS QUE JUGAR A LAS BETAS DEL DOOM3 CON TARJETAS NVIDIA --> Y VAN DE PM!

lo q tmb digo que los q tenies un gf4mx, gf3 , 5200 o parecidas como no jugueis al minimo, aun asi ni con esas creo xq visto lo visto nada mas teneis que ver far cry , PoP o parecidos.
Como bien dice pirateo, aún es prnto, pero de todas formas, que DooM3 funcione con Nvidia no significa que los demas tambien, por que son motores diferentes
pirateo escribió:ES SOLO UN RUMOR.


Nope, es cierto, lo anunciaron Valve y nVidia en conjunto


Harl escribió:Que pronto se pica la gente.


Posta, siempre se busca a un culpable.....


Zenthorn escribió:No creo que, aunque ATI haya soltado una pasta a los de Valve para que en sus tarjetas vaya mejor, signifique que Nvidia vaya a mover el juego en su gama alta como una Ati de gama Media-Baja... vamos, no tendría sentido y podría reducir drasticamente las ventas del juego.


No es joda, de hecho los de Valve trabajaron bastante para hacer el mixed match, pero igual la cosa va a andar lenta

Tomen en cuenta que estos testeos son hecho a 1024X768 con todos los efectos activados pero sin antialias. Si le bajas a 640X480 en una 5600 talvez te ande.


Harl escribió:Por cierto dicen como ira con la serie 6 (las Geforce 6800)


Al parecer el juego no tiene problema alguno con las NV4x. Habra quever como anda en la 6800 contra la X800
Pues si eso es verdad me da a mi que los grandes bombazos para PC de este año voy a tener que ignorarlos. NO pienso cambiarme la gráfica por un juego, y es una pena porque de ser cierto esto yo apostaba más por HL2 que no por Doom3, pero mira, si quieren guerras de marcas, la van a tener, soy usuario (hasta nueva orden) de una tarjeta de marca nVidia, si no quieren optimizar el juego para mi chipset pues directamente, una venta que pierden, y espero que sean más

(Diría lo mismo si fuera al revés (el juego no estuviera optimizado para una ATI y esta fuera mi tarjeta))

Saludos [bye]
Lo que tiene que hacer Valve entonces es aprender a programar y dejarse de mamonadas que tienen mas cara que espalda.
pos a mi con una fx5200 me va de puta madre el farcry (vale que tengo 1 giga de ram), y supongo que el doom3 tambien me vaya bien, ahora que el hl2 no me importa tanto, pero me joderia no poder jugar. Y ojo que he dicho jugar, no activar al AAx8 ni chuminadas por el estilo.
yo mno me creo eso.... y mas ke nada porke decian tambien ke en el far cry una 9600 xt corria el juego a nivel medio a unos 40-35 fps y ke la 5900 lo corria a 30 fps cuando yo tengo la 5900 y corro el juego al maximo a 60 fps sin ralentizaciones aunke creo ke el athlon 64 y el giga ddr 400 kinston ara algo .
Pues si con mi 4200ti no puedo jugar, no jugaré pero nunca, repito nunca volvere a comprarme una ati. Jugaré en la xbox y a tomar por saco. [amor] quien tuviera para una 6800...
Bah, yo creo que esto son tonterías. Estoy seguro de que podré jugar perfectamente al juego con mi Ti4200 64mb y con un detalle más que decente (no como el Far Cry, que lo tuve que dejar porque jugarlo en según que condiciones no me vale la pena...). Valve tampoco se arriesgará a que el juego vaya de culo en las Geforce cuando seguramente copen más del 50% de mercado de los jugones.

Curiosamente nunca he oido decir a nadie que nunca más va a comprar una Nvidia porqué Doom III esté optimizado para ellas y no para ATI, por qué aquí si? Si hay alguien especialista en untar a desarrolladores (para meter su logo en el juego por lo menos) esa es Nvidia, así que no veo donde está el escándalo.

Esperemos a que salga y luego juzguemos ;).

Salu2.
Totalmente cierto, Nvidia es pionera en eso de "sobornar" a desarrolladores para que optimicen los juegos para sus tarjetas... y es normal que Valve siga en esa dinamica.
Por cierto que ya han salido los primeros benchmarks de la version Gold del D3 y nos dan la razon totalmente: las ATI pierden de lejos contra las Nvidia, aun asi no al extremo de ser injugable ni mucho menos como pasa (dicen) en el HL2... aunque yo creo que la culpa es que uno desarrolla para Dx (una cagada de M$ a mi modo de ver) y el otro para Opengl (una API mucho mas veterana, y ademas libre). En fin, el resultado es el mismo: intentan crear mercados cautivos y no tengo muy claro que podemos hacer los usuarios de a pie para impedirlo...

Por cierto: Benchmark Doom3 Gold
Pues si con mi 4200ti no puedo jugar, no jugaré pero nunca, repito nunca volvere a comprarme una ati. Jugaré en la xbox y a tomar por saco. quien tuviera para una 6800...



A DX8 talvez te ande, de todas maneras esa placa te iba a andar mas o menos cuando juegases el Doom3
¿DirectX una cagada de Microsoft? [qmparto] [qmparto] [qmparto] [qmparto]

¿Y entonces por qué las ATI van voladas en el Half-life 2? Que pasa que ahí ya no es cagada? :P :P :P

Que no te ciegue la pasión que DirectX es mucho más que OpenGL (sólo es apartado gráfico) y es una ayuda que te cagas. ¿O te crees que doom3 no va a utilizar componentes DirectX ? DirectX ha mejorado mucho en las últimas versiones.

Anda que ya podría existir para linux algo como DirectX y tener todo cenctralizado para programar videojuegos. :(

Y el hecho de que las NVIDIA vayan mejor que las ATI en OpenGL es cuestión de drivers, no una conspiración de NVIDIA
zheo escribió:¿DirectX una cagada de Microsoft? [qmparto] [qmparto] [qmparto] [qmparto]

Efectivamente precisamente las DirectX quizas sea lo mejor que haya hecho Microsoft. El unico problema es que sigue la politica de Microsoft de funcionar solo en Windows... si rulara en Linux... a tomar por culo Windows xDDD
zheo escribió:Que no te ciegue la pasión que DirectX es mucho más que OpenGL (sólo es apartado gráfico) y es una ayuda que te cagas. ¿O te crees que doom3 no va a utilizar componentes DirectX ? DirectX ha mejorado mucho en las últimas versiones.
Anda que ya podría existir para linux algo como DirectX y tener todo cenctralizado para programar videojuegos. :(

No creo que ese sea el punto flaco de OpenGL ya que son API's distintas, una solo para programacion grafica y la otra es un conjunto de API's, no son comparables (obviamente) en ese aspecto. Pero si pillamos DirectGraphics (el antiguo D3D) y OGL, la ventaja de DX es que se va actualizando en cada version adaptandose a las nuevas tecnologias, mientras que en OGL tienes que echar mano de extensiones ya que OGL no lo trae todo 'de serie'. Por el tema de no tener API's como DirectInput o DirectSound pues... segun dicen las hay mejores en software libre como FMOD para la musica (creo que es software libre O_o).
Y eso de que Doom3 va a utilizar componentes de DirectX?? Ahi has metido la pata :P A ver sino como explicas que vaya a salir una version en Linux y otra en MaxOS... Carmack siempre ha trabajado con OGL (no se por que, pero se agradece, sobre todo los Linuxeros :P) y no necesita DX para nada, quizas te haya confundido haber oido que usara Pixel y Vertex Shaders que son mas conocidos gracias a DX ya que en OGL se llaman Fragment Programs. Y ya no me enrollo mas
Un saludo!!
Sagitario escribió:Efectivamente precisamente las DirectX quizas sea lo mejor que haya hecho Microsoft. El unico problema es que sigue la politica de Microsoft de funcionar solo en Windows... si rulara en Linux... a tomar por culo Windows xDDD



Y digo yo, no se podria pasar el DX? ya se que seria un trabajo enorme, pero se podrian hacer correr cientos de juegos en Linux
Eso seria el batacazo que hundiria a Windows.
Componentes DirectX no me refiero a DirectGraphics, sino a cosas tan simples como DirectInput que es muy muy fácil de usar y no sabes el percal que te ahorra en periféricos ;)

Sino, ¿ porque los juegos de ID requieren que instales DirectX? ;)

Ah, Carmack siempre ha trabajado con OpenGL porque le parecía mejor que el D3D, y no le falta razón, ya que en sus primeras versiones era infumable aunque ha reconocido que ha mejorado mucho en sus últimas versiones (léase 8.0 y más concretamente 9.0). Supongo que ahora es simplemente que está acostumbrado ;)
BloodStained escribió:Totalmente cierto, Nvidia es pionera en eso de "sobornar" a desarrolladores para que optimicen los juegos para sus tarjetas... y es normal que Valve siga en esa dinamica.
Por cierto que ya han salido los primeros benchmarks de la version Gold del D3 y nos dan la razon totalmente: las ATI pierden de lejos contra las Nvidia, aun asi no al extremo de ser injugable ni mucho menos como pasa (dicen) en el HL2... aunque yo creo que la culpa es que uno desarrolla para Dx (una cagada de M$ a mi modo de ver) y el otro para Opengl (una API mucho mas veterana, y ademas libre). En fin, el resultado es el mismo: intentan crear mercados cautivos y no tengo muy claro que podemos hacer los usuarios de a pie para impedirlo...

Por cierto: Benchmark Doom3 Gold


Si Nvidia es experta en colgar el logo de Nvida "The Way it's mean to be palyed"
pero como tu muy bien dices la diferencia no es tan brutal como en HL2
(alguno juegos con el susodicho logo van mejor en ATI)
JUANI RULES escribió:


Y digo yo, no se podria pasar el DX? ya se que seria un trabajo enorme, pero se podrian hacer correr cientos de juegos en Linux

Hay intentos de port's como el WineX, pero el problema es que se hacen a ciegas, es decir, que al no disponer del codigo fuente de DX (que es donde radica el problema de todo) tienen que hacer muchas pruebas y los resultados no son exactamente iguales que en D3D y por eso la compatibilidad con WineX es relativamente pequeña. Lo mismo pasa con Wine (emulador de aplicaciones de Windows, aunque el nombre signifique WINE Is Not an Emulator xDD, un acronimo recursivo de los que estan tan de modo jejeje), hacen un port de las DLL's de Windows a ciegas, y no se le puede pedir mucho :(
37 respuestas (puedes valorarlas con el botón +1)