Opina del rendimiento de BIOSHOCK (importante argumento dentro)

Bueno, he creado un post para hablar del rendimiento del juego en otro forol (el nombre no viene a cuento) y nos hemos topado con esto:


Bueno, visto que hay gente que quiere hablar del juego y otros muchos que también nos interesa hablar del rendimiento del juego creo este hilo con intención de hablar UNICAMENTE DEL RENDIMIENTO DEL JUEGO.

En unos minutos actualizo este post principal para poner unos datos muy curiosos que hemos visto en el rendimiento del juego. Para que os hagais una idea mediante screenshots de una patalla en concreto hemos visto como una 8800ULTRA DUPLICA en fps a una HD2900XT, TRIPLICA a una 8800GTX y CUADRIPLICA el rendimiento de una 8800GTS.

También cabe recalcar que muchos de nosotros notabamos muchísima inestabilidad de fps, tanto podias estar jugando a 110 fps como bajar a 30 por lo que empezaron las pruebas más intensivas.

Esto nos ha llevado a pensar el rendimiento mediocre de los drivers de NVIDIA en sus tarjetas "menores".

En nada actualizo el post con las imágenes y explicando la historia:


A] Todo empezó cuando con mi equipo: C2D 4300 @ 3ghz , 8800GTS 640mb y 2gb de ram ddr2 4-4-4-2 obtenia el siguiente rendimiento:

http://img58.imageshack.us/my.php?image=pruebaparan3dbo4.jpg

B] Luego se habló de que con los nuevos drivers de NVIDIA 163.44 BETA, los cuales, comentaban que aumentaban el rendimiento me topé con esto:

http://img159.imageshack.us/my.php?image=pruebaparan3ddriversbettq2.jpg

C] A partir de ahí a la gente pareció importarle un poco el tema y empezaron a poner imagenes en el mismo punto donde se notaba que la carga en el rendimiento del juego era muy notable por lo que paso a hacer un enlace de todos los que participaron en la prueba:




1. Quantum_Ender --- E4300@2400 ( 300x8 ) / Gigabyte DS3 / 2x1GB 667 / 8800gts 320mb/ Samsung HD501LJ / Seasonic M12 500W / Samsung 940BW / Antec P180 / Scythe Ninja:

http://img502.imageshack.us/my.php?image=bioshock200708212153255fc3.jpg



2. Termigame --- DFI CFX3200-DR \/ 8800 gts 640Mb+Thermalright HR-03 plus (690-2000) /\ Opteron 170@10x290 /\ 2048 ram \/ 2x320Gb-Seagate 7200.10 sata2 raid0+500Gb Samsung sata2 /\ Seasonic 550W \/ X-Fi gamer /\ Samsung 940MW:

http://i21.photobucket.com/albums/b288/termigame/Bioshock2007-08-2122-27-55-51.jpg
http://i21.photobucket.com/albums/b288/termigame/Bioshock2007-08-2122-28-01-71.jpg




3. Makis con Imagen nos mostraba esto:

http://img409.imageshack.us/my.php?image=bioshock200708212330330tl0.jpg
http://img503.imageshack.us/my.php?image=bioshock200708212330350de5.jpg
http://img402.imageshack.us/my.php?image=bioshock200708212330372yh5.jpg


4. Sonysky con Imagen MOSTRABA LO INCREIBLE:


http://img129.imageshack.us/my.php?image=13um8.jpg


5. Metallion --- Asus P5w64 Professional // 2x1 GB Crucial Ballistix // Intel e6600@3600 // Evga e-Gforce 8800 GTS superclocked 640:

http://img235.imageshack.us/my.php?image=metallion1280x1024todoayg9.jpg


ESPERO QUE OS ANIMEIS TODOS A HABLAR SOBRE VUESTRO RENDIMIENTO ;)

PD: ni que decir tiene que todas las pruebas eran con ABSOLUTAMENTE TODO A TOPE y una media de 1280x1024.
shimo está baneado del subforo por "No especificado"
de cuantos megas es la grafica de Jpac23 es que yo tengo una de 256 x1950xt y no se si pueda correrla aside igual como en la imagen mostrada salu2! que mal lo de las gtºs :(
El problema de las GTS viene de largo. En las GTS de 320mb especialmente y sin dejar muy claro si las de 640mb se verian afectadas NVIDIA reconoció que tenian bajones importantes en el framerate.

Luego pongo el link oficial donde lo reconocen.

link: http://www.techpowerup.com/?35196
yo tengo un:

core 2 duo 6420 2.13

2gb ram 533

XFX 8600GT

lo juego todo maximo con la iluminacion global todo, 1440x900 y de verdad q el juego me va muy bien... no le se decir lo de los fps pero si les aseguiro q me va muy bien...

ahhh y actualize con el driver 163.44 [looco]

Edit: instale el programa para ver los fps xDDDDD me va como a 20fps en las partes de [uzi] [enfado1] bueno la verdad no lo notaba jejeje

Saludos [tadoramo]
Claro, para eso esta el post, para que todo el mundo se anime a poner su foto del momento MATA FPS como lo hemos denominado. Eso si, tiene que ser con absolutamente todo a tope y a 1280x1024 minimo
pues no estaría mal hacer mostrar los fps de la gente con cada uno sus configuraciones y así ver mas o menos co nque pcs se puede correr el juego con diferentes filtros activados etc. Lo que tengo quiero saber es que programa utilizais para mostrar los fps de los juegos como aparecen en las capturas, he buscado por google pero no lo he encontrado y es que lo he visto ya en varias screnshots de diferentes juegos.
yio lo pondria pero no puedo jugar con mi X800 :(
Bueno pues os muestro mi prueba:

Intel Core2Duo E6600 @2.40Ghz
Gigabyte GA-945P-S3
(2x)1Gb Kingston 667 DDR2
(2x)HD 250Gb
Acer AL1916W
ATI RADEON Shappire Ultimate x1950 PRO 256Mb
1440x900


Y con todos los detalles al máximo: Big Daddy

El juego me va a una media de unos 35 FPS, a veces llega a 60 (al entrar en la ciudad desde el accidente) y alguna vez se ve a 20 (casi al final de la demo).
Pues yo con el equipo de mi firma jugaba con todo al tope, a veces bajones pero nada para impedir k se juegue :)

No pongo fotos ya que luego me descargue la demo de la 360 [poraki]
y la del ordenata la borre
Intel 4300 1,38 Ghz
2 gigas de RAM
8800 GTX

60 fps estables en todo momento, sin subidas ni bajadas. Se mantiene durante toda la demo. A 1280x1024 con todo al máximo. Curioso porque el Stalker con todo al máximo iba variando: tenía un pico sobre 73, bajaba normalmente a 40 y a veces hasta 29. En cambio, Bioshock va fluido siempre a 60, con algún momento muy puntual que puede bajar a 58 o 55.

PD: por cierto, actualicé los drivers solo acabar de instalar la demo.

Imagen

Imagen
Hola,¿que tal? :

Core2duo 2140 1600 ghz@3000 ghz
Asus P5K
2 gb Kingston DDR2 dual channel 800 mhz
Ati 1950 256mg ddr3 (sin overclock)

Todo a tope,1024x768,fluido y estable como una roca.

Sorprendido estoy con el motor Unreal3,tanto este juego,como el RainbowSixLasVegas,que tambien lo utiliza,me van como la seda con todo a tope,ya se que la carga grafica no sera la misma que en la version del GearsofWar de PC o el UT3,pero igualmente estoy gratamente sorprendido.
Pero bueno,los motores Unreal si por algo son famosos hasta ahora es por su potencial y su buena optimizacion.
Un abrazo gente.
Buenas, stats:
· Intel Core 2 Duo E6600 @ 2.4Ghz
· 2Gb RAM DDR2 Geil Ultra 800Mhz
· Club3D RADEON X1950Pro 256Mb
· ASUS P5W DH 7.1 Dolby / 802.11g
· Powered by Windows Vista Ultimate 32bit

Todo a tope y a 1280x1024. Generalmente me va por encima de los 30FPS con VSync, y mejora si le quito el susodicho.

Sin embargo es cierto que el juego se gripa MUCHO en esa cinemática.
Captura de ese momento concreto con el marcador de FPS:
Imagen

Sin embargo en otras cinemáticas con efectos de blur y depth of field la cosa no es para tanto:
Imagen

Así que el problema debe estar en que el motor no gestiona muy bien la enorme cantidad de polígonos del Big Daddy.

Vamos, digo yo, porque aun con tres o cuatro splicers en pantalla, dos torretas voladoras dando caña por ahí y un escenario bien detallado la cosa no bajaba de esta forma ni de coña. Me refiero a la parte de la demo donde te quedas atrapado en un vestíbulo con acceso a unos WCs donde está una torreta. Que por cierto, lo de hackear las voladoras es la leche [carcajad]
Hola:

Yo tengo un E6600, con 2 Gb de RAM y una ASUS 8800 GTS de 320 Mb.

La demo, con todo al maximo, me ha ido casi todo el tiempo a 55-60 fps, en el famoso momento del mata fps o como se llame xd, me ha bajado a 32, es una bajada considerable pero aun asi, creo que es imperceptible, al menos para mi.

Por otra parte decir, que yo no se si se merece o no un 10, pero personalmente hacia mucho tiempo que un juego/demo no me daba tan buenas sensaciones como este, aunque los graficos no son lo mas importante, ayudan mucho a sumergirte en la magnifica ambientacion que tiene el juego.

P.D: Lo primero que pense al ver el avion estrellarse, y entrar en la torre en mitad del mar con ese tono futurista, fue en la serie de Perdidos. XD.
El problema no es que 30 fps sea jugable. Es que estamos hablando de que una 8800 ULTRA DUPLICA en fps a una HD2900XT, TRIPLICA a una 8800GTX y CUADRUPLICA!!!! a una 8800GTS

Y desde luego una 8800ULTRA electronicamente y fisicamente no es 2xHD2900XT, ni 3x8800GTX y ni mucho menos 4x8800GTS por lo que pasa algo realmente gordo.
Vamos a entrar en el trapo con la configuración más penosa de todas xD

CPU: AMD Athlon XP 2400+ @ 2Ghz
GPU: XFX nVidia GeForce 6800 GS/XT (Drivers beta)
RAM: 512MB

Resultado: 15 FPS
Imagen

Salvo algunos sitios donde tengo algún que otro paron (por la falta de RAM seguramente), mis FPS oscilan entre 10 y 20, y aun así no estoy seguro de que realmente esas cifras sean correctas, pues lo noto demasiado fluido para esa velocidad.

¿No hay ninguna opcion que se pueda meter en los .INI para que sea el propio juego quien muestre los FPS?
KailKatarn escribió:El problema no es que 30 fps sea jugable. Es que estamos hablando de que una 8800 ULTRA DUPLICA en fps a una HD2900XT, TRIPLICA a una 8800GTX y CUADRUPLICA!!!! a una 8800GTS

Y desde luego una 8800ULTRA electronicamente y fisicamente no es 2xHD2900XT, ni 3x8800GTX y ni mucho menos 4x8800GTS por lo que pasa algo realmente gordo.


Bueno, no sé yo si te fallan las matemáticas, pero si 123 es triplicar a 60... Que yo sepa, según mis datos, en todo caso la 8800 ULTRA duplicaría la 8800 GTX, no la triplicaría. Y sea como sea, te estás centrando en comparar un momento donde los fps caen ligeramente. Y como ya he dicho, me baja como mucho a 55 y un segundo, ni se nota, y a 60 todo el juego pues va muy fluído y de perlas. A mí parecer algunos os coméis la olla en exceso. En la 360 va a unos 30 fps estables y se juega bien.
De momento no se conoce opción en el ini que muestre los FPS , lo que si te puedo decir johan es que has sacado la foto demasiado lejos como para ver al big daddy completamente cerca como han hecho el resto de usuarios.

Has de pegarte lo maximo posible a él. Un saludo.

Thorin_saeba, el usuario de la GTX sacó la foto más o menos como johan y ha publicado una nueva dándole 47fps. Luego más tarde actualizaré el post principal para que lo veas.
J0han escribió:Salvo algunos sitios donde tengo algún que otro paron (por la falta de RAM seguramente), mis FPS oscilan entre 10 y 20, y aun así no estoy seguro de que realmente esas cifras sean correctas, pues lo noto demasiado fluido para esa velocidad.


Mejor que vaya fluído porque no aspiro a llegar a mucho más de 20 xDD.

Pero, J0han, ¿juegas con todo al máximo en ese PC y te va constante a 10-20 fps? Porque la verdad me parece muy bien. Yo no necesito jugar al máximo, si con la 7900 GO y los 2gb de ram puero sacar 40fps con algunas opciones a medio me parecerá un trabajo más que aceptable.

Al fin y al cabo no es un juego que sólo me llame la atención por sus gráficos.
A mi me va a unos 40-50 fps constantes salvo picos que baja a 25-30 como en las escenas que se han comentado.

Mi equipo es un:
AMD 3700+ (San Diego)
1 gb Ram OCZ
Ati x1950PRO de 256mbs (con los catalyst 7.8)
Raid 0

Resolución a 1280x1024 y todo a tope.

Pongo unas fotos:

Imagen

Imagen
me podeis pasar link para bajar la demo? gracias!
jaumecgr escribió:me podeis pasar link para bajar la demo? gracias!

En el Hilo Oficial Bioshock han puesto un par de link en DD y otro par en torrent.
Yo juego a 1920x1200 con el ordenador de mi firma y va a una media de 30fps--25fps mas o menos...
Lo que me extraña esque no usa los 4 cores al tope...a lo mejor usa uno al 60%, otro al 40%, y los otros 2 al 10%.

Saludos!
Con este equipo:

CD2 E6600 2,4 @ 3,2 - 2x DDR2 800 - OCZ NVIDIA 8800 GTX (sin overclock)




Imagen Imagen Imagen


Todo a tope a la resolucion que habeis comentado.


P.D.: Decir que el de la 8800 ultra, la tiene overclocked a 675 y 2300, por tanto ese resultado un tanto exagerado es normal XD
Yo juego con un spectrum 48, la version casette y no llego ni a un 1fps... (no te digo). Anda que realizar un post para valorar el rendimiento de un juego UNICAMENTE en ordenadores de ultima generación... xD.
KailKatarn, te he visto en un par de foros, y sin ánimo de ofender (en absoluto), pero te veo un pelín obsesionado con el rendimiento, ¿no?
lugal a ti te va bien el juego xDDD a ver a mi ara qe ta bajandose xD
KailKatarn escribió:Thorin_saeba, el usuario de la GTX sacó la foto más o menos como johan y ha publicado una nueva dándole 47fps. Luego más tarde actualizaré el post principal para que lo veas.


Si no te digo que no, pero el caso es que esa bajada es de una milésima. Me explico, ocurre solo en esa escena concreta con el Big Daddy y ni lo notas, a no ser que tengas puesto el frap y te dediques a mirarlo, claro. Pero ese ínfimo bajón no afecta al rendimiento del juego, no lo hace injugable, por lo tanto yo no encuentro que signifique un problema. El resto de la demo va muy fluída con la 8800 GTX como ya te indiqué, por lo tanto no creo que se deba preocupar uno por una bajada semejante.
Claro que, a mí parecer con 30 fps ya se juega bien. Entiendo que hay gente, que vete a saber por qué razones (escapan de mi comprensión :p), es incapaz de jugar si no tiene una fluidez pasmosa, véase de 60 fps para arriba. Y lo que estoy viendo es que gente con tarjetas que no son lo máximo, juegan decentemente, con lo cual para mí ya es un éxito. De todos modos, el juego debería estar optimizado de forma que también pudieran jugar los que no tienen pixel shader 3.0 (véase las maravillosas 800 y 850 de ati, buenas tarjetas abandonadas por ese tema). Un juego debería ser rescalable, adaptado a los distintos pcs.
El problema, está claro, es que hablamos de juegos diseñados para consola. Por ese motivo se programan bajo unas directivas de un hardware cerrado, que luego obligan al usuario de pc a tener un equipo mínimo similar al de esa consola, ya que el juego se construyó según esos requerimientos. Lo cual, a la larga, es negativo para los usuarios de compatibles, que se ven constreñidos por las consolas "de nueva generación". De todas formas, en cosa de un año y medio, o incluso menos, el pc volverá a regirse por él mismo ya que el hardware de dichas consolas empezará a quedar obsoleto (aunque los juegos programados para estas estarán aún mejor optimizados y seguirán dando alguna que otra alegría).

Sobre que este post se está haciendo a base de valoraciones de equipos punteros, lo cierto es que es en parte cierto y en parte criticable. Sin embargo, como ya he indicado, estos juegos "multiplataformas" significan un lastre que nos obliga a tener tarjetas equiparables o superiores a las que llevan Xbox360 y Ps3. La conclusión es, si Bioshock se hubiera programado pensando en el mundo de los pcs, ¿el rendimiento y la compatibilidad sería mayor? Yo pienso que sí, y lo digo rotundamente.
Sobre que este post se está haciendo a base de valoraciones de equipos punteros, lo cierto es que es en parte cierto y en parte criticable. Sin embargo, como ya he indicado, estos juegos "multiplataformas" significan un lastre que nos obliga a tener tarjetas equiparables o superiores a las que llevan Xbox360 y Ps3. La conclusión es, si Bioshock se hubiera programado pensando en el mundo de los pcs, ¿el rendimiento y la compatibilidad sería mayor? Yo pienso que sí, y lo digo rotundamente.


El UE3.0 es un engine totalmente multiplataforma, al igual que lo fue el UE2.0, así que lo que comentas es extrapolable a un número mucho mayor de juegos.

Yo no creo que un engine multiplataforma tenga que rendir necesariamente peor, porque casi todas las optimizaciones propias de la plataforma o vienen ya gracias al middleware (mayoría de casos) o se programan from scratch (minoría marginal). Es una filosofía de diseño distinta.
Reijiko escribió:Pero, J0han, ¿juegas con todo al máximo en ese PC y te va constante a 10-20 fps? Porque la verdad me parece muy bien. Yo no necesito jugar al máximo, si con la 7900 GO y los 2gb de ram puero sacar 40fps con algunas opciones a medio me parecerá un trabajo más que aceptable.


Hombre, constante a esa resolución (1280x1024) no, pero a 1024x768 es más estable. Aun así, dado que se trata de un juego de "sustos" y "sorpresas", no vale la pena pues cada vez que va a pasar algo los FPS caen en picado durante un momento, lo cual se carga la ambientación.
Bioshock NO usa el UE 3, sino una versión muy modificada del UE 2.5.

Aclaro este dato que veo que mucha gente desconoce.
ya tengo la demo ahora la juego un poco y os muestro imagenes, una cosa, esta muy lejos la zona esa donde bajan las frames?

EDITO: AYUDA TENGO EL VISTA y ME BAJE EL JUEGO VIA STEAM PERO ME SE ME QUEDA LA PANTALLA EN NEGRO Y YA ESTA.... y CUANDO LE DOY A ALGUNA TECLA SE ME SALE AL MENU :S [noop]
La zona donde bajan los frames esta mas o menos a los 20min de empezar la demo.

Yo tengo el Vista y no he tenido ningun problema, no se, prueba a actualizar los drivers de la grafica
shimo está baneado del subforo por "No especificado"
el bioshock usa el UE 3.0 no el 2.5 imbecil -.- por cierto cuando bajan en picada esos fps se nota el bajon o sigue igual es decir si se pierde rendimiento como muchos dicen que no.. salu2
que yo sepa tenia los ultimos drivers o han sacado algo en lo qe va de mes?

por cierto friko te lo bajaste via steam?
NeoDecoy escribió:Bioshock NO usa el UE 3, sino una versión muy modificada del UE 2.5.

Aclaro este dato que veo que mucha gente desconoce.


Te equivocas. En principio el juego iba a usar una versión mejorada del Vengeance engine (empleado en SWAT 4 y Tribes: Vengeance), que es a su vez una versión modificada del UE2.5, pero en una entrevista en el E3 06 Levine confirmó que el desarrollo del juego se había traspasado al UE3.0, conservando algunas modificaciones que ellos habían hecho al Vengeance engine.
jaumecgr escribió:que yo sepa tenia los ultimos drivers o han sacado algo en lo qe va de mes?

por cierto friko te lo bajaste via steam?

No, me lo bajé de un .torrent que pusieron en el Hilo Oficial del Bioshock, concretamente ESTE
shimo,no hace falta que llames imbecil a nadie,¿ok?.

Yo tambien he leido que la base del motor grafico es el UE3,pero que ellos(Irrational Games),han modificado y personalizado el engine segun sus necesidades.
Salu2 gente.
No pone cuando carga el juego UE3 o estoy flipando??

xDDDDDDDDDD

A mi con los drivers oficiales creo recordar 17fps en la zona del big daddy con el equipo de la firma, no he probado con los beta, esperaré a la versión final del juego y/o unos drivers oficiales con la mejora.

salu2.
Yo tengo.

Procesador : 3,4 Ghz
Ram : 2 Gb DDR2
Grafica: ati x1950xt ddr4 512 mb.

Las opciones todas al máximo menos una, que no se cual es ahora mismo ( aparte de la de DX10 ).

60 fps estables, menos cuando se cae avión que me pega un bajón a 27 y vuele a 60 oO
shimo escribió:el bioshock usa el UE 3.0 no el 2.5 imbecil -.- por cierto cuando bajan en picada esos fps se nota el bajon o sigue igual es decir si se pierde rendimiento como muchos dicen que no.. salu2


Sin insultar.
dual core e 6600
2 gb ddr2
ati x1950xtx 512

Todo activado, fluye de maravilla, no he mirado mis fps pero no he sufrido ninguna caida apreciable a la vista.
AMD Dual core 3800
Ati x1600 256
2g

Me va todo a tope, menos dx10, y otra cosa más k no recuerdo.

Se ve de estupendo, y no tengo bajones de ningun tipo, aunke luego el juego no me gusta xD , esta super bien optimizado. Creo k para la mier.. de targeta que tengo me va de pu.. ma...

Un saludo.
Ati x1600 256 LOLAZO PERO LOLAZO....con esa grafica y te va bien todo a tope..pero que lolazo

este juego pide SM 3 no?
new_tokyo está baneado por "insultos"
Una pregunta, si alguno ha probado la demo en PC y en 360, ¿cual creeis que es mejor?, ¿o son los dos por el estilo?, gracias..... me refiero a graficos, jugabilidad esta claro que es mejor en PC......
Mi pc.

dual core 2,17 mhz

2gb de ram

2 tarjetas de video ati x1950 con 512 ram

Monitor panoramico Lg 19 pulgadas


Me va perfecto con todo a tope y a una resolucion de 1440 x 900 ni un paron los fps ya no se a cuanto ira la cosa

un saludo!
helldrunk666 seria interesante que lo pusieras, los frames serias el primero que haciendo crossfire aportaria la experiencia ;)
shimo escribió:el bioshock usa el UE 3.0 no el 2.5 imbecil -.-


Tras leer en varios foros exactamente lo mismo, que usaba una versión muy modificada del UE 2.5, he venido a aportar el dato, sin ningún tipo de malas intenciones, por el simple hecho de aportar información, cosa que podría no haber hecho y haberme ahorrado varios minutos de mi vida para otros menesteres, ¿El que me haya equivocado te da derecho a insultarme? ¿O acaso he salido defectuoso y al contrario que tú puedo equivocarme?

Pues no.

Todos nos equivocamos, todos nos hemos equivocado alguna vez. Si el cometer un error te convierte en un imbécil, estás llamando a todos y cada uno de los seres humanos, incluyéndote a ti, imbéciles.

Pero, personalmente, creo que tú lo eres un poco mas que el resto, sin ánimo de ofender, por supuesto. :)
agentejandro009 escribió:helldrunk666 seria interesante que lo pusieras, los frames serias el primero que haciendo crossfire aportaria la experiencia smile_;)


Pues si me decis como tengo q hacerlo yo lo hago encantando y lo mismo para hacer capturas del juego y os lo muestro

un saludo!
74 respuestas
1, 2