Ubisoft culpa a AMD del rendimiento de Assassin’s Creed Unity

1, 2, 3
Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja tirando a media prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.

Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios XD

Y vuelvo a poner el video por si no lo has visto:
http://youtu.be/lQzLU4HWw2U

Eso no es problema de COD AW, ni de los drivers de NVIDIA que hayan solucionado hace poco. Eso es problema único y exclusivo de la implementación DX11 en los drivers de AMD, y no solo pasará con el COD.
josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.

Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios XD


No gano nada, ni pretendo ganar nada, pero tampoco no se que ganas tu entrando sin argumentos a que los drivers de AMD son una basura, yo tengo un FX8320 con muy poco overclock hasta los 4,4 con una 7950 y un X3 con una 460 y hasta ahora no he tenido problemas con ninguna de las dos plataformas, mas alla de los numerosos bugs de algun juego en concreto y de alguna solucion via drivers que ha aparecido poco despues del lanzamiento para cosas que SI eran culpa de los drivers.

Desde hace bastantes versiones el microstuttering ha desaparecido practicamente y la suavidad en muchos juegos se deja notar para ser una humilde 7950 que ni siquiera tengo overclockeada y te digo lo mismo que a wwwendigo, cambiaria antes de CPU en busca de un IPC mayor por nucleo que de GPU por esos supuestos problemas de drivers tan dramáticos de los que hablas y como yo hay muchísima gente que es usuaria de GPU AMD que no encuentra esos problemas de los que tanto se hablan.

Es que básicamente, si me diera problemas realmente, me desharía de mi 7950 y me compraría una NVIDIA.
Dfx escribió:
josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.

Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios XD


No gano nada, ni pretendo ganar nada, pero tampoco no se que ganas tu entrando sin argumentos a que los drivers de AMD son una basura, yo tengo un FX8320 con muy poco overclock hasta los 4,4 con una 7950 y un X3 con una 460 y hasta ahora no he tenido problemas con ninguna de las dos plataformas, mas alla de los numerosos bugs de algun juego en concreto y de alguna solucion via drivers que ha aparecido poco despues del lanzamiento para cosas que SI eran culpa de los drivers.

Desde hace bastantes versiones el microstuttering ha desaparecido practicamente y la suavidad en muchos juegos se deja notar para ser una humilde 7950 que ni siquiera tengo overclockeada y te digo lo mismo que a wwwendigo, cambiaria antes de CPU en busca de un IPC mayor por nucleo que de GPU por esos supuestos problemas de drivers tan dramáticos de los que hablas y como yo hay muchísima gente que es usuaria de GPU AMD que no encuentra esos problemas de los que tanto se hablan.

Es que básicamente, si me diera problemas realmente, me desharía de mi 7950 y me compraría una NVIDIA.


Se te está diciendo por activa y pasiva que el problema con el driver DX11 es uno de CPU, no de la gpu.

La gráfica no tiene ningún problema, siempre y cuando tenga una cpu suficientemente rápida por core para atender el número de llamadas del API. Eso es lo "normal" en la mayoría de juegos. Pero hay juegos como Unity que se pasan dos pueblos en este punto concreto, llamadas al API (drawcalls). Esto está citado además como un hecho y palabras propias de los implicados, no sólo es que yo apuntara por mis comentarios que las declaraciones de Ubi respecto a AMD apuntaban a esto.

Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.

En situaciones extremas es cuando se puede apreciar esto. Prueba a pasar el benchmark de Civ-beyond earth y registra medios y mínimos, y después hablamos. No es una situación normal del juego, pero sí una situación donde además de la mano de AMD, se expone cómo la calidad del driver/API, que corren en las cpus no en las gpus, puede influir tanto al rendimiento.

Insisto, el problema es el driver de AMD, no su hardware. Y la combinación AMD+AMD en casos como Unity, que son casos raros pero se irán haciendo más frecuentes. Si AMD se decide a aplicar las mejoras, bienvenidas sean, pero parece más interesada en dar soporte a Mantle.

Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.

Y cuidado con despreciar a linux, porque además de tener una importancia vital en mercados clave, como el de servidores, a AMD le hace falta para sus futuros SoCs ARM con gpu GCN el crear un driver OpenGL para Android decente. Y eso es básicamente lo mismo que hacer el driver OpenGL para linux, ya que el núcleo de uno está basado en el otro. El modelo de driver y la forma de funcionar es similar.

Si quieres vender SoCs, y presumir de GCN en éstos, lo primero es crear un driver opengl y para linux decente, porque es la antesala par un driverpara android y el SoC ARM de AMD. No desprecies a la plataforma mayoritaria a día de hoy tan alegremente. Aunque AMD aún no tenga mercado ahí.


PD: Me hace coña que compares un rumor infundado y esencialmente ignorante, como el del "driver matatarjetas" de nvidia (uuuhhh, que viene el Cocooo!!), y lo digo porque no he visto a nadie siendo capaz de explicar de forma sensata cómo podría pasar esto excepto la acusación alegre y sin ningún tipo de evidencia (yo sí he podido explicar porqué no era posible esto), con hechos de sobra analizados y con documentación aportada, datos, y hasta la declaración de AMD sobre el tema, como el ms, o el tema del driver DX11 que tienen.

En fín, alguna gente quiere creer. Los datos objetivos no importan y si hay rumorcillos que conviene, les damos apoyo por aquello de arrimar la sardina al ascua que más calienta.
wwwendigo escribió:
Dfx escribió:
josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.

Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios XD


No gano nada, ni pretendo ganar nada, pero tampoco no se que ganas tu entrando sin argumentos a que los drivers de AMD son una basura, yo tengo un FX8320 con muy poco overclock hasta los 4,4 con una 7950 y un X3 con una 460 y hasta ahora no he tenido problemas con ninguna de las dos plataformas, mas alla de los numerosos bugs de algun juego en concreto y de alguna solucion via drivers que ha aparecido poco despues del lanzamiento para cosas que SI eran culpa de los drivers.

Desde hace bastantes versiones el microstuttering ha desaparecido practicamente y la suavidad en muchos juegos se deja notar para ser una humilde 7950 que ni siquiera tengo overclockeada y te digo lo mismo que a wwwendigo, cambiaria antes de CPU en busca de un IPC mayor por nucleo que de GPU por esos supuestos problemas de drivers tan dramáticos de los que hablas y como yo hay muchísima gente que es usuaria de GPU AMD que no encuentra esos problemas de los que tanto se hablan.

Es que básicamente, si me diera problemas realmente, me desharía de mi 7950 y me compraría una NVIDIA.


Se te está diciendo por activa y pasiva que el problema con el driver DX11 es uno de CPU, no de la gpu.

La gráfica no tiene ningún problema, siempre y cuando tenga una cpu suficientemente rápida por core para atender el número de llamadas del API. Eso es lo "normal" en la mayoría de juegos. Pero hay juegos como Unity que se pasan dos pueblos en este punto concreto, llamadas al API (drawcalls). Esto está citado además como un hecho y palabras propias de los implicados, no sólo es que yo apuntara por mis comentarios que las declaraciones de Ubi respecto a AMD apuntaban a esto.

Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.

En situaciones extremas es cuando se puede apreciar esto. Prueba a pasar el benchmark de Civ-beyond earth y registra medios y mínimos, y después hablamos. No es una situación normal del juego, pero sí una situación donde además de la mano de AMD, se expone cómo la calidad del driver/API, que corren en las cpus no en las gpus, puede influir tanto al rendimiento.

Insisto, el problema es el driver de AMD, no su hardware. Y la combinación AMD+AMD en casos como Unity, que son casos raros pero se irán haciendo más frecuentes. Si AMD se decide a aplicar las mejoras, bienvenidas sean, pero parece más interesada en dar soporte a Mantle.

Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.

Y cuidado con despreciar a linux, porque además de tener una importancia vital en mercados clave, como el de servidores, a AMD le hace falta para sus futuros SoCs ARM con gpu GCN el crear un driver OpenGL para Android decente. Y eso es básicamente lo mismo que hacer el driver OpenGL para linux, ya que el núcleo de uno está basado en el otro. El modelo de driver y la forma de funcionar es similar.

Si quieres vender SoCs, y presumir de GCN en éstos, lo primero es crear un driver opengl y para linux decente, porque es la antesala par un driverpara android y el SoC ARM de AMD. No desprecies a la plataforma mayoritaria a día de hoy tan alegremente. Aunque AMD aún no tenga mercado ahí.


PD: Me hace coña que compares un rumor infundado y esencialmente ignorante, como el del "driver matatarjetas" de nvidia (uuuhhh, que viene el Cocooo!!), y lo digo porque no he visto a nadie siendo capaz de explicar de forma sensata cómo podría pasar esto excepto la acusación alegre y sin ningún tipo de evidencia (yo sí he podido explicar porqué no era posible esto), con hechos de sobra analizados y con documentación aportada, datos, y hasta la declaración de AMD sobre el tema, como el ms, o el tema del driver DX11 que tienen.

En fín, alguna gente quiere creer. Los datos objetivos no importan y si hay rumorcillos que conviene, les damos apoyo por aquello de arrimar la sardina al ascua que más calienta.


No fuiste tu quien presento contra la R9 290X una review donde se comparaba una NVIDIA con overclock contra la R9 290X de referencia con problemas de temperatura como prueba de que la NVIDIA era mas potente?

Y eso de rumor infundado e ignorante díselo a quienes perdieron sus tarjetas al igual que en su momento le pides pruebas de como ha ocurrido a gente que ha perdido su GPU y nisiquiera le arranca, cuando lo unico que habia en comun era la instalación de un driver, pero no, vamos a llamar ignorantes a quienes han perdido la tarjeta y no a los que creen en casualidades fruto de una conspiracion contra NVIDIA, por favor....

Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.


Oh wait, no vamos a introducir nada nuevo en el mercado por que no tiene porcentaje de mercado cuando sale y le vamos a dar soporte a una plataforma en situacion de abandono desde hace años en la cual prácticamente no sale nada de las novedades y comparado con PC tiene un catalogo de juegos ridículo, pedazo de argumento wwwendigo.

Ni siquiera en STEAM donde hay bastantes titulos de Valve "modernos" para usar en linux consiguen porcentajes decentes de jugadores:

Imagen

Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.


Ya colgare datos cuando lo pruebe pero viendo que la situación depende mucho del IPC seguro que obtendré menos FPS que cualquiera que tenga un CPU con un IPC mayor, pero también me costo menos que otros CPU de IPC mayor y ya sabia lo que había, cuando pueda hacerme con el 5820k que quiero ya cambiaría la historia, yo no me caso con nadie.

Por el momento dentro de sus limitaciones a 4,4ghz el 8320 se defiende bastante bien en los juegos, mi 7950 a 900mhz se defiende, he estado haciendo pruebas de overclock a 1000 y a 1100 en juegos como Ryse o Sombras de mordor y se escala bastante bien el rendimiento.

De hecho esta semana me he pasado entero el COD:AW en Extra y el juego iba bastante bien.
Listado de problemas de ACU

- Arno atravesando el suelo
- Bloqueo del juego al unirse a un sesión cooperativa
- Arno atascándose dentro de carros de paja
- Tardanza para mostrar el menú principal tras iniciar el juego
- Problemas de framerate
- Problemas gráficos y de colisión
- Problemas con el matchmaking cooperativo
- Problemas con los Créditos Helix

hasta con los creditos tienen problemas xDDD va a ser que el problema no es amd xD
Dfx escribió:
No fuiste tu quien presento contra la R9 290X una review donde se comparaba una NVIDIA con overclock contra la R9 290X de referencia con problemas de temperatura como prueba de que la NVIDIA era mas potente?

Y eso de rumor infundado e ignorante díselo a quienes perdieron sus tarjetas al igual que en su momento le pides pruebas de como ha ocurrido a gente que ha perdido su GPU y nisiquiera le arranca, cuando lo unico que habia en comun era la instalación de un driver, pero no, vamos a llamar ignorantes a quienes han perdido la tarjeta y no a los que creen en casualidades fruto de una conspiracion contra NVIDIA, por favor....



1.- NO, no fui yo.

2.- Ya se lo he dicho, precisamente, a alguno que entró con cuenta nueva en este foro, proveniente de N3D, que iba diciendo lo cabrona que era nvidia con sus drivers, y además se había creado cuentas en otros foros para extender la nueva, pero empezó a recular cuando yo empecé a preguntarle cosas y al final resultó que lo que había pasado era algo tan simple como que tenía una gráfica DOA, muerta al llegar, recién comprada y que no aguantó el primer arranque de un juego 3D (evidentemente con electrónica dañada de fábrica o en transporte/empaquetado), sólo que aparentaba estar bien (el 2D es fácil incluso para una gráfica con condensadores quemados) hasta que puso por primera vez un juego.

Y porque había leído la historieta profundamente inculta del driver matatarjetas (y es inculta, y lo repito, porque no está basada en un análisis culto y con criterio del problema, siempre que he leído algo sobre el tema era una acusación en vacío, basada en un pueril "me ha pasado estos días, la gente habla mal del driver que muestra fallos gráficos (como los de AMD, vamos, en nvidia la gente no está acostumbrada y se asustan), así que seguro que ha sido por el driver, no porque me ha tocado/la he churruscado a base de OC/la partió un rayo/simple uso) , precisamente por N3D.Y ni siquiera lo tenía instalado cuando le murió la gráfica.

Sí, el driver mató a su gráfica a través de la distancia espacial y temporal, no hubo "contacto" en la hora de la muerte, fíjate. Lo peor es que no fue el único en decir algo así.

En serio, ¿quieres ir por la vía de rumores infundados frente a los hechos?

Pon, si tan seguro estás de que hablas de algo real, alguna prueba de que ese driver era efectivamente matatarjetas. Fácil. Pruebas sólidas como las que hay sobre el MS (que YA no hay, pero lo hubo, hablo de pruebas del problema YA pasado) o el tema del peso en cpu del driver DX11 de AMD.

Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.


Oh wait, no vamos a introducir nada nuevo en el mercado por que no tiene porcentaje de mercado cuando sale y le vamos a dar soporte a una plataforma en situacion de abandono desde hace años en la cual prácticamente no sale nada de las novedades y comparado con PC tiene un catalogo de juegos ridículo, pedazo de argumento wwwendigo.

[/quote]

¿Verdad que es ridículo? porque es TU argumento. ¿O porqué te crees que empiezo con un "según tú"?

¿Y cómo que nuevo Mantle? Pero si las APIs cercanas al hardware son de lo más viejo, en Mantle no hay nada nuevo, no hay ni una sóla característica técnica gráfica que no exista en DX11, mira tú.

Todo lo que venden es que es "fácil de usar" (tanto que los juegos existentes para Mantle requieren ser parcheados por desarrolladores para dar soporte a gráficas nuevas como la R9 285, que sigue a la espera de esto), y que es paralelizable y con menor gasto de cpu por llamada. Nada más.

Es una reedición de algo viejo. APIs de fabricantes (que por definición son más rápidas que las genéricas), en un mundo donde hay APIs 3D estandarizadas. Si fuera en un mundo donde no hay estándares sólidos para 3D, sería lógico, pero ahora ya no.

No me pintes como nuevo lo que no lo es. Y por favor, si nvidia ha conseguido anular gran parte de las desventajas en uso de cpu de DX11, y DX12 está a las puertas... qué sentido tiene Mantle.

¿Me hablas de viejo y nuevo para justificar que Mantle sí pero Linux no, en serio, te valen los porcentajes de cuota para discriminar sólo a veces?

Sobre Linux, esa plataforma "en abandono" que dices tú, y donde "no tiene sentido hacer drives gráficos" a pesar de que éstos son para algo más que jugar (¬_¬), el mercado de linux es potencialmente el más grande, y ya te lo he explicado, aunque sólo sea a través de android, es importante tener un buen driver opengl si quieres tener algo decente en un futuro para SoCs ARM. AMD dice que quiere parte del pastel, que va a sacar un SoC con cpus ARM totalmente estándares de ARM, como la de cualquier fabricante, pero eso sí, gpu de AMD, GCN concretamente.

Dime, ¿cuál crees que es el valor de venta en los mercados de SoCs que podrá vender, fuera de su primera incursión tímida de SoCs para mini-servidores, que podrá intentar vender AMD a sus clientes?

¿Las cpus ARM que tienen todos los demás?

¿Quizás venderá el SoC por su gpu de última generación? Bingo. Es lo que querrá. Y para vender esos SoCs, necesita darles el soporte.

Ya ni voy a decir que si Steam OS, Mac OS X y otras historias, es que llega y sobra con hablar de Android. Si quieres "novedad" y mercado con cifras, te estás equivocando y mucho por atacar a linux. ¬_¬

PD: ¿Tú sabes que Apple vende su Mac favorito, el Mac Pro, en sus variantes más potentes, con DOS gráficas AMD integradas, no? ¿Y sabes acaso que NO funcionan en Crossfire para 3D porque no hay soporte en el driver Mac OS X para esto? Ohhh Wait. Yes.... y sí, para "algo" sirve.

Si tienes la fortuna de usar aplicaciones OpenCL que tiren de ambas gráficas, por lo menos podrás darle uso al dúo en esa situación. Para todo lo demás, como si fuera una gráfica sóla. No me hables de soporte cuando se ven chapuzas así, diciendo que si el driver de nvidia es peor, que si mitos en vinagre, mientras decides ignorar sistemáticamente todos los problemas que hay en plataformas no windows o fuera de DX, o defiendes Mantle como algo "bueno" sólo porque es AMD (porque de nuevo, nada de nada).

Y sí, también se venden juegos para Mac OS X. De hecho más que antes. Puestos a hablar de mercados residuales que hay que poner en la lista negra porque evidencia a AMD, no porque no sean pujantes o innovadores.


Ni siquiera en STEAM donde hay bastantes titulos de Valve "modernos" para usar en linux consiguen porcentajes decentes de jugadores:

Imagen


Y nada, sigue tirando mierda sobre linux para justificar un driver penoso en OpenGL de parte de AMD. ¿Porqué?. Como si esto te fuera a dar la razón en algo por cierto que fuera, que no.

Que te lo digo otra vez, ANDROID usa kernel linux, si no haces un driver gráfico decente para linux, no lo haces tampoco para Android, el código es casi lo mismo, no igual evidentemente, y no lo digo por correr en ARM o x86, sino por diferencias que pueda haber en el modelo de driver, pero es básicamente portable casi al 100%, instantáneo, ergo la principal plataforma gaming y de mayor expansión actual se estaría despreciando (con permiso de iOS). Que es donde se está yendo mucho dinero ahora mismo, en ventas de apps para plataformas móviles.


Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.


Ya colgare datos cuando lo pruebe pero viendo que la situación depende mucho del IPC seguro que obtendré menos FPS que cualquiera que tenga un CPU con un IPC mayor, pero también me costo menos que otros CPU de IPC mayor y ya sabia lo que había, cuando pueda hacerme con el 5820k que quiero ya cambiaría la historia, yo no me caso con nadie.


¿Y quién está hablando del coste? nadie está criticando que compres tal o cual, pero la arquitectura de AMD tiene un problema de base (cpus, rendimiento monocore), que en algunos juegos no pasan factura porque lo que tira de cpu, es por el propio juego o lo que sea, y si se tira bien de multihilo, pues no pasa nada, pero ése no es el problema del que se habla.

Hay un problema de base con DX11, que nvidia ha solucionado de forma provisional pero efectiva, no tan elegante como pueda ser DX12 cuando salga (presumiblemente), y AMD sin embargo... no lo ha hecho. Se ha liado la "manta" a la cabeza y se dedica a crear un API nueva en vez de mejorar lo existente y con futuro asegurado. Y con Unity confluyen, bugs aparte, una serie de condiciones que pone en evidencia esto de DX11.

Ya estoy diciendo que esto no pasa en todos los juegos, pero sí en éste.


Por el momento dentro de sus limitaciones a 4,4ghz el 8320 se defiende bastante bien en los juegos, mi 7950 a 900mhz se defiende, he estado haciendo pruebas de overclock a 1000 y a 1100 en juegos como Ryse o Sombras de mordor y se escala bastante bien el rendimiento.

De hecho esta semana me he pasado entero el COD:AW en Extra y el juego iba bastante bien.


Lo dicho anteriormente, no digo que sea un problema UNIVERSAL, de hecho en comentarios anteriores ya he dicho que el tipo de juego que es AC y sobre todo, tras ver vídeos de Unity, es mucho más exigente en el tema del driver DX11, más que otros. Incluidos anteriores AC, que no sé cómo hay gente que dice que se ven casi igual, de eso nada, aunque sólo sea por la cantidad de elementos. Nada tiene que ver una calle de Boston de AC3 o La Habana de AC4 con el Paris del AC5. Ya apunté al tema del API y drawcalls antes de que saltara la liebre en la "prensa técnica" con las declaraciones señaladas en comentarios anteriores, si es que se "ve" en el juego.

Y hablando de la dificultad técnica de juegos así, he dicho que juegos como CoD o similares, o incluso juegos abiertos como Mordor y similares, tienen una carga de driver muy inferior, más manejable por cpus con cores "lentos". Si estoy diciendo justo en la dirección que tú apuntas ahora.

Fuera de esto, hasta me sorprendió ver que un i3 con el driver de AMD se podía atascar con el CoD, aún así seguramente es jugable, aunque sea con esos bajones que se veían en el video. Pero claro, si te fijas son las escenas más masivas en elementos presentes. Siempre es así, no necesariamente en donde los efectos son más impresionantes, no. Sino donde hay más elementos de escenario o personajes, etc.

WiiBoy escribió:Listado de problemas de ACU

- Arno atravesando el suelo
- Bloqueo del juego al unirse a un sesión cooperativa
- Arno atascándose dentro de carros de paja
- Tardanza para mostrar el menú principal tras iniciar el juego
- Problemas de framerate
- Problemas gráficos y de colisión
- Problemas con el matchmaking cooperativo
- Problemas con los Créditos Helix

hasta con los creditos tienen problemas xDDD va a ser que el problema no es amd xD


Aunque no te guste, el problema también es AMD.

Es de origen un argumento falso el que pretendas negar el problema de base de DX11 con los numerosos bugs del juego.

Es a lo que hace referencia el comentario de Ubisoft de "AMD+AMD". Y es lo que se ve en las tablas de rendimiento de la review rusa ya citada anteriormente. En cuanto a cpus.

Los bugs del juego se corregirán con parches, ni Dios parcheando él mismo va a corregir el mal IPC de los FX de AMD.

Aunque igual ilusiona pensar que mientras tenga bugs el juego, todo el mundo jodido, no sólo los que tengan AMD (cpus) con... gráfica AMD (combinación letal, driver "pesado" y monoproceso, cpu lenta en monocore).
Al tema del driver mortal no voy a entrar otra vez, que si, que todo fue una conspiración de unas pocas personas, si te lo quieres creer creetelo, buscar pruebas de que un driver ha matado una gráfica después de que esta muera es imposible, por lo tanto no hay pruebas, crimen perfecto.

Sobre lo de linux, como lo reduces todo al absurdo, si tu haces unos drivers orientados para jugar, obviamente una plataforma que representa menos del 1% no va a centrar toda tu atención, tienen unos drivers funcionales que podrian ser mejores, me parece bien? NO, pero tambien entiendo la postura de AMD que si tienen mucho que trabajar en los drivers de windows y mucho retraso, no se centren en darle soporte a una plataforma que supone el 1% por que los recursos necesarios quizas para tener esos drivers al dia no compensen el beneficio, que vuelvo a repetir, esta mal, pues si, pero es lo que hay y de cara a los gamers, que es el mercado que nos interesa, que mi grafica no tenga soporte para una plataforma que no voy a usar en la vida, como que me la suda bastante.

1.- NO, no fui yo.


1. Si fuiste tu con la review de linustech con la primera 290X de referencia que tenia un throtle brutal, tanto que las frecuencias bajaban un 30% y que en la review a pesar de saberlo, usaron creo que una 780 overclockeada aludiendo a que ellos siempre hacian las pruebas con las tarjetas que tenian con overclock.

Claro que comparar una tarjeta que en el aquel entonces tenia problemas de temperatura que hacian que bajasen las frecuencias contra la de la competencia y encima con overclock era una comparativa seria, justisima y sobretodo profesional.

¿Verdad que es ridículo? porque es TU argumento. ¿O porqué te crees que empiezo con un "según tú"?


Linux es una plataforma con una aceptacion infima en gaming desde hace años, que lo quieras aceptar o no y me lo quieras comparar con Mantle que a pesar de introducir "nada" nuevo, apenas no llega a los 2 años de vida y que todavia esta en fase de pasarse a usar en mas juegos, bueno si, si hablamos de comparaciones ridiculas, este es un buen ejemplo.

Que linux se usa para otras cosas aparte de para jugar, es algo que ya sabia, el soporte de AMD es una mierda en opengl, pues comprate una NVIDIA, me parece perfecto, para quien no va a usar linux, que AMD vaya mejor o peor le va a importar bien poco, si la cosa cambia con SteamOS o la aceptacion de linux para gaming cambia, pues ya se espabiliaran o perderan ventas, como ya te he dicho antes, no es que me parezca bien, pero también hay que comprender las razones.

El mercado de linux potencialmente mas grande? actualmente no para gaming hasta que no se den ciertas situaciones, con menos del 1% de usuarios muchas de las compañias que hacen los juegos tampoco le dan soporte para que sus juegos sean compatibles en linux y parece que la cosa va a seguir siendo asi.

Y si quieren entrar al mercado de android, pues ya veran como lo hacen, si tienen que dar un soporte decente para entonces bienvenido sea, desde luego con un soporte de pena no ganaran mercado, pero a mi lo que venda o deje de vender AMD me la suda, a mi lo que me importa es que tengo un par de micros y una grafica suya, y para lo que yo los uso funcionan bien, cuando la cosa deje de ser asi pues dejare de comprar AMD al igual que en su dia deje de comprar WD o Maxtor para mis discos duros, o basicamente como lo haria cualquier marca donde los productos no estan a la altura de mis espectativas y no funcionan correctamente.

o defiendes Mantle como algo "bueno" sólo porque es AMD (porque de nuevo, nada de nada).


Aprende un poco a leer y no pegues patinazos por favor:

Sobre Mantle, por un lado es interesante, por otro lado ya he dicho siempre que me disgusta el hecho de que NVIDIA y AMD opten por soluciones propietarias para aplicarlas en juegos, como son Mantle, Physx o TressFX, o la proxima batalla entre G-Sync y FreeSync,


Y no es la primera vez en este foro que he dicho que Mantle esta muy lejos de lo que vendian y que excepto en alguna prueba que tienen algun resultado interesante, lo que se vendía al principio era puro humo.

PD: ¿Tú sabes que Apple vende su Mac favorito, el Mac Pro, en sus variantes más potentes, con DOS gráficas AMD integradas, no? ¿Y sabes acaso que NO funcionan en Crossfire para 3D porque no hay soporte en el driver Mac OS X para esto? Ohhh Wait. Yes.... y sí, para "algo" sirve.

Si tienes la fortuna de usar aplicaciones OpenCL que tiren de ambas gráficas, por lo menos podrás darle uso al dúo en esa situación. Para todo lo demás, como si fuera una gráfica sóla. No me hables de soporte cuando se ven chapuzas así, diciendo que si el driver de nvidia es peor, que si mitos en vinagre, mientras decides ignorar sistemáticamente todos los problemas que hay en plataformas no windows o fuera de DX, o defiendes Mantle como algo "bueno" sólo porque es AMD (porque de nuevo, nada de nada).

Y sí, también se venden juegos para Mac OS X. De hecho más que antes. Puestos a hablar de mercados residuales que hay que poner en la lista negra porque evidencia a AMD, no porque no sean pujantes o innovadores.


Ya y como queda la cosa, 96% PC, 3% MAC OS X y 1% Linux, si tienes que poner a tu equipo a trabajar en drivers cuando llevas bastante retraso, ey vamos a empezar por las plataformas minoritarias primero!

Mantle quizas es una distraccion, cuando podrian estar trabajando en pulir mas sus drivers y el soporte a DX11, eso es mas que evidente, es duplicar el trabajo de drivers para dos API distintas, que a priori podría haber sido buena idea si daba resultados, pero que ahora mismo los resultados estan bastante desinflados y quizas lo mejor seria abandonar optimizar para DX11 y esperar al futuro DX12, es algo que pienso hasta yo, incluso trabajar mas aun en TressFX antes que en Mantle podría ser mejor opción viendo mas o menos las mejoras en los últimos juegos. Fijate lo digo hasta yo.

Y nada, sigue tirando mierda sobre linux para justificar un driver penoso en OpenGL de parte de AMD. ¿Porqué?. Como si esto te fuera a dar la razón en algo por cierto que fuera, que no.


No mientas, no lo justifico, me parece mal, pero entiendo que se centren en las plataformas mayoritarias en vez de las que suponen un 1% del mercado, aunque quede feo.

Que te lo digo otra vez, ANDROID usa kernel linux, si no haces un driver gráfico decente para linux, no lo haces tampoco para Android, el código es casi lo mismo, no igual evidentemente, y no lo digo por correr en ARM o x86, sino por diferencias que pueda haber en el modelo de driver, pero es básicamente portable casi al 100%, instantáneo, ergo la principal plataforma gaming y de mayor expansión actual se estaría despreciando (con permiso de iOS). Que es donde se está yendo mucho dinero ahora mismo, en ventas de apps para plataformas móviles.


Android sobrevive bastante bien sin AMD, si se quieren meter en android, pues que hagan drivers decentes, vamos creo que en eso estamos de acuerdo, asi funcionan las empresas inviertes en aquello que te va a dar provecho, meterse en linux por apoyar linux igual no tiene beneficio pero igual añadiendo android si lo tiene y vale la pena, eso es cosa de ellos, ya se apañaran con lo que hacen, te vuelvo a repetir que no me importa el soporte que pueda tener mi grafica para cosas que no voy a usar nunca.

y bueno para terminar, el problema aunque en parte pueda ser de AMD y su driver en un conjunto con sus CPU's, no quita que Ubisoft se haya convertido en una empresa chapucera y que solo se dedica a echar las culpas a los demas o aludir a argumentos absurdos en plan "30fps es mejor por ser mas cinematico"...

Veremos el proximo "the division" a ver de que pie cojea y a quien culpan.
El problema no es solo que Amd no tenga soporte openGl para linux, si no que para windows tampoco tiene un soporte decente, el otro dia instalé el juego darkout que funciona con OpenGl en una r9 270 y me iba a 20 tristes fps, cuando veo que hay graficas peores que las mias de nvidia funcionando perfectamente.

Vale que OpenGl se use muy poco en juegos, pero tampoco es para que le den tan poco soporte, aunque bueno, que se puede esperar de esto, si cada drivers que sacan joden algo, por ejemplo:

drivers 13.2, gpu GCN en el juego raiderz con sombras en alto sin problemas.
drivers 13.3 en adelante, ponias las sombras y se te ponia todo multicolor y artifacts a montones, tenias que reiniciar el pc para que se arreglase.

drivers 6.9 con una radeon 9250, en gta sa las texturas de los PJ se partian y se veian invisibles, downgradeabas a 4.9 y se arreglaba.

Mafia II con las HD5000, Hay una version de drivers que eran las 10.X(X es porque no recuerdo cual ahora mismo) que funcionaba bien, actualizabas y veias fallos graficos y cielo negro.

No puedo entender como hacen para que cada driver que sacan, se cargan algo anterior y que muchas veces no reparan, como puede ser lo del gta con la 9250 que nunca fue reparado hasta que dejó de darse soporte o las hd5000, o actualmente las GCN con raiderz pese a las quejas.
wwwendigo escribió:

Sobre gpus:

Imagen



Me parece durísimo que con ese hardware, hablando tanto de la GPU como del resto de componentes (procesador y RAM), el rendimiento sea tan limitado (y eso que es sin AA).

Podrá ser un juego todo lo complejo que quiera, pero una de dos:

1.- Existe una evidente falta de optimización.

2.- Es un juego demasiado amplio y exigente para moverlo con el hardware de hoy en día y no debían haberlo sacado al mercado hasta dentro de un par de años.
Mas le valdría a Ubisoft utilizar el tiempo que usan en tirar balones fuera en haber pulido un producto que ahora mismo no llega ni a mediocre.

Y también mas nos valdría a los usuarios tener aunque sea un mínimo de criterio a la hora de adquirir ciertos productos que hacen que las compañías se preocupen mas de las fechas y el dinero que de lanzar un producto con una mas que dudable calidad.
gazadelco escribió:
wwwendigo escribió:

Sobre gpus:

Imagen



Me parece durísimo que con ese hardware, hablando tanto de la GPU como del resto de componentes (procesador y RAM), el rendimiento sea tan limitado (y eso que es sin AA).

Podrá ser un juego todo lo complejo que quiera, pero una de dos:

1.- Existe una evidente falta de optimización.

2.- Es un juego demasiado amplio y exigente para moverlo con el hardware de hoy en día y no debían haberlo sacado al mercado hasta dentro de un par de años.



Yo diría que es más la dos, ya he comentado que se les ha ido la mano con el tema de la complejidad mostrada, sobre todo sabiendo que mientras en PC siga DX11, existe un problema para gestionar muuuuchas drawcalls aunque se usara mucho instanciado, y que habría sido mejor que hubieran limitado más el tema de personajes en pantalla o el detalle de edificios (digamos que con un LOD más agresivo con éste, por lo menos a distancia).

Dentro de unos años, más que por las propias cpus, que parece que no van a evolucionar mucho, lo que habría es DX12 y se podría atacar mejor uno de los principales problemas (no el único) que hay al gestionar llamadas a D3D, usando más cores, costando menos tiempo de cpu cada llamada, etc.

De todas formas, el juego "casi va bien" en algunas configuraciones, es cierto que el 4K o uso de MSAA masivo está casi eliminado de la ecuación, excepto con gráficas muy top, pero... yo hasta ahora no he visto ningún juego que mostrara ese nivel de detalle y cantidad de objetos.

Puede haber una falta de optimización, quizás. Pero teniendo en cuenta que el código es heredado de los anteriores AC, y que llevan años tratándolo y revisándolo, más parece que se les ha ido algo de la mano el tema de querer mostrar mucho en pantalla.

De ahí limitaciones a 30 fps, además no sostenibles, en las nuevas consolas. O que en PC en la mayoría de equipos de buen rendimiento sea imposible sostener 60 fps. Jugable (si no hubiera los bugs, más), pero tampoco fluido como algunos esperaban.

He de probarlo en breve, y ya podré ver hasta qué punto va como la mierda en mi sistema, y ver qué es lo que más pide de cpu, de gpu, entre las opciones y demás. No espero milagros.


Artículo interesante sobre el tema del rendimiento de Unity, separando churras (bugs) de merinas (rendimiento), y con respuestas por parte de Ubi a varias preguntas:

http://www.pcper.com/news/Graphics-Cards/Ubisoft-Responds-Low-Frame-Rates-Assassins-Creed-Unity

La entrevista en sí en vídeo y con todos los detalles:

http://www.youtube.com/watch?feature=player_embedded&v=fNBmawEGtfk
wwwendigo escribió:
Yo diría que es más la dos, ya he comentado que se les ha ido la mano con el tema de la complejidad mostrada, sobre todo sabiendo que mientras en PC siga DX11, existe un problema para gestionar muuuuchas drawcalls aunque se usara mucho instanciado, y que habría sido mejor que hubieran limitado más el tema de personajes en pantalla o el detalle de edificios (digamos que con un LOD más agresivo con éste, por lo menos a distancia).

...



Estoy de acuerdo, pero bien mirado no deja de ser una falta de optimización o, si lo prefieres, una falta de adaptación al hadware actual.

En mi opinión, deberían haber modificado el juego para adaptarlo a los PCs actuales en vez de lanzar un software que solo va fluido en el 5% de los ordenadores de la gente "de a pie".

Si hacen un juego pensado solo para la gente con equipos a la última, pueden perder una cuota muy amplia de mercado. Y que intenten responsabilizar de ésto a los fabricantes de hardware me parece que es querer mirar hacia otro lado.
@wwwendigo cojamos lo de LOD agresivo con pinzas y si no, mira esto (lo ha pasado un compañero en el hilo técnico):

Imagen
Imagen
Yo llevo unas horas viendo imagenes y videos, y primero creo que el black flag se ve bastante mejor, y o todo el mundo tiene pcs de mierda y las capturas son malas o el juego de verdad se ve como la mierda xD


PD: despues de ver la foto de arriba... xDDDD ahora el mundo es azul? xD
Alonso707 escribió:@wwwendigo cojamos lo de LOD agresivo con pinzas y si no, mira esto (lo ha pasado un compañero en el hilo técnico):

Imagen
Imagen



¿Y con qué calidad está jugando? Yo hablo de que en ultra han llevado las cosas bastante lejos. De todas formas, fíjate en algo más que un detalle concreto y en el total, el tipo de elementos del escenario, cantidad, es más típico de simuladores donde se acepten tasas de fps bajas, que de juegos de acción.

En el vídeo que he puesto antes, de la entrevista, comienza comentando un momento de acción concreto (el que aparece en la captura del artículo, concretamente) donde se ve desde los tejados una calle abarrotada, con vistas de multitud de edificios, y efectos gráficos muy pesados.

No me digas que eso no requiere trabajo.

PD: Yo también, si me pongo a hacerlo, te encuentro capturas de AC3 y AC4 donde el motor LOD falle en ocultar cambios y muestren alguna chapuza, y no me refiero a objetos que están a un centenar de metros de distancia, o muchas decenas, no... hablo de elementos entre 10-20 metros de distancia. Pero eso no es lo habitual en estos juegos, y sería injusto ponerlo como ejemplo de su calidad en calidades ultra.


WiiBoy escribió:Yo llevo unas horas viendo imagenes y videos, y primero creo que el black flag se ve bastante mejor, y o todo el mundo tiene pcs de mierda y las capturas son malas o el juego de verdad se ve como la mierda xD


PD: despues de ver la foto de arriba... xDDDD ahora el mundo es azul? xD


Está claro que, gustándote tanto AMD y siendo la principal perjudicada cuando se combina cpu y gpu suyas en un equipo, te sientes obligado a lanzar sin sentidos como decir que AC Unity se ve peor que Black Flag.

Por favor.

Capturas hay muchas, deja de quedarte con las que conviene para el culto a AMD, no me seas talibán y juzga con un mínimo de neutralidad la CALIDAD GRAFICA del juego, no su rendimiento o si está bugueado. Nadie en medios se atreve a negar la calidad gráfica del juego, de hecho está siendo reconocido como uno de los juegos más bellos jamás creados. Otro asunto es su rendimiento o bugs, que se comentan, pero en esto la prensa está siendo unánime. A nivel de diseño, artístico, y técnico en grafismos, está un paso por delante de lo existente.

Algunos estáis llevando la campaña de defensa de AMD bastante lejos.

Yo, sin embargo, hablo como simple fan de la serie, al que le gusta y que valora lo que técnicamente hacen con juegos de mundos abiertos, porque ademá como programador, no de juegos pero interesado en éstos, valoro el trabajo ajeno cuando es un reto tan evidente. Aunque al final hayan metido la pata en sus excesos (y falta de depuración de bugs).

Y no, ni de coña se ve igual, en ningún momento de AC4 se manejan las "crews" que se ven en Unity. Nunca he visto un momento como los vistos en el Paris de AC5. Ni el detalle fino de edificios, basta ver las escenas de la Catedral de Notredame para entenderlo.
Dentro de poco se quejaran en Nvidia que sus gráficas no tiran. Tiempo al tiempo.
Yo siempre me quejo de esto, los desarrolladores no optimizan los juegos y cada vez tiran peor. Les da mucha vagancia en optimizar... Lo que me parece increíble es que se queje a un desarrollador de chips... AMD en la fabricación de los chips a sido cosa de Sony y Microsoft, ellos solo fabrican de lo que le dicen estás empresas.

Debería tomar ejemplo de Valve, en los estudios de desarrolllo de valve tienen muchísimos ordenadores diferentes, con distintos hardware y todas las consolas para testear sus juegos y optimizarlo a tope. ¿Quien no le tira un juego de valve con un hardware malo? Eso es el fruto de saber hacer bien sus juegos.
Más de una empresa se va quedar sin clientes por su vagancia en optimizar... No todos se pueden permitir ordenadores de la nasa.
Creo que Ubisoft esta alidado con Nvidia para boicotear a AMD. Ya que tiene todo el mercado en consolas. Todas las consolas incluidas WiiU incluye una gráfica AMD.
Un saludo
wwwendigo ami me gusta mas AMD como bien dices pero nunca me veras metiendome en peleas sobre nvidia amd para mi cada una tiene sus cosas pero hablando de juegos en concreto de AC me pasa lo siguiente, los e jugado a todos, versiones de PC claro ( los que an salido para consolas o portatiles ni los e visto ) y me pasa lo siguiente...

el juego en general , me parece aburrido, y repetitivo, pero hablando de graficos el 1 me sorprendio, los demas mas de lo mismo, y lo siento el black flag se ve mejor ke el Unity en general, de hecho hay zonas en el Unity que parecen dibujadas con el puto pain, aparte de que tengo una cruzada personal contra Ubisoft y EA y espero que estas compañias se hundan y exploten con todos sus integrantes

dicho esto [fumando]

Tu puedes defender que el juego en el tema de AMD+AMD el juego no trabaje bien por la arquitectura de los procesadores la gpu o lo que quieras, pero la realidad es que Ubisoft como compañia que gana dinero con los juegos esta en la obligacion de crear un producto que este optimizado para las plataformas donde se lanza

Que me digas que el juego con una grafica AMD pues no va bien, pues vale
pero que vaya como el puto culo en las consolas ?
que tenga bug estupidos sin parar ?
que la gente con NVIDIA no consigua jugar?
que el juego en algunas partes sea jodidamente horrible ?
que el online pete?, el menu? los creditos ?

vamos esto no es cuestion de AMD ni de NVIDIA, esto es cuestion de querer sacar un juego al año, programarlo con la punta del navo, ahorrar costes, y querer sacar tajada, lo de siempre

que el juego no vaya fluido en una tarjeta de gama media ya me parece mal, pero que con las de gama alta pegue unos rascones de cojones? eso no hay por donde cogerlo, que conste que te doy la razon en el apartado tecnico de las gpu+cpu etc, pero no te doy la razon en la generalidad del tema, esto no es problema de AMD esto es problema de una compañia que hace lo que le sale de los cojones y despues le hecha las culpa a otro
@wwwendigo el usuario tiene una configuración bastante alta, que si no se acerca a ultra poco le queda (moviendo el juego con un sli de 670). Si hablo precisamente del LOD de este juego es porque me parece, que en esta ocasión, no se han esforzado lo suficiente aún poniendo el juego en su configuración más alta. He visto mejores LOD´s, de calidad gráfica similar, con una progresión menos acusada y más natural.
Alonso707 escribió:@wwwendigo el usuario tiene una configuración bastante alta, que si no se acerca a ultra poco le queda (moviendo el juego con un sli de 670). Si hablo precisamente del LOD de este juego es porque me parece, que en esta ocasión, no se han esforzado lo suficiente aún poniendo el juego en su configuración más alta. He visto mejores LOD´s, de calidad gráfica similar, con una progresión menos acusada y más natural.



Es que lo del LOD tiene miga, un poco mas y tenemos:


AC Unity LOD cerca
Imagen


AC Unity LOD lejos
Imagen
Existe una evidente falta de optimizacion como pasaba en todos los anteriores AC, montarse peliculas de que este juego es superpotente, me parece absurdo, si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.
WiiBoy escribió:wwwendigo ami me gusta mas AMD como bien dices pero nunca me veras metiendome en peleas sobre nvidia amd para mi cada una tiene sus cosas pero hablando de juegos en concreto de AC me pasa lo siguiente, los e jugado a todos, versiones de PC claro ( los que an salido para consolas o portatiles ni los e visto ) y me pasa lo siguiente...

el juego en general , me parece aburrido, y repetitivo, pero hablando de graficos el 1 me sorprendio, los demas mas de lo mismo, y lo siento el black flag se ve mejor ke el Unity en general, de hecho hay zonas en el Unity que parecen dibujadas con el puto pain, aparte de que tengo una cruzada personal contra Ubisoft y EA y espero que estas compañias se hundan y exploten con todos sus integrantes

dicho esto [fumando]

Tu puedes defender que el juego en el tema de AMD+AMD el juego no trabaje bien por la arquitectura de los procesadores la gpu o lo que quieras, pero la realidad es que Ubisoft como compañia que gana dinero con los juegos esta en la obligacion de crear un producto que este optimizado para las plataformas donde se lanza

Que me digas que el juego con una grafica AMD pues no va bien, pues vale
pero que vaya como el puto culo en las consolas ?
que tenga bug estupidos sin parar ?
que la gente con NVIDIA no consigua jugar?
que el juego en algunas partes sea jodidamente horrible ?
que el online pete?, el menu? los creditos ?

vamos esto no es cuestion de AMD ni de NVIDIA, esto es cuestion de querer sacar un juego al año, programarlo con la punta del navo, ahorrar costes, y querer sacar tajada, lo de siempre

que el juego no vaya fluido en una tarjeta de gama media ya me parece mal, pero que con las de gama alta pegue unos rascones de cojones? eso no hay por donde cogerlo, que conste que te doy la razon en el apartado tecnico de las gpu+cpu etc, pero no te doy la razon en la generalidad del tema, esto no es problema de AMD esto es problema de una compañia que hace lo que le sale de los cojones y despues le hecha las culpa a otro


1.- Muchísimos juegos de las consolas de nueva generación van a 30 fps, y a 900p o incluso menos. Dicho esto, aunque ni siquiera mantenga Unity asegurados esos 30 fps en consolas, TAMPOCO lo hacen otros muchos juegos con similares limitaciones técnicas de resolución y fps.

Y hablo de juegos que son mucho menos impresionantes técnicamente.

2.- Y sigues diciendo que Black Flag se "ve mejor", siendo como dices seguidor de la serie pero que te aburren (WTF?, ¿y has seguido a una serie de 6 juegos principales, más algún spin off, a pesar de que te aburren?), yo también y además le he dedicado HORAS a todos.

No sé cómo puedes decir que el primero te sorprendió y los siguientes ya no, si hay un punto culmen de los juegos, es en los AC2, donde la jugabilidad fue enormemente expandida del mucho más simple (y aburrido, a pesar de la novedad) AC. Yo disfruté de todos, me gustan los juegos abiertos y de exploración/looting, pero el AC, lo que tenía de fresco, lo tenía de limitado en la mecánica de juego. AC3 fue un bajón importante, aunque alguna cosa interesante tiene, más allá de que técnicamente "mejorara", y AC4 recuperó en cierto aspecto la jugabilidad y frescura de los primeos AC2 al expandir la jugabilidad. Pero usando descaradamente los mimbres de AC3 en sus "pruebas de minijuegos", que aparentemente eran más una prueba de concepto para ver si se podían usar más masivamente en un juego futuro.

Y te aseguro que en Black Flag no se ven cosas como las vistas en Unity, a nivel técnico, por muy bien que luzca Black Flag, por cierto, cuando Black Flag se atreve con gestiones masivas de edificios y personajes EN pantalla, como pasa en varias vistas de tu isla-base operacional, los fps bajan a 50 e incluso un pelín por debajo, en mi equipo y con un i5 a 4,2 GHz, y todo por temas de cpu.

Hablo de gestionando un poblacho lleno de gente, llenísimo, más o menos como una calle media de Paris de Unity, con suerte.

No me digas que algo está mal programado como si lo anterior fuera la hostia, cuando se puede trazar perfectamente porqué ahora sale más caro en rendimiento. Si intentas con el mismo motor de AC4 (la versión anterior del usado en Unity) gestionar una escena similar como en Unity, te apuesto lo que quieras a que va peor, o como mucho igual, con suerte.

Y lo siento, es muy fácil tirar mierda contra el programador, pero el juego funciona relativamente bien si, primero aceptas que si no tienes un super-equipo, igual tienes que ajustar a la baja el juego.

No es ningún drama. Algunos lo habéis hecho sin problemas con juegos anteriores, no veo porqué con éste no se va a aplicar.

PD: Y lo dicho sobre los bugs, como bien dicen en la entrevista que cito, no tienen que ver esos bugs gráficos con la tarea de programación o el rendimiento, son puntos aparte, de hecho la mayoría son bugs de diseño de mapeados o de modelos/animaciones en situaciones imprevistas, no de programación. Y esto es lo que pasa en juegos abiertos y regidos por IA y físicas, y no masivamente por facilones scripts.

El testeo de fallos en ambos casos no tienen nada que ver.

PD: Yo he visto una rata-flotante en la campaña de BF4, al comienzo, en literalmente un juego pasillero, porque sucede en un mapa consistente en unos pocos pasillos y habitaciones.

No me jodáis hablando de bugs inadmisibles, esto en un juego con más de un año en el mercado:

http://youtu.be/cUiS6zJXm_s

Repito, campaña, primera fase, juego scriptado, y pasillos con evidentemente un control del diseño del interior IMPOSIBLE en lo que vemos con Unity. Un año y pico después de mil parches.

Y aún tenemos "ratas flotantes". Cojonudo. Creo que algunos os quemáis por la rabia que os da no poder poner Unity a tope. Fácil, bajad el detalle y no seáis tan ambiciosos.

PD: El stuttering es "marca de la casa" por culpa de tener el disco hecho unos zorros, tocó reinstalación de sistema a posteriori, le hacía falta.

No justifico los fallos de Unity, que serán muchos, pero acaba de salir. Pero tiene coña que, fuera del debate del rendimiento de este hilo, vengáis usando sus numerosos bugs como argumento, cuando es fácil entender que, vistos los cantosos bugs en otros juegos, es hasta "normal" esperar que haya muchos en un juego como éste, masivo en dimensiones y posibilidades de cagarla gracias al sistema de movimiento via parkour, que amplifica mucho los posibles problemas.

Dfx escribió:Existe una evidente falta de optimizacion como pasaba en todos los anteriores AC, montarse peliculas de que este juego es superpotente, me parece absurdo, si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.


Te lo he explicado perfectamente. Primero las consolas no llevan un FX, llevan una cpu aún inferior a éstos, y a frecuencias mucho más bajas. Pero bueno, paso el detalle.

El problema en PC es que el API "corre en un proceso", por decirlo aún más simple que antes, más con el driver de AMD que no intenta solucionar el problema provocado por la filosofía de diseño de DX11. En consolas NO, pueden usar TODOS los cores para hacer la misma tarea.

Como en PC, aún siendo mucho más potente (2-3X en frecuencia, 2-3X en IPC, digamos que algo así como que 5-10X la potencia por core en un i7 con OC vs cores de consola), no se puede usar más de un core, o sólo alguno más y parcialmente en el driver de nvidia, resulta que aún teniendo mucha más potencia total, en consola si hace falta se pueden apretar 4 cores o más sólo para hacer esta tarea, hasta puede que los 8 de la consola (dado que las llamadas no las realiza la aplicación, sino el driver del sistema, y por tanto, tiene acceso a todos los cores).

Así que al final las consolas pueden manejar cantidades similares de drawcalls que un BUEN pc. En cpu.

Y van a 30 fps, no sé porqué automágicamente la gente espera que con niveles de detalles superiores, se vayan a manejar muchas más imágenes por segundo, con más elementos por ésta, o llamadas de API más caras por lo que sea (texturas más complejas, modelos algo más detallados, etc).

El hecho de que algunos recurran a la burla y el humor para hablar de la calidad gráfica de Unity (no te hago referencia), demuestra hasta qué punto a la gente le da rabia no poder ponerlo a tope.

Lo siento pero no. El juego luce, sí. Aunque vaya a pocos fps en según qué caso (hoygan!!! hay gente que dice que le va bien, ¿esos qué pasa, no cuentan?), acaba de salir un parche, así que mejor que andar criticando es probarlo y no negar hasta la mayor por intentar desacreditar.

¿Bugueado? sí. ¿Mal optimizado? posiblemente.

¿Pero baja calidad gráfica? Anda ya.
En calidad grafica es superior a las anteriores entregas, eso es evidente, que maneja mas personajes y es mas complejo, tambien se puede apreciar, que necesite esos requisitos para funcionar, eso ya lo pongo en duda, mas cuando viene de Ubisoft, empresa especializada en mentir.

Dentro de nada tendremos reviews de FC4 y dentro de no mucho de The division, veremos si esta politica sigue.
Dfx escribió:En calidad grafica es superior a las anteriores entregas, eso es evidente, que maneja mas personajes y es mas complejo, tambien se puede apreciar, que necesite esos requisitos para funcionar, eso ya lo pongo en duda, mas cuando viene de Ubisoft, empresa especializada en mentir.

Dentro de nada tendremos reviews de FC4 y dentro de no mucho de The division, veremos si esta politica sigue.


Al menos FC4 en PS4 se mueve a unos muy sólidos 30fps:

https://www.youtube.com/watch?v=kK_9wJH5xkQ
elrocho escribió:Pero qué maletines ni na', si va como el culo en cualquier plataforma.
Me imagino el betatesting de Ubisoft:
- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...


en la one va de pm.... XD XD
Sacar un juego en su estado, es lamentable, encima siendo una empresa grande...
R.I.P. Ubisoft.
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.

The evil Within Imagen
según esto el FX8350 tiene una media de 40fps con una GTX780TI.

Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs

Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps ¬_¬

Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?

Lo que si me queda claro es que Ubisoft pretende sacar un juego por año y que encima les funcione .
[poraki] a tomar por culo ya hombre tanto juego mediocre sin acabar.
me habeis picado la curiosidad cabrones [+furioso]
me lo acabo de pillar (ya más por probar mas que... creo que llegue a jugar media hora al primero [+risas] )!!!!

tengo que probar este tipo de juegos a ver como sale a cuenta subir el fx para ganar frames, a base de multi o fsb...
ahomaru escribió:Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.

The evil Within Imagen
según esto el FX8350 tiene una media de 40fps con una GTX780TI.

Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs

Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps ¬_¬

Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?

.


Alomejor no coincide con la configuración que tienes puesta, de todas formas es totalmente posible que sea una cagada de benchmark echa a toda prisa, o simplemente para vender humo.

Estaría bien hacer un post exclusivo para comparar benchmark supuestamente echos por ''profesionales'' y contrastar y comprobar las diferencias por nosotros mismos, ya que erroneamente a menudo casi todos los usuarios le damos estas comparativas toda la credibilidad del mundo sin cuestionarnos la veracidad de los resultados obtenidos.
Lo que no se como no hacemos unos bench oficiosos del foro con tanta gente que tenemos que hace bench y tantas configuraciones distintas que tenemos disponibles xD
Dfx escribió:[..] si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.


Solo recuerden que los APUs [SoCs] de las consolas actuales en nada tiene que ver con los APUs Trinity/Richland/Kavery o los FX, ya que no usan arquitectura Modular [CMT].
apalizadorx escribió:
ahomaru escribió:Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.

The evil Within Imagen
según esto el FX8350 tiene una media de 40fps con una GTX780TI.

Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs

Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps ¬_¬

Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?

.


Alomejor no coincide con la configuración que tienes puesta, de todas formas es totalmente posible que sea una cagada de benchmark echa a toda prisa, o simplemente para vender humo.

Estaría bien hacer un post exclusivo para comparar benchmark supuestamente echos por ''profesionales'' y contrastar y comprobar las diferencias por nosotros mismos, ya que erroneamente a menudo casi todos los usuarios le damos estas comparativas toda la credibilidad del mundo sin cuestionarnos la veracidad de los resultados obtenidos.

Pues si....aqui el amigo sunlitandy tiene un hilo sobre esto http://www.elotrolado.net/hilo_hilo-benchmark-quedadas-para-comparaciones_2011678 con otros juegos (resident evil) pero vamos que es otro juego que tengo y podríamos postear hay si quereis.
Esa tabla es a 1080p todo a tope igual que mi configuración.

PD: Trastaro los FX bulldozer si se que tienen tecnología CMT, lo que me has hecho dudar son los FX Vishera(8350).Puedes aclarármelo por favor?
ahomaru escribió:
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen

http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.

The evil Within
Imagen

según esto el FX8350 tiene una media de 40fps con una GTX780TI.

Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs

Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps ¬_¬

Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?

Lo que si me queda claro es que Ubisoft pretende sacar un juego por año y que encima les funcione .
[poraki] a tomar por culo ya hombre tanto juego mediocre sin acabar.


Habria que ver en que fase del juego han pasado las pruebas y que configuracion grafica han utilizado, no te lo puedo asegurar porque no tengo el juego pero lo mismo hay alguna zona donde ocurre lo mismo que en la famosa fase ''bienvenido a la jungla'' de Crysis 3 sea bastante exigente a nivel de micro, y los Haswell sacan pecho con su ipc.
ahomaru escribió:
PD: Trastaro los FX bulldozer si se que tienen tecnología CMT, lo que me has hecho dudar son los FX Vishera(8350).Puedes aclarármelo por favor?


Todos los FX son CMT [modulares], la arquitectura en general se llama BullDozer, pero a sufrido diferentes iteraciones [modificaciones y optimizaciones], los FX actuales o FX Vishera usan modulos PileDriver que es la penultima [o antepenultima] iteracion del modulo BullDozer. Los APUs para PC han tenido mas iteraciones que los FX, el APU Trinity/Richland es de modulos PileDriver+ [una leve mejora al PileDriver de los vishera], los actuales APU Kaveri son de modulos SteamRoller, y si aparecen los APUs Carrizo estos tendrian modulos Excavator, lo que AMD planeo como la cuspide del CMT y que seria la iteracion definitiva del BullDozer

hilo_rumor-tendremos-la-arquitectura-excavator-por-fin-en-este-ano-apu-carrizo_2049240

Imagen



.
TRASTARO escribió:
Dfx escribió:[..] si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.


Solo recuerden que los APUs [SoCs] de las consolas actuales en nada tiene que ver con los APUs Trinity/Richland/Kavery o los FX, ya que no usan arquitectura Modular [CMT].


Aunque no usen la arquitectura modular, si son nucleos completos tampoco se iran demasiado lejos en cuanto IPC que a los excavator a la misma frecuencia, por muy "diferentes" que sean.
Comprobado:

La gente tiene mucho cuento. Con una simple GTX 770 de stock, en ultra (sí, sí, texturas también) el juego baila entre 30-40 fps (con FXAA), si bajo texturas a high y quito las tecnologías exclusivas de PC en sombreados y dejo SSAO y en sombras dejo en alto pero sin PCSS, la velocidad en juego ronda los 50-60 fps. Tambien con FXAA, a 1080p en ambos casos.

Las cinemáticas en el primer caso sí pueden bajar de 20 fps, pero en el segundo se mantiene en 30 fps o más, más que suficiente siendo secuencias no interactivas.

Todo con Vsync activado, y sin ningún parche aplicado al ser la versión sparrow. Para más inri, el juego va claramente mejor que los anteriores AC3/4 cuando éstos sufrían un bajón de framerate bien por debajo de los 60 fps, ya que incluso bajar a 50 fps era bastante molesto. Con Unity se mantiene una fluidez bastante más razonable incluso a 40 fps, en 30 fps no es fluido, pero tampoco va a saltos. Eso sí, se nota que en el primer caso cuando se pone todo a tope, ya sea porque hay poca VRAM o no para de cargarse datos, hay alguna rascada momentanea al pasar de una zona a otra, pero nada que siquiera pueda asegurar que sea tema de la VRAM, aunque la GTX 770 tenga ocupados cada uno de sus MB con esta configuración.

Tanto criticar para que sea un juego que va mucho mejor que otros, como el por ahí mencionado Evil Within, que incluso quitando limitador de fps va bastante peor, y así alguno más como el Mordor, etc.

Está claro que la gente tiene ganas de criticar por criticar.

Y eso no quiere decir que el juego no esté bugueado, que lo está, tiene muchos de los bugs mencionados y que pueden ser hilarantes, o mosqueantes según cómo se tomen. Pero no tienen nada que ver con el tema del rendimiento en sí, fallos en la generación de niveles LOD de personajes, alteraciones de éstos (secundarios en las calles) que si te vas fijando puedes ver, y problemas de enrutado en el mapeado para estos haciendo que se metan por donde no podrían.

Son los bugs típicos de un juego que ha salido demasiado pronto, o con un proceso de testado del diseño de mapas y demás material usado, insuficiente. Pero el juego, por sí, luce, a pesar de todos estos problemas. Hay momentos realmente impresionantes en diseño de escenario y sí, por lo menos en primer plano hay momentos que son memorables por la calidad gráfica desplegada. Incluso con la segunda configuración adaptada para la GTX 770.

Y rinde bastante adecuadamente, por lo menos con una modesta GTX 770. Lo que no hará con una 780 o una 970 en un Pc más o menos potente. Fijo que no tiene problemas para usar la calidad ultra a tope y mantenerse como mínimo a 50 fps.

Que la gente piense un poco, en consolas para jugar lo hacen a 30 fps que no se cumplen, y a 900p, y con calidades similares a la segunda versión de mis configuraciones, puede que algo menos en algún punto. Aunque sea igual.

Jugar a 1080p implica un +44% de pixeles en pantalla, por lo tanto trabajo. Hacerlo rindiendo más cerca de los 60 fps que de los 30 fps (pocas veces baja de 50 fps, y cuando lo hace en las escenas más exigentes, aún así ronda los 45), esto es, a veces al doble de fps, y a veces un +50%, implica casi el doble de rendimiento bruto.

Jugando con la calidad extra de la versión PC (PCSS HBAO+ texturas más detalladas), todo en ultra, con 1080p y entre 30-40, también tiene serias implicaciones de un uso eficiente comparado con las consolas del potencial gráfico de un PC. Y aún así rindiendo siempre por encima de 30 fps, al revés que las consolas.

Así que lo siento, pero no. El juego no ha salido de PC sin optimizar, su optimización es igual o mejor que la versión de consola, y si no se es ambicioso, y conociendo las limitaciones de cada hard, puede rendir bastante bien y verse bastante bien. Evidentemente la calidad ultra no es para todos, pero esa calidad nunca se vió en ningún otro AC.

Y esto lo digo habiéndolo visto más que en vídeos, y estando harto de ver los anteriores AC3 y 4 de forma bastante reciente. Una cosa es que a algunas personas les resulte más atractivo el tipo de escenarios del 4, más exóticos, y otra que se hayan plasmado con mayor calidad. Y eso, no, no por lo menos a nivel puramente técnico.

Los bugs de diseño y demás, son otro tema, pero a diferencia de lo que parece decir alguna gente, no están acompañando a la experiencia de forma contínua, son una mala anécdota de vez en cuando.
ciclito está baneado por "saltarse el ban con clon"
Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.

Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.

https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ
Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.
DaNi_0389 escribió:
ahomaru escribió:
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen

http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.

The evil Within
Imagen

según esto el FX8350 tiene una media de 40fps con una GTX780TI.

Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs

Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps ¬_¬

Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?

Lo que si me queda claro es que Ubisoft pretende sacar un juego por año y que encima les funcione .
[poraki] a tomar por culo ya hombre tanto juego mediocre sin acabar.


Habria que ver en que fase del juego han pasado las pruebas y que configuracion grafica han utilizado, no te lo puedo asegurar porque no tengo el juego pero lo mismo hay alguna zona donde ocurre lo mismo que en la famosa fase ''bienvenido a la jungla'' de Crysis 3 sea bastante exigente a nivel de micro, y los Haswell sacan pecho con su ipc.

Hasta el momento voy jugando por la misión donde juegas en las fotos que hay en la mesa de la enfermería y el juego va mejor que en esa tabla.
Gracias trastaro por la aclaración
ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.

Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.

https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ
KindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.


Me lo creo perfectamente, ya que la 770 tiene tendencia a ir por encima de 30 fps y más cerca de 40 fps que de 30 (ni una sóla vez la ví bajar de 30 fps en juego real), con ultra e incluso con MSAA 2X, que hace que baje unos cuantos frames más que con sólo FXAA, pero aún así, se mantiene por encima de 30 fps (eso sí, metes 4X y ya el rendimiento se hunde).

Y aún pudiendo jugar así (estilo consola), está claro que le pasa factura la VRAM aunque ni remotamente como mucha gente se piensa, como si no pudiera (simple y llanamente la tasa de fps es más baja por las transferencias puntuales de datos para cada frame, desde memoria principal a VRAM, nada salvaje ya que el rendimiento no se derrumba ni se sufren parones, sólo baja la tasa de fps a zonas "consoleras").

La GTX 970 tiene más potencia, más ROPs y más VRAM, no debería tener problemas para ir a esas velocidades que dices.

Por cierto, mis pruebas anteriores eran con la GTX 770 con valores de reloj de fábrica, esto es, memorias de 6gbps y el OC de la gpu que le mete Gigabyte. Seguramente se pueden arañar unos cuantos frames extra, aunque no sean una barbaridad, ayudan en situaciones así.

Y sí, el juego va mucho mejor que anteriores Assasins cuando la tasa de fps baja de 60 fps, yo no toleraba con los anteriores cuando había alguna zona que bajaba a 50 fps, se notaba mucho en estos casos por la forma en que entregaba los frames. Sin embargo este Unity lo hace mucho mejor, incluso a 30 fps no se ve demasiado afectado negativamente (aunque para notaro fluido, sobre todo jugando con ratón, recomendable estar por encima de 45 fps).

También es la primera vez en muchos Assasin's que el Vsync funciona CORRECTAMENTE, sin costes en rendimiento y manteniendo una buena fluidez, la primera vez que no me siento obligado a usar una solución vsync fuera del juego.

Es que estos de ubisoft son tan, tannn malos programando.....

De momento lo juego en la versión de los mares porque me habíais metido el miedo en el cuerpo, hablando de apocalipsis gráficos y rendimientos malísimos, y quería probarlo antes de comprar. Y de todas formas, estando Far Cry 4 a punto de salir, prefiero comprar éste como estreno que el Unity, pero no ambos a la vez (quizás a base de keys un poco baratitas me lo piense).

Pero lo que tengo claro es que este juego acabará en mi colección de juegos, si no es ahora, será dentro de unos meses con algún descuento y unos 20€. Y con mucho parche ya, para arreglar esos problemas que NO SON ni remotamente para tanto drama que armáis.

Veo demasiado dramaqueen por la zona.

Por los cojones os quejábais tanto de otros juegos como BF4 o Crysis3 al salir, e iban PEOR (aunque TODOS tienen razones técnicas para eso, bueno, excepto el famoso bug del stuttering masivo de BF4 al salir).
lo del bf4 fue de traca, pasta que me gaste y lo del mapa sin sonido y la caida del servidor al tirar el edificio eran pa matar a ea y a dice
WiiBoy escribió:lo del bf4 fue de traca, pasta que me gaste y lo del mapa sin sonido y la caida del servidor al tirar el edificio eran pa matar a ea y a dice


A mí lo que me mató fue en la beta pública de días antes del lanzamiento, encontrarme que al jugar había parones de varias décimas de segundo, rozando ya alguno entero casi, cada poco tiempo porque sí. En escenarios MPs sin ... nadie más. Y el disco duro haciendo el loco teniendo memoria RAM de sobra en el sistema. ¬_¬

Eso me pareció tremendo. Y se mantuvo problemas así en el juego en lanzamienot. Me quedó claro que el juego no tendría que haber salido así. Pero nadie le discute la excelencia gráfica o incluso el rendimiento del motor de juego. Eso sí, aún arrastra bugs a día de hoy. A Unity le hace falta un lavado de bugs, pero la primera impresión que me ha dejado ha sido mejor que con el BF4.

Es la razón por la que no lo he comprado desde entonces. Bueno, eso y que teniendo el BF3, no le veo mucho sentido, aunque haya mapeados nuevos, algún cambio de la mecánica de juego, etc.

La verdad es que los BF me decepcionan un poco como juegos en sí, me gustaba más para MP el BF:BC2, lo veo como un juego muuuucho más equilibrado.
yo he estado probando el chachillo que me ha dejado uplay (puto ahorro de energía [+furioso] ) y desactivando las 4 cosillas que decía wwwendingo más arriba
he jugado bastante mejor de lo que esperaba con el fx a 4.7 la 290oc trix a stock, no son los 60 fijos pero por lo menos es jugable
luego más tarde cuando me deje continuar subiré el micro a 5 por soft para no interrumpir la descarga y tomaré un par de capturas in game para ver los los porcentajes de la combinación amd, por lo que he visto de momento... el uso de la gpu sin vsync siempre supera el 92% por lo que el cuello no debería haber demasiado.
aunque wwwendingo... ya te confirmo que había alguno al 60 y otro al 20 o al 30%
espero que esto con los dx12 se solucione
Es que me cago en la leche, que mania de meter a calzador fechas de videojugos para explotar explotar y explotar la saga, y lo peor de todo es que ya se habrá puesto a pensar como llamar a su próximo AC [facepalm]

Que les costará decir joder vamos a sacar un juego realmente asombroso y potente!, luego dicen porque GTA a pesar de ser un juego que siempre repite lo mismo en lo referente a sandbox, no defrauda, es muy fácil no se ponen como meta sacar un juego cada 9 meses! y hacen lo que hacen de forma tal que por lo menos la gente pueda sentir que esta en una ciudad libre y los fallos son cuanto menos dificiles de encontrar!
Yo con todo a tope y el quipo de mi firma es jugable... ronda todo a 35-45fps mas o menos, no es la ostia pero me esperaba algo peor... [+risas]
ciclito está baneado por "saltarse el ban con clon"
wwwendigo escribió:
ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.

Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.

https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ
KindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.


Me lo creo perfectamente, ya que la 770 tiene tendencia a ir por encima de 30 fps y más cerca de 40 fps que de 30 (ni una sóla vez la ví bajar de 30 fps en juego real), con ultra e incluso con MSAA 2X, que hace que baje unos cuantos frames más que con sólo FXAA, pero aún así, se mantiene por encima de 30 fps (eso sí, metes 4X y ya el rendimiento se hunde).

Y aún pudiendo jugar así (estilo consola), está claro que le pasa factura la VRAM aunque ni remotamente como mucha gente se piensa, como si no pudiera (simple y llanamente la tasa de fps es más baja por las transferencias puntuales de datos para cada frame, desde memoria principal a VRAM, nada salvaje ya que el rendimiento no se derrumba ni se sufren parones, sólo baja la tasa de fps a zonas "consoleras").

La GTX 970 tiene más potencia, más ROPs y más VRAM, no debería tener problemas para ir a esas velocidades que dices.

Por cierto, mis pruebas anteriores eran con la GTX 770 con valores de reloj de fábrica, esto es, memorias de 6gbps y el OC de la gpu que le mete Gigabyte. Seguramente se pueden arañar unos cuantos frames extra, aunque no sean una barbaridad, ayudan en situaciones así.

Y sí, el juego va mucho mejor que anteriores Assasins cuando la tasa de fps baja de 60 fps, yo no toleraba con los anteriores cuando había alguna zona que bajaba a 50 fps, se notaba mucho en estos casos por la forma en que entregaba los frames. Sin embargo este Unity lo hace mucho mejor, incluso a 30 fps no se ve demasiado afectado negativamente (aunque para notaro fluido, sobre todo jugando con ratón, recomendable estar por encima de 45 fps).

También es la primera vez en muchos Assasin's que el Vsync funciona CORRECTAMENTE, sin costes en rendimiento y manteniendo una buena fluidez, la primera vez que no me siento obligado a usar una solución vsync fuera del juego.

Es que estos de ubisoft son tan, tannn malos programando.....

De momento lo juego en la versión de los mares porque me habíais metido el miedo en el cuerpo, hablando de apocalipsis gráficos y rendimientos malísimos, y quería probarlo antes de comprar. Y de todas formas, estando Far Cry 4 a punto de salir, prefiero comprar éste como estreno que el Unity, pero no ambos a la vez (quizás a base de keys un poco baratitas me lo piense).

Pero lo que tengo claro es que este juego acabará en mi colección de juegos, si no es ahora, será dentro de unos meses con algún descuento y unos 20€. Y con mucho parche ya, para arreglar esos problemas que NO SON ni remotamente para tanto drama que armáis.

Veo demasiado dramaqueen por la zona.

Por los cojones os quejábais tanto de otros juegos como BF4 o Crysis3 al salir, e iban PEOR (aunque TODOS tienen razones técnicas para eso, bueno, excepto el famoso bug del stuttering masivo de BF4 al salir).



Pues ya que citas el btf4 hice un video hace meses a 2160p sli todo ultra en campaña y la fluctuacion de cargas de las gpus era un festival [mad] , vamos que a duras penas a 1300mhz obtenia una media de 50 fps. Cuando en el btf3 con las cargas al 98% solidas como una roca obtengo todo en ultra muchisimo mas alto y consistente el framerate. Con el ultimo parche que sacaron en el btf4 note mejorias en el multi, pero vamos soy de jugar poco a ese juego.

Aqui un video demostrativo:(Las cargas de las gpus son los porcentajes de la derecha de las temps:)

https://www.youtube.com/watch?v=P4rwNGp ... I9_1BcrutQ

O el watch dogs cuando salio,mas de lo mismo mirad las cargas:

https://www.youtube.com/watch?v=0QVzsat ... I9_1BcrutQ




Bueno por otro lado ya que estamos hablando del unity y ubisoft (tan criticado) y lo sorprendente bien que va incluso a 40fps os dire que el far cry 4 va en esa linea tambien. Es decir ayer estuve testeando este juego en 4k nativo todo ultra excepto oclusion, Godrays y antialias. El resultado fue sorprendente, es decir a pesar de ir en single a 30 fps de media bastante consistente incluso grabando, se podia jugar mas fluido que a 30 fps en consola. Asi que bien por ubisoft en este sentido por la optimizacion y al aplicar v-sync o triple bufer, pasa tambien como en el unity no hay perdida notoria de rendimiento.

Os dejo video del testeo de ayer ya esta vez con las cargas a tope a pesar de grabar a 2160p nativo ultra single:

https://www.youtube.com/watch?v=pfjSTfD ... e=youtu.be

La conclusion es que la optimizacion es mas que decente en ambos casos dejando a un lado los bgs del unity debido a lo que bien explica wwwendigo y corregible mediante parches asi que un poquito de paciencia y que la gente sea mas objetiva a la hora de emitir un juicio de valor o veredicto.
Dfx escribió:
Aunque no usen la arquitectura modular, si son nucleos completos tampoco se iran demasiado lejos en cuanto IPC que a los excavator a la misma frecuencia, por muy "diferentes" que sean.


Al momento no existe ningun modulo excavator en ningun procesador de AMD, los APUs Jaguar que son los que usan las consolas, pues son similares a los phenom II, pero con mejor rendimiento [IPC]; la cuestion es que para procesos de mononucleo si son mejores a los modulares BullDozer pero para multihilo son mejores los modulares.
TRASTARO escribió:
Dfx escribió:
Aunque no usen la arquitectura modular, si son nucleos completos tampoco se iran demasiado lejos en cuanto IPC que a los excavator a la misma frecuencia, por muy "diferentes" que sean.


Al momento no existe ningun modulo excavator en ningun procesador de AMD, los APUs Jaguar que son los que usan las consolas, pues son similares a los phenom II, pero con mejor rendimiento [IPC]; la cuestion es que para procesos de mononucleo si son mejores a los modulares BullDozer pero para multihilo son mejores los modulares.


A misma frecuencia los núcleos Jaguar son bastante más potentes, incluso en multihilo, el problema es la frecuencia con la que funcionan, 1,6-1,75 GHz, la mitad que los FX, y que para conseguir funcionar a la misma frecuencia que los Bulldozer necesitan muchísima más energía, ya pasar de los 2,0 GHz suponía un aumento en consumo y temperatura considerable que lo hacía inviable para las videoconsolas.

De todas maneras, a pesar de los bugs, este juego peca de usar demasiadas Draw Calls, usa perfectamente todos los núcleos de los que puede disponer, pero cuando usa DirectX 11 que tiene picos de hasta 10.000 Draw Calls y el juego requiere de 50.000... Hasta que no le metan un parche para DX 12, o redujan drásticamente las llamadas, no va a tener un rendimiento digno.
ciclito escribió:
wwwendigo escribió:
ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.

Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.

https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ
KindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.


Me lo creo perfectamente, ya que la 770 tiene tendencia a ir por encima de 30 fps y más cerca de 40 fps que de 30 (ni una sóla vez la ví bajar de 30 fps en juego real), con ultra e incluso con MSAA 2X, que hace que baje unos cuantos frames más que con sólo FXAA, pero aún así, se mantiene por encima de 30 fps (eso sí, metes 4X y ya el rendimiento se hunde).

Y aún pudiendo jugar así (estilo consola), está claro que le pasa factura la VRAM aunque ni remotamente como mucha gente se piensa, como si no pudiera (simple y llanamente la tasa de fps es más baja por las transferencias puntuales de datos para cada frame, desde memoria principal a VRAM, nada salvaje ya que el rendimiento no se derrumba ni se sufren parones, sólo baja la tasa de fps a zonas "consoleras").

La GTX 970 tiene más potencia, más ROPs y más VRAM, no debería tener problemas para ir a esas velocidades que dices.

Por cierto, mis pruebas anteriores eran con la GTX 770 con valores de reloj de fábrica, esto es, memorias de 6gbps y el OC de la gpu que le mete Gigabyte. Seguramente se pueden arañar unos cuantos frames extra, aunque no sean una barbaridad, ayudan en situaciones así.

Y sí, el juego va mucho mejor que anteriores Assasins cuando la tasa de fps baja de 60 fps, yo no toleraba con los anteriores cuando había alguna zona que bajaba a 50 fps, se notaba mucho en estos casos por la forma en que entregaba los frames. Sin embargo este Unity lo hace mucho mejor, incluso a 30 fps no se ve demasiado afectado negativamente (aunque para notaro fluido, sobre todo jugando con ratón, recomendable estar por encima de 45 fps).

También es la primera vez en muchos Assasin's que el Vsync funciona CORRECTAMENTE, sin costes en rendimiento y manteniendo una buena fluidez, la primera vez que no me siento obligado a usar una solución vsync fuera del juego.

Es que estos de ubisoft son tan, tannn malos programando.....

De momento lo juego en la versión de los mares porque me habíais metido el miedo en el cuerpo, hablando de apocalipsis gráficos y rendimientos malísimos, y quería probarlo antes de comprar. Y de todas formas, estando Far Cry 4 a punto de salir, prefiero comprar éste como estreno que el Unity, pero no ambos a la vez (quizás a base de keys un poco baratitas me lo piense).

Pero lo que tengo claro es que este juego acabará en mi colección de juegos, si no es ahora, será dentro de unos meses con algún descuento y unos 20€. Y con mucho parche ya, para arreglar esos problemas que NO SON ni remotamente para tanto drama que armáis.

Veo demasiado dramaqueen por la zona.

Por los cojones os quejábais tanto de otros juegos como BF4 o Crysis3 al salir, e iban PEOR (aunque TODOS tienen razones técnicas para eso, bueno, excepto el famoso bug del stuttering masivo de BF4 al salir).



Pues ya que citas el btf4 hice un video hace meses a 2160p sli todo ultra en campaña y la fluctuacion de cargas de las gpus era un festival [mad] , vamos que a duras penas a 1300mhz obtenia una media de 50 fps. Cuando en el btf3 con las cargas al 98% solidas como una roca obtengo todo en ultra muchisimo mas alto y consistente el framerate. Con el ultimo parche que sacaron en el btf4 note mejorias en el multi, pero vamos soy de jugar poco a ese juego.

Aqui un video demostrativo:(Las cargas de las gpus son los porcentajes de la derecha de las temps:)

https://www.youtube.com/watch?v=P4rwNGp ... I9_1BcrutQ

O el watch dogs cuando salio,mas de lo mismo mirad las cargas:

https://www.youtube.com/watch?v=0QVzsat ... I9_1BcrutQ




Bueno por otro lado ya que estamos hablando del unity y ubisoft (tan criticado) y lo sorprendente bien que va incluso a 40fps os dire que el far cry 4 va en esa linea tambien. Es decir ayer estuve testeando este juego en 4k nativo todo ultra excepto oclusion, Godrays y antialias. El resultado fue sorprendente, es decir a pesar de ir en single a 30 fps de media bastante consistente incluso grabando, se podia jugar mas fluido que a 30 fps en consola. Asi que bien por ubisoft en este sentido por la optimizacion y al aplicar v-sync o triple bufer, pasa tambien como en el unity no hay perdida notoria de rendimiento.

Os dejo video del testeo de ayer ya esta vez con las cargas a tope a pesar de grabar a 2160p nativo ultra single:

https://www.youtube.com/watch?v=pfjSTfD ... e=youtu.be

La conclusion es que la optimizacion es mas que decente en ambos casos dejando a un lado los bgs del unity debido a lo que bien explica wwwendigo y corregible mediante parches asi que un poquito de paciencia y que la gente sea mas objetiva a la hora de emitir un juicio de valor o veredicto.



Ciclito, eres famoso (XD):

http://www.meristation.com/video/assassins-creed-unity/2022580

6:27

Ése eres tú con tu equipo, y lo sabes....

Imagen

Mi opinión sobre las gansadas que dice:

Vale que el estilo del videoreportaje es humorístico, pero eso no quita que un mal humor, que recuerda olores de sobaquera y nalgas sudadas, sea igualmente chabacano y desagradable.

Pero bueno, un chascarrillo gracioso y cuatro malos, es lo que tiene. Pero centrándose en lo que habla, la parte técnica demuestra hasta qué punto no se fija una mierda en lo que lee:

Primero, tú estás hablando del juego a tope en 4K, por lo que el sarcasmo de poner tu firma más el mensaje diciendo que "a tí te va bien" y que a los demás igual tienen equipos algo flojillos para lo que es el juego, le sobra.

Si no pilla que a 1080p los requerimientos en potencia gráfica son cuatro veces menos, ya es su problema. Fuera de esto, también se habla del tema de que con calidades altas, el juego es básicamente como en consola pero a 1080p y sin capado a 30 fps, según lo que pueda la gráfica usada. Y a medio o medio-alto muchas gráficas de gama media podrán moverlo.

Si se quiere hablar de la versión PC, no hay que olvidar cómo ha sido diseñado el juego y con qué target de fps en consolas, y no vender la moto de que si no hace 60 fps con todo en ultra en un PC medio o medio alto, es que es una mierda.

Sé que tiene algo de gracia ver tu firma y esas palabras fuera de contexto, sobre todo si no se fija la gente bien en lo que pone, pero realmente no tiene puta idea de lo que habla (sí del tema de bugs gráficos y cosas así, pero me da que este tipo es carne de cañón de juegos scriptados y que realmente nunca ha jugado a un AC, de verdad. Eso de que se extrañe de que los viandantes "no reaccionen" por verte acechando, tiene coña, parece que no conoce la mecánica del juego, y es que son las acciones de "perfil alto" las que les hacen reaccionar, NO las de perfil bajo. En fín...).

Y ya está, tampoco esperaba más de Meristation, veo que se une a la campaña de descrédito por unirse, tampoco me esperaba mucho, dadas las lagunas técnicas del staff de esta revista online. [sonrisa]
Mulzani escribió:
A misma frecuencia los núcleos Jaguar son bastante más potentes, incluso en multihilo, el problema es la frecuencia con la que funcionan, 1,6-1,75 GHz, la mitad que los FX, y que para conseguir funcionar a la misma frecuencia que los Bulldozer necesitan muchísima más energía, ya pasar de los 2,0 GHz suponía un aumento en consumo y temperatura considerable que lo hacía inviable para las videoconsolas.



Los Jaguar|Puma van enfocados a un mercado muy distinto a los FX y APUs de escritorio, por ello su desarrollo independiente, pensados como SoCs para microsostemas escalares, y pues gracias a que se pueden personalizar pues fue la eleccion de microsoft/sony al momento de elegir, aqui a saber si fue obra de una buena estretegia de promocion y venta de AMD hacia estas compañias o fueron tales compañias las que fueron con AMD. Aqui no recuerdo si los encargados del diseño de estos Jaguar son los mismos que desarrollaron los Opteron y Athlon x64
Veo que en muchos comentarios se tacha de vagos o incompetentes a los desarrolladores, cuando me da a mi que es mas bien una decisión financiera. El juego no esta acabado y salta a la vista que en circunstancias normales le quedarían un par de meses de desarrollo por delante para optimizarlo, pero Ubisoft no podía permitirse faltar a su cita anual con la campaña navideña.

Una lastima, solo espero que ahora se dediquen a arreglar todos los problemas y podamos acabar disfrutándolo, aunque sea en marzo.
109 respuestas
1, 2, 3