Ubisoft culpa a AMD del rendimiento de Assassin’s Creed Unity

1, 2, 3
Seguimos hablando de Assassin’s Creed Unity, quizás el juego más nombrado en los ultimos días debido a su pésimo rendimiento y a su lista interminable de bugs.

Ubisoft, en vez de pedir disculpas y prometer una rápida solución, se ha limitado a anunciar que los problemas de rendimiento en PC vienen acusados por el uso de una CPU o GPU de AMD, algo realmente inverosímil si tenemos en cuenta que tanto la PlayStation 4 como la Xbox One presentan los mismos problemas siendo unas consolas basadas en la misma configuración de una CPU/GPU de AMD.

“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y ​​le proporcionarán más información tan pronto como sea posible.”

Como hemos dicho ya en innumerables ocasiones, lo realmente triste es que se haya desarrollado un juego pensando en dos consolas con ADN AMD y luego sea en dicha plataforma donde el juego vaya fatal, y no solo eso, ¿no se preocuparon en probar el juego antes de sacarlo a la venta?.
apalizadorx escribió:Seguimos hablando de Assassin’s Creed Unity, quizás el juego más nombrado en los ultimos días debido a su pésimo rendimiento y a su lista interminable de bugs.

Ubisoft, en vez de pedir disculpas y prometer una rápida solución, se ha limitado a anunciar que los problemas de rendimiento en PC vienen acusados por el uso de una CPU o GPU de AMD, algo realmente inverosímil si tenemos en cuenta que tanto la PlayStation 4 como la Xbox One presentan los mismos problemas siendo unas consolas basadas en la misma configuración de una CPU/GPU de AMD.

“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y ​​le proporcionarán más información tan pronto como sea posible.”

Como hemos dicho ya en innumerables ocasiones, lo realmente triste es que se haya desarrollado un juego pensando en dos consolas con ADN AMD y luego sea en dicha plataforma donde el juego vaya fatal, y no solo eso, ¿no se preocuparon en probar el juego antes de sacarlo a la venta?.


1. Nvidia como siempre a maletinazos. Ya no vale con que sea mejor en Nvidia, ahora si no funciona en AMD mejor.

2. Ubisoft son unos incompetentes y no saben optimizar un juego.

:D
Si si, maletinazos cuando con las nvidia también va de pena...
dFamicom escribió:Si si, maletinazos cuando con las nvidia también va de pena...


Ver el punto 2 XD

Por si no quedaba claro, son posibilidades, pueden darse una de las 2, o las 2. Ninguna no porque el juego va como el culo XD
Pero qué maletines ni na', si va como el culo en cualquier plataforma.
Me imagino el betatesting de Ubisoft:
- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...
dFamicom escribió:Si si, maletinazos cuando con las nvidia también va de pena...


Claro y lo de WATCH_DOGS fue un desliz...

Manda huevos

elrocho escribió:Pero qué maletines ni na', si va como el culo en cualquier plataforma.
Me imagino el betatesting de Ubisoft:
- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...


No hay betatesting, directamente.

Ahora entiendo como un gili****** de Ubiport decía que los juegos de PC deberían ir a 30 fps... [+furioso]
Esta claro que es mas facil poner excusas y echarle el marron a amd que asumir que han echo una autentica porquería de optimización infumable, y lo peor es que no es la unica desarrolladora, hasta tal punto en que uno se plantea si realmente merece la pena pagar 400 eurazos de grafica + 500 eur de placa y cpu por tener cutreports que no aprovechan el hardware.

Tenía pensado pillarme la gtx 970 para finales de diciembre, pero viendo como esta el panorama creo que me voy a quedar tranquilamente con mi 7970 oc y hasta que no salga directx12 no movere ficha.
apalizadorx escribió:Seguimos hablando de Assassin’s Creed Unity, quizás el juego más nombrado en los ultimos días debido a su pésimo rendimiento y a su lista interminable de bugs.

Ubisoft, en vez de pedir disculpas y prometer una rápida solución, se ha limitado a anunciar que los problemas de rendimiento en PC vienen acusados por el uso de una CPU o GPU de AMD, algo realmente inverosímil si tenemos en cuenta que tanto la PlayStation 4 como la Xbox One presentan los mismos problemas siendo unas consolas basadas en la misma configuración de una CPU/GPU de AMD.

“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y ​​le proporcionarán más información tan pronto como sea posible.”

Como hemos dicho ya en innumerables ocasiones, lo realmente triste es que se haya desarrollado un juego pensando en dos consolas con ADN AMD y luego sea en dicha plataforma donde el juego vaya fatal, y no solo eso, ¿no se preocuparon en probar el juego antes de sacarlo a la venta?.



1.- La versión PC es superior a nivel técnico que la versión de consola, ofrece mejores efectos y un nivel LOD superior, y eso conlleva:

a) MAYOR carga de gpu. (mejores efectos, más resolución y filtros, yyyyy ... del apartado b) viene una mayor sobrecarga en llamadas gráficas del API, más elementos a renderizar es igual a más llamadas al API).

b) MAYOR carga de cpu. (LOD, y derivados como IA y físicas de más entidades en pantalla)


2.- La versión de consolas, no sólo es más limitada, no sólo está limitada a 30 fps a 900p, sino que tampoco va especialmente bien y tiene bugs a perrear, aquí tanto la plataforma PC como la de consolas han sufrido un lanzamiento demasiado temprano para el juego. Dentro de unos meses irá más fino, eso seguro.

Dicho esto, algo que conocer sobre la saga Assasin's Creed:

POR DISEÑO de mundo abierto con grandes grupos de entidades "vivas", es un juego que pone al límite mucho más que tonterías pasilleras como los CoD u otros las limitaciones técnicas de una máquina, tanto en memoria, como gpu, como cpu.

De siempre ha habido una limitación en cpu de los juegos de AC, aunque usaran lo último en cuestiones gráficas cuando salían, tanto en PC como consola, la cpu nunca ha dejado de ser un elemento que podía limitar el rendimiento.

Esto era notable en AC y los AC2 sobre todo, donde ciertos subsistemas del juego en forma de hilo llegaban a saturar a un core, limitando el rendimiento de los demás elementos. En AC3 se mejoró muy notablemente el uso de multihilo, aún así sigue existiendo ciertos subsistemas muy vinculados con el nivel LOD limitados por el rendimiento de un único core. Esto pasó a notarse más en AC4 al ser técnicamente algo más exigente, así que esta saga siempre ha necesitado cpus lo más rápidas posibles, y además rápidas POR CORE, no sólo teniendo suficiente número de éstos, sino que cada uno fuera rápido para que cargas extras en subsistemas de control del LOD no saturaran a todo el juego y limitara su framerate.

En el AC4 es perfectamente posible encontrar ciertas áreas que por el nivel LOD, en un i5 a más de 4 GHz, la tasa de fps baje de 60 fps hasta 50 o incluso 47-48 fps, siendo la limitación puramente por cpu. En el AC3 es más difícil encontrar esta limitación (y más fácil encontrar limitaciones por gpu), pero con una cpu más débil se vería.

Siendo Unity un juego más complejo en grupos de personas a mostrar, con una mayor cantidad y nivel de detalle, y usando el PC un mayor nivel de detalle LOD, ¿a qué viene quejarse de algo que se ve venir?

Por supuesto las cpus AMD son especialmente incompetentes para este tipo de trabajo, a nivel de un único core puede ofrece un IPC de poco más del 50% de una cpu intel. ¿En serio la gente se piensa que esto no tiene consecuencias en aplicaciones reales, que todo se arregla con "magia multihilo"? por favor.

Si una tarea no se puede dividir o es muy difícilmente divisible entre hilos, las cpus de AMD van a sufrir, no olvidemos que el nivel de detalle, al incrementarse, puede significar aumentar el trabajo en factores de 2X, 3X o más allá, dependiendo de qué se va a mostrar de más (detalles de los elementos, y/o más elementos con la distancia).

Segundo, sobre gpus, y medio casando con lo anterior. Vamos a ver, de la misma forma que la gestión de nivel LOD es una de las tareas más intensivas en un juego (en Tomb Raider se puede ver el mismo problema, y otros juegos con gran detalle a distancia), éste lleva implícito una mayor sobrecarga de llamadas al API.

Y no es ningún misterio que el driver DX11 de AMD es bastante menos capaz a la hora de gestionar llamadas para renderizar elementos, puede manejar MENOS elementos que el driver de nvidia. Esto es independiente de la gpu o gráfica usada, es un tema de la calidad y diseño del software controlador, y por tanto, mientras AMD siga revoloteando por Mantle y cosas así, mientras no mejore el driver DX11 como sí hizo nvidia, esto tendrá sus consecuencias en juegos DX11 que exprimen al máximo el nivel LOD y de llamadas al API, como es un caso de libro el de juegos tipo AC.

Eso y que las gráficas y drivers de AMD aún NO han recibido soporte para Unity de parte del fabricante, esto es de cajón y no veo el problema. No veo que aquí nadie critique cuando esto pasa al revés y es un juego patrocinado por AMD el que tarda en recibir soporte por nvidia (eso sí, raro que pase de tardar semanas, pero en algún caso se han necesitado MESES y MESES para pulir los drivers y arreglar los problemas provocados por técnicas implementadas en juegos "de AMD", la gente olvida rápido esos Sniper Elite, esos Sleeping Dogs, Hitman o Tomb, etc).

El juego es exigente a nivel gráfico, tanto como para ir "mal" como dicen algunos en nvidia (tendría que haberse atrasado algún mes), con un soporte y seguimiento en el juego y testado que no ha tenido AMD, evidentemente AMD tardará y rendirá peor inicialmente. Incluso sin contar que en similares condiciones nvidia tarda mucho menos en dar el soporte necesario.

Existen todas estas causas y factores, no es ningún disparate lo que dicen desde Ubisoft, en AMD tienen dos problemas al gestionar la versión PC:

En cpu porque son lentas por core, y esto afecta mucho al gestor de LOD del juego y a la sobrecarga provocada por el uso del API con tantos elementos a renderizar.

En gpu, porque además de carecer del seguimiento que sí le ha dado nvidia, de la misma forma que AMD hace un seguimiento a los juegos GE que no puede hacer nvidia, y que a veces ha metido técnicas que le han degradado a nvidia su rendimiento (repito, los ejemplos anteriores son unos válidos), resulta que, además, el driver es más costoso a nivel de llamadas al API que el de nvidia. Una cuestión de diseño interno del driver, NO de Ubisoft ni de soportar tal o cual efecto.

Y este soporte más precario de DX11, que recordemos, tanto critica AMD hablando de su Mantle, que lo único que promete es aligerar en cpu a nivel de uso del driver, nada de efectos nuevos, y que nvidia lo da mejor, y que además se ha comparado con las APIs gráficas de consola que se dice son más ligeras, pasa factura.

Y curiosamente, la combinación de cpu y gpu AMD es posiblemente la peor combinación posible, siendo mejores la de AMD + nvidia o intel + AMD, ya que si se usa una gpu AMD, con juegos así es mejor tirar de intel por su mayor potencia por core y mejor capacidad ante un driver más exigente en cpu por llamadas al API, y si se tira de cpu AMD, dada sus limitaciones de rendimiento por core, limitará menos una gpu nvidia por uso del API más liviano (DX11).

Repito, situaciones de limitación de rendimiento por sobrecarga de llamadas del API, este juego en sí limita de sobra por LOD/físicas/IA en cpu , e idem por proceso gráfico puro y duro en gpu.

Pero es que además de esto, está que es un tipo de juego que pone, al límite y más en PC con más nivel LOD y mayor coste de gestión de llamadas de API contra las consolas, al límite este tipo de temas como el uso del API.

Hay buenas razones técnicas para decir lo que dicen desde Ubisoft, por mucho que escueza.
Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.
nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.


¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?

Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.

Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.
wwwendigo escribió:
nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.


¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?

Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.

Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.


Me he expresado mal, nada de Assasins creed, si el FC4 sale bien lo compraré.
Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
wwwendigo escribió:
nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.


¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?

Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.

Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.


Da igual Wendigo, los productos de UBI ultimamente son un desastre, son ellos quienes han de preparar el juego para el hardware existente y es algo que no están cumpliendo juego por juego, y te lo dice alguien que tiene toda la saga AC, WD y muchos otros juegos de UBI tanto en X360 como en PC.
Dfx escribió:
wwwendigo escribió:
nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.


¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?

Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.

Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.


Da igual Wendigo, los productos de UBI ultimamente son un desastre, son ellos quienes han de preparar el juego para el hardware existente y es algo que no están cumpliendo juego por juego, y te lo dice alguien que tiene toda la saga AC, WD y muchos otros juegos de UBI tanto en X360 como en PC.



Yo también tengo muchos de sus productos, y no por esto voy a dejar de comprar juegos que me interesen. Eso sí, igual esperando a que salgan, se revise que van bien o se parcheen, y que me interesen, claro.

Yo con el WD no tuve ni de lejos la experiencia "traumática" de algunos, el juego es muy superior técnicamente hablando a los GTA IV y otros con el que comparaban gente y que incluso llegaban a decir que estaban "mejor" (a nivel gráfico). Y a nivel de historia o ambientación, también es mejor. Falla en variedad de misiones, pero no estan mal del todo, yo acabé bastante desilusionado con el GTA IV, quizás algún día lo revisite y le de más tiempo de prueba que unas pocas horas, porque vamos... con ése me llevé un chasco.

Y no señor, a todos aquellos que parece que defienden que WD es una mierda en todos los niveles a estudiar, el WD está muy bien, eso sí, exige ajustar a tu equipo, y el tema de la conducción de coches, no de motos, está un tanto estropeado, pero es un buen juego sandbox de este tipo. Y eso que no he jugado durante meses, seguramente ahora estará más pulido, que ha sido uno de los pocos que me he pillado al salir.

Juegos como FC3 y los últimos AC, bueno, mejor dicho el AC4, al AC3 tardé en "pillarle cariño" por culpa de ciertos temas del diseño del juego, salieron buenos. Así que no son todos los que sacan "malos".

Si tal, esperar a que se pulan fallos y ya de paso conseguirlo con descuento incluido, ya fuera de novedad, pero vamos... a mí con el Unity lo que me han dejado claro es que conviene esperar, aunque con el FC4 espero que lo hayan hecho mejor, porque le tengo ganas.

-----


Sobre cpu y gpu y esa crítica a AMD, se ve bien en la review rusa de antes:

Imagen

Con cpu. Se ve que hace falta cpus potentes, a nivel de core, porque las FX sufren incluso peleando con un simple i3, y eso a pesar de la ventaja de la frecuencia enorme de los FX9xxxx. También se ve, de paso, que el mejor controlador de memoria y sistema de cachés de los Piledriver dan su rédito en juegos, frente a Bulldozer.

Se ve que aumentar cores ayuda, pero no de forma progresiva, lo dicho. Algún subsistema depende de uno, o dos hilos, pocos vamos, y limita al resto del rendimiento, seguramente el resto de subsistemas son también pesados, de ahí que haya beneficios con cpus con muchos cores, pero hay una clara señal al beneficio de usar cpus con alto rendimiento por core.

Sobre gpus:

Imagen

Vamos, que no es para tanto, las AMD rinden "menos" pero no mucho menos. Teniendo en cuenta que nvidia ha podido hacer un seguimiento y pulido de drivers en pleno desarrollo, y que lleva técnicas que se le ajustan bien a su arquitectura (que no es lo mismo que decir que se boicotee al rival, ojo), es lo normal.

Una GTX 770 rinde más que una 280X, un buen porcentaje pero no ninguna barbaridad.

Una GTX 780 rinde un pelo más que la 290X (se podría hablar de un empate técnico), y un buen porcentaje más que la 290 normal, pero no una locura.

Es lo que pasa en juegos, y lo sabemos, con un soporte inicial superior en un fabricante, o que tenga aportes de dicho fabricante de gpus. Lo hemos visto antes, con nvidia y con AMD, y nadie extrañado. De hecho hace nada lo vimos con Alien:Isolation, donde ocurren esos cambios de ratio de rendimiento a favor de AMD, y no pasa nada.

Claro que el juego va bien, en general, que es la diferencia con Unity.

Y ojo, con gpus al usar una cpu tan potente como la usada, no hay problema. Puede haber problema extra al combinar una cpu y una gpu AMD, visto que ya le cuesta sacar rendimiento con semejante cpu de intel usada. No debería haber problema si se combina AMD+nvidia o intel+AMD, para este juego.

Bueno, fuera de que ha salido "bugueado" de mala manera, pero eso en un tiempo se acabará puliendo.
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


Que un sli de gtx 980 tenga esos resultados a 1080p, me parece cuanto menos preocupante...
Creo que de la optimización han pasado directamente, porque parece mentira que tenga ese rendimiento un sli de las dos gráficas más potentes.
Entonces el que tenga una 7970 (gráfica bastante apta para jugar a 1080) o una gtx760, ¿qué ocurre? ¿Tiene que poner detalles en bajo?
Simplemente increíble. A mí con la gtx970 me va a llegar un código de descarga y creo que el assassin's creed no voy a usar precisamente.
Me atrae el farcry 4, pero acabé un pelín cansado del 3, al principio muy chulo y demás, pero luego bastante repetitivo. Y "The crew" me gusta, pero no sé el número de coches que va a tener...
ajbeas escribió:
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


Que un sli de gtx 980 tenga esos resultados a 1080p, me parece cuanto menos preocupante...
Creo que de la optimización han pasado directamente, porque parece mentira que tenga ese rendimiento un sli de las dos gráficas más potentes.
Entonces el que tenga una 7970 (gráfica bastante apta para jugar a 1080) o una gtx760, ¿qué ocurre? ¿Tiene que poner detalles en bajo?
Simplemente increíble. A mí con la gtx970 me va a llegar un código de descarga y creo que el assassin's creed no voy a usar precisamente.
Me atrae el farcry 4, pero acabé un pelín cansado del 3, al principio muy chulo y demás, pero luego bastante repetitivo. Y "The crew" me gusta, pero no sé el número de coches que va a tener...


Es que ahí no pinta nada el rendimiento gráfico, es un caso de limitación por cpu. Este juego como todos los AC tiran mucho de cpu, y quizás más de rendimiento por core que de número de cores, aunque ambos factores importen.

Si se quieren mundos amplios y abiertos, poblados por entidades, las exigencias de rendimiento tanto de cpu como gpu se disparan respecto a otros juegos más simples. Esté bugueado o no Unity, es dentro de lo que cabe esperable que las cpus se puedan saturar cuando se juega con calidades altas, dado que también trabajan extra en la gestión de todos estos recursos.
Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.

Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.
Están diciendo en pocas palabras que no van a arreglar nada. Se desentienden ya que segun ellos los culpables son otros.
increible q mentirosos estos de ubi se nota q les paga los de verde yo tengo en unity y con mi 7970 matrix perfecto y con la 780 igual y tirando de momento con el g 3258 a 4,5 y va de lujo . y tambien sera culpa de amd q el juego tenga bugs en fin yo estoy jugando al ryse son of rome con mi matrix y de lujo y note que estaba mas claro en el black flag con la 7970 q con la 780.
El poder oculto de ubi, cabrear a medio planeta!
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.

Imagen
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html


cito para reflotar la tabla jajaj

veis a lo que me refiero cuando aconsejo subir los fx hasta las trancas para este tipo de juegos?

haría falta un FX oceado a 5 para conseguir el mismo rendimiento que un 2500k a frecuencias STOCK!!!!! (así calculado a ojo segun tabla)
lo vengo a decir por la gente que estais pinchando las gtx 970 o las r9 290 con el FX a 4.2... 4.3....
en juegos como éste es donde se nota el cambio de plataforma (y últimamente he visto unos cuantos gráficos como éste)

yo sinceramente... viendo las tablas que habeis puesto... coincido con wwwendingo
juego que tira de cpu... mundo abierto... mucha peña.... phisicas... ia.. bla bla bla...
y juego de nvidia (sin comentarios)

no me voy a meter con ubi, pero... como no se espabilen los programadores... lo van a pasar las consolas, ya se ve que ellas necesitan optización porque ya no tiran... y sobre en el pc's.... imaginaos... port de juego mal hecho.... cagate lorito
Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.

Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.

Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.

Ésta gráfica:
Imagen
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Imagen
Imagen

Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.
Mulzani escribió:
Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.

Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.

Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.

Ésta gráfica:
Imagen
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Imagen
Imagen

Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.


Ojala fuera eso asi de verdad. Mi FX-8350@4.5 aun no ha pasado del 70% en ningun core y la carga no es ni por asomo la de esa imagen. Le quite el OC y volvi a valores de fabrica por si era eso y no, peor aun. Y mientras mi R9 290 pidiendo micro y con la carga bailando.
Mulzani escribió:
Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.

Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.

Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.

Ésta gráfica:
Imagen
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Imagen
Imagen

Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.



Y luego vas y te crees que con los FX con casi todos los nucleos a 70%+ llega un i3 a 3,5ghz sacando un rendimiento similar al FX9570 a 4,7ghz, lo que tienen es un problema de optimizacion brutal de cpu y la prueba la tienes en el 5960X usando un 30~40% de 16 hilos de los todopoderosos núcleos Intel para conseguir superar la barrera de los 100fps de poco.

Que si me hablaras de otros juegos con motores graficos de mucha mas calidad pues vale, pero si me hablas de Ubi que viene de una cagada tras otra con juegos que casi siempre pecan de lo mismo, pues no, por muy Unity que sea no deja de ser un juego que esta funcionando en las consolas de nueva generacion con micros a la mitad de ese FX y no deja de ser un AC con mejores graficos, que si se hubieran tomado la molestia de testear (que ultimamente tengo serias dudas de que algunas compañías testen sus propios juegos una vez "terminados") se hubieran dado cuenta de que da problemas en muchas plataformas.

A mi este planteamiento de optimiza una mierda y luego pide requerimientos lo mas altos que puedas me parece ridículo.
anikilador_imperial escribió:
Mulzani escribió:
Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.

Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.

Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.

Ésta gráfica:
Imagen
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Imagen
Imagen

Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.


Ojala fuera eso asi de verdad. Mi FX-8350@4.5 aun no ha pasado del 70% en ningun core y la carga no es ni por asomo la de esa imagen. Le quite el OC y volvi a valores de fabrica por si era eso y no, peor aun. Y mientras mi R9 290 pidiendo micro y con la carga bailando.


Tú estás hablando desde el uso de un FX 8xxx con una AMD R9 290, en la prueba usan una GTX 980.

Cuando antes dije que la peor combinación posible con este juego era AMD + AMD, no era porque sí.

Tu cpu se rasca la barriga, tu gpu se rasca la barriga, algo falla, ¿no? ¿qué pruebas tienen más sentido, la de los rusos o lo que ves tú?

Muy posiblemente lo que te está pasando es que el driver DX11 de la AMD, que es claramente peor a la hora de gestionar los recursos de cpu al hacer llamadas del API de microsoft, y que en el caso concreto de AMD básicamente NO PARALELIZA ninguna llamada usando otro core, como sí hace el driver de nvidia (en gran medida culpa del diseño del API de Microsoft, sí, pero no sólamente, había funcionalidad en DX11 para gestionar paquetes de varias llamadas usando varios cores desde hace tiempo con DX11, por ejemplo usando "Command Lists" para esto, que en parte recuerdan las "display lists" de las consolas, y que sin embargo desde hace tiempo NO funcionaban correctamente en AMD, ya que son más lentos estos comandos que secuenciar todas estas llamadas al API de forma seriada y en un único core e hilo, es la diferencia entre hacer un trabajo usando X cores a la vez para hacer las llamadas, y usar un core y que vaya "marcando una", después otra, y otra y...).

Vamos a ver. No hay casi peor juego posible para llenar al API de llamadas que uno como los Assasins Creed, mundos abiertos, cantidades importantes de elementos del escenario, y lo que es peor, cantidades enormes de "entidades vivas" que normalmente están conformadas por una retahíla de distintas llamadas y que son de proceso más complejo que otros elementos "inanimados". El modelo de un ser humano puede consumir por sí sólo una cantidad importante de llamadas, aún usando inteligentemente el instanciado, lo que se ve en los AC es desde el punto de vista de llamadas del API intensivo.

Y dado que el driver DX11 de AMD se puede considerar que NO PARALELIZA entre cores NADA, que usa un único core como casi ha sido diseñado en las mentes de los autores del API DX11, su funcionamiento (excepto trucos como las command lists, o ya temas de mejoras introducidas en los drivers de nvidia, como reducir el número de ciclos de reloj necesarios para procesar una llamada, o usar sistemas de buffers de llamadas y su proceso en paralelo enviándolas a distintos cores, algo "fuera del API original" DX11), se entiende que el driver de AMD pedirá muco rendimiento a un único hilo que es el que determina el rendimiento de todo lo demás, porque si ese hilo se satura en un core, dado que marca el ritmo del renderizado de frames pasando elementos a la gráfica, pues......:

La gráfica se rasca la barriga al procesar menos frames de los que puede.

El resto de cores de la cpu se rascan la barriga dado que procesar pocos frames, implica procesar pocas actualizaciones de los estados de la física, IA, etc, vamos, que si hay baja tasa de fps por culpa del hilo que maneja el driver (ojo, ni siquiera sería directamente un hilo del juego en sí), habrá menos carga en todo lo demás de la cpu, ya que se estaría afectando al DIRECTOR de la orquesta.

Después, añádele un poco de rebalanceo del proceso/hilo donde se procesa las llamadas al API, entre los demás cores al estar cuasi ociosos como dices, y ya tienes la imagen completa donde no se ve en ningún lado el 100% de uso (pero sí hay un hilo furtivo, fuera del juego, y posiblemente saltando entre core y core, que está al 100% y limitando al resto del sistema).


PD: En serio que algunos por los comentarios que hacéis por el tema del multihilo, y no lo digo por ti sino leyendo nuevos "aportes", era poco cogeros de las orejas, obligaros a hacer un curso intensivo de programación en C++ o similares, y meteros a resolver problemas de programación imponiendo el uso al máximo de X cores, a base de multihilo.

A ver si viendo los problemas que existen, como de hecho hasta la imposibilidad de paralelizar ciertas tareas, y viendo cómo un subsistema concreto en un hilo puede limitar totalmente el rendimiento al ser los demás hilos dependientes de su trabajo (en los juegos, SIEMPRE, dad por supuesto que existen X hilos que trabajan en paralelo con distintos subsistemas, y que necesitan por lo menos actualizar datos entre ellos por lo menos UNA VEZ en cada frame, sino varias veces).

Es que es de coña eso de leer que "si la gente no sabe programar o se optimiza de pena", porque no se usa al 100% todos los cores en un ... ¡¡¡JUEGO!!!, una aplicación que por definición está llena de dependencias entre subsistemas. Eso no es render offline de una imagen que se pueda dividir en trocitos a procesar independientemente, por favor.
wwwendigo escribió:
anikilador_imperial escribió:
Mulzani escribió:Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.

Ésta gráfica:
Imagen
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Imagen
Imagen

Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.


Ojala fuera eso asi de verdad. Mi FX-8350@4.5 aun no ha pasado del 70% en ningun core y la carga no es ni por asomo la de esa imagen. Le quite el OC y volvi a valores de fabrica por si era eso y no, peor aun. Y mientras mi R9 290 pidiendo micro y con la carga bailando.


Tú estás hablando desde el uso de un FX 8xxx con una AMD R9 290, en la prueba usan una GTX 980.

Cuando antes dije que la peor combinación posible con este juego era AMD + AMD, no era porque sí.

Tu cpu se rasca la barriga, tu gpu se rasca la barriga, algo falla, ¿no? ¿qué pruebas tienen más sentido, la de los rusos o lo que ves tú?

Muy posiblemente lo que te está pasando es que el driver DX11 de la AMD, que es claramente peor a la hora de gestionar los recursos de cpu al hacer llamadas del API de microsoft, y que en el caso concreto de AMD básicamente NO PARALELIZA ninguna llamada usando otro core, como sí hace el driver de nvidia (en gran medida culpa del diseño del API de Microsoft, sí, pero no sólamente, había funcionalidad en DX11 para gestionar paquetes de varias llamadas usando varios cores desde hace tiempo con DX11, por ejemplo usando "Command Lists" para esto, que en parte recuerdan las "display lists" de las consolas, y que sin embargo desde hace tiempo NO funcionaban correctamente en AMD, ya que son más lentos estos comandos que secuenciar todas estas llamadas al API de forma seriada y en un único core e hilo, es la diferencia entre hacer un trabajo usando X cores a la vez para hacer las llamadas, y usar un core y que vaya "marcando una", después otra, y otra y...).

Vamos a ver. No hay casi peor juego posible para llenar al API de llamadas que uno como los Assasins Creed, mundos abiertos, cantidades importantes de elementos del escenario, y lo que es peor, cantidades enormes de "entidades vivas" que normalmente están conformadas por una retahíla de distintas llamadas y que son de proceso más complejo que otros elementos "inanimados". El modelo de un ser humano puede consumir por sí sólo una cantidad importante de llamadas, aún usando inteligentemente el instanciado, lo que se ve en los AC es desde el punto de vista de llamadas del API intensivo.

Y dado que el driver DX11 de AMD se puede considerar que NO PARALELIZA entre cores NADA, que usa un único core como casi ha sido diseñado en las mentes de los autores del API DX11, su funcionamiento (excepto trucos como las command lists, o ya temas de mejoras introducidas en los drivers de nvidia, como reducir el número de ciclos de reloj necesarios para procesar una llamada, o usar sistemas de buffers de llamadas y su proceso en paralelo enviándolas a distintos cores, algo "fuera del API original" DX11), se entiende que el driver de AMD pedirá muco rendimiento a un único hilo que es el que determina el rendimiento de todo lo demás, porque si ese hilo se satura en un core, dado que marca el ritmo del renderizado de frames pasando elementos a la gráfica, pues......:

La gráfica se rasca la barriga al procesar menos frames de los que puede.

El resto de cores de la cpu se rascan la barriga dado que procesar pocos frames, implica procesar pocas actualizaciones de los estados de la física, IA, etc, vamos, que si hay baja tasa de fps por culpa del hilo que maneja el driver (ojo, ni siquiera sería directamente un hilo del juego en sí), habrá menos carga en todo lo demás de la cpu, ya que se estaría afectando al DIRECTOR de la orquesta.

Después, añádele un poco de rebalanceo del proceso/hilo donde se procesa las llamadas al API, entre los demás cores al estar cuasi ociosos como dices, y ya tienes la imagen completa donde no se ve en ningún lado el 100% de uso (pero sí hay un hilo furtivo, fuera del juego, y posiblemente saltando entre core y core, que está al 100% y limitando al resto del sistema).


PD: En serio que algunos por los comentarios que hacéis por el tema del multihilo, y no lo digo por ti sino leyendo nuevos "aportes", era poco cogeros de las orejas, obligaros a hacer un curso intensivo de programación en C++ o similares, y meteros a resolver problemas de programación imponiendo el uso al máximo de X cores, a base de multihilo.

A ver si viendo los problemas que existen, como de hecho hasta la imposibilidad de paralelizar ciertas tareas, y viendo cómo un subsistema concreto en un hilo puede limitar totalmente el rendimiento al ser los demás hilos dependientes de su trabajo (en los juegos, SIEMPRE, dad por supuesto que existen X hilos que trabajan en paralelo con distintos subsistemas, y que necesitan por lo menos actualizar datos entre ellos por lo menos UNA VEZ en cada frame, sino varias veces).

Es que es de coña eso de leer que "si la gente no sabe programar o se optimiza de pena", porque no se usa al 100% todos los cores en un ... ¡¡¡JUEGO!!!, una aplicación que por definición está llena de dependencias entre subsistemas. Eso no es render offline de una imagen que se pueda dividir en trocitos a procesar independientemente, por favor.


Hombre, que me vas a contar de C++ y de concurrencia, paralelismo y multihilo... soy ingeniero y se que eso no es tan facil como parece XD , pero en la mayoria de casos es posible, lo que ocurre es que puede no ser tan eficiente como parece sin tener conocimientos(como tu apuntas, en un videojuego hay mucha informacion compartida y la seccion critica no es facil de gestionar ni de delimitar). Pero que es posible, es posible. Lo que ocurre es que para hacer esto de la mejor forma posible hace falta TIEMPO. Y sacando cada estudio un juego cada dos años, teniendo que trabajar en tres versiones y siendo una la de PC, con toda la heterogeneidad de configuraciones que posee, no hay tiempo para optimizar los algoritmos y refactorizar, y al final se hace todo mediante parches. Y eso, a mi juicio, no esta bien.
anikilador_imperial escribió:
Hombre, que me vas a contar de C++ y de concurrencia, paralelismo y multihilo... soy ingeniero y se que eso no es tan facil como parece XD , pero en la mayoria de casos es posible, lo que ocurre es que puede no ser tan eficiente como parece sin tener conocimientos(como tu apuntas, en un videojuego hay mucha informacion compartida y la seccion critica no es facil de gestionar ni de delimitar). Pero que es posible, es posible. Lo que ocurre es que para hacer esto de la mejor forma posible hace falta TIEMPO. Y sacando cada estudio un juego cada dos años, teniendo que trabajar en tres versiones y siendo una la de PC, con toda la heterogeneidad de configuraciones que posee, no hay tiempo para optimizar los algoritmos y refactorizar, y al final se hace todo mediante parches. Y eso, a mi juicio, no esta bien.


No, cuando lo ves el tema de la programación multihilo, y se ve el modelo de programa que es un juego, fácil no parece precisamente. Es posible, quizás, es posible, pero inténtalo con un octocore y muérete de asco por el camino... [+risas]

Un uso pleno de todos los cores de la cpu, es básicamente imposible en este tipo de aplicaciones. Un buen uso, así simplemente, de un octocore, posible pero harto difícil.

Ejemplos buenos de esto hay como el BF4 y alguno más suelto, pero aún así están muy lejos de alcanzar la eficiencia o escalibilidad de rendimiento plena con octocores. Hoy en día incluso el explotar bien al 100% un quad core ya es todo un logro. :-|

Entiendo que los programadores del motor del juego, realmente, llevan como que más de un lustro o puede que una década expandiendo más y más su código, remodelando, rehaciendo partes que ya no son óptimas, etc.

Muy posiblemente desde el AC3 hasta el Unity se puede considerar que es el mismo "proyecto" ampliándose con el tiempo a nivel de codificiación (es cuando pegaron el gran salto a DX11 y remodelaron del todo el tema del multihilo haciéndolo mucho más eficiente que con los anteriores AC).

Y diría que realmente es el mismo también desde el AC original, sólo con un gran "cisma/replanteo" de todo el proyecto al pasar de los AC2 al AC3, donde no sólo replantearon temas de diseño del juego, sino muchas cosas del motor del juego en sí.

Vamos... que presión seguro que tienen, pero creo que el problema con Unity es más por el "bocado" que por programar el motor en sí. El problema de intentar abarcar ciertas novedades "imperativas" a vender con el nuevo juego (sobre el detalle del escenario, la versión ampliada del "gentío" a manejar, y nuevas técnicas DX11). Eso es lo que acaba subiendo enormemente el coste computacional del juego, no creo que la codificación sea "chapucera", como si no hubiera precisamente refinamiento del código desde el AC4. Es más fácil que se hayan pasado con el "tope máximo" de lo que querían mostrar con el juego y la máquina capaz de hacerlo no exista o sea demasiado top para hoy en día. Entre cpu y gpu la han liado parda, piden de todo en cantidades masivas, fuera del tema de bugs (y entiendo el porqué, por lo menos en parte, piden tanto).

Ajustar bien todas estas novedades no es fácil. Si la mayoría de bugs que existen ni siquiera lo son "como tales" (son reacciones "lógicas" del motor de física o similares, alguno sí son evidentes fallos, pero es como el tema de los barcos-submarinos de AC4, al iniciar una fase y tenerlos "anclados" al lado, tiene sentido una vez se entiende cómo se presentan los objetos en el escenario, y de hecho es un punto meritorio del juego, ya que no los "fija" en éstos como elementos inmóviles, sino que literalmente los "arroja" al mundo como objetos físicos a simular de pleno derecho, lo mismo se puede decir de ciertos "bugs" como el tema de cuerpos retorcidos, o personajes atrapados en formas extrañas en el mapeado, no es más que un error de pulido de los DISEÑADORES del mapeado, má que de programación, que de hecho puede estar funcionando correctísimamente con estos bugs).

Lo dicho, la mitad son pequeños errores del diseño del mapeado que son amplificados por la simulacion física, que es muy útil pero también muy perra según las condiciones. La IA, otro tanto.

Es lo que tiene diseñar mapas complejos y "vivos", que la posibilidad de bugs imprevisibles fuera de la programación, se multiplica a saber porqué, pero no una cifra pequeña.

Es la ventaja de los pasillos y el uso de scripts masivos en un CoD al uso, que todo está muy controladito y se evitan enormemente estos problemas, y se simplifica mucho el diseño (y programación). Es uno de los puntos que aprecio de los AC, aunque evidentemente, tiene su coste cuando sale antes de tiempo.

--------------------

Añado información independiente de la respuesta anterior, dado que no puedo meter varios comentarios concatenados:

http://www.guru3d.com/news-story/assassins-creed-unity-not-running-well-on-amd-hardware.html

The main root cause of the issue isn't AMD or for that matter Nvidia who's mid-range products run into issues as well, it's Ubisoft. The DX11 game currently is pushing roughly 50,000 draw calls on the DirectX 11 API. DX11 is designed to handle ~10,000 peak draw calls. Mantle and DirectX 12 are designed to handle that number, but not DX11.


JUSTO de lo que llevo hablando, el juego pone al límite al API. He de decir que esta parte, con la que estoy de acuerdo en líneas generales, es capciosa. NO es cierto que DX11 esté diseñado "para 10.000 drawcalls", eso parece sacado de los powerpoint de AMD cuando hablaba de las ventajas de Mantle, DX11 NO está diseñado para ninguna cantidad de drawcalls concreta.

De hecho puede manejar muchas más, depende de cómo se usen sus recursos, cuánta potencia de cpu tenga, cuanto más rápida sea una cpu, a nivel de UN CORE, más drawcalls podrá procesar el driver por segundo, y ojo, el driver, no el juego, aquí el juego ni pincha ni corta, el juego PIDE realizar X drawcalls, pero las hace el driver.

Nvidia ha demostrado que se puede superar, con las cpus actuales, los límites de drawcalls que tiene este API usando inteligentemente los recursos que tiene el propio DX11 para hacer drawcalls entre varias cpus (como el tema de command lists), o directamente, paralelizando por su propia cuenta y riesgo las llamadas que se hace al API que, en su naturaleza, y esto sí es cierto, lo hace de forma secuencial y en un único hilo/proceso.

Pero claro, una cpu más potente se salta ciertos "límites", una cpu que lo sea menos, sobre todo a nivel de core, será justo al revés (procesará menos drawcalls). Y es lo que pasa con las cpus de AMD, porque aunque se pueda defender que en conjunto pueden ofrecer un buen rendimiento, digamos así, a nivel de cada core su rendimiento es cuanto menos flojo, y dada la naturaleza del API DX11 aquí expuesta, pasa lo que pasa, que va peor en cpus AMD incluso cuando hablamos de octocores.

También es interesante cierto extracto sacado de respuestas en foros por parte de la gente de ubisoft:

We are aware that the graphics performance of Assassin’s Creed Unity on PC may be adversely affected by certain AMD CPU and GPU configurations. This should not affect the vast majority of PC players, but rest assured that AMD and Ubisoft are continuing to work together closely to resolve the issue, and will provide more information as soon as it is available.


Esto es lo que yo señalaba como la combinación más peligrosa, cpu AMD con gpu AMD.

En PC existe el problema de que DX11 es más exigente en cpu, y es difícil paralelizar entre cores las llamadas al API, si a esto añadimos que el driver DX11 de AMD es tradicional en su planteamiento, mientras que el de nvidia intenta combatir el problema de forma más o menos efectiva, saltándose su naturaleza secuencial y monoproceso a nivel de driver, empezamos a ver la ecuación completa.

Y es que una cpu con cores lentos, y un driver DX11 "tradicional" que no intenta paralelizar nada, o que incluso los pocos recursos para paralelizar llamadas desde el API, no funcionan correctamente en velocidad, como es el caso de las Command lists, hacen un conjunto letal para este punto concreto del juego que va más allá de lo visto antes.

Y que la gente se olvide, juegos como AC no se pueden comparar con otros como he visto por otros lados, hay que analizar bien qué es lo que hace este juego, y pocos hacen lo mismo a nivel de cpu y gpu. En ese sentido es matador por muy bien programado que fuera, iba y se debería saber, a ser exigente (como si no llegara la experiencia con los anteriores AC para tener un aviso).
ciclito está baneado por "saltarse el ban con clon"
Yo por lo que he leido por este y algunos foros se esta haciendo una campaña de acoso y derribo en contra de ubisoft por un juego con bugs que no rinde tan mal como todo el mundo dice. En amd va como el culo es logico por lo que explica wwwendigo. Yo subi varios testeos con dos set up diferentes y que quereis que os diga yo no veo ninguna rascada y se puede jugar decentemente aun sin salir ningun parche.
Cuando estos salgan, el juego ira mejor y arreglaran los bugs que tiene, un poco de paciencia gente. No existe el juego perfecto en ninguna compañia todos tiene un pero. Y este juego no es comparable a la mayoria, todos aquellos que se quejan en el hilo de juegos o en otros foros me gustaria verlos a ellos progrmando un juego de ste calibre y dejarlo perfecto el dia de su lanzamiento para todas la plataformas y diferentes configuraciones de pc. A ver que carajo haciais.

Ubisoft tiene buenos juegos tambien, no hay que desprestigiar tanto a esa compañia por este juego o el watch.Tiene otros muchos juegos buenos que van muy bien.

Para muestra os dejo 3 videos de los testeos que realice donde podreis ver que tal mal no va con nvidia e intel a unos parametros max incluso con antialias msaa 2x.

Los videos estan grabados aproximadamente haciendo lo mismo en el mismo escenario.

Assassin's Creed: Unity 1080p ultra settings ( msaa 2x )single 970, i7 4790k @ 5ghz

https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ

Assassins Creed Unity 1080p ultra settings ( msaa 2x )SLI Titan Black

https://www.youtube.com/watch?v=3Rsmqxc ... I9_1BcrutQ

Assassins Creed Unity (4k nativo) ultra settings SLI Titan Black

https://www.youtube.com/watch?v=T5PBLyq ... I9_1BcrutQ


He tenido el detalle de subirlos a youtube a 60 fps para que no os mareeis y podais ver mejor lo suave que va a priori sin parches por lo menos en esos dos set up.
A ubisoft le tienen quedar un montón de ayudas por que por lo visto han despedido al la gente cualificada y solo tienen currando a retrasados mentales yonkies y demás re inserciones sociales, solo así se explica las chapuzas que hacen y para colmo le echan la culpa otro yo es que flipo, este año estan dispuestos a romper el record a la peor empresa, cuando parecia que nada podia superar a watchdogs llega este assasins y lo supera (por si lo preguntais si, me va como el culo con mi equipo y si antes de canjear el código de nvidia me lo e bajado pata-palo para ver si pillaba este o the crew) estoy cagao con farcry 4, a este paso vamos a tener que pillar las vga de renting como los coche e ir cambiando cada 3 meses.
Si solo hay que ver los videos de ciclito y fijarse en la carga de CPU y GPU para ver que las excusas de Ubi son una patraña, optimizacion de pena, rendimiento de pena, que contraten a gente competente para sus motores gráficos o se molesten en tomarse mas tiempo en pulirlos y asi estas cosas no pasaran.
no me podia imaginar a una compañia aun peor que ea, pero veo que ubisoft ya la ha superado con creces, juego que saca juego que pasa algo.
ciclito está baneado por "saltarse el ban con clon"
https://www.youtube.com/watch?feature=y ... pp=desktop

Aquí os dejó otro video a 2160p.

Hombre en general en todos los vídeos las cargas de las GPUs están por encima del 90% de media.


El primer porcentaje de la monitorización es el porcentaje del power límit
y el segundo la carga.
el poder límit es bajo porqué los voltajes son muy bajos a pesar de las frecuencias,es porque me han salido muy buenas las black y su consumo es reducido para la entrega de potencia a plena carga que dan. Eso ocurre hasta 1230 Mhz a esos voltajes que es su límite underclockeadas. Dando máximos del 75% cómo máximo de power límit de su tdp máx al 99% de carga.

Lo digo cómo aclaración a este compañero o algún otro que pensará o pensase igual al ver la monitorización de los parámetros
Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.

http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.

http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA


Ese vídeo explica bien lo que ya he mencionado antes, es el driver DX11 de AMD el que está detrás de muchos "problemas" que alguna gente achaca a lo que no (ojo, no estoy diciendo que AC no tenga problemas, pero de todas formas, lo que no se puede decir es que lo que dice Ubisoft es una mentira tras ver esto).

Y ojo, CoD no tiene ni remotamente la misma complejidad a nivel de llamadas al API/driver DX11 que el Unity, aunque se puede apreciar, que en la demo introductoria, todo va bien con el i3 y la AMD hasta que llegan a un plano de la secuencia donde se ven varios edificios y más unidades en general, en acción (y donde sufre un bache de rendimiento la 280 con el i3, esto es, justo cuando se tienen que gestionar más drawcalls).

El i3 es voluntarioso y tiene unos cores rendidores, pero el problema está en que al tener sólo dos cores físicos, confluyen muchos hilos por core, y no me refiero al uso de HT, no, sino que simplemente no queda más remedio que hacer multitarea y asignar tiempo de cpu a un hilo, a otro, y así secuencialmente. Pasando esto, el recurso de tiempo de cpu empieza a ser uno donde compiten los distintos hilos y procesos por él.

Y el proceso del driver encargado de gestionar estas llamadas al API "acapara" demasiado tiempo, y/o no consigue la cpu en exclusividad, resultado:

El rendimiento en escenas complejas se hunde, pero con la AMD, no con la GTX 750 Ti siquiera.


Y he de matizar algo sobre lo que ha dicho Ubisoft, NO ha dicho que sea culpa de AMD los problemas de AC, eso es mentira. TAMPOCO ha dicho que todo el hard de AMD esté provocando problemas, ha dicho y casi literalmente, que algunas combinaciones de cpus AMD y gpus AMD están teniendo problemas de rendimiento (más que otras configs).

Y vuelvo al vídeo del CoD, cpu lenta, driver AMD, igual a poca capacidad de gestión de llamadas a DX11. En Unity, esto se tiene que simplemente multiplicar, por el tipo de juego y cantidad de objetos manejados.

El argumento que algunos foreros (fuera de EOL, me refiero) he visto usar de que Ubisoft está mintiendo porque el juego ha sido diseñado para plataformas AMD en consolas, es capcioso y además falso. Esto no es cierto, en consolas los SDKs de desarrollo y demás usan APIs distintas a las de PC, ahí no se encuentran con los mismos problemas que con los PCs, y en concreto con DX11, que es un API de bastante alto nivel y que sigue aún con una filosofía de funcionamiento secuencial en la gestión de llamadas, via un único proceso o hilo, a diferencia de consolas, donde las llamadas al ser a más bajo nivel, consumen menos ciclos de reloj de las cpus, y además se pueden paralelizar de forma más natural.

El problema es en PC y con el hard de AMD, porque el hard de AMD en PC se enfrenta a situaciones que no tiene en consolas, y es que DX11 exige potencia por core para gestionar las llamadas, algo que no tiene AMD en su hard actual. En consolas, además de seguramente un nivel de detalle inferior que se plasma en menos llamadas (aunque sólo sea por las adiciones tecnológicas para PC), el coste de gestionarlas es menor y más flexible. Las cpus de PC son mucho más potentes y pueden equilibrar la balanza, pero en el caso de las cpus de AMD no se cumple tanto, y lo que es peor, el modelo de funcionamiento de DX11 y el driver de AMD, que no lo ha optimizado, no saca provecho de más cores añadidos, por tanto ahí la diferencia con las cpus de consola se reducen, y lo que es peor, las cpus de consolas al poder usar tantos cores como haya disponibles para lo mismo que hace un único core con el driver de AMD, acabarían teniendo el potencial de superar en la gestión de llamadas a una cpu AMD con driver de AMD (es la combinación, no los elementos sueltos de ésta).

En PC, está el problema de DX11, y del driver. Aunque no sea responsabilidad única de AMD esto, al ser una limitación que tiene casi impuesta desde DX11, si nvidia PUEDE hacer optimizaciones en el driver para saltarse en gran medida esos límites, AMD TAMBIÉN (llevan como mínimo un par de años trabajando en esa dirección, saltó la liebre de esto a principios de este año, incluso a finales del año pasado cuando se reveló, indirectamente en las pruebas de Mantle y su consumo de cpu, que nvidia tenía un driver DX11 mucho más ligero).

Estaría bien que dieran soporte y gastaran recursos al 99% de los juegos de PC, en vez de gastarlos en reinventar la rueda con Mantle para un 1% de juegos, y un mercado limitado (el porcentaje será aún mayor, pero creo que queda claro así la prioridad de trabajar el driver DX11).
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.

http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA

Puedo dar fe de ello, en algunos juegos como L4D2 con una 9800gt a 1366x768 todo en alto nunca me bajaba de 60 fps, con la r9 270 me llega a bajar a 50, en cambio con los BF se comporta.

Y comparto también lo de los drivers por el nulo soporte a openGl, el minecraft va de pena, en cambio con una triste gt630 alcanza los 200 fps con facilidad siendo peor que mi antigua 9800GT y muchisimo peor que mi actual R9 270, y lo peor fue el otro dia, instalé el juego Darkout y al ver opengl ya me temia lo peor, bajadas a 20fps...
Vaya canteo lo del vídeo, menos mal que ya esta mas que decidido, que le den por culo a AMD, mis 290 van a ser las ultimas, mas claro agua.
Lo de OpenGL ya es la repanocha, los drivers libres rinden mejor que los privativos de AMD en Linux en algunos juegos.
http://www.phoronix.com/scan.php?page=n ... px=MTgzODQ
Probotector escribió:Vaya canteo lo del vídeo, menos mal que ya esta mas que decidido, que le den por culo a AMD, mis 290 van a ser las ultimas, mas claro agua.


Ojo, por la cpu que tienes, tú no tendrías ese problema, tienes cores suficientes para "garantizar" uno más o menos libre para el driver DX11, y tienes potencia de sobra para gestionar ese nivel de llamadas. Tú no deberías tener ese problema. Un i3 sí porque en sus dos únicos cores confluyen demasiados hilos pesados en el juego, y el que gestiona el tema del driver (proceso del driver), se encuentra con una compartición de tiempo de cpu que hace que se degrade el rendimiento.

Y bueno, si no es así, siempre te quedará Mantle... :-|
wwwendigo escribió:Ojo, por la cpu que tienes, tú no tendrías ese problema, tienes cores suficientes para "garantizar" uno más o menos libre para el driver DX11, y tienes potencia de sobra para gestionar ese nivel de llamadas. Tú no deberías tener ese problema. Un i3 sí porque en sus dos únicos cores confluyen demasiados hilos pesados en el juego, y el que gestiona el tema del driver (proceso del driver), se encuentra con una compartición de tiempo de cpu que hace que se degrade el rendimiento.

Y bueno, si no es así, siempre te quedará Mantle... :-|


Mantle solo se nota en cpus de gama media, he jugado a BF4 y no hay mejora significativa.

Es una pena, por que no soy de ninguna marca, pero son un desastre absoluto.

Me pasare a NVIDIA (aun queda mucho para esto, hasta que se me queden obsoletas las 290) por los siguientes motivos:

- Downsampling por hardware (garantiza 4k en el 90 % de los juegos de PC, una jodida maravilla)

- Driver mejor hecho y actualizado mas a menudo (esos perfiles SLI :))

- Mejores temps y consumos

- Mayor soporte a gráficas "antiguas"


Pero nada, a joderse toca y aguantare con estas como un campeón.

Edito: y poder usar con NVIDIA inspector el limitador de frames, son todo ventajas...
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.

http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA


Resultado normal si NVIDIA saca hace poco unos drivers con optimizaciones para DX11 y AMD no, pero siempre mola hacer una review oportunista en la que ni siquiera se mencionan las versiones de drivers utilizadas, parecida a aquella de diferencias de aumentos de rendimiento entre versiones que estaba claramente manipulada.

Sobretodo para que los NVIDIAfanboys volvais a salir con las patrañas de "es una mierda de drivers" como si los drivers de NVIDIA estuvieran extentos de problemas a cada juego que sale.

Lo de OpenGL ya es la repanocha, los drivers libres rinden mejor que los privativos de AMD en Linux en algunos juegos.
http://www.phoronix.com/scan.php?page=n ... px=MTgzODQ


No seas tan Fanboy por favor, solo se ven ligeras mejoras en algun caso en concreto en TF2 y por lo general los drivers de AMD estan por encima en CS:GO con diferencias brutales sobre todo en las GCN.

Si no os gusta AMD, compraros una NVIDIA, pero lo de desinformar gratuitamente es de puro fanboy.
Ese problema no es un problema de un juego concreto, ni de un mes para otro, simplemente los drivers de AMD son una basura desde siempre, solo que ya ha llegado a un punto donde se pueden cargar el rendimiento de un juego entero.

Lo que es de fanboy es defender esta vergüenza, y más viendo lo lamentable que es el soporte OpenGL.
josemurcia escribió:Ese problema no es un problema de un juego concreto, ni de un mes para otro, simplemente los drivers de AMD son una basura desde siempre, solo que ya ha llegado a un punto donde se pueden cargar el rendimiento de un juego entero.

Lo que es de fanboy es defender esta vergüenza, y más viendo lo lamentable que es el soporte OpenGL.


Uy si, vamos que llevan cargándose el rendimiento en juegos desde hace años, pásate por los foros de NVIDIA que te vas a sorprender de la cantidad y variedad de problemas que dan los drivers de NVIDIA también a cada juego que sale.

Lo que es de fanboy es hablar de drivers basura con diferencias infimas de rendimiento y venir a hacer una review oportunista cuando nvidia saca una optimizacion de DX11 que podría sacar AMD en cualquier momento.

O de venir a hablar de rendimientos en una plataforma que si supone el 1% de jugadores seria un autentico milagro.
No digo que los drivers de NVIDIA no tengan problemas, pero no tienen estos problemas, no he visto un driver nuevo de NVIDIA cargarse el rendimiento de un juego como pasa con AMD. Que además el problema de AMD viene de largo ya.

Por si no te has dado cuenta, esas diferencias ínfimas de rendimiento son frente a drivers libres, si no sabes lo que eso implica ya se que estoy hablando con alguien que no tiene ni idea de lo que habla.

Y si, están que sacan ya la optimización de DX11, justo después de la de OpenGL.
Probotector escribió:
wwwendigo escribió:Ojo, por la cpu que tienes, tú no tendrías ese problema, tienes cores suficientes para "garantizar" uno más o menos libre para el driver DX11, y tienes potencia de sobra para gestionar ese nivel de llamadas. Tú no deberías tener ese problema. Un i3 sí porque en sus dos únicos cores confluyen demasiados hilos pesados en el juego, y el que gestiona el tema del driver (proceso del driver), se encuentra con una compartición de tiempo de cpu que hace que se degrade el rendimiento.

Y bueno, si no es así, siempre te quedará Mantle... :-|


Mantle solo se nota en cpus de gama media, he jugado a BF4 y no hay mejora significativa.

Es una pena, por que no soy de ninguna marca, pero son un desastre absoluto.

Me pasare a NVIDIA (aun queda mucho para esto, hasta que se me queden obsoletas las 290) por los siguientes motivos:

- Downsampling por hardware (garantiza 4k en el 90 % de los juegos de PC, una jodida maravilla)

- Driver mejor hecho y actualizado mas a menudo (esos perfiles SLI :))

- Mejores temps y consumos

- Mayor soporte a gráficas "antiguas"


Pero nada, a joderse toca y aguantare con estas como un campeón.

Edito: y poder usar con NVIDIA inspector el limitador de frames, son todo ventajas...



Hombre, es que el punto fuerte de Mantle estaría con cpus débiles o medias, no con cpus potentes. No seré yo el que defienda la existencia de Mantle, pero en tu equipo y con BF4, que aún siendo un juego complejo, no es el mayor caso posible para obtener las "mejoras" de Mantle, es normal que no veas mejora alguna.

Piensa, para demostrar lo bien que va, en juegos como Civ: Beyond Earth, pasan un test que consiste en una panorámica con el zoom al máximo, viendo en cada casilla una unidad militar, más allá de los elementos decorativos. Y en ese tipo de escenario, y contando sólo los mínimos, con tan buenas condiciones para demostrar lo que "vale Mantle", los mínimos aún siendo mejores que los de nvidia con DX11, no son una barbaridad. Y claro, si comparas esos mismos mínimos DX11 de nvidia con los mínimos en DX11 de AMD, lo que ves es que con la misma API AMD lo hace de pena.

Pero de todas formas, después en el juego real, y le he dedicado unas cuantas horas y muchos cientos de turnos, resulta que incluso en una partida avanzada se mantiene a 60 fps casi clavados (con vsync), incluido en panorámicas con cantidad de unidades desplegadas, ciudades, explotaciones varias, etc. Como mucho algún hipo a 50 fps y para (y sólo al entrar en menús de gestión, al desplegarse, justo cuando durante un momento rasca el disco, así que ni siquiera tiene que ver con lo mostrado en ese bench, donde no se despliega ningún menú de gestión del juego).

Vamos, que fuera de ese bench artificioso, las partidas reales no muestran para NADA lo que sí se mostraba por parte de AMD con Mantle y el juego. No quiere decir que Mantle no tenga su efecto, sino que en el juego real y con cpus decentes, este efecto en los mínimos NO existe. Igual con un FX sí se puede llegar a notar, he oído historias de turnos que duraban mucho, y yo lo máximo que he esperado entre turnos de juego es algo así como 10s, en que la IA de los demás jugadores acabara su proceso y movimiento de piezas. Y sólo con la partida cerca del turno 500, o más allá.

La teoría y la práctica no siempre casan, y es lo que te pasa con BF4. Podría casar algo con otra cpu, pero no con una con alto rendimiento por core como la tuya.

Sobre soporte y demás, bueno, que se lo digan a los usuarios de las primeras Fermi, que obtienen la compatibilidad con DX12 en drivers, siguen recibiendo actualizaciones de rendimiento junto a los demás usuarios, etc.

Si no son exigentes en calidades gráficas a tope, aún pueden jugar a todo con bastante calidad, y sin preocuparse demasiado si hay teselación, si hay... lo que sea. Quitar AA y bajar algún parámetro, y listo, a jugar a 1080p. Bueno, excepto con Unity, claro... [+risas] [+risas]

El downsampling está bien, pero no es lo mismo que 4k real, cuidado. El proceso de intepolación no puede mantener la información real que sí habría usando una pantalla 4k, sólo aproximarse. En AMD creo que había la posibilidad de forzar supersampling en el panel de control, no sé cómo estará ahora esto. Sería lo equivalente o más parecido a esto. Aunque me gusta más la solución DSR, por ser un poco más cómoda y flexible. Y haber un mayor control de la interpolación final y tener una garantía de que realmente se hará supersampling puro y duro (nada de adaptativos ni cosas raras que "optimizan" el nivel de supersampling).

Ojo, que es muy caro como técnica y no se puede usar así alegremente con todo y con 4K. Hace falta mucha máquina, lo cual como extra, a nvidia le viene bien, porque crea también con la opción una necesidad. [bad]


DFX:

La mejora de drivers de nvidia NO es de hace unos meses, hace unos meses se mostró un salto en eficiencia de su drivers, SI, pero ya existía una mayor eficiencia del driver desde como mínimo el año pasado, en las primeras demostraciones de Mantle, al comparar con sistemas DX11 con AMD y nvidia, algo que a muchos no se nos escapó, es que en situaciones con mucho uso de llamadas al API, más allá de que Mantle lo hiciera mejor, también lo hacía mejor nvidia que AMD usando ambos DX11.

nvidia sólo siguió un camino que había emprendido bastante antes.

Y no vengas con historias de que los que decimos eso somos unos fanboys, porque estamos citando una realidad que la propia AMD ayudó a desvelar.

A ver si vas a hacer como se hizo el año pasado por parte de otros fanboys de otro color, cuando hace ahora justo dos años se desveló el tema del masivo microstuttering que invadía a las AMD, y se empezó a desvelar que los Crossfire funcionaban entonces sensiblemente peor, en temas de estabilidad de timeframes, que los SLI, y que incluso esto pasaba con las configuraciones monogpu.

Esta situación se agravó en AMD cuando sacaron sus "milagrosos" drivers 11.2, y es cuando empezó a desvelarse el tema desde Techreport, y luego por todo internet, con mil pruebas, con FCAT después, etc.

Pues bien, los chicos mencionados, fanboys coloraos, son los que negaron mil y una veces una realidad que la propia AMD había reconocido y prometido corregir. A mí me hizo gracia que una vez corregida la situación, a esa misma gente que había leído negar la existencia de MS en los drivers de AMD, de pronto empezaban a decir que sí, que ahora sí se notaba mucho mejor, que si los cross iban de puta madre ahora (cierto, pero implica reconocer también que antes no), etc.

No hagas lo mismo, porque al igual que entonces, la propia AMD está reconociendo el problema, aunque esta vez sea de forma indirecta con sus palabras sobre Mantle, y sus resultados de rendimiento.

El problema de la sobrecarga de llamadas del API es antiguo, antes de la salida de BF4 y hablar tanto de Mantle, DICE, que ya era un habitual colaborador de AMD en conferencias, y mientras desarrollaba BF3, se dedicó a explicar y adoctrinar sobre este tema, sobre el muy caro coste de llamadas al API en windows, etc (y de paso, también decía en esa conferencia que las Command lists de DX11 al final no funcionaba, eso sí, se olvidaron decir que no funcionaban bien en.. el driver de AMD, los campeones [chulito] ).

Nunca ha sido un problema realmente extremo, porque entre instanciado y otras técnicas, el problema puede ser en gran medida anulado. Pero con las cpus FX, AMD tiene una razón extra para buscar aliviar el coste en driver DX11 de las llamadas al API. Su solución es Mantle y no mejorar el driver DX11.

La solución de nvidia es mejorar el driver DX11. Y esto no es una opinión, es un hecho. Un hecho en absoluto improvisado y que se puede sacar "en cualquier momento", trabajo de AÑOS y reconocido sólo ahora. Como el tema del control de timeframes que llevaban implementando desde las Fermi, y que se conoció sólo cuando saltó la liebre con el MS de AMD y sus drivers iguales o posteriores al 11.2.
Si es que solo hay que recordar las cifras de BF4 hace 1 año cuando una R9 290X rendía notablemente peor que una GTX 780, a pesar de ser bastante más potente, todo por la puta mierda de drivers.

Y esto a mi me jode un montón, porque no hay competencia y NVIDIA hace lo que le da la gana.

Y veremos a ver ahora que han anunciado que la especificación de Mantle será pública antes de final de año y cualquiera podrá implementarla, porque como a NVIDIA le de por ahí, va a barrer el suelo con AMD hasta en su propia casa.
josemurcia escribió:No digo que los drivers de NVIDIA no tengan problemas, pero no tienen estos problemas, no he visto un driver nuevo de NVIDIA cargarse el rendimiento de un juego como pasa con AMD.

Por si no te has dado cuenta, esas diferencias ínfimas de rendimiento son frente a drivers libres, si no sabes lo que eso implica ya se que estoy hablando con alguien que no tiene ni idea de lo que habla.

Y si, están que sacan ya la optimización de DX11, justo después de la de OpenGL.


Mejor todavía tienes drivers de NVIDIA que directamente te fríen la GPU, que reciben actualizaciones a la siguiente semana sospechosamente y que no admiten nunca el error.

Pues no ves por que no quieres ver, por que con drivers "nuevos" de NVIDIA hay gente que se ha seguido quejando de problemas en muchos juegos que se han ido solucionando en drivers posteriores.

Igual eres tu quien no tienes ni idea de lo que hablas cuando sacas la conclusion por 3 o 4 situaciones concretas en un juego, mientras en la misma review tienes pruebas de que los drivers oficiales llegan a sacarle diferencias de casi el 50% a esos drivers libres y por si fuera poco el tema de drivers de terceros no es una cosa de amd, ni de solamente de la plataforma de linux.

Y aunque me parece mal, entiendo que no se centren en darle soporte en darle a una plataforma extremadamente minoritaria como es linux, mientras le queda tanto trabajo por hacer bajo windows y DX11.

Pero claro si estimas oportuno que el soporte opengl en linux es algo a valorar para gente que no lo va a usar en su vida... no te pongas a hablar de que la gente no sabe de lo que habla.

@wwwendigo, si soy el primero que critica las cosas que hacen mal, pero la situación no es tan exagerada como se pinta, ni los drivers son basura como se empeñan algunos, ni los drivers de NVIDIA son la panacea a los problemas por que tampoco están extentos de los mismos.

Sobre Mantle, por un lado es interesante, por otro lado ya he dicho siempre que me disgusta el hecho de que NVIDIA y AMD opten por soluciones propietarias para aplicarlas en juegos, como son Mantle, Physx o TressFX, o la proxima batalla entre G-Sync y FreeSync, lo que me molesta realmente es que derrepente todos han descubierto la panacea a los problemas de DX11, cuando DX11 no es nuevo ni mucho menos y segun parece los problemas ya eran conocidos desde hace mucho.

Microsoft por su lado también sale con DX12 como solución cuando el avispero ya estaba removido, lo que nos viene a decir lo de siempre, en PC falta optimizacion y se puede lograr mucho por ese camino, cosa que NVIDIA parece haber demostrado con las mejoras en DX11.

Personalmente tengo AMD+AMD y AMD+NVIDIA, y a pesar de todas las tonterías que leo acerca de AMD, la AMD+AMD apenas me ha dado problemas y se ha mantenido dentro del rendimiento esperable, y lo unico que me va a hacer acabar de cambiar de plataforma sera en busca de un intel para aumentar el IPC por nucleo para aquellos juegos o aplicaciones que realmente veo que lo necesitan, por lo general, estoy bastante contento con lo que tengo.

Si es que solo hay que recordar las cifras de BF4 hace 1 año cuando una R9 290X rendía notablemente peor que una GTX 780, a pesar de ser bastante más potente, todo por la puta mierda de drivers.

Y esto a mi me jode un montón, porque no hay competencia y NVIDIA hace lo que le da la gana.


Pero de los constantes errores de texturas en drivers de NVIDIA no comentas nada, lo cual dio para mensajes y mensajes en sus foros.
Lo del downsampling soy consciente de lo que comentas, mas que nada para cuando algún día pille televisor 4K, va a estar muy bien ^^

Lo malo es que tengo entendido de que el downsampling no admite SLI, a ver si lo solucionan
Dfx escribió:Igual eres tu quien no tienes ni idea de lo que hablas cuando sacas la conclusion por 3 o 4 situaciones concretas en un juego, mientras en la misma review tienes pruebas de que los drivers oficiales llegan a sacarle diferencias de casi el 50% a esos drivers libres y por si fuera poco el tema de drivers de terceros no es una cosa de amd, ni de solamente de la plataforma de linux.

Pero es que sigues sin entender que es inadmisible que unos drivers libres hechos sin ánimo de lucro por la comunidad a base de ingeniería inversa rindan igual o mejor que los de AMD en algunas ocasiones, es que no tiene ni pies ni cabeza. Y el rendimiento OpenGL en Windows sigue siendo una mierda, aunque no sea tan malo como en Linux.

NVIDIA saca drivers nuevos cada 2 o 4 semanas, están continuamente mejorándolos, por supuesto que introducen fallos puntuales que luego arreglan una semana más tarde, pero es que los de AMD son una porquería de por si, no por algo puntual.
josemurcia escribió:
Dfx escribió:Igual eres tu quien no tienes ni idea de lo que hablas cuando sacas la conclusion por 3 o 4 situaciones concretas en un juego, mientras en la misma review tienes pruebas de que los drivers oficiales llegan a sacarle diferencias de casi el 50% a esos drivers libres y por si fuera poco el tema de drivers de terceros no es una cosa de amd, ni de solamente de la plataforma de linux.

Pero es que sigues sin entender que es inadmisible que unos drivers libres hechos sin ánimo de lucro por la comunidad a base de ingeniería inversa rindan igual o mejor que los de AMD en algunas ocasiones, es que no tiene ni pies ni cabeza. Y el rendimiento OpenGL en Windows sigue siendo una mierda, aunque no sea tan malo como en Linux.

NVIDIA saca drivers nuevos cada 2 o 4 semanas, están continuamente mejorándolos, por supuesto que introducen fallos puntuales que luego arreglan una semana más tarde, pero es que los de AMD son una porquería de por si, no por algo puntual.


Por que lo dices tu vamos, buenos argumentos.

Ya se ve a todos los usuarios de AMD con problemas por culpa de los drivers, vamos es que no pueden dormir de solo pensar en los problemas que dan que con NVIDIA no tendrían.

Y lo de los drivers , no son los primeros, en su tiempo ya existieron los Omegadrivers y si se centran en situaciones concretas para conseguir rendimientos mejores pues bienvenidos sean, yo no levantaría el grito en el cielo por que en un juego en tres o cuatro ocasione saquen un poco mas de rendimiento, cuando en otros pierden casi un 50%, otra cosa seria que los drivers no oficiales sacaran mas rendimiento por lo general que es lo que has intentado vender y que es totalmente mentira.

Y da igual que saques drivers cada 2 o 4 semanas, lo unico por lo que hay que darle la enhorabuena a NVIDIA es por preparar los drivers pensando en los lanzamientos, pero claro cuando hay ventajas como en unity para nvidia, es normal que AMD tarde un poco mas, que tampoco ha tardado tanto en sacar una versión de drivers, como también pasa en el caso contrario por lo general, aun asi, con los 14.9 por ejemplo en COD:AW he tenido mas problemas por culpa de los fallos del juego que otra cosa, por que los drivers no han tenido nada que ver, aun asi con los 14.11 vienen optimizaciones para este y para Unity que quiero probar a lo largo de la semana que viene.
109 respuestas
1, 2, 3