“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y le proporcionarán más información tan pronto como sea posible.”
apalizadorx escribió:Seguimos hablando de Assassin’s Creed Unity, quizás el juego más nombrado en los ultimos días debido a su pésimo rendimiento y a su lista interminable de bugs.
Ubisoft, en vez de pedir disculpas y prometer una rápida solución, se ha limitado a anunciar que los problemas de rendimiento en PC vienen acusados por el uso de una CPU o GPU de AMD, algo realmente inverosímil si tenemos en cuenta que tanto la PlayStation 4 como la Xbox One presentan los mismos problemas siendo unas consolas basadas en la misma configuración de una CPU/GPU de AMD.“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y le proporcionarán más información tan pronto como sea posible.”
Como hemos dicho ya en innumerables ocasiones, lo realmente triste es que se haya desarrollado un juego pensando en dos consolas con ADN AMD y luego sea en dicha plataforma donde el juego vaya fatal, y no solo eso, ¿no se preocuparon en probar el juego antes de sacarlo a la venta?.
dFamicom escribió:Si si, maletinazos cuando con las nvidia también va de pena...
- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...
dFamicom escribió:Si si, maletinazos cuando con las nvidia también va de pena...
elrocho escribió:Pero qué maletines ni na', si va como el culo en cualquier plataforma.
Me imagino el betatesting de Ubisoft:- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...
apalizadorx escribió:Seguimos hablando de Assassin’s Creed Unity, quizás el juego más nombrado en los ultimos días debido a su pésimo rendimiento y a su lista interminable de bugs.
Ubisoft, en vez de pedir disculpas y prometer una rápida solución, se ha limitado a anunciar que los problemas de rendimiento en PC vienen acusados por el uso de una CPU o GPU de AMD, algo realmente inverosímil si tenemos en cuenta que tanto la PlayStation 4 como la Xbox One presentan los mismos problemas siendo unas consolas basadas en la misma configuración de una CPU/GPU de AMD.“Somos conscientes de que el rendimiento de gráfico de Assassins Creed Unity para PC puede verse afectado por ciertas configuraciones de CPU y GPU de AMD”. “Esto no debe afectar a la gran mayoría de los jugadores de PC”. “Tenga la seguridad de que AMD y Ubisoft siguen trabajando en una estrecha colaboración para resolver el problema y le proporcionarán más información tan pronto como sea posible.”
Como hemos dicho ya en innumerables ocasiones, lo realmente triste es que se haya desarrollado un juego pensando en dos consolas con ADN AMD y luego sea en dicha plataforma donde el juego vaya fatal, y no solo eso, ¿no se preocuparon en probar el juego antes de sacarlo a la venta?.
nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.
wwwendigo escribió:nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.
¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?
Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.
Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.
wwwendigo escribió:nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.
¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?
Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.
Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.
Dfx escribió:wwwendigo escribió:nabilyify escribió:Que puta pena da UbiLOL. No pienso comprarles nada hasta que lo arreglen.
¿Nada de nada? ¿Ni el Far Cry 4 aunque salga bien de rendimiento y relativamente pulido, no vas a comprar ningún producto de Ubi porque, dices, que uno de sus productos sale con demasiados bugs?
Según esa regla de tres, no compres juegos a ninguna desarrolladora, no hay una libre, EA, Activision, etc.
Me parece bien no comprar mientras un producto no esté bien parcheado, pero ojo, respecto a ese producto concreto, otro cuento son los demás de la misma distribuidora/desarrolladora.
Da igual Wendigo, los productos de UBI ultimamente son un desastre, son ellos quienes han de preparar el juego para el hardware existente y es algo que no están cumpliendo juego por juego, y te lo dice alguien que tiene toda la saga AC, WD y muchos otros juegos de UBI tanto en X360 como en PC.
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
ajbeas escribió:DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Que un sli de gtx 980 tenga esos resultados a 1080p, me parece cuanto menos preocupante...
Creo que de la optimización han pasado directamente, porque parece mentira que tenga ese rendimiento un sli de las dos gráficas más potentes.
Entonces el que tenga una 7970 (gráfica bastante apta para jugar a 1080) o una gtx760, ¿qué ocurre? ¿Tiene que poner detalles en bajo?
Simplemente increíble. A mí con la gtx970 me va a llegar un código de descarga y creo que el assassin's creed no voy a usar precisamente.
Me atrae el farcry 4, pero acabé un pelín cansado del 3, al principio muy chulo y demás, pero luego bastante repetitivo. Y "The crew" me gusta, pero no sé el número de coches que va a tener...
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.
Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.
Mulzani escribió:Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.
Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.
Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.
Ésta gráfica:
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.
Mulzani escribió:Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.
Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.
Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.
Ésta gráfica:
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.
anikilador_imperial escribió:Mulzani escribió:Dfx escribió:Lo que tiene es una optimizacion ridicula de multinucleo como lo han tenido los anteriores, el hecho de que el i3 a 3,5ghz este ahi donde esta es la mayor prueba de ello.
Sobre WD, a mi me pareció un juego excelente, pero me parece terrible que tengamos que acostumbrarnos a que si compramos un juego de salida tenga un rendimiento lamentable y tengamos que esperar a parches y parches hasta que el juego empiece a funcionar medianamente bien, tambien hay que disculpar que sea "el primero" de la saga y se hayan aplicado muchas cosas aprendidas en AC, por lo que la variedad de misiones y sub-misiones todavia no sea la esperable, como concepto para una nueva IP me parece excelente, como paso con AC, el primero era un desastre a nivel de juego y la idea era original, en la saga del AC2 se volvio mucho mejor.
Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.
Ésta gráfica:
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.
Ojala fuera eso asi de verdad. Mi FX-8350@4.5 aun no ha pasado del 70% en ningun core y la carga no es ni por asomo la de esa imagen. Le quite el OC y volvi a valores de fabrica por si era eso y no, peor aun. Y mientras mi R9 290 pidiendo micro y con la carga bailando.
wwwendigo escribió:anikilador_imperial escribió:Mulzani escribió:Mola decir que el problema es la optimización multinúcleo... cuando el juego te pone todos los núcleos del FX-8350 a más del 70%, no un par de núcleos, y cuando el FX-6300 se ahoga casi por completo, poniendo los núcleos a hacia el 90% de utilización.
Ésta gráfica:
Sin las siguientes no sirve para mostrar el rendimiento multinúcleo:
Vamos, lo que se ve es que, por su arquitectura, los FX no pueden de igual manera con el juego, a pesar de aprovechar todos los hilos de ejecución de los que dispone, habría que ver si es por las instrucciones que utiliza, pero ya no se puede uno escudar en que es un problema del uso de los núcleos.
Ojala fuera eso asi de verdad. Mi FX-8350@4.5 aun no ha pasado del 70% en ningun core y la carga no es ni por asomo la de esa imagen. Le quite el OC y volvi a valores de fabrica por si era eso y no, peor aun. Y mientras mi R9 290 pidiendo micro y con la carga bailando.
Tú estás hablando desde el uso de un FX 8xxx con una AMD R9 290, en la prueba usan una GTX 980.
Cuando antes dije que la peor combinación posible con este juego era AMD + AMD, no era porque sí.
Tu cpu se rasca la barriga, tu gpu se rasca la barriga, algo falla, ¿no? ¿qué pruebas tienen más sentido, la de los rusos o lo que ves tú?
Muy posiblemente lo que te está pasando es que el driver DX11 de la AMD, que es claramente peor a la hora de gestionar los recursos de cpu al hacer llamadas del API de microsoft, y que en el caso concreto de AMD básicamente NO PARALELIZA ninguna llamada usando otro core, como sí hace el driver de nvidia (en gran medida culpa del diseño del API de Microsoft, sí, pero no sólamente, había funcionalidad en DX11 para gestionar paquetes de varias llamadas usando varios cores desde hace tiempo con DX11, por ejemplo usando "Command Lists" para esto, que en parte recuerdan las "display lists" de las consolas, y que sin embargo desde hace tiempo NO funcionaban correctamente en AMD, ya que son más lentos estos comandos que secuenciar todas estas llamadas al API de forma seriada y en un único core e hilo, es la diferencia entre hacer un trabajo usando X cores a la vez para hacer las llamadas, y usar un core y que vaya "marcando una", después otra, y otra y...).
Vamos a ver. No hay casi peor juego posible para llenar al API de llamadas que uno como los Assasins Creed, mundos abiertos, cantidades importantes de elementos del escenario, y lo que es peor, cantidades enormes de "entidades vivas" que normalmente están conformadas por una retahíla de distintas llamadas y que son de proceso más complejo que otros elementos "inanimados". El modelo de un ser humano puede consumir por sí sólo una cantidad importante de llamadas, aún usando inteligentemente el instanciado, lo que se ve en los AC es desde el punto de vista de llamadas del API intensivo.
Y dado que el driver DX11 de AMD se puede considerar que NO PARALELIZA entre cores NADA, que usa un único core como casi ha sido diseñado en las mentes de los autores del API DX11, su funcionamiento (excepto trucos como las command lists, o ya temas de mejoras introducidas en los drivers de nvidia, como reducir el número de ciclos de reloj necesarios para procesar una llamada, o usar sistemas de buffers de llamadas y su proceso en paralelo enviándolas a distintos cores, algo "fuera del API original" DX11), se entiende que el driver de AMD pedirá muco rendimiento a un único hilo que es el que determina el rendimiento de todo lo demás, porque si ese hilo se satura en un core, dado que marca el ritmo del renderizado de frames pasando elementos a la gráfica, pues......:
La gráfica se rasca la barriga al procesar menos frames de los que puede.
El resto de cores de la cpu se rascan la barriga dado que procesar pocos frames, implica procesar pocas actualizaciones de los estados de la física, IA, etc, vamos, que si hay baja tasa de fps por culpa del hilo que maneja el driver (ojo, ni siquiera sería directamente un hilo del juego en sí), habrá menos carga en todo lo demás de la cpu, ya que se estaría afectando al DIRECTOR de la orquesta.
Después, añádele un poco de rebalanceo del proceso/hilo donde se procesa las llamadas al API, entre los demás cores al estar cuasi ociosos como dices, y ya tienes la imagen completa donde no se ve en ningún lado el 100% de uso (pero sí hay un hilo furtivo, fuera del juego, y posiblemente saltando entre core y core, que está al 100% y limitando al resto del sistema).
PD: En serio que algunos por los comentarios que hacéis por el tema del multihilo, y no lo digo por ti sino leyendo nuevos "aportes", era poco cogeros de las orejas, obligaros a hacer un curso intensivo de programación en C++ o similares, y meteros a resolver problemas de programación imponiendo el uso al máximo de X cores, a base de multihilo.
A ver si viendo los problemas que existen, como de hecho hasta la imposibilidad de paralelizar ciertas tareas, y viendo cómo un subsistema concreto en un hilo puede limitar totalmente el rendimiento al ser los demás hilos dependientes de su trabajo (en los juegos, SIEMPRE, dad por supuesto que existen X hilos que trabajan en paralelo con distintos subsistemas, y que necesitan por lo menos actualizar datos entre ellos por lo menos UNA VEZ en cada frame, sino varias veces).
Es que es de coña eso de leer que "si la gente no sabe programar o se optimiza de pena", porque no se usa al 100% todos los cores en un ... ¡¡¡JUEGO!!!, una aplicación que por definición está llena de dependencias entre subsistemas. Eso no es render offline de una imagen que se pueda dividir en trocitos a procesar independientemente, por favor.
anikilador_imperial escribió:
Hombre, que me vas a contar de C++ y de concurrencia, paralelismo y multihilo... soy ingeniero y se que eso no es tan facil como parece , pero en la mayoria de casos es posible, lo que ocurre es que puede no ser tan eficiente como parece sin tener conocimientos(como tu apuntas, en un videojuego hay mucha informacion compartida y la seccion critica no es facil de gestionar ni de delimitar). Pero que es posible, es posible. Lo que ocurre es que para hacer esto de la mejor forma posible hace falta TIEMPO. Y sacando cada estudio un juego cada dos años, teniendo que trabajar en tres versiones y siendo una la de PC, con toda la heterogeneidad de configuraciones que posee, no hay tiempo para optimizar los algoritmos y refactorizar, y al final se hace todo mediante parches. Y eso, a mi juicio, no esta bien.
The main root cause of the issue isn't AMD or for that matter Nvidia who's mid-range products run into issues as well, it's Ubisoft. The DX11 game currently is pushing roughly 50,000 draw calls on the DirectX 11 API. DX11 is designed to handle ~10,000 peak draw calls. Mantle and DirectX 12 are designed to handle that number, but not DX11.
We are aware that the graphics performance of Assassin’s Creed Unity on PC may be adversely affected by certain AMD CPU and GPU configurations. This should not affect the vast majority of PC players, but rest assured that AMD and Ubisoft are continuing to work together closely to resolve the issue, and will provide more information as soon as it is available.
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.
http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.
http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA
Probotector escribió:Vaya canteo lo del vídeo, menos mal que ya esta mas que decidido, que le den por culo a AMD, mis 290 van a ser las ultimas, mas claro agua.
wwwendigo escribió:Ojo, por la cpu que tienes, tú no tendrías ese problema, tienes cores suficientes para "garantizar" uno más o menos libre para el driver DX11, y tienes potencia de sobra para gestionar ese nivel de llamadas. Tú no deberías tener ese problema. Un i3 sí porque en sus dos únicos cores confluyen demasiados hilos pesados en el juego, y el que gestiona el tema del driver (proceso del driver), se encuentra con una compartición de tiempo de cpu que hace que se degrade el rendimiento.
Y bueno, si no es así, siempre te quedará Mantle...
josemurcia escribió:Quitando los problemas con AC Unity, lo que tiene AMD es una mierda de drivers y punto, precisamente DigitalFoundry sacó ayer un video enseñando el cuello de botella que se forma por culpa de la basura de driver, donde una AMD casi 3 veces más potente que una NVIDIA es capaz de rendir peor.
http://youtu.be/lQzLU4HWw2U?list=UU9PBz ... iIkq36PyUA
Lo de OpenGL ya es la repanocha, los drivers libres rinden mejor que los privativos de AMD en Linux en algunos juegos.
http://www.phoronix.com/scan.php?page=n ... px=MTgzODQ
josemurcia escribió:Ese problema no es un problema de un juego concreto, ni de un mes para otro, simplemente los drivers de AMD son una basura desde siempre, solo que ya ha llegado a un punto donde se pueden cargar el rendimiento de un juego entero.
Lo que es de fanboy es defender esta vergüenza, y más viendo lo lamentable que es el soporte OpenGL.
Probotector escribió:wwwendigo escribió:Ojo, por la cpu que tienes, tú no tendrías ese problema, tienes cores suficientes para "garantizar" uno más o menos libre para el driver DX11, y tienes potencia de sobra para gestionar ese nivel de llamadas. Tú no deberías tener ese problema. Un i3 sí porque en sus dos únicos cores confluyen demasiados hilos pesados en el juego, y el que gestiona el tema del driver (proceso del driver), se encuentra con una compartición de tiempo de cpu que hace que se degrade el rendimiento.
Y bueno, si no es así, siempre te quedará Mantle...
Mantle solo se nota en cpus de gama media, he jugado a BF4 y no hay mejora significativa.
Es una pena, por que no soy de ninguna marca, pero son un desastre absoluto.
Me pasare a NVIDIA (aun queda mucho para esto, hasta que se me queden obsoletas las 290) por los siguientes motivos:
- Downsampling por hardware (garantiza 4k en el 90 % de los juegos de PC, una jodida maravilla)
- Driver mejor hecho y actualizado mas a menudo (esos perfiles SLI )
- Mejores temps y consumos
- Mayor soporte a gráficas "antiguas"
Pero nada, a joderse toca y aguantare con estas como un campeón.
Edito: y poder usar con NVIDIA inspector el limitador de frames, son todo ventajas...
josemurcia escribió:No digo que los drivers de NVIDIA no tengan problemas, pero no tienen estos problemas, no he visto un driver nuevo de NVIDIA cargarse el rendimiento de un juego como pasa con AMD.
Por si no te has dado cuenta, esas diferencias ínfimas de rendimiento son frente a drivers libres, si no sabes lo que eso implica ya se que estoy hablando con alguien que no tiene ni idea de lo que habla.
Y si, están que sacan ya la optimización de DX11, justo después de la de OpenGL.
Si es que solo hay que recordar las cifras de BF4 hace 1 año cuando una R9 290X rendía notablemente peor que una GTX 780, a pesar de ser bastante más potente, todo por la puta mierda de drivers.
Y esto a mi me jode un montón, porque no hay competencia y NVIDIA hace lo que le da la gana.
Dfx escribió:Igual eres tu quien no tienes ni idea de lo que hablas cuando sacas la conclusion por 3 o 4 situaciones concretas en un juego, mientras en la misma review tienes pruebas de que los drivers oficiales llegan a sacarle diferencias de casi el 50% a esos drivers libres y por si fuera poco el tema de drivers de terceros no es una cosa de amd, ni de solamente de la plataforma de linux.
josemurcia escribió:Dfx escribió:Igual eres tu quien no tienes ni idea de lo que hablas cuando sacas la conclusion por 3 o 4 situaciones concretas en un juego, mientras en la misma review tienes pruebas de que los drivers oficiales llegan a sacarle diferencias de casi el 50% a esos drivers libres y por si fuera poco el tema de drivers de terceros no es una cosa de amd, ni de solamente de la plataforma de linux.
Pero es que sigues sin entender que es inadmisible que unos drivers libres hechos sin ánimo de lucro por la comunidad a base de ingeniería inversa rindan igual o mejor que los de AMD en algunas ocasiones, es que no tiene ni pies ni cabeza. Y el rendimiento OpenGL en Windows sigue siendo una mierda, aunque no sea tan malo como en Linux.
NVIDIA saca drivers nuevos cada 2 o 4 semanas, están continuamente mejorándolos, por supuesto que introducen fallos puntuales que luego arreglan una semana más tarde, pero es que los de AMD son una porquería de por si, no por algo puntual.