josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.
Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios
Dfx escribió:josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.
Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios
No gano nada, ni pretendo ganar nada, pero tampoco no se que ganas tu entrando sin argumentos a que los drivers de AMD son una basura, yo tengo un FX8320 con muy poco overclock hasta los 4,4 con una 7950 y un X3 con una 460 y hasta ahora no he tenido problemas con ninguna de las dos plataformas, mas alla de los numerosos bugs de algun juego en concreto y de alguna solucion via drivers que ha aparecido poco despues del lanzamiento para cosas que SI eran culpa de los drivers.
Desde hace bastantes versiones el microstuttering ha desaparecido practicamente y la suavidad en muchos juegos se deja notar para ser una humilde 7950 que ni siquiera tengo overclockeada y te digo lo mismo que a wwwendigo, cambiaria antes de CPU en busca de un IPC mayor por nucleo que de GPU por esos supuestos problemas de drivers tan dramáticos de los que hablas y como yo hay muchísima gente que es usuaria de GPU AMD que no encuentra esos problemas de los que tanto se hablan.
Es que básicamente, si me diera problemas realmente, me desharía de mi 7950 y me compraría una NVIDIA.
wwwendigo escribió:Dfx escribió:josemurcia escribió:Los argumentos están de sobra expuestos, las pruebas están ahí. Si te compras una AMD+CPU de gama baja prepárate porque el cuello de botella ocasionado por el driver va a hacer que la AMD rinda muy por debajo de lo que debería. No entiendo que ganas defendiendo esto, si quieres criticar a NVIDIA me parece estupendo, pero eso no justifica el pésimo rendimiento de los drivers de AMD.
Y yo no he intentado vender eso, si te das cuenta he puesto en algunos juegos. Pero es que al ritmo al que avanzan los drivers va a tener que ser AMD la que haga "ingeniería inversa" a los drivers libres para mejorar los suyos propios
No gano nada, ni pretendo ganar nada, pero tampoco no se que ganas tu entrando sin argumentos a que los drivers de AMD son una basura, yo tengo un FX8320 con muy poco overclock hasta los 4,4 con una 7950 y un X3 con una 460 y hasta ahora no he tenido problemas con ninguna de las dos plataformas, mas alla de los numerosos bugs de algun juego en concreto y de alguna solucion via drivers que ha aparecido poco despues del lanzamiento para cosas que SI eran culpa de los drivers.
Desde hace bastantes versiones el microstuttering ha desaparecido practicamente y la suavidad en muchos juegos se deja notar para ser una humilde 7950 que ni siquiera tengo overclockeada y te digo lo mismo que a wwwendigo, cambiaria antes de CPU en busca de un IPC mayor por nucleo que de GPU por esos supuestos problemas de drivers tan dramáticos de los que hablas y como yo hay muchísima gente que es usuaria de GPU AMD que no encuentra esos problemas de los que tanto se hablan.
Es que básicamente, si me diera problemas realmente, me desharía de mi 7950 y me compraría una NVIDIA.
Se te está diciendo por activa y pasiva que el problema con el driver DX11 es uno de CPU, no de la gpu.
La gráfica no tiene ningún problema, siempre y cuando tenga una cpu suficientemente rápida por core para atender el número de llamadas del API. Eso es lo "normal" en la mayoría de juegos. Pero hay juegos como Unity que se pasan dos pueblos en este punto concreto, llamadas al API (drawcalls). Esto está citado además como un hecho y palabras propias de los implicados, no sólo es que yo apuntara por mis comentarios que las declaraciones de Ubi respecto a AMD apuntaban a esto.
Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.
En situaciones extremas es cuando se puede apreciar esto. Prueba a pasar el benchmark de Civ-beyond earth y registra medios y mínimos, y después hablamos. No es una situación normal del juego, pero sí una situación donde además de la mano de AMD, se expone cómo la calidad del driver/API, que corren en las cpus no en las gpus, puede influir tanto al rendimiento.
Insisto, el problema es el driver de AMD, no su hardware. Y la combinación AMD+AMD en casos como Unity, que son casos raros pero se irán haciendo más frecuentes. Si AMD se decide a aplicar las mejoras, bienvenidas sean, pero parece más interesada en dar soporte a Mantle.
Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.
Y cuidado con despreciar a linux, porque además de tener una importancia vital en mercados clave, como el de servidores, a AMD le hace falta para sus futuros SoCs ARM con gpu GCN el crear un driver OpenGL para Android decente. Y eso es básicamente lo mismo que hacer el driver OpenGL para linux, ya que el núcleo de uno está basado en el otro. El modelo de driver y la forma de funcionar es similar.
Si quieres vender SoCs, y presumir de GCN en éstos, lo primero es crear un driver opengl y para linux decente, porque es la antesala par un driverpara android y el SoC ARM de AMD. No desprecies a la plataforma mayoritaria a día de hoy tan alegremente. Aunque AMD aún no tenga mercado ahí.
PD: Me hace coña que compares un rumor infundado y esencialmente ignorante, como el del "driver matatarjetas" de nvidia (uuuhhh, que viene el Cocooo!!), y lo digo porque no he visto a nadie siendo capaz de explicar de forma sensata cómo podría pasar esto excepto la acusación alegre y sin ningún tipo de evidencia (yo sí he podido explicar porqué no era posible esto), con hechos de sobra analizados y con documentación aportada, datos, y hasta la declaración de AMD sobre el tema, como el ms, o el tema del driver DX11 que tienen.
En fín, alguna gente quiere creer. Los datos objetivos no importan y si hay rumorcillos que conviene, les damos apoyo por aquello de arrimar la sardina al ascua que más calienta.
Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.
Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.
Dfx escribió:
No fuiste tu quien presento contra la R9 290X una review donde se comparaba una NVIDIA con overclock contra la R9 290X de referencia con problemas de temperatura como prueba de que la NVIDIA era mas potente?
Y eso de rumor infundado e ignorante díselo a quienes perdieron sus tarjetas al igual que en su momento le pides pruebas de como ha ocurrido a gente que ha perdido su GPU y nisiquiera le arranca, cuando lo unico que habia en comun era la instalación de un driver, pero no, vamos a llamar ignorantes a quienes han perdido la tarjeta y no a los que creen en casualidades fruto de una conspiracion contra NVIDIA, por favor....
Según tu uso de porcentajes de mercado como excusa para dar soporte, lo de Mantle tendría que ser abandonado ipso facto para poner a trabajar a esa gente, YA, en el driver DX11 y ponerse a la altura de nvidia en uso de cpu por éste.
Ni siquiera en STEAM donde hay bastantes titulos de Valve "modernos" para usar en linux consiguen porcentajes decentes de jugadores:
Tú prueba Unity y ya me contarás, sí, ya sé, como ya va mal o muy justo en cualquier tipo de máquina excepto las top, pues te parecerá que es lo mismo, pero estoy casi seguro que yo podré jugar relativamente bien si "bajo las orejas" y no pido calidad ultra (ya ni hablo de MSAA), y que tú no, o por lo menos no igual que otro usuario con cpu intel quad más una 7950, pondría la mano en el fuego que obtendrá mejores mínimos y posiblemente mejores fps medios.
Ya colgare datos cuando lo pruebe pero viendo que la situación depende mucho del IPC seguro que obtendré menos FPS que cualquiera que tenga un CPU con un IPC mayor, pero también me costo menos que otros CPU de IPC mayor y ya sabia lo que había, cuando pueda hacerme con el 5820k que quiero ya cambiaría la historia, yo no me caso con nadie.
Por el momento dentro de sus limitaciones a 4,4ghz el 8320 se defiende bastante bien en los juegos, mi 7950 a 900mhz se defiende, he estado haciendo pruebas de overclock a 1000 y a 1100 en juegos como Ryse o Sombras de mordor y se escala bastante bien el rendimiento.
De hecho esta semana me he pasado entero el COD:AW en Extra y el juego iba bastante bien.
WiiBoy escribió:Listado de problemas de ACU
- Arno atravesando el suelo
- Bloqueo del juego al unirse a un sesión cooperativa
- Arno atascándose dentro de carros de paja
- Tardanza para mostrar el menú principal tras iniciar el juego
- Problemas de framerate
- Problemas gráficos y de colisión
- Problemas con el matchmaking cooperativo
- Problemas con los Créditos Helix
hasta con los creditos tienen problemas xDDD va a ser que el problema no es amd xD
1.- NO, no fui yo.
¿Verdad que es ridículo? porque es TU argumento. ¿O porqué te crees que empiezo con un "según tú"?
o defiendes Mantle como algo "bueno" sólo porque es AMD (porque de nuevo, nada de nada).
Sobre Mantle, por un lado es interesante, por otro lado ya he dicho siempre que me disgusta el hecho de que NVIDIA y AMD opten por soluciones propietarias para aplicarlas en juegos, como son Mantle, Physx o TressFX, o la proxima batalla entre G-Sync y FreeSync,
PD: ¿Tú sabes que Apple vende su Mac favorito, el Mac Pro, en sus variantes más potentes, con DOS gráficas AMD integradas, no? ¿Y sabes acaso que NO funcionan en Crossfire para 3D porque no hay soporte en el driver Mac OS X para esto? Ohhh Wait. Yes.... y sí, para "algo" sirve.
Si tienes la fortuna de usar aplicaciones OpenCL que tiren de ambas gráficas, por lo menos podrás darle uso al dúo en esa situación. Para todo lo demás, como si fuera una gráfica sóla. No me hables de soporte cuando se ven chapuzas así, diciendo que si el driver de nvidia es peor, que si mitos en vinagre, mientras decides ignorar sistemáticamente todos los problemas que hay en plataformas no windows o fuera de DX, o defiendes Mantle como algo "bueno" sólo porque es AMD (porque de nuevo, nada de nada).
Y sí, también se venden juegos para Mac OS X. De hecho más que antes. Puestos a hablar de mercados residuales que hay que poner en la lista negra porque evidencia a AMD, no porque no sean pujantes o innovadores.
Y nada, sigue tirando mierda sobre linux para justificar un driver penoso en OpenGL de parte de AMD. ¿Porqué?. Como si esto te fuera a dar la razón en algo por cierto que fuera, que no.
Que te lo digo otra vez, ANDROID usa kernel linux, si no haces un driver gráfico decente para linux, no lo haces tampoco para Android, el código es casi lo mismo, no igual evidentemente, y no lo digo por correr en ARM o x86, sino por diferencias que pueda haber en el modelo de driver, pero es básicamente portable casi al 100%, instantáneo, ergo la principal plataforma gaming y de mayor expansión actual se estaría despreciando (con permiso de iOS). Que es donde se está yendo mucho dinero ahora mismo, en ventas de apps para plataformas móviles.
wwwendigo escribió:
Sobre gpus:
gazadelco escribió:wwwendigo escribió:
Sobre gpus:
Me parece durísimo que con ese hardware, hablando tanto de la GPU como del resto de componentes (procesador y RAM), el rendimiento sea tan limitado (y eso que es sin AA).
Podrá ser un juego todo lo complejo que quiera, pero una de dos:
1.- Existe una evidente falta de optimización.
2.- Es un juego demasiado amplio y exigente para moverlo con el hardware de hoy en día y no debían haberlo sacado al mercado hasta dentro de un par de años.
wwwendigo escribió:
Yo diría que es más la dos, ya he comentado que se les ha ido la mano con el tema de la complejidad mostrada, sobre todo sabiendo que mientras en PC siga DX11, existe un problema para gestionar muuuuchas drawcalls aunque se usara mucho instanciado, y que habría sido mejor que hubieran limitado más el tema de personajes en pantalla o el detalle de edificios (digamos que con un LOD más agresivo con éste, por lo menos a distancia).
...
Alonso707 escribió:@wwwendigo cojamos lo de LOD agresivo con pinzas y si no, mira esto (lo ha pasado un compañero en el hilo técnico):
WiiBoy escribió:Yo llevo unas horas viendo imagenes y videos, y primero creo que el black flag se ve bastante mejor, y o todo el mundo tiene pcs de mierda y las capturas son malas o el juego de verdad se ve como la mierda xD
PD: despues de ver la foto de arriba... xDDDD ahora el mundo es azul? xD
Alonso707 escribió:@wwwendigo el usuario tiene una configuración bastante alta, que si no se acerca a ultra poco le queda (moviendo el juego con un sli de 670). Si hablo precisamente del LOD de este juego es porque me parece, que en esta ocasión, no se han esforzado lo suficiente aún poniendo el juego en su configuración más alta. He visto mejores LOD´s, de calidad gráfica similar, con una progresión menos acusada y más natural.
WiiBoy escribió:wwwendigo ami me gusta mas AMD como bien dices pero nunca me veras metiendome en peleas sobre nvidia amd para mi cada una tiene sus cosas pero hablando de juegos en concreto de AC me pasa lo siguiente, los e jugado a todos, versiones de PC claro ( los que an salido para consolas o portatiles ni los e visto ) y me pasa lo siguiente...
el juego en general , me parece aburrido, y repetitivo, pero hablando de graficos el 1 me sorprendio, los demas mas de lo mismo, y lo siento el black flag se ve mejor ke el Unity en general, de hecho hay zonas en el Unity que parecen dibujadas con el puto pain, aparte de que tengo una cruzada personal contra Ubisoft y EA y espero que estas compañias se hundan y exploten con todos sus integrantes
dicho esto
Tu puedes defender que el juego en el tema de AMD+AMD el juego no trabaje bien por la arquitectura de los procesadores la gpu o lo que quieras, pero la realidad es que Ubisoft como compañia que gana dinero con los juegos esta en la obligacion de crear un producto que este optimizado para las plataformas donde se lanza
Que me digas que el juego con una grafica AMD pues no va bien, pues vale
pero que vaya como el puto culo en las consolas ?
que tenga bug estupidos sin parar ?
que la gente con NVIDIA no consigua jugar?
que el juego en algunas partes sea jodidamente horrible ?
que el online pete?, el menu? los creditos ?
vamos esto no es cuestion de AMD ni de NVIDIA, esto es cuestion de querer sacar un juego al año, programarlo con la punta del navo, ahorrar costes, y querer sacar tajada, lo de siempre
que el juego no vaya fluido en una tarjeta de gama media ya me parece mal, pero que con las de gama alta pegue unos rascones de cojones? eso no hay por donde cogerlo, que conste que te doy la razon en el apartado tecnico de las gpu+cpu etc, pero no te doy la razon en la generalidad del tema, esto no es problema de AMD esto es problema de una compañia que hace lo que le sale de los cojones y despues le hecha las culpa a otro
Dfx escribió:Existe una evidente falta de optimizacion como pasaba en todos los anteriores AC, montarse peliculas de que este juego es superpotente, me parece absurdo, si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.
Dfx escribió:En calidad grafica es superior a las anteriores entregas, eso es evidente, que maneja mas personajes y es mas complejo, tambien se puede apreciar, que necesite esos requisitos para funcionar, eso ya lo pongo en duda, mas cuando viene de Ubisoft, empresa especializada en mentir.
Dentro de nada tendremos reviews de FC4 y dentro de no mucho de The division, veremos si esta politica sigue.
elrocho escribió:Pero qué maletines ni na', si va como el culo en cualquier plataforma.
Me imagino el betatesting de Ubisoft:- Oye, que esto rula con el Tri-SLI de 980.
- ¿Sí?
- Pega rascones a 40 fps pero aguanta bien.
- Pos ale, a venderlo como churros.
- ¿Y los bugs y eso?
Na', eso que lo betatesteen los compradores...
DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
ahomaru escribió:Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.
The evil Within
según esto el FX8350 tiene una media de 40fps con una GTX780TI.
Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs
Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps
Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?
.
Dfx escribió:[..] si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.
apalizadorx escribió:ahomaru escribió:Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.
The evil Within
según esto el FX8350 tiene una media de 40fps con una GTX780TI.
Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs
Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps
Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?
.
Alomejor no coincide con la configuración que tienes puesta, de todas formas es totalmente posible que sea una cagada de benchmark echa a toda prisa, o simplemente para vender humo.
Estaría bien hacer un post exclusivo para comparar benchmark supuestamente echos por ''profesionales'' y contrastar y comprobar las diferencias por nosotros mismos, ya que erroneamente a menudo casi todos los usuarios le damos estas comparativas toda la credibilidad del mundo sin cuestionarnos la veracidad de los resultados obtenidos.
ahomaru escribió:DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.
The evil Within
según esto el FX8350 tiene una media de 40fps con una GTX780TI.
Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs
Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps
Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?
Lo que si me queda claro es que Ubisoft pretende sacar un juego por año y que encima les funcione .
a tomar por culo ya hombre tanto juego mediocre sin acabar.
ahomaru escribió:
PD: Trastaro los FX bulldozer si se que tienen tecnología CMT, lo que me has hecho dudar son los FX Vishera(8350).Puedes aclarármelo por favor?
TRASTARO escribió:Dfx escribió:[..] si en consolas corre en un escaso fx de 8 nucleos a apenas 2ghz con apenas una 7850 y 8gb de ram a 30fps..., el 5960x con el uso que se le da segun la review deberia ser dios y apenas con un SLI de 970 llega a superar los 100fps.
Solo recuerden que los APUs [SoCs] de las consolas actuales en nada tiene que ver con los APUs Trinity/Richland/Kavery o los FX, ya que no usan arquitectura Modular [CMT].
DaNi_0389 escribió:ahomaru escribió:DaNi_0389 escribió:Con cpus Intel tambien hay cuello de botella, mas o menos segun el modelo, pero tambien existe, basta con comparar al 2600k con el 3970X.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Y digo yo...... alguien comprueba estas tablas, por que me parece que a los rusosquis estos además del vodka le gusta el dinerito.
ejemplo que puedo demostrar y que por ello me da poca confianza estas tablas.
The evil Within
según esto el FX8350 tiene una media de 40fps con una GTX780TI.
Este video desmiente esto, Ya que un FX 8350 4.0Ghz con una GTX 780 tiene una media de 55fps
http://www.youtube.com/watch?v=o9zsTrWWHIs
Yo tengo una GTX 780 oc con el mismo micro(FX8350) y mi media es de 65fps
Esto que es? mierda de gente haciendo juegos, drivers sin pulir, propaganda/publicidad engañosa?
Lo que si me queda claro es que Ubisoft pretende sacar un juego por año y que encima les funcione .
a tomar por culo ya hombre tanto juego mediocre sin acabar.
Habria que ver en que fase del juego han pasado las pruebas y que configuracion grafica han utilizado, no te lo puedo asegurar porque no tengo el juego pero lo mismo hay alguna zona donde ocurre lo mismo que en la famosa fase ''bienvenido a la jungla'' de Crysis 3 sea bastante exigente a nivel de micro, y los Haswell sacan pecho con su ipc.
ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.
Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.
https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQ
KindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.
WiiBoy escribió:lo del bf4 fue de traca, pasta que me gaste y lo del mapa sin sonido y la caida del servidor al tirar el edificio eran pa matar a ea y a dice
wwwendigo escribió:ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.
Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.
https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQKindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.
Me lo creo perfectamente, ya que la 770 tiene tendencia a ir por encima de 30 fps y más cerca de 40 fps que de 30 (ni una sóla vez la ví bajar de 30 fps en juego real), con ultra e incluso con MSAA 2X, que hace que baje unos cuantos frames más que con sólo FXAA, pero aún así, se mantiene por encima de 30 fps (eso sí, metes 4X y ya el rendimiento se hunde).
Y aún pudiendo jugar así (estilo consola), está claro que le pasa factura la VRAM aunque ni remotamente como mucha gente se piensa, como si no pudiera (simple y llanamente la tasa de fps es más baja por las transferencias puntuales de datos para cada frame, desde memoria principal a VRAM, nada salvaje ya que el rendimiento no se derrumba ni se sufren parones, sólo baja la tasa de fps a zonas "consoleras").
La GTX 970 tiene más potencia, más ROPs y más VRAM, no debería tener problemas para ir a esas velocidades que dices.
Por cierto, mis pruebas anteriores eran con la GTX 770 con valores de reloj de fábrica, esto es, memorias de 6gbps y el OC de la gpu que le mete Gigabyte. Seguramente se pueden arañar unos cuantos frames extra, aunque no sean una barbaridad, ayudan en situaciones así.
Y sí, el juego va mucho mejor que anteriores Assasins cuando la tasa de fps baja de 60 fps, yo no toleraba con los anteriores cuando había alguna zona que bajaba a 50 fps, se notaba mucho en estos casos por la forma en que entregaba los frames. Sin embargo este Unity lo hace mucho mejor, incluso a 30 fps no se ve demasiado afectado negativamente (aunque para notaro fluido, sobre todo jugando con ratón, recomendable estar por encima de 45 fps).
También es la primera vez en muchos Assasin's que el Vsync funciona CORRECTAMENTE, sin costes en rendimiento y manteniendo una buena fluidez, la primera vez que no me siento obligado a usar una solución vsync fuera del juego.
Es que estos de ubisoft son tan, tannn malos programando.....
De momento lo juego en la versión de los mares porque me habíais metido el miedo en el cuerpo, hablando de apocalipsis gráficos y rendimientos malísimos, y quería probarlo antes de comprar. Y de todas formas, estando Far Cry 4 a punto de salir, prefiero comprar éste como estreno que el Unity, pero no ambos a la vez (quizás a base de keys un poco baratitas me lo piense).
Pero lo que tengo claro es que este juego acabará en mi colección de juegos, si no es ahora, será dentro de unos meses con algún descuento y unos 20€. Y con mucho parche ya, para arreglar esos problemas que NO SON ni remotamente para tanto drama que armáis.
Veo demasiado dramaqueen por la zona.
Por los cojones os quejábais tanto de otros juegos como BF4 o Crysis3 al salir, e iban PEOR (aunque TODOS tienen razones técnicas para eso, bueno, excepto el famoso bug del stuttering masivo de BF4 al salir).
Dfx escribió:
Aunque no usen la arquitectura modular, si son nucleos completos tampoco se iran demasiado lejos en cuanto IPC que a los excavator a la misma frecuencia, por muy "diferentes" que sean.
TRASTARO escribió:Dfx escribió:
Aunque no usen la arquitectura modular, si son nucleos completos tampoco se iran demasiado lejos en cuanto IPC que a los excavator a la misma frecuencia, por muy "diferentes" que sean.
Al momento no existe ningun modulo excavator en ningun procesador de AMD, los APUs Jaguar que son los que usan las consolas, pues son similares a los phenom II, pero con mejor rendimiento [IPC]; la cuestion es que para procesos de mononucleo si son mejores a los modulares BullDozer pero para multihilo son mejores los modulares.
ciclito escribió:wwwendigo escribió:ciclito escribió:Asi es, yo lo llevo diciendo hace dias... aunque la gente me decia que era por mi equipo. Puede que la gente que tenga gpu amd + micro amd le vaya mal eso no lo discuto pero nvidia + intel va bien mira ya con una modesta 770 incluso con parametros altos o muy altos va decentemente como tu dices. Y ademas es cierto que este assassins va fluidillo a 45 fps yo lo estoy jugando en 4 k entre 45 y 50 fps y si los comparo con los anteriores a las mismas tastas de framerate este unity va mas fluido tambien como dices, yo lo corroboro.
Con la 970 + i7 4790k todo ultra y encima msaa 2x grabando esta por encima de 60 fps de media a 1080p. Sin rascadas aparentes va muy fino y sin antialias o solo fxaa subes de 10 a 15 fps.
https://www.youtube.com/watch?v=hIo0MEt ... I9_1BcrutQKindapearHD escribió:Y aún asi, ganaran millones y millones con esta verguenza de juego. En situaciones asi, me alegro que mucha gente lo juegue en la versión de los mares. Bueno, he dicho juegue...que lo intente.
Que verguenza de Ubisoft.
Me lo creo perfectamente, ya que la 770 tiene tendencia a ir por encima de 30 fps y más cerca de 40 fps que de 30 (ni una sóla vez la ví bajar de 30 fps en juego real), con ultra e incluso con MSAA 2X, que hace que baje unos cuantos frames más que con sólo FXAA, pero aún así, se mantiene por encima de 30 fps (eso sí, metes 4X y ya el rendimiento se hunde).
Y aún pudiendo jugar así (estilo consola), está claro que le pasa factura la VRAM aunque ni remotamente como mucha gente se piensa, como si no pudiera (simple y llanamente la tasa de fps es más baja por las transferencias puntuales de datos para cada frame, desde memoria principal a VRAM, nada salvaje ya que el rendimiento no se derrumba ni se sufren parones, sólo baja la tasa de fps a zonas "consoleras").
La GTX 970 tiene más potencia, más ROPs y más VRAM, no debería tener problemas para ir a esas velocidades que dices.
Por cierto, mis pruebas anteriores eran con la GTX 770 con valores de reloj de fábrica, esto es, memorias de 6gbps y el OC de la gpu que le mete Gigabyte. Seguramente se pueden arañar unos cuantos frames extra, aunque no sean una barbaridad, ayudan en situaciones así.
Y sí, el juego va mucho mejor que anteriores Assasins cuando la tasa de fps baja de 60 fps, yo no toleraba con los anteriores cuando había alguna zona que bajaba a 50 fps, se notaba mucho en estos casos por la forma en que entregaba los frames. Sin embargo este Unity lo hace mucho mejor, incluso a 30 fps no se ve demasiado afectado negativamente (aunque para notaro fluido, sobre todo jugando con ratón, recomendable estar por encima de 45 fps).
También es la primera vez en muchos Assasin's que el Vsync funciona CORRECTAMENTE, sin costes en rendimiento y manteniendo una buena fluidez, la primera vez que no me siento obligado a usar una solución vsync fuera del juego.
Es que estos de ubisoft son tan, tannn malos programando.....
De momento lo juego en la versión de los mares porque me habíais metido el miedo en el cuerpo, hablando de apocalipsis gráficos y rendimientos malísimos, y quería probarlo antes de comprar. Y de todas formas, estando Far Cry 4 a punto de salir, prefiero comprar éste como estreno que el Unity, pero no ambos a la vez (quizás a base de keys un poco baratitas me lo piense).
Pero lo que tengo claro es que este juego acabará en mi colección de juegos, si no es ahora, será dentro de unos meses con algún descuento y unos 20€. Y con mucho parche ya, para arreglar esos problemas que NO SON ni remotamente para tanto drama que armáis.
Veo demasiado dramaqueen por la zona.
Por los cojones os quejábais tanto de otros juegos como BF4 o Crysis3 al salir, e iban PEOR (aunque TODOS tienen razones técnicas para eso, bueno, excepto el famoso bug del stuttering masivo de BF4 al salir).
Pues ya que citas el btf4 hice un video hace meses a 2160p sli todo ultra en campaña y la fluctuacion de cargas de las gpus era un festival , vamos que a duras penas a 1300mhz obtenia una media de 50 fps. Cuando en el btf3 con las cargas al 98% solidas como una roca obtengo todo en ultra muchisimo mas alto y consistente el framerate. Con el ultimo parche que sacaron en el btf4 note mejorias en el multi, pero vamos soy de jugar poco a ese juego.
Aqui un video demostrativo:(Las cargas de las gpus son los porcentajes de la derecha de las temps:)
https://www.youtube.com/watch?v=P4rwNGp ... I9_1BcrutQ
O el watch dogs cuando salio,mas de lo mismo mirad las cargas:
https://www.youtube.com/watch?v=0QVzsat ... I9_1BcrutQ
Bueno por otro lado ya que estamos hablando del unity y ubisoft (tan criticado) y lo sorprendente bien que va incluso a 40fps os dire que el far cry 4 va en esa linea tambien. Es decir ayer estuve testeando este juego en 4k nativo todo ultra excepto oclusion, Godrays y antialias. El resultado fue sorprendente, es decir a pesar de ir en single a 30 fps de media bastante consistente incluso grabando, se podia jugar mas fluido que a 30 fps en consola. Asi que bien por ubisoft en este sentido por la optimizacion y al aplicar v-sync o triple bufer, pasa tambien como en el unity no hay perdida notoria de rendimiento.
Os dejo video del testeo de ayer ya esta vez con las cargas a tope a pesar de grabar a 2160p nativo ultra single:
https://www.youtube.com/watch?v=pfjSTfD ... e=youtu.be
La conclusion es que la optimizacion es mas que decente en ambos casos dejando a un lado los bgs del unity debido a lo que bien explica wwwendigo y corregible mediante parches asi que un poquito de paciencia y que la gente sea mas objetiva a la hora de emitir un juicio de valor o veredicto.
Vale que el estilo del videoreportaje es humorístico, pero eso no quita que un mal humor, que recuerda olores de sobaquera y nalgas sudadas, sea igualmente chabacano y desagradable.
Pero bueno, un chascarrillo gracioso y cuatro malos, es lo que tiene. Pero centrándose en lo que habla, la parte técnica demuestra hasta qué punto no se fija una mierda en lo que lee:
Primero, tú estás hablando del juego a tope en 4K, por lo que el sarcasmo de poner tu firma más el mensaje diciendo que "a tí te va bien" y que a los demás igual tienen equipos algo flojillos para lo que es el juego, le sobra.
Si no pilla que a 1080p los requerimientos en potencia gráfica son cuatro veces menos, ya es su problema. Fuera de esto, también se habla del tema de que con calidades altas, el juego es básicamente como en consola pero a 1080p y sin capado a 30 fps, según lo que pueda la gráfica usada. Y a medio o medio-alto muchas gráficas de gama media podrán moverlo.
Si se quiere hablar de la versión PC, no hay que olvidar cómo ha sido diseñado el juego y con qué target de fps en consolas, y no vender la moto de que si no hace 60 fps con todo en ultra en un PC medio o medio alto, es que es una mierda.
Sé que tiene algo de gracia ver tu firma y esas palabras fuera de contexto, sobre todo si no se fija la gente bien en lo que pone, pero realmente no tiene puta idea de lo que habla (sí del tema de bugs gráficos y cosas así, pero me da que este tipo es carne de cañón de juegos scriptados y que realmente nunca ha jugado a un AC, de verdad. Eso de que se extrañe de que los viandantes "no reaccionen" por verte acechando, tiene coña, parece que no conoce la mecánica del juego, y es que son las acciones de "perfil alto" las que les hacen reaccionar, NO las de perfil bajo. En fín...).
Y ya está, tampoco esperaba más de Meristation, veo que se une a la campaña de descrédito por unirse, tampoco me esperaba mucho, dadas las lagunas técnicas del staff de esta revista online.
Mulzani escribió:
A misma frecuencia los núcleos Jaguar son bastante más potentes, incluso en multihilo, el problema es la frecuencia con la que funcionan, 1,6-1,75 GHz, la mitad que los FX, y que para conseguir funcionar a la misma frecuencia que los Bulldozer necesitan muchísima más energía, ya pasar de los 2,0 GHz suponía un aumento en consumo y temperatura considerable que lo hacía inviable para las videoconsolas.