1060 o 470

wwwendigo escribió:
niñodepapa escribió:@wwwendigo

No conozco ningún juego de EA donde se usen técnicas que recaven el rendimiento de Nvidia.


Ajá, o sea, limitas el caso de los juegos promocionados por AMD a sólo los de EA, cuando yo te he mencionado a dos títulos antes (de hecho tres). Te los repito, los últimos Deus Ex y Hitman, y también te dije uno anterior con Dirt Showdown (y la GI implementada en el juego), pero si quieres más suma las anteriores partes de Deus Ex y Hitman otra vez, añade incluso al Tomb Raider (ya que hizo falta muchos parches del desarrollador y drivers para que el rendimiento con TressFX no fuera pésimo con las nvidia).



Yo no limito a nada, te cito EA por que has hablado de ellos y de Battlefield.

wwwendigo escribió:No sé, aunque parezca extraño, mismamente los BF, que se suele decir que son "agnósticos" (8 millones de razones te podría dar [beer] ) pero no es cierto, son claramente "proAMD" (por razones históricas de colaboración entre AMD y DICE, no es ya por Mantle, sino por el uso o no de características de distintas APIs como D3D según conveniera, un ejemplo rápido, la negativa a usar en el motor de DICE de las command lists de DX11 por supuestos problemas de rendimiento (con AMD, realmente) cuando representaría algo útil a la larga y que por lo menos sí beneficiaría a la mayoría del mercado que usa nvidia, no estoy hablando de implementar forzosamente las command lists, sino de crear dos paths de ejecución si éstas eran nocivas para AMD, pero no se hizo y adivina porqué).



Te dejo la increíble mejora que tienen las Fury en The Division.

Imagen

Imagen


Yo el código no lo voy a ver ni de uno ni de otro, es una forma de hablar no es literal. Tu no sabes lo que hacen ninguno seas lo que seas ya que no eres adivino, esto no son motores licenciados, estos son propios y no hay un tercero que sepa una mierda excepto si le das acceso. Pero no es lo mismo dar acceso total a uno y a otro no, que es de lo que te quejas básicamente de la IP Battlefield, pero te repito estos no hacen la guarrada que hacen otros ;) yo tengo Nvidia y va bien con todos ellos, cuando he tenido AMD no he podido decir lo mismo de los que usan GameWorks.


Da igual la tecnica utilizada, de hecho esa es muy conocida y se utiliza por todas las API's graficas, no es algo extraño. Esta basado en fuerza bruta para todos, por lo que no restringe su uso, ¿puede decir lo mismo la competencia con HairWorks? No. Mala competencias no es usar esto, es añadir un plugin para un engine (por ejemplo, o implementarlo directamente) que multiplique la teselación. Es más se puede hacer un control dinámico del detalle de las texturas en tiempo real o bien al detectar cierto hard, si no te dan acceso al código, ¿cómo sabes que no implementan algo así? No hay forma fehaciente de saberlo, pero si se intuye por algunos resultados (lease Project Cars).



En este párrafo puse HairWorks en vez de GameWorks y por eso te dije que no se puede comparar, mea culpa. Esto no es comparar solo TressFx con HairWork, hay muchas otras caracteristicas por medio. Yo encantado te muestro eso que comentas de la iluminación global, es un parametro que se puede desactivar, ¿se puede Physx en todos los juegos?, ¿permite que AMD lo ejecute? No, sólo por CPU si quieres y si no también, ya ni con una secundaria suya.

Te dejo unas capturas, para que así veas que se puede desactivar. Bueno pongo los que tengo, lo que no como Deus pues no y de TR ya sabemos que sí se puede, pero aun así te pregunto, ¿tienen algo que perjudique a Nvidia y no se pueda desactivar?

Imagen
Imagen
Imagen


Lo mismo ocurre con Hitman 2016 donde ya te digo que han sido guarretes, pero no unos guarros como los otros. Es una característica de la API de un tercero que han potenciado, no es algo propietario de AMD y por lo tanto Nvidia lo puede solucionar en la siguiente generación ;)


Si no te gusta Archtecnica, perfecto. Ahora bien de ahí a decir que son basura hay un mundo.

Que no niñodepapa, que ambas son tal para cual, que no hay "el bueno (AMD), el feo (intel) y el malo (nvidia)" en este mundillo de las gpus.


Yo no hablo de buenos y malos, hablo de las malas practicas y actualmente Nvidia es el rey. Persiguen segmentar la comunidad y apoyar esto es irracional, así que eso de drivers malos de AMD es un cuento chino, más bien falta de soporte por parte de algunos desarrolladores.

Saludos.
lo suyo es tener una de cada...

he estado casi todo el año jugando a juegos verdes así que tenía pinchada la 970 (y mientras dejaba que madurasen los crissom drivers)
ahora que ya están más o menos maduros y estoy jugando a juegos dx12 (también usan los async ... que no son dx12 en si... sino más bien un añadido) y vulkan pinché 1 290

luego ya más adelante que se puedan editar bios pascal... ya cambiaré a la 1070 que tengo en el otro pc (o cambio los pc's de sitio... hará como 2 meses que toco mi intel (i5 3570k @ 5.0 + gtx 1070)

@wwwendigo tu no tenías un 2500k?
has cambiado a el micro? me suena haber leido algo de 3570k

yo pillé un i5 como respuesto de mi 2600k y me salió patanegra también... a 1.32 pasa el intel burn test en muy alto a 5.0 ghz [looco] (a más ya me falta RL o hacerle el delid)
@niñodepapa

Incluso en esas reviews que citas la Fury X está rindiendo no menos de lo que "debe", pues estarás de acuerdo en que en términos generales la 980 Ti es superior, y más si hablamos de juegos DX11 como es el caso. De todas formas, ¿no ves cuanto menos extraño que la 980 Ti en ambos casos sólo le saque entr un 20% y menos de eso a la 980 normal? Puede ser por cpudependencia, pero aún así es cuanto menos extraño en un juego con carga gráfica tan clara.

Sea como sea, ahí tienes a las 290 básicas ganando a la 970 (guru3d) etc, si tal la review de ¿computerbase, quizás? se desmarca de la de guru3D y de la que yo puse, pues sus resultados están más alejados de la de guru3D que ésta de la que yo puse (o por lo menos se carga más el escalonamiento de gráficas).

Sea como sea, el juego es notable por rendir bien en todas las plataformas, por mucho gameworks que monte. Si prefieres ponemos gráficas de Primal donde en teoría es más acusado aún el derive hacia arquitecturas de AMD (simple coincidencia de qué efectos priman en dicho juego).

Pero mejor que hablar de eso te digo algo más directo:

¿Sabes quién lleva el tema de relaciones comerciales, PR, etc, ahora mismo en AMD y el área de gráficas sobre todo?

Roy Taylor.

El mismo que trabajó en un puesto similar antes en nvidia:

https://www.linkedin.com/in/roytaylor

Y el creador de conceptos como el famoso TWIMTBP. Ahora también se le añade el tema de Gaming Evolved de AMD. Mismo pollo, mismo tipo de trabajo, mismo tipo de técnicas. De hecho misma agresividad (en parte eso le buscó problemas en nvidia en su momento, por sus relaciones con alguna prensa no tan positivas como debiera).

Es que no falla, niñodepapa. Que les van la marcha a ambas marcas. [carcajad] [carcajad]

@paconan

El 3570K llegó de una forma un tanto enrevesada, básicamente un colega quería una cpu lo más barata posible para gaming y con presupuesto muy limitado, le busqué 2500K pero cuando por fin decidió renovar no había en ese momento en el mercado. Sí 3570k pero se salía de presupuesto un poco, así que le ofrecí mi cpu al precio de "saldo" y más bajo al que le había encontrado un 2500K y yo puse la diferencia por el 3570K. Un gasto muy pequeño aunque sea para un salto también muy modesto en cpu.

A mí no me cae la breva de encontrarme nunca cpus de OCs de ensueño, al igual que las gpus, las maxwell no me pasan de 1500 MHz por sistema (excepto una 960, y por los pelos, y van 3 GTX 970), las kepler no me pasaban ni llegaban a 1300 ni en csueños, y las cpus siempre cuento con intentar lograr OCs "del pueblo", los asegurados, porque mi mítica suerte dicta que soñar con OCs excelentes no se cumple, que sería romper una racha de muchos años y eso no puede ser... [+risas] [+risas]

Hombre, la Pascal me alcanza puntas de 2139 MHz aunque se estabiliza después a 2088 sostenidos en juegos y ya "calentados" los motores. Que no es mal Oc, pero ya están ahí las memorias Micron para compensar y que no me "emocione" demasiado... (XD)

Los mejores OCs los saqué con un e4300 y un Q6600, y aún así tampoco fueron OCs de los más altos en cada tipo de cpu (pero sí por lo menos tirando a buenos). Antes con AMD me salían aún peores, y con los siguientes intel, bien pero lejos de esos 5 GHz.

ismarub escribió:@wwwendigo . Por no citar un tocho de madre y señor mío, me interesa que explicaras mejor lo de las command_list y el battlefield1.

Por mi parte he descubierto que tengo menos cpu-dependencia con gráficas radeon que con nvidia, cuando en el resto de juegos es al revés. Con una nvidia el procesador se arrastra mucho más que con una radeon a similares parámetros (cuello de cpu).

¿No funciona el driver optimizado de dx11 en el btf1 en las nvidia?.


Las command_list son una función que permite empaquetar una lista de drawcalls independientes entre sí en una única llamada al API pero que permite repartir cada drawcall (que sí, de por sí también son llamadas al API) para ser atendida por un core distinto, esto es, es la única forma de hacer llamadas a D3D11 usando multihilo.

El tema no es con BF1, sino más bien con los BF en general, seguro que en BF3 y si no me equivoco también en BF4 se evitaban su uso porque reprsentaban un perjuicio en el rendimiento comparado a simplemente llamar al API con cada llamada una a una seriadas en un mismo hilo.

Claro, eso pasaba con el driver de AMD, y creo que al principo del driver DX11 con nvidia tampoco iba fina esta característica del API, pero se podía ver sobre el asunto en el desarrollo de BF3:

Aquí hay muchas publicaciones técnicas de DICE sobre estos temas:

http://www.frostbite.com/topics/publications/

Y en concreto en ésta se habla del tema del instanciado y además de las command lists en concreto (página 33 y 34):

http://www.frostbite.com/2011/04/direct ... lefield-3/

Y de la "utopía" que era por falta de drivers con calidad en este área (lo que no decían es que era sobre todo con una marca concreta, pero claro... qué van a decir con un pase de diapositivas que ponían en eventos donde tanto DICE como AMD hablaban juntos... [qmparto] ).

Después ya con BF4 como que hablan directamente de Mantle, y ya más tarde ni eso, así que seguramente al final no usarían las command lists de DX11 en su motor.

¿Porqué tira más de cpu en las nvidia que en las AMD? Ni idea, no debería ser así, el driver optimizado evidentemente funciona, sólo hay uno con las optimizaciones ya realizadas, pero por lo que sea no baja el consumo de cpu. Tampoco hay que olvidar que una cpu con un juego no sólo se dedica a gestionar llamadas al API/driver, hace muchas más cosas como físicas, IA, I/Os etc. Ahora, que esto debería ser igual en un sistema con gráfica AMD y otro igual con gráfica nvidia, así que el porqué tira más de cpu, ni idea. Lo único es que AMD juega con ventaja con este juego por las razones históricas que les llevan a probar mucho más en hard de AMD éste y la implementación de efectos desde DICE en sus juegos básicamente consultando cualquier duda con AMD, es posible que simplemente esté en general el juego muy adaptado a las AMD y eso conlleve incluso cosas como se note hasta en la carga del driver (quién sabe, quizás algún efecto usando gpgpu se tiene que procesar desde o almacenar datos en el sistema principal con las nvidia por algún problema puntual de funcionamiento y gestión de recursos, y esto lleve a mayor consumo de cpu).

Realmente no lo sé, sólo que el juego no tiene el mismo rodaje con las nvidia y el driver está "menos preparado" que el de AMD, que lleva desde el comienzo del desarrollo siendo uña y carne con DICE (como lleva siendo normal desde como poco BF:BC2, sino antes). Aún hay que dar gracias que nvidia tenga acceso y comunicación con DICE desde unos meses antes del lanzamiento, aunque dudo que tenga la misma influencia que AMD en las técnicas implementadas en dicho motor, por las razones históricas esgrimidas.
@wwwendigo ese es quien es, pero hay matices y no se hace lo mismo en un lado que en otro, a los resultados me remito. Aunque estas practicas fueron las que les permitieron distanciarse de AMD, mira los perfiles de de unos y otros en twitter, veras un porron de gente de Epic, Ubisoft y Nvidia juntos, un batiburrillo de hamijos [+risas]


Estamos de acuerdo que Nvidia hoy por hoy tiene mejor hard que AMD, pero eso no significa que sea en la gama media y que sus drivers sean malos, que es de lo que se trata esto.
niñodepapa escribió:@wwwendigo ese es quien es, pero hay matices y no se hace lo mismo en un lado que en otro, a los resultados me remito. Aunque estas practicas fueron las que les permitieron distanciarse de AMD, mira los perfiles de de unos y otros en twitter, veras un porron de gente de Epic, Ubisoft y Nvidia juntos, un batiburrillo de hamijos [+risas]


Estamos de acuerdo que Nvidia hoy por hoy tiene mejor hard que AMD, pero eso no significa que sea en la gama media y que sus drivers sean malos, que es de lo que se trata esto.


Sobre lo primero, de la misma forma que ves un montón de veces a gente de DICE, EA y AMD en eventos muy juntitos.... [+risas]

Eso no quita que a veces se vean a gente de EPIC con los de AMD o gente de DICE con los de nvidia, todo estudio grande y con un motor gráfico que pretenda ser referencia tiene que mantener buenas relaciones con todas las partes interesadas del sector.

Yo no he dicho eso, que el driver actual de AMD sea malo, digo que el soporte es algo mejor en nvidia aunque sea porque suelen soportar antes a los juegos recientes. No he dicho nada tipo "es que queman gráficas" ni "hacen que se te cuelgue el equipo seguido", eso más bien lo ha dicho otra gente pero de las nvidia en este mismo hilo... [+risas]

La gama sí es media (o media-alta) porque AMD no ha sacado Vega aún, no veo problema en eso excepto la inexistencia de un producto concreto que vendría como agua de Mayo para AMD, porque además están las navidades ya ahí y la campaña de ventas no es lo único importante, mucha gente se informa durante estas fechas sobre qué tiene cada fabricante, si AMD no tiene el chip "gordo" a estas alturas tiene un efecto también en imagen.

Pero lo dicho, en principio no es un problema de que se tire "hacia abajo" los productos de AMD, la Rx 480 está compitiendo contra la GTX 1060 porque es su rival natural, los rendimientos no mienten. En este hilo se habla de las 1060 contra las 470, evidentemente es más rápida la primera opción aunque sea la versión de 3GB, otro asunto es valorar si es tan importante la VRAM como para que un GB extra sea determinante o si la 470 de 8 GB merece la pena por un desembolso extra, que es de lo que se hablaba en el hilo.

Saludos.
@wwwendigo la RX 470 de 4/8Gb no lo es efectivamente. Para lidiar con la GTX 1060 3GB está la RX 480 4GB. La otra es un punto intermedio, al que no ha sabido llegar Nvidia con su 1050 Ti, y que en ocasiones consigue igualar a la de 3GB y en Dx12 de momento superar en algunos.


Tiene más soporte por lo que llevamos debatiendo un rato [qmparto] , pero como bien indicas ahora, no se trata de malos drivers por parte de AMD ;)


Saludos.
niñodepapa escribió:@wwwendigo la RX 470 de 4/8Gb no lo es efectivamente. Para lidiar con la GTX 1060 3GB está la RX 480 4GB. La otra es un punto intermedio, al que no ha sabido llegar Nvidia con su 1050 Ti, y que en ocasiones consigue igualar a la de 3GB y en Dx12 de momento superar en algunos.


Tiene más soporte por lo que llevamos debatiendo un rato [qmparto] , pero como bien indicas ahora, no se trata de malos drivers por parte de AMD ;)


Saludos.


Entonces que hago? Estoy muy confundido. La 470 me gusta por el precio, pero si es mejor la 1060 de 3, pues me estirare un poco mas. Con el emulador de wii y gamecube y el de ps2 cual rinde mejor?
manolinmx escribió:
niñodepapa escribió:@wwwendigo la RX 470 de 4/8Gb no lo es efectivamente. Para lidiar con la GTX 1060 3GB está la RX 480 4GB. La otra es un punto intermedio, al que no ha sabido llegar Nvidia con su 1050 Ti, y que en ocasiones consigue igualar a la de 3GB y en Dx12 de momento superar en algunos.


Tiene más soporte por lo que llevamos debatiendo un rato [qmparto] , pero como bien indicas ahora, no se trata de malos drivers por parte de AMD ;)


Saludos.


Entonces que hago? Estoy muy confundido. La 470 me gusta por el precio, pero si es mejor la 1060 de 3, pues me estirare un poco mas. Con el emulador de wii y gamecube y el de ps2 cual rinde mejor?


Yo intentaría una RX 480 8Gb por 250€, si no se llega la de 4Gb por 232€. A mi no me convence la GTX 1060 3GB aunque no rinda mal y tampoco la Rx 470 al precio que esta.
donde esta la 480 de 8gb a 250???
https://www.amazon.fr/Sapphire-21260-00 ... rds=rx+480

Si la quieres con mejor disipador son 10€ más https://www.amazon.fr/Sapphire-Technolo ... rx+480+8gb

Hay otra tienda donde compraron por aquí y tiene también a 250€ incluso la GXT 1060 6Gb pero al ser de fuera pues si hay problemas o no te gusta el OC y la quieres devolver pagas más gastos de envío, y los llantos en los foros se la sudan, por eso creo no es muy popular comprar fuera ;)

http://www.rueducommerce.fr/Composants/ ... nk-DVI.htm
manolinmx escribió:
niñodepapa escribió:@wwwendigo la RX 470 de 4/8Gb no lo es efectivamente. Para lidiar con la GTX 1060 3GB está la RX 480 4GB. La otra es un punto intermedio, al que no ha sabido llegar Nvidia con su 1050 Ti, y que en ocasiones consigue igualar a la de 3GB y en Dx12 de momento superar en algunos.


Tiene más soporte por lo que llevamos debatiendo un rato [qmparto] , pero como bien indicas ahora, no se trata de malos drivers por parte de AMD ;)


Saludos.


Entonces que hago? Estoy muy confundido. La 470 me gusta por el precio, pero si es mejor la 1060 de 3, pues me estirare un poco mas. Con el emulador de wii y gamecube y el de ps2 cual rinde mejor?


En principio para emuladores tipo Dolphin es mejor nvidia, peeeeeroooo ahora este emulador y otros soportan DX12 sacándoles bastante provecho, y en este caso las AMD vuelven a ser una opción por lo menos igual de válida.

Así que más bien depende de si vas a usar estos emuladores con Windows 10 o con windows anteriores (o con otros s.o). Si vas a usar win10 y te gusta más el precio de la 470, vete a ella, si usas otras versiones de win por el tema de emuladores es posible que te venga mejor la 1060.


PD:

Para que te hagas una idea, con una AMD el rendimiento de Dolphin con distintas APIs:

https://www.youtube.com/watch?v=HjLAk361KAo

Y con una nvidia (pero acompañado de una cpu AMD, y esto último se nota bastante pues hace tiempo y con una versión antigua de Dolphin pero con una cpu intel más o menos decente probé este mismo juego y en esa zona iba mejor, con DX11):

https://www.youtube.com/watch?v=q1fNWX8dPzM

Si te fijas aunque sean juegos distintos parece haber un mayor rendimiento por parte de la variante DX11 en la nvidia (más que nada porque Mario Galaxy, aunque sea de los juegos mejor emulados, pide 60 fps y no 30 fps como el Zelda).

No hagas mucho caso a los comentarios del primer vídeo porque fuera de la utilidad de ver el rendimiento en el emulador en el vídeo, el autor es claramente un fanboy que está diciendo auténticas gilipolleces en la sección de comentarios, como que AMD no tiene problemas de rendimiento con OpenGL en linux (cuando está claro que su driver OpenGL en linux es más lento que en windows, Phoronix así lo atestigua), o que las aplicaciones OpenGL están "boicoteadas" por nvidia y los desarrolladoras de éstas contra AMD :Ð :Ð (cuñado inside).

Pero fuera de esto son útiles estos vídeos para comprobar el tema.
En esa API no hay nada que interese aún fuera de las consolas, creo que PS va con la suya propia basada en OpenGL. Es anecdótico el numero de juegos que tiene Linux o MAC. Con DirectX es otra cosa, lo es todo y ahí si que se esfuerzan y se lo tragan todo [qmparto] [qmparto] [qmparto]


We asked Roy what the report contained, in general terms. “The report is quite simple – we want to make the gaming experience as good we possibly can on all of our hardware. We give the developers a list of per-GPU optimisations that they can make to their code to help improve the experience at any given spec – in our opinion, this is vital for any developer that is serious about making a great PC game.”

In order to put Nvidia’s work into perspective, we asked Roy what his team did to help Relic convert Company of Heroes to DirectX 10. He laughed and said “Peter Young and Ignacio Llamas have practically lived at Relic’s studio for the last six months.

“The first thing we did was explain to Relic what we thought was possible given the way the game was coded. We then drew up a list of what we thought made the most sense based on the resources available [in terms of manpower] and scalability. What I mean by scalability is that you can’t just throw in a DirectX 10 feature that breaks the DirectX 9.0 game. Therefore most of the inclusions were effects based rather than improving the gameplay mechanics.”



http://www.bit-tech.net/bits/2007/06/26 ... tbp_dx10/3


Bah, si no hay intereses... el mundo lo mueve el aire [qmparto] [qmparto] [qmparto]
61 respuestas
1, 2