GTX 780 o R9 290

1, 2, 3, 4
dohc1v escribió:
Silverquick85 escribió:gente propongo que hoy iniciemos el dia de la suavidad en amd, como veo que es como una bola de paja que seguro que la hizo algun famosillo del mundillo la inicio, porque es la mayor boberia que he leido y visto y mira que he jugado horas y horas en pc con 780 montadas, el tema de drivers y de la suavidad YA CANSA

Compañero si te sobra la pasta piles la que pilles sera una gran tarjeta, no hagas caso que si drivers, que si suavidad, que si mi polla es mas grande etc etc, todo el mundo ella peste de las 290 de referencia y yo tengo una y no me pasa de 70º jugando bf4 como 4h al dia, mi consejo pilla la que mejor se adapte a tu bolsillo todo lo demas son fantasmadas que se dicen en foros

Amigo el compañero ha pedido consejo y la gente se la esta dando, son opiniones personales...tr gusten o np eso si han aportado mas que la camisa que te has rasgado con tu indignacion...en fin respeta las opiniones de lps demas y manten las formas amigo


esque tiene toda la razón, y además está aportando su opinión no se que estás diciendo, decir algo tan subjetivo e intangible como que "la suavidad" es mayor en una que en otra no es muy acertado, y mas cuando todo se mide en fps.

Yo con mi actual amd juego mas fluido si cabe que con mi anterior 670, y lo percibo así porque va a 60 fps prácticamente en cualquier situación.
Prototiper escribió:esque tiene toda la razón, y además está aportando su opinión no se que estás diciendo, decir algo tan subjetivo e intangible como que "la suavidad" es mayor en una que en otra no es muy acertado, y mas cuando todo se mide en fps.

Yo con mi actual amd juego mas fluido si cabe que con mi anterior 670, y lo percibo así porque va a 60 fps prácticamente en cualquier situación.



No nos equivoquemos. El FRAMERATE (que son los fps, en tu caso 60 fps en los juegos que te refieras) no tiene nada que ver con la suavidad. Puede estar alguien a menor framerate que tú (45 fps por ejemplo) y tener mejor sensación de suavidad, por qué? porque el FRAMETIME entre frames es menor que el tuyo.

La suavidad a X fps se mide en el FRAMETIME.
Si estoy deacuerdo Kailkatarn, solo hago alusion a las formas del compañero, que sin habet faltado a nadie pues....tu has dado tu punto de vista aparte de aportando buena informacion, con un tono a mi parecer bastante mas respetuoso...en fin era una anotacion, que fluya el hilo
en ningun momento he querido faltar el respeto, pero si te has sentido ofendido por mi comentario te pido disculpas de antemano, cuando me refiero a que ya cansa, es que siempre se dice la misma barbaridad par justificar el sobreprecio de una, anoche mismo estaba jugando con un colega al diablo3, yo con mi 290 de referencia y mi colega con su flamante 780 evga classified 780 y los dos teniamos las mismas rascadas y incluso habian zonas en las que yo iba mas fluido que el y no estamos hablando de una 780 normalita, en cambio en test del heaven 4.0. la 780 me saca unos 70puntos, pero en temas de juegos las dos estal igual de 1 o 2 fps de diferencia depende del juego y bajo dx porque bajo mantle ya es otro tema y la gente lo tiene hay olvidado pero amd esta apostando por esta api y yo para mantener los 120fps en ultra que da mi monitor en bf4 tiene que ser bajo mantle,

cuando se habla de las mejoras de drivers de nvidia que anuncia a bombo y platillo 40% de mejora en watch dogs por ejemplo me gustaria saber cuanto hay de verdad en eso
Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.

¿Es una buena opción?

¿Me haría falta cambiar placa, micro, y RAM?

Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333
davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.

¿Es una buena opción?

¿Me haría falta cambiar placa, micro, y RAM?

Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333


No es necesario cambiar nada hasta dentro de unos cuantos años. Lo que deberías decir es la fuente, ahí sí es posible que tengas que hacer un cambio.
davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.

¿Es una buena opción?

¿Me haría falta cambiar placa, micro, y RAM?

Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333


falta saber la fuente, por todo lo demas se te va a quedar un buen pc para varios años y sin duda buena eleccion la msi y otra opcion de la que se habla poco es la powercolor de 3 ventiladores que es una gozada de materiales
Haber yo OS hablo de mi experiencia propia y tuve la AMD como 3 meses y no me quede con la sensación de q tuviera una grafica perfecta.

Fue cambia a la 780 y note esa suavidad, por mucho q me muestres test yo se lo q noto, si no fuera así abría vuelto a la 290 ya q cuesta menos.
Pero ahora si tengo la sensación de perfección al jugar, cosa q antes casi la tenia pero no llegaba esa sensacion
rubentribune escribió:Haber yo OS hablo de mi experiencia propia y tuve la AMD como 3 meses y no me quede con la sensación de q tuviera una grafica perfecta.

Fue cambia a la 780 y note esa suavidad, por mucho q me muestres test yo se lo q noto, si no fuera así abría vuelto a la 290 ya q cuesta menos.
Pero ahora si tengo la sensación de perfección al jugar, cosa q antes casi la tenia pero no llegaba esa sensacion


Se puede llamar efecto placebo.
Mibeleccion fue la 780 y no me arrepiento va perfecta y no necesito mas
Vale la pena una poseidon GTX780 respeto a las que no tienen refrigeración liquida?
Silverquick85 escribió:
davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.

¿Es una buena opción?

¿Me haría falta cambiar placa, micro, y RAM?

Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333


falta saber la fuente, por todo lo demas se te va a quedar un buen pc para varios años y sin duda buena eleccion la msi y otra opcion de la que se habla poco es la powercolor de 3 ventiladores que es una gozada de materiales


Sí, también voy a cambiar la fuente que tengode 450w por una Tacens Valeo V 800W 80 Plus Silver Modular.
rubentribune escribió:Haber yo OS hablo de mi experiencia propia y tuve la AMD como 3 meses y no me quede con la sensación de q tuviera una grafica perfecta.

Fue cambia a la 780 y note esa suavidad, por mucho q me muestres test yo se lo q noto, si no fuera así abría vuelto a la 290 ya q cuesta menos.
Pero ahora si tengo la sensación de perfección al jugar, cosa q antes casi la tenia pero no llegaba esa sensacion


efecto placebo, que te lo hace el subconsiente para creer que esta justificado el sobreprecio, tranquilo a todos nos a pasado en esta vida y el que diga lo contrario miente
Silverquick85 escribió:efecto placebo, que te lo hace el subconsiente para creer que esta justificado el sobreprecio, tranquilo a todos nos a pasado en esta vida y el que diga lo contrario miente



Hombre, eso depende del tipo de persona que seas, si eres un español de a pié que tiene que mirar hasta el último centavo que gastas no te puedes permitir los efectos placebo, vamos, yo no me los puedo permitir. Se busca, rebusca, se prueba, se reprueba y lo que haga falta pero todo menos efecto placebo que está el dinero pero que bien jodido de ganar en este país a estas alturas.

Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.
fausti1981 escribió:Vale la pena una poseidon GTX780 respeto a las que no tienen refrigeración liquida?



No, si al final optas por la gtx 780 yo te recomendaria esta, basicamente por ser una d las mas baratas que puedes encontrar

http://www.amazon.es/Zotac-GeForce-GTX-780-Edition/dp/B00E7HJ0Q2/ref=sr_1_8?ie=UTF8&qid=1408975061&sr=8-8&keywords=gtx+780

pero al precio que estan las R9 290...

http://www.amazon.es/Gigabyte-Radeon-R9290-4GB-PCI-/dp/B00HS84DFU/ref=sr_1_3?ie=UTF8&qid=undefined&sr=8-3&keywords=r9+290
http://www.amazon.es/Sapphire-TRI-X-290-GDDR5-UEFI/dp/B00HFA44YQ/ref=sr_1_1?ie=UTF8&qid=undefined&sr=8-1&keywords=r9+290


Yo entre estas me quedaria con la Gigabyte r9 290
KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.


Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.

En mi caso la última Nvidia que tuve (hasta pasar a la 780 de ahora) fue la geforce 7600, en el PC posterior he tenido siempre AMDs y en este nuevo me he vuelto a pasar a Nvidia porque estaba ya hasta los huevos del Catalyst y de tener que esperar MESES a que sacaran drivers decentes para juegos nuevos (y no tan nuevos), y aún así cuando salen dejan bastante que desear. La gota que colmó el vaso fue ver como en el FF XIV Nvidia sacaba sus drivers una semana antes del lanzamiento, incrementando notablemente el rendimiento, mientras que AMD tardó casi 2 meses y todavía tienen stuttering y CDTs por todos lados.

Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. En algunos casos será tan sangrante como en el FFXIV y en otros será inapreciable, pero de efecto placebo nada.
Metalhead escribió:Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.

Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. De efecto placebo nada.


Que creas que es lo mejor para ti no lo convierte en LO MEJOR para el mundo entero. Y luego, volvéis al tema drivers cuando mierda de drivers para X juego al poco de salir lo he pasado en ambas marcas indistintamente y luego lo que veo poco comentar y es más tangible y cierto que nada es la calidad de paleta de colores que ofrece AMD está por encima de la de NVIDIA y desde hace mucho.

Cada uno debe saber por qué compra una cosa o compra otra pero recomendar lo que nosotros compramos como LO MEJOR es una broma para cualquier persona, más que nada porque tus necesidades o cosas que juegas no tienen por qué tener nada que ver con lo que vaya a hacer él con su tarjeta.

Sobre los drivers no tengo nada que decir, yo uso 3 AMD ahora mismo y no tengo ningún problema de drivers. He llegado a tener 3 Nvidias simultáneamente también y ningún problema con ellas tampoco. Que alguna de ellas ha tardado en tener mejor driver para tal juego? sí, pero vamos, seguirá pasando mañana, pasado y dentro de 10 años en ambas marcas o en nuevas si viene alguna o las de intel llegan a cierto nivel.
Light Killuminati está baneado por "faltas de respeto"
Ni una de las 2, según las trolleadas sin confirmar la 870 rendirá como 290, recomiendo esperar y comprar entonces la 780/ti o 870. XD

para mi entre 780 y 290 hay muy poca diferencia de rendimiento, solo la de precio. En mi caso prefiero geforce porque tiene mas calidad y ya esta y la calidad se paga. alomejor rinde en un juego 5 fps menos en otro mas, no es tanta la diferencia de rendimento pa decir esta le gana en todo. Depende como estes económicamente si vas apurado de € pues la amd, y si no te importa gastar 100€ + en una grafica gama alta ya que te gastas 300-400 pues gtx780. Esperate a la 870 [oki]

Hay gente q solo juega 2 juegos activamente, si eres uno de ellos y esos juegos no usan phyxs, la amd te sirve de sobra! Saludos
KailKatarn escribió:...


¿Tú ves? Así sí. Yo creía de hecho lo contrario, que las AMD continuaban teniendo más stuttering por esto mismo. ¿Tienes enlaces a las comparativas completas?
Aquí por ejemplo es al revés: http://uk.hardware.info/reviews/3991/4/ ... -far-cry-3

De todas formas en mi caso, hasta que AMD de un soporte decente a Linux en sus gráficas, poco puedo elegir.

y es más tangible y cierto que nada es la calidad de paleta de colores que ofrece AMD está por encima de la de NVIDIA y desde hace mucho

Explícame eso, porque no entiendo cómo puede ser mejor la "paleta de colores" que ofrecen una y otra si la salida de vídeo (salvo que uses VGA a estas alturas) es digital, y de los colores se va a encargar el monitor que tengas.
Metalhead escribió:
KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.


Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.

En mi caso la última Nvidia que tuve (hasta pasar a la 780 de ahora) fue la geforce 7600, en el PC posterior he tenido siempre AMDs y en este nuevo me he vuelto a pasar a Nvidia porque estaba ya hasta los huevos del Catalyst y de tener que esperar MESES a que sacaran drivers decentes para juegos nuevos (y no tan nuevos), y aún así cuando salen dejan bastante que desear. La gota que colmó el vaso fue ver como en el FF XIV Nvidia sacaba sus drivers una semana antes del lanzamiento, incrementando notablemente el rendimiento, mientras que AMD tardó casi 2 meses y todavía tienen stuttering y CDTs por todos lados.

Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. En algunos casos será tan sangrante como en el FFXIV y en otros será inapreciable, pero de efecto placebo nada.



La verdad es que la diferencia de precio es considerable.


Me dejan esta

http://www.pccomponentes.com/gigabyte_g ... AmRt8P8HAQ


por 450 con 1 año y 4 meses de garantia
Estos hilos de Nvidia vs AMD son la leche... comiendo palomitas estoy xD

Para mi, el único motivo que me hecha un.poco atras con las AMD es la temperatura.

Para jugar a 1080 60fps te vale cualquiera de las dos.
No se muy bien ese tema de los drivers que tanto comentan como andará... pero yo tengo desde hace tiempo una 7950, que equivale a una R9 280 y no tengo ningún problema. Ni cuelges ni nada por el estilo, y me funciona fina fina.

Puede que sea un caso poco representativo, pero yo problemas no tengo al menos
fausti1981 escribió:
Metalhead escribió:
KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.


Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.

En mi caso la última Nvidia que tuve (hasta pasar a la 780 de ahora) fue la geforce 7600, en el PC posterior he tenido siempre AMDs y en este nuevo me he vuelto a pasar a Nvidia porque estaba ya hasta los huevos del Catalyst y de tener que esperar MESES a que sacaran drivers decentes para juegos nuevos (y no tan nuevos), y aún así cuando salen dejan bastante que desear. La gota que colmó el vaso fue ver como en el FF XIV Nvidia sacaba sus drivers una semana antes del lanzamiento, incrementando notablemente el rendimiento, mientras que AMD tardó casi 2 meses y todavía tienen stuttering y CDTs por todos lados.

Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. En algunos casos será tan sangrante como en el FFXIV y en otros será inapreciable, pero de efecto placebo nada.



La verdad es que la diferencia de precio es considerable.


Me dejan esta

http://www.pccomponentes.com/gigabyte_g ... AmRt8P8HAQ


por 450 con 1 año y 4 meses de garantia


una 780ti son palabras mayores y ese precio es bueno
KailKatarn escribió:
rubentribune escribió:YA CANSA??

A mi me la suda las gráficas q se compre la gente yo no gano gana.

Por suerte para mi e probado las 2, 290 trix y 780 lightning , y SI E NOTADO SUAVIDAD.
además de estabilidad en el pc y 0 bsod cosa q antes eran esporádicos pero habia




A ver, lo de antes que se decía sobre y que ya has dicho "es que las nvidia dan mejor suavidad" o lo tipico que tu ya has dicho también "es que con la NVIDIA parecen los frames más reales, los 60 en AMD parecen 40 o menos" es ABSOLUTAMENTE Y COMPLETAMENTE FALSO.

Estamos en el mundo de la informática, dominado por las matemáticas, y por lo tanto cualquier tipo de hecho sucedido en la misma puede ser explicado mediante matemáticas (excepto los errores de hardware a nivel físico, claro está). Así que vamos a pasar a demostrarte como es ABSOLUTAMENTE Y COMPLETAMENTE FALSO que las Nvidia tengan más suavidad.

Seguro que antes de asegurar y decir esto desconocias que la suavidad a un número de frames indeterminado se mide por el Frametime, si quieres saber más sobre él echa un ojo a google, yo me voy a limitar a tumbar solamente esa afirmación:


Recordad que en estas pruebas menos es mejor (lower is better):


Battlefield 4 frametime:

Imagen


El frametime de las 290s es menor que el de las 780s en BF4.


Call of duty Ghost:

Imagen


El frametime de las AMDs es mejor que el de las NVIDIA.



Watch Dogs:

Imagen


El frame time de las AMDs es mejor que el de las NVIDIA en este también.



Sleeping Dogs:

Imagen


El frame time de las AMDs es mejor que el de las NVIDIA en este también, salvo frente a la Titan.




Bien, como puedes ver ... no es cierto lo que comentas. Es cierto que durante un tiempo esto fue así porque AMD tenía un problema de latencias con el acceso de las memorias en GCN que solucionaron hace ya más de 2 años vía drivers.

Yo también he tenido 780ti e inclusive 290x en mis manos. Más suave la NVIDIA? ni por asomo. Estamos en un foro técnico y creo que es de ley soltar las cosas con pruebas y de forma tangible.


PD: Mi intención es defender AMD? para nada, a mi como si se hunden INTEL, AMD y NVIDIA juntas y nacen 8 empresas nuevas por cada una (soñar es gratis). Yo lo que quiero es comprar la calidad/precio/prestaciones mejor que haya y en precio hoy por hoy Nvidia no es el caso.



por que el FrameTime de mi Bf4 es 17 ms y te lo digo a ojo por que el mayor tiempo ronda los 14-15 y a veces sube a 18ms pero menos?? no corresponde con tu tabla, por que puede ser?

Ahora me e instalado una bios Skynet mantengo la grafica sin boost a 1000mhz con un voltaje de 1.076vcore y temp de 58º jugando a bf4, igual y me a dado por ocerla, llegando a 1350mhz con todavia temperaturas aceptables 84º, y me estoy descargando el tomb raider el cual tengo benchs con mi vieja 290 trix oceada y sin ocear, ahora os posteo los resultados, haber si tengo efecto placebo como decis.

Vuelvo a repetir a mi las tablas que veis por internet no se si son del todo de fiar, pero no me digais que yo no e notado ningun cambio y a sido efecto placebo, por que el primero que anda justo de pasta soy yo y si no hubiera notado diferencia hubiera vuelto a mi 290.

Saludos y fair play
rubentribune escribió:por que el FrameTime de mi Bf4 es 17 ms y te lo digo a ojo por que el mayor tiempo ronda los 14-15 y a veces sube a 18ms pero menos?? no corresponde con tu tabla, por que puede ser?

Ahora me e instalado una bios Skynet mantengo la grafica sin boost a 1000mhz con un voltaje de 1.076vcore y temp de 58º jugando a bf4, igual y me a dado por ocerla, llegando a 1350mhz con todavia temperaturas aceptables 84º, y me estoy descargando el tomb raider el cual tengo benchs con mi vieja 290 trix oceada y sin ocear, ahora os posteo los resultados, haber si tengo efecto placebo como decis.

Vuelvo a repetir a mi las tablas que veis por internet no se si son del todo de fiar, pero no me digais que yo no e notado ningun cambio y a sido efecto placebo, por que el primero que anda justo de pasta soy yo y si no hubiera notado diferencia hubiera vuelto a mi 290.

Saludos y fair play




No es cuestión de tablas falsas es que los drivers de gráficas avanzan. Las tablas están sacadas con drivers de los primeros y al poco de salir los juegos, los frametime de AMD también han bajado. Las tablas son referencias no verdades absolutas, lo que dejan claro es que no hay diferencia entre unas y otras referidas a "suavidad".

Otra cosa es que tu quieras creer lo que quieras creer, que claro, ahi nadie puede decir nada, pero por desgracia las tablas no van avanzando según sacan drivers nuevos las compañias, no son autoactualizables. Además no estás acusando a 1 sino a 3-4 webs profesionales del tema, y hay muchas más hablando de esto, sino que hay usuarios aquí, inclusive yo, que ha tenido ambas inclusive hasta probándolas a la vez.

Y sinceramente, me fio mucho más de webs profesionales que de muchos usuarios, salvo excepciones, claro está, hay páginas que a lo largo del tiempo han cantado y mucho la traviata (y usuarios también xD) .
Veo que se menciona mucho el tema de la suavidad de las Nvidia pero en todo el post el único que ha apartado datos contrastados ha sido KailKatarn. Creo sinceramente que debates como este pueden ser muy enriquecedores y te dan la oportunidad de aprender muchísimo acerca del mundillo, pero los argumentos han de ser sólidos y contrastados.

No cuesta tanto mirar unas reviews antes de decir que Physx no funciona bien por cpu, que tarjeta rinde mas, que gráfica es mas caliente o con cual se obtiene una experiencia mas fluida.

En resumen, todos saldríamos ganando si nos esforzáramos un poco a la hora de razonar las respuestas.
No le encuentro mucho sentido al debate de la suavidad en benchmarks, porque se prueban los juegos en su máxima configuración y en ese caso petardean casi siempre, da igual que pegue el tirón en el frame 1 que en el 1200, el juego va a ir mal y la mayoría de veces se corrige tocando la configuración de vídeo más que esperando a que aparezcan los drivers mágicos que resuelvan tu problema (que puede ser cpu, disco, ram, fuente,...)

A veces da la sensación que sale un juego y por tener una gráfica potente ya no hay que currárselo (un mínimo). En plan, sale Watch Dogs, o Crysis 3 y la gente prefiere quejarse y cagarse en los controladores/desarrolladores y estar frustrado antes que bajar sombras a medio y antialiasing a 2x y ya conseguir la mantequilla xD

Benchmark para referencias de rendimiento bruto/precio, mejoras y testeo de tu propio equipo...

Esto me recuerda siempre al típico que pregunta "que gráfica pongo para mover todo en Ultra??", pues ninguna, pq hay juegos que no puedes maximizarlos con una sola tarjeta, y será así siempre.
Kennggin escribió:No cuesta tanto mirar unas reviews antes de decir que Physx no funciona bien por cpu, que tarjeta rinde mas, que gráfica es mas caliente o con cual se obtiene una experiencia mas fluida.


Yo que quieres que te diga, a mi el tema de physx por cpu me sigue sin convencer... Que si, que está muy bien usar la cpu para eso cuando te sobra cpu... Pero cuando vayan llegando juegos que de verdad consuma cpu ya me diran... Ya lo he dicho, lo suyo seria probar con watch dog

Para mi por lo menos physx sigue siendo una razón para escoger nvidia y no amd... La otra son las aplicaciones 3D, no encontrareis muchos foros 3D donde recomienden una amd...

Saludos

PD: que es eso de que nunca hay una gráfica que mueva bien todo juego??? o___O Ahora mismo una 290 o 780 mueve cualquier cosa en ultra... Siempre que sea a resoluciones "humanas" claro...
Eso depende de cada usuario, sus pretensiones y gustos a la hora de jugar. A mí por ejemplo me vuelve loco el Physx, es un efecto tan espectacular que incluso algunos juegos parecen otros teniendo dicha técnica activada o no como Borderlands 2. Es un añadido gráfico generacional. Cuando te acostumbras al efecto, deseas que todos los juegos lo empleen.

Y yo con AMD no creo que vuelva, por Physx, sí.... pero también porque no me gusta depender de aplicaciones externas, odio eso y con Nvidia puedo hacerlo todo desde el panel de la gráfica, desde Downsampling, forzar Sincro vertical o usar la adaptable en juegos que no usen Triple Buffer, el FXAA funciona en los juegos, lo probe en Gunslinger que no trae AA... siempre trae técnicas u opciones completas, pulidas y eficientes como el ShadowPlay.

En cuanto a drivers, faltando más de un mes para que saliera recientemente el Metro redux y Dead Rising 3, ya dichos juegos contaban con sus respectivos drivers..... Todo eso lo valoro y por ende me siento satisfecho con la marca.
Korso10 escribió:Explícame eso, porque no entiendo cómo puede ser mejor la "paleta de colores" que ofrecen una y otra si la salida de vídeo (salvo que uses VGA a estas alturas) es digital, y de los colores se va a encargar el monitor que tengas.



Sí, es digital, pero la paleta de colores que se almacenan en los DACs es diferente en una marca y otra como es normal. Es muy dificil de notar si no llevas tiempo con una NVIDIA y saltas a una AMD/ATi o viceversa (usando el mismo monitor, claro). Lo mejor es hacerlo in-situ para verlo bien, pero a mi los colores de las AMD siempre me resultan un poco más vivos.

Si tienes algún día la oportunidad de probar una nvidia y una amd/ati en el mismo monitor hazlo y verás como hay diferencias en los colores.
KailKatarn escribió:
Korso10 escribió:Explícame eso, porque no entiendo cómo puede ser mejor la "paleta de colores" que ofrecen una y otra si la salida de vídeo (salvo que uses VGA a estas alturas) es digital, y de los colores se va a encargar el monitor que tengas.



Sí, es digital, pero la paleta de colores que se almacenan en los DACs es diferente en una marca y otra como es normal. Es muy dificil de notar si no llevas tiempo con una NVIDIA y saltas a una AMD/ATi o viceversa (usando el mismo monitor, claro). Lo mejor es hacerlo in-situ para verlo bien, pero a mi los colores de las AMD siempre me resultan un poco más vivos.

Si tienes algún día la oportunidad de probar una nvidia y una amd/ati en el mismo monitor hazlo y verás como hay diferencias en los colores.


Los DACs que tengan no se van a usar si la salida es por DVI, HDMI o Displayport, porque la salida es digital. Es exactamente lo mismo que usar una tarjeta de sonido dedicada de 200€ o usar la integrada para sacar sonido digital por la salida óptica. Da igual.

De hecho, he probado lo que dices, mismo monitor, unas cuantas fotos y 2 PCs, uno con una GTX650 y otro con una HD7770. Como era de esperar se ven exactamente igual.
Korso10 escribió:Los DACs que tengan no se van a usar si la salida es por DVI, HDMI o Displayport, porque la salida es digital. Es exactamente lo mismo que usar una tarjeta de sonido dedicada de 200€ o usar la integrada para sacar sonido digital por la salida óptica. Da igual.

De hecho, he probado lo que dices, mismo monitor, unas cuantas fotos y 2 PCs, uno con una GTX650 y otro con una HD7770. Como era de esperar se ven exactamente igual.




Imagen



Depende de si usas DVI-I o DVI-D y en la conexión por VGA se nota igual. De todas formas para que veas que no es algo que yo me invento te dejo un vídeo:



https://www.youtube.com/watch?v=qR3ewLMbywY



Vamos, es algo conocido por todos los foros de hardware especializado y hasta webs de hardware muy serias han hecho muchas pruebas al respecto. En el vídeo se ve muy claramente lo que me refiero de colores más vivos.


PD: De hecho, para que veas que la diferencia es bastante notoria, hace poco un amigo cambió de una GTX760 a una 290x y que es lo primero que me dijo sin que yo le dijese nada? que había notado colores más vivos en la AMD. Ni se molestó en comentar la diferencia de fps lo primero, sino la diferencia de colores.
Es la historia de siempre!
La 780 y la 290 son gráficas muy muy parejas.
AMD ofrece una relación rendimiento/€ superior, una potencia en bruto superior sobre el papel y tienes Mantle, una especie de pre-Directx12!
NVIDIA vende más caro, saca más rendimiento y estabilidad a los juegos gracias a sus mejores drivers y también tiene Physx!
Intenta mirar benchmarks de los juegos que más juegas o sueles jugar y mira quien saca más FPS o aprovecha mejor sus tecnologías (Mantle, Physx, Game Works) pq tecnicamente son gráficas muy parejas.
Yo diría que 780 es ligeramente más GPU para jugar que 290, por pocos FPS, pero mejor!
Intenta también mirar cosas secundarias como para que marca están optimizados los títulos que más juegas, que panel de control te gusta más o si le vas a dar un uso más allá de los juegos.
KailKatarn escribió:Vamos, es algo conocido por todos los foros de hardware especializado y hasta webs de hardware muy serias han hecho muchas pruebas al respecto. En el vídeo se ve muy claramente lo que me refiero de colores más vivos.


PD: De hecho, para que veas que la diferencia es bastante notoria, hace poco un amigo cambió de una GTX760 a una 290x y que es lo primero que me dijo sin que yo le dijese nada? que había notado colores más vivos en la AMD. Ni se molestó en comentar la diferencia de fps lo primero, sino la diferencia de colores.


Ya, pero la realidad es tozuda:
http://hardforum.com/showthread.php?t=1694755

De hecho, del mismo vídeo que pones:
http://www.rage3d.com/board/showthread.php?t=33999614

The Radeon image has auto/dynamic contrast enabled, which is typical of ATI; they do it everywhere wheter you actually wanted it or not. If you view it using cheap monitor, it might give the impression of having more contrast, but on a decent monitor you'll notice that:

- some part are too dark; look at black area of the background forest, that is not how it supposed to look when you compare to real scenery of a hazy forest (the image I put right on top of it.)

- details are missing in dark areas; the gun and gloves in the GeForce image show more details


En resumen, los colores son exactamente los mismos, lo que es lógico por otra parte, y viene confirmado por el primer enlace: mismo monitor (y un buen monitor), misma calibración y un colorímetro, para que no haya dudas. Resultado: los colores son los mismos. Ahora bien, ¿porqué parecen mejores en las AMD? Porque AMD, por defecto, aumenta el contraste para que parezca mejor. El problema de aumentar el contraste, además de que los colores de la imagen se distorsionan, es que no lo puedes aumentar en todos los tonos, sino que lo aumentas en unos a cambio de disminuirlos en otros.
habria que ver como estan los settind de video pero asi a bote pronto yo en esas imagenes veo mas contraste en la AMD en cuanto al color no es que parezca mejores, por que no lo son, habitualmente cuanto mas rica es la paleta de colores , las imagenes dejan de ser tan llamativas, ejemplo un led tiene colores mas vivos que un plasma y llaman mas la atencion, pero el plasma ofrece una colorimetria mas rica y natural, tambien veo mas saturacion en la AMD cosa de la que tambien hullo...estoy muy metido con el tema TVs y eso es asi ... me parece interesante el tema por que no sabia de estas diferencias AMD-NVIDIA
Korso10 escribió:En resumen, los colores son exactamente los mismos, lo que es lógico por otra parte, y viene confirmado por el primer enlace: mismo monitor (y un buen monitor), misma calibración y un colorímetro, para que no haya dudas. Resultado: los colores son los mismos. Ahora bien, ¿porqué parecen mejores en las AMD? Porque AMD, por defecto, aumenta el contraste para que parezca mejor. El problema de aumentar el contraste, además de que los colores de la imagen se distorsionan, es que no lo puedes aumentar en todos los tonos, sino que lo aumentas en unos a cambio de disminuirlos en otros.



De una paleta RGB en bits está claro que llamando a X color debería de mostrarse igual, claramente. Que es vía driver y contrastes? me lo puedo creer perfectamente que la diferencia venga de ahí, pero lo que si tengo claro, es que a mi, personalmente, me gusta bastante más la paleta de colores que me han mostrado mis AMD/ATi que mis NVIDIA.

Además esto no es nuevo por parte de AMD, esto pasa desde que ATi era sólo ATi. La paleta de colores que muestran por DACs siempre me ha gustado más y si siguen manteniéndola vía drivers y contrastes hasta por HDMI/DVI-D pues me parece bien porque a mi personalmente me gusta más.

Lo que me es bastante raro es que tú en el mismo monitor y con una Nvidia y ATi lo vieras igual, porque vamos, es algo que se nota al primer contacto de una a otra. Es un cambio bastante brusco en la paleta de colores.
AMD no saca drivers (y 2 veces ademas) que achicharran graficas. [poraki] [poraki] [poraki] [poraki]
Lo del contraste de hecho, también lo hacen varias pantallas (especialmente las que no tienen paneles muy decentes), por eso a veces ves cosas como "contraste 1,000,000 : 1" refiriéndose al contraste dinámico.

El problema de aumentar el contraste mediante drivers (vamos, aumentar el contraste más allá del que tiene el monitor) es el siguiente:

Imagen

Imagina que la imagen es en blanco y negro, con niveles de gris de 0 (negro) a 255 (blanco). Fíjate en la línea de puntos, que es completamente recta. En el eje horizontal estarían los tonos que le dice el juego a la tarjeta que tiene que sacar, y en el eje vertical son los que la tarjeta le dice al monitor que saque. Como la línea (de puntos) es completamente recta, si el juego dice "pon este punto con una intensidad de 200", la tarjeta mandará 200. Eso sería lo que hacen las nVidia por defecto. Las AMD por defecto seguramente tengan una curva en S como la que ves en azul en la imagen, de manera que, cuando el juego dice "pon una intensidad de 200", cuando se consulta esa línea, realmente lo que se manda al monitor es a lo mejor 250. La gracia del asunto es que, cuanto tienes tonos muy proximos, por ejemplo 200, 190 y 180, obtienes tonos más separados (250, 230 y 210). Lo que no es tan gracioso es que eso se hace a costa de que los tonos muy claros o muy oscuros se aplanen, debido a la forma de la curva. Como los tonos son los que son, mejoras unos a costa de empeorar otros. El resultado, subjetivamente, puede ser más bonito (de hecho, por eso se hace), pero es menos realista.

Y siendo así, a mí también me parece raro que lo vea igual en nVidia y AMD, aunque se me ocurren 3 motivos: o al estar conectado por Displayport en AMD y reconocer que la pantalla tiene contraste de sobra (que lo tiene) se olvida de aplicar esos ajustes por defecto, o no los aplica en el escritorio viendo fotos y sólo los pone en vídeos y juegos, o mi hermano o yo quitamos esas curvas en los drivers (cosa que yo no recuerdo haber hecho).
Korso10 escribió:Lo del contraste de hecho, también lo hacen varias pantallas (especialmente las que no tienen paneles muy decentes), por eso a veces ves cosas como "contraste 1,000,000 : 1" refiriéndose al contraste dinámico.

El problema de aumentar el contraste mediante drivers (vamos, aumentar el contraste más allá del que tiene el monitor) es el siguiente:

Imagen

Imagina que la imagen es en blanco y negro, con niveles de gris de 0 (negro) a 255 (blanco). Fíjate en la línea de puntos, que es completamente recta. En el eje horizontal estarían los tonos que le dice el juego a la tarjeta que tiene que sacar, y en el eje vertical son los que la tarjeta le dice al monitor que saque. Como la línea (de puntos) es completamente recta, si el juego dice "pon este punto con una intensidad de 200", la tarjeta mandará 200. Eso sería lo que hacen las nVidia por defecto. Las AMD por defecto seguramente tengan una curva en S como la que ves en azul en la imagen, de manera que, cuando el juego dice "pon una intensidad de 200", cuando se consulta esa línea, realmente lo que se manda al monitor es a lo mejor 250. La gracia del asunto es que, cuanto tienes tonos muy proximos, por ejemplo 200, 190 y 180, obtienes tonos más separados (250, 230 y 210). Lo que no es tan gracioso es que eso se hace a costa de que los tonos muy claros o muy oscuros se aplanen, debido a la forma de la curva. Como los tonos son los que son, mejoras unos a costa de empeorar otros. El resultado, subjetivamente, puede ser más bonito (de hecho, por eso se hace), pero es menos realista.

Y siendo así, a mí también me parece raro que lo vea igual en nVidia y AMD, aunque se me ocurren 3 motivos: o al estar conectado por Displayport en AMD y reconocer que la pantalla tiene contraste de sobra (que lo tiene) se olvida de aplicar esos ajustes por defecto, o no los aplica en el escritorio viendo fotos y sólo los pone en vídeos y juegos, o mi hermano o yo quitamos esas curvas en los drivers (cosa que yo no recuerdo haber hecho).




Entiendo perfectamente lo que me dices porque me gusta la fotografía y entiendo bien lo que me estás diciendo. Lo que si te puedo decir es que he tenido nvidias y atis en monitores normaluchos, buenos y hasta en monitores de edicción Eizo de 16-bit de color de 3000 dólares, y como todo en esta vida en esos temas, va por gustos. Es muy muy complicado que podamos tener todos los mismos gustos en colores.

Yo personalmente me quedo con los colores de AMD, de hecho si supiese la configuración de preset de color y contraste que tienen por defecto en driver (en DAC directamente está por defecto) lo pondría en las nvidias que han pasado por mis manos. De hecho, en el vídeo del BF3 que he puesto antes, me gusta pero que bastante más la tonalidad de colores.

Lo dicho, ante gustos .... es como los culos, cada uno tiene el suyo. Pero como puedes ver si que había diferencias ;)
Yo cuento mi experiencia.....

Tuve una 7970 ghz durante 1 año y el unico problema que me dio fue que se me cortaba el audio viendo videos, se soluciono en drivers mas actuales.

Ahora tengo una 780 ti desde hace 3 meses y sigo con los mismos drivers (no he querido poner los 1.40).....y por ahora ningun problema tampoco.

Los juegos que han tenido microsutering lo he tenido en las 2 tarjetas casi por igual......y los juegos que tienen bugs y fallos en las 2 por igual.

Tambien he de decir que en las 2 tarjetas , 0 BSOD :)

EDITO: cuando hablais de "suavidad" deberiais matizar, suavidad porque no hay suttering o porque no baja de 60 frames?? o por que?

Por ejemplo, para mi suavidad es que el juego nunca baje de 60 fps y no tenga suttering, eso es suavidad en mi opinion ;)
Suavidad por microstuttering, vamos, cuando en algún juego notas que da tironcillos aunque estés jugando a 60fps.
OJO! puedes tener 60 fps y que te den sensación de 30 fps y sin stuttering porque tu FRAMETIME entre frames es muy alto.

No todo es el stuttering a X fps. Eso son microparones (stuttering), pero puedes estar perfectamente a 100 fps y tener menos suavidad porque tu frametime está por las nubes que alguien que lo tiene bajo y está a 50 fps y sin microparones (stuttering) ninguno de los dos.
Korso10 escribió:Lo del contraste de hecho, también lo hacen varias pantallas (especialmente las que no tienen paneles muy decentes), por eso a veces ves cosas como "contraste 1,000,000 : 1" refiriéndose al contraste dinámico.

El problema de aumentar el contraste mediante drivers (vamos, aumentar el contraste más allá del que tiene el monitor) es el siguiente:

Imagen

Imagina que la imagen es en blanco y negro, con niveles de gris de 0 (negro) a 255 (blanco). Fíjate en la línea de puntos, que es completamente recta. En el eje horizontal estarían los tonos que le dice el juego a la tarjeta que tiene que sacar, y en el eje vertical son los que la tarjeta le dice al monitor que saque. Como la línea (de puntos) es completamente recta, si el juego dice "pon este punto con una intensidad de 200", la tarjeta mandará 200. Eso sería lo que hacen las nVidia por defecto. Las AMD por defecto seguramente tengan una curva en S como la que ves en azul en la imagen, de manera que, cuando el juego dice "pon una intensidad de 200", cuando se consulta esa línea, realmente lo que se manda al monitor es a lo mejor 250. La gracia del asunto es que, cuanto tienes tonos muy proximos, por ejemplo 200, 190 y 180, obtienes tonos más separados (250, 230 y 210). Lo que no es tan gracioso es que eso se hace a costa de que los tonos muy claros o muy oscuros se aplanen, debido a la forma de la curva. Como los tonos son los que son, mejoras unos a costa de empeorar otros. El resultado, subjetivamente, puede ser más bonito (de hecho, por eso se hace), pero es menos realista.

Y siendo así, a mí también me parece raro que lo vea igual en nVidia y AMD, aunque se me ocurren 3 motivos: o al estar conectado por Displayport en AMD y reconocer que la pantalla tiene contraste de sobra (que lo tiene) se olvida de aplicar esos ajustes por defecto, o no los aplica en el escritorio viendo fotos y sólo los pone en vídeos y juegos, o mi hermano o yo quitamos esas curvas en los drivers (cosa que yo no recuerdo haber hecho).

correcto un ejepmlo una pioner kuro 5290h tiene un contraste real de 16000 a uno...luego la comparas con cualquier bravia top (XD me parto) de varios millones a uno y te das cuenta que mas contraste y de calidad es el de una kuro por ejemplo de lejos no solo a ojo ciego si no medido con sonda,,,marketing lo que interesa es el real no el dinamico
Korso10 escribió:Suavidad por microstuttering, vamos, cuando en algún juego notas que da tironcillos aunque estés jugando a 60fps.

Ok ok. si algun juego hay asi.....pondria de ejemplo el risen 3.......60 frames estables PERO mucho suttering
KailKatarn escribió:OJO! puedes tener 60 fps y que te den sensación de 30 fps y sin stuttering porque tu FRAMETIME entre frames es muy alto.

No todo es el stuttering a X fps. Eso son microparones (stuttering), pero puedes estar perfectamente a 100 fps y tener menos suavidad porque tu frametime está por las nubes que alguien que lo tiene bajo y está a 50 fps y sin microparones (stuttering) ninguno de los dos.


Tener un frametime alto (más bien una varianza alta en el frametime), que yo sepa, es precisamente lo que causa el stuttering. De hecho no puedes estar a 100fps si tu frametime está por las nubes, lo que puede pasar es que de esos 100fps, en uno o en dos tengas un frametime sensiblemente superior, que es lo que produce el stuttering.

http://www.anandtech.com/show/6857/amd- ... dmap-fraps
Aquí más sobre la percepción de stuttering con ejemplos muy claros

http://www.blurbusters.com/gsync/preview/?source=sidebar
Korso10 escribió:
KailKatarn escribió:OJO! puedes tener 60 fps y que te den sensación de 30 fps y sin stuttering porque tu FRAMETIME entre frames es muy alto.

No todo es el stuttering a X fps. Eso son microparones (stuttering), pero puedes estar perfectamente a 100 fps y tener menos suavidad porque tu frametime está por las nubes que alguien que lo tiene bajo y está a 50 fps y sin microparones (stuttering) ninguno de los dos.


Tener un frametime alto (más bien una varianza alta en el frametime), que yo sepa, es precisamente lo que causa el stuttering. De hecho no puedes estar a 100fps si tu frametime está por las nubes, lo que puede pasar es que de esos 100fps, en uno o en dos tengas un frametime sensiblemente superior, que es lo que produce el stuttering.

http://www.anandtech.com/show/6857/amd- ... dmap-fraps


Exactamente, son esos frames especialmente lentos lo que se perciben como MS al final, esas micropausas observadas durante una fracción de segundo, cada X segundos, lo que sea. No son los frames intermedios con frametime bueno lo que notamos, son los que andan sueltos con frametime muy alto lo que percibimos como MS.

Ahora, que también hay un problema sobre la medición de los frametimes, dado que aunque la pipe gráfica pueda decir que los timeframes que proceso son "impecables", el resultado final del envío a pantalla puede ser distinto (algo que registra FCAT y que no se ve con FRAPS a veces, por ejemplo), ya que éste ya no es posible "interceptarlo en dicha pipe de procesado y es una cuestión de gestión final de framebuffers varios del propio driver.

Además, existe otro problema que también se ha visto registrado que sí detecta a veces FRAPS pero no FCAT (pero NO siempre, ahí está el problema), que es que la temporización interna del frame a renderizar, en el motor del juego, puede estar descompensada por mucho que sea procesado perfectamente en un timeframe impecable por la gráfica y enviado a pantalla por el driver. Este caso es más raro pero también pasa.

La cuestión es siempre, al final, se registre o no con las herramientas actuales, un tema de temporizaciones del motor del juego y frame renderizado descompensado con lo que "tocaba" en una secuencia "lógica" de frames en un juego. Es un tema complejo, pero por lo que podemos ver con FRAPS, y si nos fiamos, los problemas son siempre los "frames lentos", sobre todo. Y la varianza es importante, aunque si es con frames "rápidos" es menos importante (pero que puede ocasionar, si la tasa de fps es algo justa, un MS de "baja intensidad" ).
hola chicos os dejo unos benchs propios de tomb raider, con una 290 trix + fx8350 a 4.7ghz y un 4770k y una 780 lightning, los ajustes son al maximo con tressfx y antialising a FXXA, a si es como se ponen al poner maximos, bueno hay va el primero que tengo guardado a Stock la 290 1000mhz de reloj


Imagen

aqui la 290 pasadisima de vueltas a 1215mhz 6400mhz las memos.

Imagen

AHORA LA 780, con bios mod sin boost, a 992mhz memos a stock y el 4770k a 4.2 GHZ.

Imagen

Aqui a 1293mhz y las memos a 7.800mhz

Imagen

Una pena no haberlo probado todo en el 4770k para que fuera una prueba mas real, aun asi con la 290 para jugar diria que no se podia a mas de 1170mhz por temperaturas, sin embargo con la 780 a casi 1300mhz todavia se puede jugar ya que ronda los 80º, la puedo subir a 1350mhz pero curiosamente saco menos FPS, y necesita bastante voltaje, el punto dulce y viable para 24/7 es 1300mhz.
Aunque no es una prueba justa por el procesador se ve que tiene mejores mínimos la 780. Una pena que no pudieses hacer todos los test con el 4770k :/
196 respuestas
1, 2, 3, 4