dohc1v escribió:Silverquick85 escribió:gente propongo que hoy iniciemos el dia de la suavidad en amd, como veo que es como una bola de paja que seguro que la hizo algun famosillo del mundillo la inicio, porque es la mayor boberia que he leido y visto y mira que he jugado horas y horas en pc con 780 montadas, el tema de drivers y de la suavidad YA CANSA
Compañero si te sobra la pasta piles la que pilles sera una gran tarjeta, no hagas caso que si drivers, que si suavidad, que si mi polla es mas grande etc etc, todo el mundo ella peste de las 290 de referencia y yo tengo una y no me pasa de 70º jugando bf4 como 4h al dia, mi consejo pilla la que mejor se adapte a tu bolsillo todo lo demas son fantasmadas que se dicen en foros
Amigo el compañero ha pedido consejo y la gente se la esta dando, son opiniones personales...tr gusten o np eso si han aportado mas que la camisa que te has rasgado con tu indignacion...en fin respeta las opiniones de lps demas y manten las formas amigo
Prototiper escribió:esque tiene toda la razón, y además está aportando su opinión no se que estás diciendo, decir algo tan subjetivo e intangible como que "la suavidad" es mayor en una que en otra no es muy acertado, y mas cuando todo se mide en fps.
Yo con mi actual amd juego mas fluido si cabe que con mi anterior 670, y lo percibo así porque va a 60 fps prácticamente en cualquier situación.
davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.
¿Es una buena opción?
¿Me haría falta cambiar placa, micro, y RAM?
Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333
davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.
¿Es una buena opción?
¿Me haría falta cambiar placa, micro, y RAM?
Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333
rubentribune escribió:Haber yo OS hablo de mi experiencia propia y tuve la AMD como 3 meses y no me quede con la sensación de q tuviera una grafica perfecta.
Fue cambia a la 780 y note esa suavidad, por mucho q me muestres test yo se lo q noto, si no fuera así abría vuelto a la 290 ya q cuesta menos.
Pero ahora si tengo la sensación de perfección al jugar, cosa q antes casi la tenia pero no llegaba esa sensacion
Silverquick85 escribió:davidfml escribió:Yo también voy a probar la R9 290, voy a cambiar mi Asus GeForce GTX 660 DirectCU II OC 2GB GDDR5, por la MSI R9 290 Gaming 4GB GDDR5, ya que la Sapphire R9 290 Tri-X UEFI 4GB GDDR5 es más larga y no me fio que no quepa en mi caja htpc.
¿Es una buena opción?
¿Me haría falta cambiar placa, micro, y RAM?
Tengo actualmente:
Placa Gigabyte GA-H61M-USB3H
Micro Intel Core i5-3570 CPU 3.40GHz
RAM 8Gb DDR3 1333
falta saber la fuente, por todo lo demas se te va a quedar un buen pc para varios años y sin duda buena eleccion la msi y otra opcion de la que se habla poco es la powercolor de 3 ventiladores que es una gozada de materiales
rubentribune escribió:Haber yo OS hablo de mi experiencia propia y tuve la AMD como 3 meses y no me quede con la sensación de q tuviera una grafica perfecta.
Fue cambia a la 780 y note esa suavidad, por mucho q me muestres test yo se lo q noto, si no fuera así abría vuelto a la 290 ya q cuesta menos.
Pero ahora si tengo la sensación de perfección al jugar, cosa q antes casi la tenia pero no llegaba esa sensacion
Silverquick85 escribió:efecto placebo, que te lo hace el subconsiente para creer que esta justificado el sobreprecio, tranquilo a todos nos a pasado en esta vida y el que diga lo contrario miente
fausti1981 escribió:Vale la pena una poseidon GTX780 respeto a las que no tienen refrigeración liquida?
KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.
Metalhead escribió:Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.
Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. De efecto placebo nada.
KailKatarn escribió:...
y es más tangible y cierto que nada es la calidad de paleta de colores que ofrece AMD está por encima de la de NVIDIA y desde hace mucho
Metalhead escribió:KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.
Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.
En mi caso la última Nvidia que tuve (hasta pasar a la 780 de ahora) fue la geforce 7600, en el PC posterior he tenido siempre AMDs y en este nuevo me he vuelto a pasar a Nvidia porque estaba ya hasta los huevos del Catalyst y de tener que esperar MESES a que sacaran drivers decentes para juegos nuevos (y no tan nuevos), y aún así cuando salen dejan bastante que desear. La gota que colmó el vaso fue ver como en el FF XIV Nvidia sacaba sus drivers una semana antes del lanzamiento, incrementando notablemente el rendimiento, mientras que AMD tardó casi 2 meses y todavía tienen stuttering y CDTs por todos lados.
Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. En algunos casos será tan sangrante como en el FFXIV y en otros será inapreciable, pero de efecto placebo nada.
fausti1981 escribió:Metalhead escribió:KailKatarn escribió:Yo creo que hay más efecto de "lo que yo me compro o he comprado es lo mejor" que efecto placebo.
Que por otra parte es lógico, no ? Si lo has comprado es porque crees que es lo mejor.
En mi caso la última Nvidia que tuve (hasta pasar a la 780 de ahora) fue la geforce 7600, en el PC posterior he tenido siempre AMDs y en este nuevo me he vuelto a pasar a Nvidia porque estaba ya hasta los huevos del Catalyst y de tener que esperar MESES a que sacaran drivers decentes para juegos nuevos (y no tan nuevos), y aún así cuando salen dejan bastante que desear. La gota que colmó el vaso fue ver como en el FF XIV Nvidia sacaba sus drivers una semana antes del lanzamiento, incrementando notablemente el rendimiento, mientras que AMD tardó casi 2 meses y todavía tienen stuttering y CDTs por todos lados.
Eso justifica la diferencia de precio (porque ese es el único motivo por el que la gente se decanta por AMD, vamos a dejarnos de historias) ? Dependerá de la situación económica de cada uno y de sus prioridades, pero no vendáis que no hay problemas con los drivers de AMD porque es faltar a la verdad. En algunos casos será tan sangrante como en el FFXIV y en otros será inapreciable, pero de efecto placebo nada.
La verdad es que la diferencia de precio es considerable.
Me dejan esta
http://www.pccomponentes.com/gigabyte_g ... AmRt8P8HAQ
por 450 con 1 año y 4 meses de garantia
KailKatarn escribió:rubentribune escribió:YA CANSA??
A mi me la suda las gráficas q se compre la gente yo no gano gana.
Por suerte para mi e probado las 2, 290 trix y 780 lightning , y SI E NOTADO SUAVIDAD.
además de estabilidad en el pc y 0 bsod cosa q antes eran esporádicos pero habia
A ver, lo de antes que se decía sobre y que ya has dicho "es que las nvidia dan mejor suavidad" o lo tipico que tu ya has dicho también "es que con la NVIDIA parecen los frames más reales, los 60 en AMD parecen 40 o menos" es ABSOLUTAMENTE Y COMPLETAMENTE FALSO.
Estamos en el mundo de la informática, dominado por las matemáticas, y por lo tanto cualquier tipo de hecho sucedido en la misma puede ser explicado mediante matemáticas (excepto los errores de hardware a nivel físico, claro está). Así que vamos a pasar a demostrarte como es ABSOLUTAMENTE Y COMPLETAMENTE FALSO que las Nvidia tengan más suavidad.
Seguro que antes de asegurar y decir esto desconocias que la suavidad a un número de frames indeterminado se mide por el Frametime, si quieres saber más sobre él echa un ojo a google, yo me voy a limitar a tumbar solamente esa afirmación:
Recordad que en estas pruebas menos es mejor (lower is better):
Battlefield 4 frametime:
El frametime de las 290s es menor que el de las 780s en BF4.
Call of duty Ghost:
El frametime de las AMDs es mejor que el de las NVIDIA.
Watch Dogs:
El frame time de las AMDs es mejor que el de las NVIDIA en este también.
Sleeping Dogs:
El frame time de las AMDs es mejor que el de las NVIDIA en este también, salvo frente a la Titan.
Bien, como puedes ver ... no es cierto lo que comentas. Es cierto que durante un tiempo esto fue así porque AMD tenía un problema de latencias con el acceso de las memorias en GCN que solucionaron hace ya más de 2 años vía drivers.
Yo también he tenido 780ti e inclusive 290x en mis manos. Más suave la NVIDIA? ni por asomo. Estamos en un foro técnico y creo que es de ley soltar las cosas con pruebas y de forma tangible.
PD: Mi intención es defender AMD? para nada, a mi como si se hunden INTEL, AMD y NVIDIA juntas y nacen 8 empresas nuevas por cada una (soñar es gratis). Yo lo que quiero es comprar la calidad/precio/prestaciones mejor que haya y en precio hoy por hoy Nvidia no es el caso.
rubentribune escribió:por que el FrameTime de mi Bf4 es 17 ms y te lo digo a ojo por que el mayor tiempo ronda los 14-15 y a veces sube a 18ms pero menos?? no corresponde con tu tabla, por que puede ser?
Ahora me e instalado una bios Skynet mantengo la grafica sin boost a 1000mhz con un voltaje de 1.076vcore y temp de 58º jugando a bf4, igual y me a dado por ocerla, llegando a 1350mhz con todavia temperaturas aceptables 84º, y me estoy descargando el tomb raider el cual tengo benchs con mi vieja 290 trix oceada y sin ocear, ahora os posteo los resultados, haber si tengo efecto placebo como decis.
Vuelvo a repetir a mi las tablas que veis por internet no se si son del todo de fiar, pero no me digais que yo no e notado ningun cambio y a sido efecto placebo, por que el primero que anda justo de pasta soy yo y si no hubiera notado diferencia hubiera vuelto a mi 290.
Saludos y fair play
Kennggin escribió:No cuesta tanto mirar unas reviews antes de decir que Physx no funciona bien por cpu, que tarjeta rinde mas, que gráfica es mas caliente o con cual se obtiene una experiencia mas fluida.
Korso10 escribió:Explícame eso, porque no entiendo cómo puede ser mejor la "paleta de colores" que ofrecen una y otra si la salida de vídeo (salvo que uses VGA a estas alturas) es digital, y de los colores se va a encargar el monitor que tengas.
KailKatarn escribió:Korso10 escribió:Explícame eso, porque no entiendo cómo puede ser mejor la "paleta de colores" que ofrecen una y otra si la salida de vídeo (salvo que uses VGA a estas alturas) es digital, y de los colores se va a encargar el monitor que tengas.
Sí, es digital, pero la paleta de colores que se almacenan en los DACs es diferente en una marca y otra como es normal. Es muy dificil de notar si no llevas tiempo con una NVIDIA y saltas a una AMD/ATi o viceversa (usando el mismo monitor, claro). Lo mejor es hacerlo in-situ para verlo bien, pero a mi los colores de las AMD siempre me resultan un poco más vivos.
Si tienes algún día la oportunidad de probar una nvidia y una amd/ati en el mismo monitor hazlo y verás como hay diferencias en los colores.
Korso10 escribió:Los DACs que tengan no se van a usar si la salida es por DVI, HDMI o Displayport, porque la salida es digital. Es exactamente lo mismo que usar una tarjeta de sonido dedicada de 200€ o usar la integrada para sacar sonido digital por la salida óptica. Da igual.
De hecho, he probado lo que dices, mismo monitor, unas cuantas fotos y 2 PCs, uno con una GTX650 y otro con una HD7770. Como era de esperar se ven exactamente igual.
KailKatarn escribió:Vamos, es algo conocido por todos los foros de hardware especializado y hasta webs de hardware muy serias han hecho muchas pruebas al respecto. En el vídeo se ve muy claramente lo que me refiero de colores más vivos.
PD: De hecho, para que veas que la diferencia es bastante notoria, hace poco un amigo cambió de una GTX760 a una 290x y que es lo primero que me dijo sin que yo le dijese nada? que había notado colores más vivos en la AMD. Ni se molestó en comentar la diferencia de fps lo primero, sino la diferencia de colores.
The Radeon image has auto/dynamic contrast enabled, which is typical of ATI; they do it everywhere wheter you actually wanted it or not. If you view it using cheap monitor, it might give the impression of having more contrast, but on a decent monitor you'll notice that:
- some part are too dark; look at black area of the background forest, that is not how it supposed to look when you compare to real scenery of a hazy forest (the image I put right on top of it.)
- details are missing in dark areas; the gun and gloves in the GeForce image show more details
Korso10 escribió:En resumen, los colores son exactamente los mismos, lo que es lógico por otra parte, y viene confirmado por el primer enlace: mismo monitor (y un buen monitor), misma calibración y un colorímetro, para que no haya dudas. Resultado: los colores son los mismos. Ahora bien, ¿porqué parecen mejores en las AMD? Porque AMD, por defecto, aumenta el contraste para que parezca mejor. El problema de aumentar el contraste, además de que los colores de la imagen se distorsionan, es que no lo puedes aumentar en todos los tonos, sino que lo aumentas en unos a cambio de disminuirlos en otros.
Korso10 escribió:Lo del contraste de hecho, también lo hacen varias pantallas (especialmente las que no tienen paneles muy decentes), por eso a veces ves cosas como "contraste 1,000,000 : 1" refiriéndose al contraste dinámico.
El problema de aumentar el contraste mediante drivers (vamos, aumentar el contraste más allá del que tiene el monitor) es el siguiente:
Imagina que la imagen es en blanco y negro, con niveles de gris de 0 (negro) a 255 (blanco). Fíjate en la línea de puntos, que es completamente recta. En el eje horizontal estarían los tonos que le dice el juego a la tarjeta que tiene que sacar, y en el eje vertical son los que la tarjeta le dice al monitor que saque. Como la línea (de puntos) es completamente recta, si el juego dice "pon este punto con una intensidad de 200", la tarjeta mandará 200. Eso sería lo que hacen las nVidia por defecto. Las AMD por defecto seguramente tengan una curva en S como la que ves en azul en la imagen, de manera que, cuando el juego dice "pon una intensidad de 200", cuando se consulta esa línea, realmente lo que se manda al monitor es a lo mejor 250. La gracia del asunto es que, cuanto tienes tonos muy proximos, por ejemplo 200, 190 y 180, obtienes tonos más separados (250, 230 y 210). Lo que no es tan gracioso es que eso se hace a costa de que los tonos muy claros o muy oscuros se aplanen, debido a la forma de la curva. Como los tonos son los que son, mejoras unos a costa de empeorar otros. El resultado, subjetivamente, puede ser más bonito (de hecho, por eso se hace), pero es menos realista.
Y siendo así, a mí también me parece raro que lo vea igual en nVidia y AMD, aunque se me ocurren 3 motivos: o al estar conectado por Displayport en AMD y reconocer que la pantalla tiene contraste de sobra (que lo tiene) se olvida de aplicar esos ajustes por defecto, o no los aplica en el escritorio viendo fotos y sólo los pone en vídeos y juegos, o mi hermano o yo quitamos esas curvas en los drivers (cosa que yo no recuerdo haber hecho).
Korso10 escribió:Lo del contraste de hecho, también lo hacen varias pantallas (especialmente las que no tienen paneles muy decentes), por eso a veces ves cosas como "contraste 1,000,000 : 1" refiriéndose al contraste dinámico.
El problema de aumentar el contraste mediante drivers (vamos, aumentar el contraste más allá del que tiene el monitor) es el siguiente:
Imagina que la imagen es en blanco y negro, con niveles de gris de 0 (negro) a 255 (blanco). Fíjate en la línea de puntos, que es completamente recta. En el eje horizontal estarían los tonos que le dice el juego a la tarjeta que tiene que sacar, y en el eje vertical son los que la tarjeta le dice al monitor que saque. Como la línea (de puntos) es completamente recta, si el juego dice "pon este punto con una intensidad de 200", la tarjeta mandará 200. Eso sería lo que hacen las nVidia por defecto. Las AMD por defecto seguramente tengan una curva en S como la que ves en azul en la imagen, de manera que, cuando el juego dice "pon una intensidad de 200", cuando se consulta esa línea, realmente lo que se manda al monitor es a lo mejor 250. La gracia del asunto es que, cuanto tienes tonos muy proximos, por ejemplo 200, 190 y 180, obtienes tonos más separados (250, 230 y 210). Lo que no es tan gracioso es que eso se hace a costa de que los tonos muy claros o muy oscuros se aplanen, debido a la forma de la curva. Como los tonos son los que son, mejoras unos a costa de empeorar otros. El resultado, subjetivamente, puede ser más bonito (de hecho, por eso se hace), pero es menos realista.
Y siendo así, a mí también me parece raro que lo vea igual en nVidia y AMD, aunque se me ocurren 3 motivos: o al estar conectado por Displayport en AMD y reconocer que la pantalla tiene contraste de sobra (que lo tiene) se olvida de aplicar esos ajustes por defecto, o no los aplica en el escritorio viendo fotos y sólo los pone en vídeos y juegos, o mi hermano o yo quitamos esas curvas en los drivers (cosa que yo no recuerdo haber hecho).
Korso10 escribió:Suavidad por microstuttering, vamos, cuando en algún juego notas que da tironcillos aunque estés jugando a 60fps.
KailKatarn escribió:OJO! puedes tener 60 fps y que te den sensación de 30 fps y sin stuttering porque tu FRAMETIME entre frames es muy alto.
No todo es el stuttering a X fps. Eso son microparones (stuttering), pero puedes estar perfectamente a 100 fps y tener menos suavidad porque tu frametime está por las nubes que alguien que lo tiene bajo y está a 50 fps y sin microparones (stuttering) ninguno de los dos.
Korso10 escribió:KailKatarn escribió:OJO! puedes tener 60 fps y que te den sensación de 30 fps y sin stuttering porque tu FRAMETIME entre frames es muy alto.
No todo es el stuttering a X fps. Eso son microparones (stuttering), pero puedes estar perfectamente a 100 fps y tener menos suavidad porque tu frametime está por las nubes que alguien que lo tiene bajo y está a 50 fps y sin microparones (stuttering) ninguno de los dos.
Tener un frametime alto (más bien una varianza alta en el frametime), que yo sepa, es precisamente lo que causa el stuttering. De hecho no puedes estar a 100fps si tu frametime está por las nubes, lo que puede pasar es que de esos 100fps, en uno o en dos tengas un frametime sensiblemente superior, que es lo que produce el stuttering.
http://www.anandtech.com/show/6857/amd- ... dmap-fraps