Yo tengo un SLI de la 660ti, y me queria dar el capricho de pillarme dos 880 cuando estén en el mercado (ya veremos como van). De hecho me iba a pillar dos 780 ahora pero es que me da palo hacer esa inversión porque realmente no es que lo necesite, voy a full con todo y jugaria igual...
Tampoco creo que dar el paso a dos 880 sea necesario, porque no me interesa pasar de 60fps, pero como he dicho es por un capricho y de paso podria ponerme mas resolución y filtros a topes. Una vez que lo haga ya no me arrepentiré
Light Killuminati está baneado por "faltas de respeto"
"The GTX 870 and GTX 880 will replace the current GTX 780 and GTX 780 Ti video cards"
Bonitas noticias anque no 100% oficiales. esperemos que sean ciertas
Los rumores sobre el próximo lanzamiento de las NVIDIA GeForce GTX 800 Series se suceden uno tras otro, pero el que nos llega hoy parece que será el definitivo. GDM es uno de los mayores distribuidores japoneses de hardware, y tradicionalmente siempre han sido muy acertados y precisos con lo que dicen. Ayer publicaron en su página web que NVIDIA lanzará las GeForce GTX 880 y GTX 870 a primeros del mes de Octubre, dejando el lanzamiento de las GTX 860 postergado a finales de ese mismo mes.
hasta que la compañía no haga el anuncio oficial no se sabrá nada a ciencia cierta. En el siguiente cuadro podéis ver las características técnicas que tendrá la GeForce GTX 880 según las especulaciones.
Ojala salga en principios de octubre y ojala valga 500$ que en euros son menos , Saludos!
Light Killuminati escribió:"The GTX 870 and GTX 880 will replace the current GTX 780 and GTX 780 Ti video cards"
Bonitas noticias anque no 100% oficiales. esperemos que sean ciertas
Los rumores sobre el próximo lanzamiento de las NVIDIA GeForce GTX 800 Series se suceden uno tras otro, pero el que nos llega hoy parece que será el definitivo. GDM es uno de los mayores distribuidores japoneses de hardware, y tradicionalmente siempre han sido muy acertados y precisos con lo que dicen. Ayer publicaron en su página web que NVIDIA lanzará las GeForce GTX 880 y GTX 870 a primeros del mes de Octubre, dejando el lanzamiento de las GTX 860 postergado a finales de ese mismo mes.
hasta que la compañía no haga el anuncio oficial no se sabrá nada a ciencia cierta. En el siguiente cuadro podéis ver las características técnicas que tendrá la GeForce GTX 880 según las especulaciones.
Ojala salga en principios de octubre y ojala valga 500$ que en euros son menos , Saludos!
Light Killuminati escribió:"The GTX 870 and GTX 880 will replace the current GTX 780 and GTX 780 Ti video cards"
Bonitas noticias anque no 100% oficiales. esperemos que sean ciertas
Los rumores sobre el próximo lanzamiento de las NVIDIA GeForce GTX 800 Series se suceden uno tras otro, pero el que nos llega hoy parece que será el definitivo. GDM es uno de los mayores distribuidores japoneses de hardware, y tradicionalmente siempre han sido muy acertados y precisos con lo que dicen. Ayer publicaron en su página web que NVIDIA lanzará las GeForce GTX 880 y GTX 870 a primeros del mes de Octubre, dejando el lanzamiento de las GTX 860 postergado a finales de ese mismo mes.
hasta que la compañía no haga el anuncio oficial no se sabrá nada a ciencia cierta. En el siguiente cuadro podéis ver las características técnicas que tendrá la GeForce GTX 880 según las especulaciones.
Ojala salga en principios de octubre y ojala valga 500$ que en euros son menos , Saludos!
También pone ahí que la 780 salió a 500$ y aquí en Europa salió a 650€.
Esta vez esperaré un par de meses para pillarla.
Esta tabla no vale gran cosa, cuando no refleja correctamente ni el precio que dices, ni lo más importante, en realidad no tiene ni pajolera idea del precio de la GTX 880. Sólo intenta "predecir el precio" siguiendo una supuesta secuencia de "499" dólares desde las 480 hasta las 780. Algo donde falla clamorosamente porque no se cumple como señalas.
Las GTX 800 se dice que serán igual o más baratas que las anteriores GTX 700 "equivalentes", pero eso no quiere decir que sean más baratas que éstas en el mercado, sino más baratas que las GTX 700 al salir. Así que realmente no sabemos nada hasta que salgan.
Light Killuminati está baneado por "faltas de respeto"
ami los precios de esa tabla me dan igual normal, no son oficiales y cierto, falsos, hasta la gtx580 en su salida valia 600€ como creo que casi todas que acaban en 80 . Lo bueno esque en todas partes ya se habla que saldran en mes de octubre anque no sea oficial. Queda poco para saber mas. Tb se "dice" "se rumorea" que en agosto hay una reunion "nvidia" que tratara sobre salida gtx800. Sea lo que sea seguramente en octubre ya sabremos bastante sobre las gtx800.
Lo de precios de porque TANTO rumoreo de que seran baratas? pues mismamente se rumorea porque las gtx800 son baratas de fabricar. Mas que gtx700. A su resultado precios menores. Pero son rumores. Si se han fijado Nvidia y rockstargames hablan muy poco sobre lo que la gente quiere, son unos cabrones D
Todo dependera de lo que pueda sacar amd, porque si amd saca un buen pepino a buen precio tendran que hacer guerra de precios.... En esta serie estan mas caras que las amd porque el rendimiento de estas no dista mucho de lo que ofrecen ellos y tienen mejores temperaturas y consumos, por lo que se suben a la parra
Arauen escribió:Todo dependera de lo que pueda sacar amd, porque si amd saca un buen pepino a buen precio tendran que hacer guerra de precios.... En esta serie estan mas caras que las amd porque el rendimiento de estas no dista mucho de lo que ofrecen ellos y tienen mejores temperaturas y consumos, por lo que se suben a la parra
Consumen menos porque tienen no tienen los módulos GPGPU y de ahí que las AMD se vendieran para minar bitcoins y similares como locas hasta el punto de que hubiese rutura de stock de la serie HD7xxx en su momento.
Mira las titan que si tienen los módulos GPGPU y lo que consumen. Y aun así, mira lo que consume la GTX 780Ti sin tenerlos tampoco. E incluso tienes temas como la GTX760 consumiendo bastante más que las 270X, y la GTX 770 consumiendo prácticamente igual que la 280X que rinde algo más.
Vamos, que tampoco son mecheros precisamente y menos para no tener los módulos GPGPU.
Arauen escribió:Pues llevas razón, creia que habia ams diferencias en consumo :S
En lo que si que gana nvidia es en fiabilidad, aunque yo he preferido esta generación apostar por amd por tener mejor relación calidad-precio
Mira, yo compro una u otra según puedo conseguir una buena calidad/precio y han pasado por mis manos cantidad de Nvidias (que volvería a comprar si encontrara gangas) y AMDs (que encontré bien baratas y por eso tengo 3 ahora ... si no ... tendría lo que hubiese encontrado barato) y eso de "ganan en fiabilidad" me suena a lo mismo que cuando te quieren vender un MACINTOSH y te dicen eso de "es que no se cuelgan" o lo de "es que son más estables".
También decirte que todo eso que se comenta de los drivers de AMD tampoco me pasa. De hecho aún estoy esperando a AMD a tener drivers que fundan gráficas como si le ha pasado a Nvidia (y le ha pasado 2 veces ya). Vamos, que todas cojean y lo mejor es siempre lo más potente que puedas encontrar a mejor precio independientemente de la marca.
Arauen escribió:Yo hablo por lo que he leido mas que nada, que ni mucho menos soy un gran entendido. Asi que agradezco tu opinion
Siempre se repiten los mismos mantras y seguirlos nunca fue bueno. Alguien dice una cosa y el resto lo repiten y eso no lo convierte en realidad. Por ejemplo uno de ellos es "es que Windows 8 gestiona los núcleos mejor que en Windows 7" y no es cierto. Lo que ocurrió es que cuando AMD salió con los FX de arquitectura modular CMT el scheudler de Windows 7 no estaba preparado para ellos. Sacaron un parche y listo.
Qué ha quedado de todo ello? pues lo de "es que Windows 8 gestiona mejor los núcleos" y lo de "es que los machintosh son más estables" o lo de "las nvidias consumen mucho menos y son más estables con mejores drivers" o lo de "lo mejor es dejar que se descarguen las baterías enteras para volverlas a poner a cargar", , etc ...
Toda la razon del mundo. ¿Entonces no hay mas tasas de rma en esta generacion en amd respecto a nvidia? En todos lados he leido eso y como dices, ya al final hasta te lo crees xD
Arauen escribió:Toda la razon del mundo. ¿Entonces no hay mas tasas de rma en esta generacion en amd respecto a nvidia? En todos lados he leido eso y como dices, ya al final hasta te lo crees xD
Muchos problemas que ha habido con las AMD últimamente ha sido por usar fuentes de más que dudosa calidad y sobretodo porque la cagaron con algunos de sus drivers que venían con los drivers de chipset y sacaron un par que tenía problemas con los USB Filters y daban pantallazos, cosa que se solucionaba si volvías a los WHQL (no beta) firmados por Microsoft o instalando los Fix que sacó AMD para solucionar ese problema.
Como ya te digo cada marca ha tenido sus cosas pero no te puedes fiar de los comentarios o mantras que sueltan algunos usuarios por internet. Si las AMD tuvieran tantos problemas como algunos comentan crees que se hubiesen usado tanto como se han usado para minar? piensa que minar las ponía al 100% de carga y las usaban para 24/7 y con mucho OC.
Luego, por otro lado, hubo 2 casos de drivers de Nvidia que petaron gráficas como locas y unos, principalmente, que se saltaban el protector de TDP y fundían las GTX590 (su top) nada más que la pinchabas. Vamos, que cada una la ha cagado a su forma.
Light Killuminati está baneado por "faltas de respeto"
en tasas RMA ganan AMD yo las que he leido y muchas han venido "defectuosas" y no por fuentes de alimentacion, pero bueno no desvien el tema, es un hilo NVIDIA gtx800. Saludos
Light Killuminati escribió:en tasas RMA ganan AMD yo las que he leido y muchas han venido "defectuosas" y no por fuentes de alimentacion, pero bueno no desvien el tema, es un hilo NVIDIA gtx800. Saludos
Claro, y Windows 8 gestiona mejor los núcleos. Sólo en el caso de sapphire es cierto y porque la cagaron muy mucho con muchas de sus resistencias especialmente en las HD7850/7870 y las 280x. Y también se venden las que más con mucha diferencia, de ahí que también tengan bastante más RMA.
PD: No tenía ni idea que un hilo de hardware y de gráficas no se pudiese hablar de gráficas, competencias, consumos, drivers, etc ...
Light Killuminati está baneado por "faltas de respeto"
KailKatarn escribió:
Claro, y Windows 8 gestiona mejor los núcleos. Sólo en el caso de sapphire es cierto y porque la cagaron muy mucho con muchas de sus resistencias especialmente en las HD7850/7870 y las 280x. Y también se venden las que más con mucha diferencia, de ahí que también tengan bastante más RMA.
Pues tienen mas RMA
PD: No tenía ni idea que un hilo de hardware y de gráficas no se pudiese hablar de gráficas, competencias, consumos, drivers, etc ...
Ahora la tienes. En este hilo que cree es sobre gtx800 lee 1* post. cuando muestren el rendimiento las gtx800 podras competir lo que tu quieras.
Ahora no me llenes los hilos de tonterias y desviar temas como sueles hacerlo sin poner 1 prueba. Saludos!
Light Killuminati escribió:Ahora la tienes. En este hilo que cree es sobre gtx800 lee 1* post. cuando muestren el rendimiento las gtx800 podras competir lo que tu quieras.
Ahora no me llenes los hilos de tonterias como sueles hacerlo sin poner 1 prueba. Saludos!
Lo siento, tú no eres quien pone las normas aquí y sí, seguro que soy yo quien habla sin poner ninguna prueba, sólo hay que ver este hilo para darse cuenta: hilo_gtx-660-oc-y-tirones_2024627#p1736512249
Light Killuminati está baneado por "faltas de respeto"
KailKatarn escribió:
Light Killuminati escribió:Ahora la tienes. En este hilo que cree es sobre gtx800 lee 1* post. cuando muestren el rendimiento las gtx800 podras competir lo que tu quieras.
Ahora no me llenes los hilos de tonterias como sueles hacerlo sin poner 1 prueba. Saludos!
Lo siento, tú no eres quien pone las normas aquí y sí, seguro que soy yo quien habla sin poner ninguna prueba, sólo hay que ver este hilo para darse cuenta: hilo_gtx-660-oc-y-tirones_2024627#p1736512249
Por supuesto que si ya empiezas a desviar. Que prueba y que quieres de mi me lo pides por privado. que ya llevas 2 paginas de spamm. Saludetes
Creo que es hora de esperar a un sli de 870 para cambiar mi antiguo sobremesa (mirar firma) junto a un Intel de 6 u 8 núcleos ht de socket 2011, lo que no se sí sacarán un nuevo socket últimamente no e oído nada, pero creo que no voy a esperar a ddr4 ya que sí me pongo a esperar al final no voy a comprar nada.
salchichaman_123 escribió:Creo que es hora de esperar a un sli de 870 para cambiar mi antiguo sobremesa (mirar firma) junto a un Intel de 6 u 8 núcleos ht de socket 2011, lo que no se sí sacarán un nuevo socket últimamente no e oído nada, pero creo que no voy a esperar a ddr4 ya que sí me pongo a esperar al final no voy a comprar nada.
Saludos
Si quieres ir a por un 6 u 8 nucleos y vas a esperar, lo suyo es que esperes a los haswell-e y el x99. Eso si, este socket ya viene con ddr4. Y perdon por el off topic
Parece una buena idea, como creéis que será el rendimiento de gtx870, supongo que será smilar a 780ti o algo inferior, para montar un sli, porque montar una gtx 880 será una tontería porque seguro que vale lo mismo que dos 870, y no obtienes el mismo rendimiento, y que hablar de amd, no las quiero para nada, por el tema hbao/physx/drivers.
salchichaman_123 escribió:Parece una buena idea, como creéis que será el rendimiento de gtx870, supongo que será smilar a 780ti o algo inferior, para montar un sli, porque montar una gtx 880 será una tontería porque seguro que vale lo mismo que dos 870, y no obtienes el mismo rendimiento, y que hablar de amd, no las quiero para nada, por el tema hbao/physx/drivers.
Salu2
Si bajan por debajo de las 28nm yo si creo que podrías ver una GTX870 con un OC subidito dando guerra a una GTX 780Ti. Si por el contrario se quedan en las mismas 28nm que la serie 7 ... eso será ya mucho más complicado y dudo que se vea.
Se esta poniendo esto interesante, nvidia con su chip arm (digo yo que será de apoyo, para physx, liberar carga a la cpu o lo que sea) y por parte de amd... Soporte completo para dx12 (tipo mantle en cuanto a cpu). Yo iba a pillarme una gráfica para el fx, voy a a esperarme a despues de vacas a ver como está el patio.
En gama entusiasta, es posible que sea el mejor momento para esperar. Darse unas buenas vacaciones y a la vuelta ver lo que ofrece el nuevo socket de intel y la nueva hornada de graficas
Pues a esperar toca, lo que sí se seguro que cuando saquen gtx980m la comprare para mi alíen porque cpu tengo de sobra, ya que la gtx780m tiene mucha guerra que dar.
Arauen escribió:Toda la razon del mundo. ¿Entonces no hay mas tasas de rma en esta generacion en amd respecto a nvidia? En todos lados he leido eso y como dices, ya al final hasta te lo crees xD
Muchos problemas que ha habido con las AMD últimamente ha sido por usar fuentes de más que dudosa calidad y sobretodo porque la cagaron con algunos de sus drivers que venían con los drivers de chipset y sacaron un par que tenía problemas con los USB Filters y daban pantallazos, cosa que se solucionaba si volvías a los WHQL (no beta) firmados por Microsoft o instalando los Fix que sacó AMD para solucionar ese problema.
Como ya te digo cada marca ha tenido sus cosas pero no te puedes fiar de los comentarios o mantras que sueltan algunos usuarios por internet. Si las AMD tuvieran tantos problemas como algunos comentan crees que se hubiesen usado tanto como se han usado para minar? piensa que minar las ponía al 100% de carga y las usaban para 24/7 y con mucho OC.
Luego, por otro lado, hubo 2 casos de drivers de Nvidia que petaron gráficas como locas y unos, principalmente, que se saltaban el protector de TDP y fundían las GTX590 (su top) nada más que la pinchabas. Vamos, que cada una la ha cagado a su forma.
No le eches la culpa a lo que no es, a fuentes, drivers, etc. El diseño de las GCN está mucho más exprimido en electrónica asociada a la alimentación, y eso es un hecho reconocido. Además hubo errores de bulto con esta electróncia como en el caso de Sapphire en las 7870, aún así, incluso corrigiéndolas siguieron fallando.
Las fuentes de alimentación, que yo sepa no se montan fuenter mierder en exclusiva en AMD y en nvidia premium para que así tengan más RMAs.
Idem con el driver unificado con el chipset, ESO NO AVERIA la gráfica de ninguna de las maneras. De hecho hasta ahora nadie ha podido demostrar que un driver mate una gráfica, lo cual es una ridiculez dados los sistemas de protección independientes de cualquier soft que vigila que no les pase nada.
Está gracioso que digas que la gente dice mantras sin fundamento, y sin embargo tú te inventes estos dos anteriores y te atrevas a afirmar algo que no sólo no puedes probar, sino que no tiene base, como la chorrada de "drivers matatarjetas" de nvidia, lo cual es falso como una casa y por aquí descubrí a algún engañado de la vida que se dedicaba a decir que era su caso su caso su caso... hasta que le puse los puntos sobre las ies y le dije lo que no había huevos o vista para decírselo por su caso: SU FALLO era de una unidad recién comprada NADA MAS usarla en 3D por fallo de hard defectuoso, ni más ni menos, así de simple. Pero el tipo, tal como tú haces a pesar de que criticas, lanzaba el mantra del driver matatarjeta porque lo tuvo instalado 5 minutos en el sistema antes de desinstalarlo, instalar otro con la gráfica recién instalada, y arrancarla por primera vez en juegos y comprobar que "salía humo".... Eso sí, una vez explicado el tema, empezó a dudar de su versión sobre la que estaba haciendo mucho ruido porque "le habían contado", a éste sí que sí, una milonga.
Ningún driver puede matar a una gráfica porque los sistemas de control de TDP y demás funcionan INDEPENDIENTEMENTE y por hard al soft/driver, punto pelota. De hecho ningún driver con las GTX400 y anteriores mataba gráficas aún sin control de TDP ni similares. Las gráficas se morían por un uso y estrés alto con o sin OC por las cualidades de su hard. El soft, sólo ponía carga de trabajo, nada más. Esto ha sido así ahora y siempre. Tampoco hay soft que mate cpus ni placas base (obviando reescribir BIOS o cosas del estilo).
No inventéis historietas para que AMD quede bien, lo siento pero no, GCN les ha salido mucho más problemática que arquitecturas anteriores con bastante menores tasas de RMAs, viceversa con nvidia y kepler, que le ha salido muy segura. Basta con ver los artículos dedicados al tema en Hardware.fr para comprobar que desde la salida de GCN AMD tiene porcentajes muy superiores, de media, que con VLIW5 y que con VLIW4. En una época dada eran las fermi las que fallaban más, AHORA, son las AMD. Eso son pruebas, si quieres las coges, y si no, pues pones tú una prueba de análisis de cifras de RMA que desmientan los de hardware.fr, sino, chitón.
Y lo de los drivers es cierto, está demostrada la menor sobrecarga de cpu, también para cualquiera que use "programas exóticos" la tendencia de mayor estabilidad o rendimiento en las nvidia, también la mejor calidad del driver opengl que funciona no sólo más correctamente, sino con más extensiones habilitadas. Linux, etc. NO es ninguna invención lo del driver, aunque parece que a algunos os come algo por dentro al ver estos hechos y tenéis la necesidad de negar RMAs echándole la culpa al perro que se come los apuntes, o negáis la evidencia del mejor soporte de nvidia vs AMD.
Molestaros en leer un changelog de un driver de nvidia al salir y otro de AMD, y comparáis. A ver cuántos juegos a punto de salir o recién sacados reciben soporte en nvidia y cuántos en AMD. También se puede hacer una lista de juegos soportados en drivers POSTERIORES al lanzamiento, donde gana por goleada AMD (nvidia suele soportarlos el día cero o ANTES).
wwwendigo escribió:No le eches la culpa a lo que no es, a fuentes, drivers, etc. El diseño de las GCN está mucho más exprimido en electrónica asociada a la alimentación, y eso es un hecho reconocido. Además hubo errores de bulto con esta electróncia como en el caso de Sapphire en las 7870, aún así, incluso corrigiéndolas siguieron fallando.
Las fuentes de alimentación, que yo sepa no se montan fuenter mierder en exclusiva en AMD y en nvidia premium para que así tengan más RMAs.
Idem con el driver unificado con el chipset, ESO NO AVERIA la gráfica de ninguna de las maneras. De hecho hasta ahora nadie ha podido demostrar que un driver mate una gráfica, lo cual es una ridiculez dados los sistemas de protección independientes de cualquier soft que vigila que no les pase nada.
No inventéis historietas para que AMD quede bien, lo siento pero no, GCN les ha salido mucho más problemática que arquitecturas anteriores con bastante menores tasas de RMAs, viceversa con nvidia y kepler, que le ha salido muy segura. Basta con ver los artículos dedicados al tema en Hardware.fr para comprobar que desde la salida de GCN AMD tiene porcentajes muy superiores, de media, que con VLIW5 y que con VLIW4. En una época dada eran las fermi las que fallaban más, AHORA, son las AMD.
Y lo de los drivers es cierto, está demostrada la menor sobrecarga de cpu, también para cualquiera que use "programas exóticos" la tendencia de mayor estabilidad o rendimiento en las nvidia, también la mejor calidad del driver opengl que funciona no sólo más correctamente, sino con más extensiones habilitadas. Linux, etc. NO es ninguna invención lo del driver, aunque parece que a algunos os come algo por dentro al ver estos hechos y tenéis la necesidad de negar RMAs echándole la culpa al perro que se come los apuntes, o negáis la evidencia del mejor soporte de nvidia vs AMD.
Molestaros en leer un changelog de un driver de nvidia al salir y otro de AMD, y comparáis. A ver cuántos juegos a punto de salir o recién sacados reciben soporte en nvidia y cuántos en AMD. También se puede hacer una lista de juegos soportados en drivers POSTERIORES al lanzamiento, donde gana por goleada AMD (nvidia suele soportarlos el día cero o ANTES).
Que Nvidia tiene un mejor soporte SLi y es bastante más rápido que AMD/ATi en sacar sus perfiles es algo absolutamente indiscutible, como es completamente indiscutible que el rendimiento en OpenGL es bastante superior en NVIDIA y más si hablamos en soporte cad/cam, porque en juegos, como pueda ser el último wolfestein, se ha visto reducido notablemente (que no por eso igualado).
Luego, por otro lado, claro que incluyo a las fuentes de alimentación en muchos de los problemas que muchos usuarios han vivido con AMD (y por descontado con NVIDIA) y es algo que hay que tener muy presente y más en el hoy por hoy, que precisamente la economía de este país no es que vaya viento en popa, y mucha gente ha intentado ahorrarse muchas perras en algo que no debió de hacer desde un principio.
En el tema drivers y pete de gráficas ya me dejas loco porque es negar lo absolutamente reconocido en muchísimos foros de muy alto nivel. Y lo que es peor, la propia NVIDIA tuvo que reconocer un error en los drivers que salieron con sus GTX590 (top en su momento y de mucha pasta) que literalmente fundían la tarjeta porque se saltaban el control de TDP y directamente se fundían según las pinchabas e instalabas el driver. Ya he dejado una prueba sobre ello, así que te la voy a repetir:
Ahora me vas a decir que ese driver no petó las gráficas TOP de NVIDIA del momento nada más salir? algo completamente reconocido hasta por la propia NVIDIA que cambió todas las unidades de los afectados en tiempo record? (lo cual le honra, todos podemos cometer errores y hay que subsanarlos y NVIDIA en ese aspecto reaccionó a toda leche, como una empresa seria debería hacer sin dudar). Ya no te voy a entrar en los otros drivers porque si ya me niegas ese pues para que vamos a perder el tiempo con otro driver que sacaron en un verano que hicieron que muchas GTX, sobretodo de la serie 4 y 5 petaran como descosidas.
Ah! y no te creas que soy un defensor ni de Intel, ni de Nvidia, ni de AMD/ATi porque compro lo que me sale a mejor de precio y me da las prestaciones que considero oportunas. Vamos, que igualmente ahora que me ves con 3 AMD tendré 3 NVIDIAs sin dudarlo ni un momento si las puedo conseguir a buen precio. Al césar lo que es del césar. AMD no es la panacea pero vender que las NVIDIA son increíbles y que no han sufrido fallos y que sus drivers son lo mejor de lo mejor es directamente faltar a la verdad.
Un saludo!
PD: Ah! y la tabla de consumos ya ha quedado bastante clara, aun así te la repito porque el mantra ese de "es que las NVIDIA consumen mucho menos".
Y si quieres más tablas de consumos porque esa decides que no te valen te la busco en un momento.
PD2: Quien se atreva a negar que muchas HD7850/7870 petaban como locas, sobretodo las sapphire con un control de calidad pésimo en esas versiones ... tampoco estaría diciendo la verdad. Petaron como locas, pero también tomaron solución, nadie está libre de fallar, está en la condición humana.
PD3: Yo no necesito inventarme nada ni intentar dejar AMD bien. Por mi como si se hunden AMD y NVIDIA juntas y nacen 5 empresas nuevas. Y lo mismo te digo en micros respecto a Intel y AMD.
PD4: Y eso de que necesito inventarme cosas de drivers matatarjetas ... ya me parto de risa. Infórmate un poco anda, así quedarás mejor que intentar faltar al personal y acusarnos de mentirosos. Quieres que te vuelva a poner el vídeo o te muestre la documentación acerca de todo lo que ocurrió con la GTX590? por favor, seamos serios.
Pobre wwwendigo le has vuelto a abrir la caja de pandora de la megaconspiracion de AMDfanboys que atacaban a los foros en masa para intentar hacer creer que los magníficos drivers de NVIDIA quemaban tarjetas.
Dfx escribió:Pobre wwwendigo le has vuelto a abrir la caja de pandora de la megaconspiracion de AMDfanboys que atacaban a los foros en masa para intentar hacer creer que los magníficos drivers de NVIDIA quemaban tarjetas.
Cojo palomitas.
Sí, lo único que aquí se ha ido a topar con un MIDINEROfanboy y no precisamente con un adorador de marcas.
wwwendigo escribió:No le eches la culpa a lo que no es, a fuentes, drivers, etc. El diseño de las GCN está mucho más exprimido en electrónica asociada a la alimentación, y eso es un hecho reconocido. Además hubo errores de bulto con esta electróncia como en el caso de Sapphire en las 7870, aún así, incluso corrigiéndolas siguieron fallando.
Las fuentes de alimentación, que yo sepa no se montan fuenter mierder en exclusiva en AMD y en nvidia premium para que así tengan más RMAs.
Idem con el driver unificado con el chipset, ESO NO AVERIA la gráfica de ninguna de las maneras. De hecho hasta ahora nadie ha podido demostrar que un driver mate una gráfica, lo cual es una ridiculez dados los sistemas de protección independientes de cualquier soft que vigila que no les pase nada.
No inventéis historietas para que AMD quede bien, lo siento pero no, GCN les ha salido mucho más problemática que arquitecturas anteriores con bastante menores tasas de RMAs, viceversa con nvidia y kepler, que le ha salido muy segura. Basta con ver los artículos dedicados al tema en Hardware.fr para comprobar que desde la salida de GCN AMD tiene porcentajes muy superiores, de media, que con VLIW5 y que con VLIW4. En una época dada eran las fermi las que fallaban más, AHORA, son las AMD.
Y lo de los drivers es cierto, está demostrada la menor sobrecarga de cpu, también para cualquiera que use "programas exóticos" la tendencia de mayor estabilidad o rendimiento en las nvidia, también la mejor calidad del driver opengl que funciona no sólo más correctamente, sino con más extensiones habilitadas. Linux, etc. NO es ninguna invención lo del driver, aunque parece que a algunos os come algo por dentro al ver estos hechos y tenéis la necesidad de negar RMAs echándole la culpa al perro que se come los apuntes, o negáis la evidencia del mejor soporte de nvidia vs AMD.
Molestaros en leer un changelog de un driver de nvidia al salir y otro de AMD, y comparáis. A ver cuántos juegos a punto de salir o recién sacados reciben soporte en nvidia y cuántos en AMD. También se puede hacer una lista de juegos soportados en drivers POSTERIORES al lanzamiento, donde gana por goleada AMD (nvidia suele soportarlos el día cero o ANTES).
Que Nvidia tiene un mejor soporte SLi y es bastante más rápido que AMD/ATi en sacar sus perfiles es algo absolutamente indiscutible, como es completamente indiscutible que el rendimiento en OpenGL es bastante superior en NVIDIA y más si hablamos en soporte cad/cam, porque en juegos, como pueda ser el último wolfestein, se ha visto reducido notablemente (que no por eso igualado).
Luego, por otro lado, claro que incluyo a las fuentes de alimentación en muchos de los problemas que muchos usuarios han vivido con AMD (y por descontado con NVIDIA) y es algo que hay que tener muy presente y más en el hoy por hoy, que precisamente la economía de este país no es que vaya viento en popa, y mucha gente ha intentado ahorrarse muchas perras en algo que no debió de hacer desde un principio.
En el tema drivers y pete de gráficas ya me dejas loco porque es negar lo absolutamente reconocido en muchísimos foros de muy alto nivel. Y lo que es peor, la propia NVIDIA tuvo que reconocer un error en los drivers que salieron con sus GTX590 (top en su momento y de mucha pasta) que literalmente fundían la tarjeta porque se saltaban el control de TDP y directamente se fundían según las pinchabas e instalabas el driver. Ya he dejado una prueba sobre ello, así que te la voy a repetir:
Me centro en lo señalado, empezando por un NO INVENTES, qué manía con inventarse historias sin base, o repetirlas dando por hechos lo que NO lo son, a tomar por XXX cualquier tipo de metodología y comprobación real de los motivos de un fallo:
El problema de la GTX 590 no tenía que ver con drivers, sino con HARDWARE, las fases de regulación eran muy sensibles a la variación de voltaje, porque algunos animales le subían a un chip que de fábrica venía a 0,9V o incluso menos, a 1,1V pensando que "era lo mismo" que con otras gráficas Fermi (que de todas formas consumían una bastada).
Antes de inventarse historietas habría que saber algo de la física más elemental, y en el caso de las GTX 590, que ya venían apretadas de fábrica, pasar de 0,9V a 1,1V (valores aproximados), es incrementar el CONSUMO y el TRABAJO en las fases de regulación un (1,1/0,9)^2, esto es, un aumento del trabajo de un 50%.
Esto es lo que hacían los animales que subían el voltaje de las GTX 590, SIN CONTAR el incremento de frecuencias, ya que el consumo y TRABAJO en las fases de regulación en ese caso, crece linearmente respecto al aumento de frecuencias. Combinando uno y otro, se podían llegar perfectamente a cargas de TRABAJO en las fases de regulación del 100% EXTRA.
ESO es lo que mataba a las GTX 590, y por eso salieron despuiés "limitadas" de voltaje para evitar que la gente se las cargara, pero no es un fallo del driver en absoluto, que sólo dejaba las puertas abiertas en voltajes o un control de TDP válido de serie pero peligroso con OC (combinado con el sobrevoltaje), sino un fallo del HARDWARE.
Te lo repito, los drivers NO MATAN tarjetas, ni ahora ni antes que no había protecciones de TDP, lo que mata las tarjetas es el hard y un OC con muchas "holguras" en manos de inconscientes (sobre todo el sobrevoltaje). Y un diseño de HARD apretado, al que nunca se debió dejar margen a OCs con sobrevoltaje, más cuando la gente no entiende porqué se parte de un voltaje tan bajo.
Si te interesa saber hasta qué punto el consumo de una Fermi podía crecer y crecer:
¿Sabes qué? Yo tuve una GTX 560 Ti de Gigabyte que venía con un PCB personalizado SIN control de TDP, y haciendo OC con voltajes "altos" (1.05-1,1V) y en ciertos juegos muy shadercentristas como Max Payne, el equipo entero superaba y bien los 500W, con picos por encima de 550W, cuando de serie no pasaba de 350W con valores por defecto y "normales". Así que sí, evidentemente hay formas de "matar tarjetas" usando soft, pero no es por el soft en sí, sino por manipulaciones que hacemos con OCs sin moderación (por supuesto rebajé el OC nada más ver esto y nunca usé valores así de altos de voltaje) y por poner un stress fuera de lugar a un hard.
Ah!, y la tarjeta, sin control de TDP y esos consumos bestiales, aún a pesar de sufrir esa prueba de carga para "estudiar" el descontrol del consumo bajo OC en un análisis teórico que le hice a título particular, ni murió ni sufrió secuelas. Porque claro, la diferencia está en hacer algo bajo control y no hacerlo por sistema, y ser un castrón como en Techpowerup (buenos análisis pero pocos conocimientos básicos de física electrónica) y hacer burradas como la del vídeo. Que muchos artículos y tal, pero son unos auténticos animales que parece que no saben ni hacer la "cuenta de la vieja" cuando hacen OC y estimar RIESGOS.
Ahora me vas a decir que ese driver no petó las gráficas TOP de NVIDIA del momento nada más salir? algo completamente reconocido hasta por la propia NVIDIA que cambió todas las unidades de los afectados en tiempo record? (lo cual le honra, todos podemos cometer errores y hay que subsanarlos y NVIDIA en ese aspecto reaccionó a toda leche, como una empresa seria debería hacer sin dudar). Ya no te voy a entrar en los otros drivers porque si ya me niegas ese pues para que vamos a perder el tiempo con otro driver que sacaron en un verano que hicieron que muchas GTX, sobretodo de la serie 4 y 5 petaran como descosidas.
Otra vez, estás haciendo afirmaciones sin BASE, yo no te tengo que afirmar algo que te inventas, porque:
1.- Cambiaron unidades a ALGUNOS usuarios muy puntuales como ELP3 y similares, pero POCO más, y para evitar entrar en rifirrafes en medio de un lanzamiento. Pero lo cierto es que algunos se comieron sus GTX 590 reventadas con patatas si se las denegaban en un RMA estándar (con Asus, casi lo tienes asegurado en casos así).
2.- Pongo este punto añadido a posteriori, ya que no vi el vídeo que has puesto hasta ahora y me ha hecho mucha gracia por esos "expertos", ¿sabes que han aumentado la carga de trabajo eléctrico o consumo de la gráfica en más del 50%? En fin, así está el patio si la gente que hizo ese vídeo después no sabe ni lo que hace (por hacer un símil, aumenta en un coche la potencia un 50% en la centralita sin más cambios, a ver cuántos sobreviven mucho tiempo).
3.- Nvidia NO reconoció ningún fallo como el que tú pretendes infiltrar como "un driver matatarjetas", te lo repito, eso no existe. Lo que sí había es una situación que con drivers "normales" para toda la serie Fermi, sin bloqueo de voltaje ni un TDP esencialmente restringido, esas gráficas podían morir y de hecho murieron, pero por una falla del hard que ya de por sí venía muy apretado de fábrica, y MAS apretado quedaba cuando la gente se dedicaba a juguetear con OCs como si fuera el mismo caso que una Fermi monogpu anterior a la GTX 590:
As a first step, I increased the voltage from 0.938 V default to 1.000 V, maximum stable clock was 815 MHz - faster than GTX 580! Moving on, I tried 1.2 V to see how much could be gained here, at default clocks and with NVIDIA's power limiter enabled. I went to heat up the card and then *boom*, a sound like popcorn cracking, the system turned off and a burnt electronics smell started to fill up the room. Card dead! Even with NVIDIA power limiter enabled. Now the pretty looking, backlit GeForce logo was blinking helplessly and the fan did not spin, both indicate an error with the card's 12V supply. After talking to several other reviewers, this does not seem to be an isolated case, and many of them have killed their cards with similar testing, which is far from being an extreme test.
Mira las fotos:
Ahora haz una cuenta rápida, en este caso la unidad iba de serie a 0.938V, y la pasaron sin tocar frecuencias a 1,2V y "reventó" a pesar de que funcionaba "bien" a 1,0V y con un OC importante. Bien, ¿qué hicieron? Nuestra AMIGA LA FISICA nos permite estimar qué cambio en cuanto a trabajo y potencia/consumo hubo con este sobrevoltaje:
(1,2V/0.938V)^2 --> 1,6367%, esto es, un TRABAJO/CONSUMO bajo carga de casi un 64% extra respecto al modelo de serie. Las fotos nos muestran además que lo que fallaron no son ni la gpu ni las memorias ni ningún tipo de componente "programable" por el driver o cualquier soft, sino puro y duro HARD asociado a:
1.- Entrada de alimentación de las líneas de 12V del conector pci-e. 2.- Un componente de las VRM de una de las gpus.
Ambos QUEMADOS. Estos componentes sólo se queman BAJO CARGA EXCESIVA, fuera de rango, o un uso muy largo o contínuo con carga muy alta. ¿Te parece poco fuera de rango una carga de trabajo que es del 64% extra en cuanto a consumos?
MENOS inventarse mitos, estas tarjetas no podían apenas subir de voltaje porque por algo iban bajas, y mucha gente que le hizo OC sufrió mientras se lo hacía, o DESPUES de él, los resultados de unos componentes electrónicos asociados a VRMs o entradas de 12V dañados o totalmente quemados. Estoy harto de ver equipos con fases de regulación "dañadas" pero aún operativos hasta que reciben una carga de trabajo realmente alta y acaban de evidenciar el daño ya sufrido.
No hay más que esto, lo demás son cuentos de gente que no sabe ni lo que hace. A mí ni se me ocurriría subir así de voltaje una gráfica como ésta, si con la GTX 560 Ti sin control de TDP ya ví lo alto que podía ser el consumo con 1,1V, y partiendo de un voltaje más alto y con un chip más pequeño, cuanto más 2 GF110 en la misma gráfica.
PD:
Por cierto, ¿porqué me pones tablas de consumos? Yo no he hablado de éstos, pero aún así, son MAS BAJOS los de nvidia, basta ver los chips equivalentes entre fabricantes, ¿o acaso no ves a la GTX 780 Ti por debajo de una R9 290, o una GTX 770 por debajo también de una R9 280X? Pero eso da igual, no es el tema de lo que se está hablando, se habla de fiabilidad (RMAs) y de falsos drivers matatarjetas. Qué curioso, que AMD a pesar de que murieron muchas gráficas con los famosos drivers 12.11, nadie les responsabilizó (y lógicamente, sí murieron algunas tarjetas más o hubo más fallos con OC, pero porque los 12.11 aumentaban la EFICIENCIA de las gráficas al extraer rendimiento, y esto implicaba un aumento de la CARGA). Lo mismo con nvidia con sus R337, pero claro, cuando es nvidia donde se acumulan una serie de fallos debidos a X, aparecen muy rápido fantasmas acusatorios, igualo que aparecen excusas cuando es al revés.
PPD:
Un secreto, no lo he dicho muchas veces, pero para que veas que no le echo la culpa a AMD de todo, GRAN PARTE de los fallos y RMAs vistos con las series GCN son debidos a los usuarios a la hora de hacer OC con sobrevoltajes, ya avisé hace tiempo que habría consecuencias cuando la gente entendió la "barra libre" de voltajes, con chips de 28 nm, como una "garantía" para hacer animaladas. He visto en foros de "expertos" decir que se puede poner tranquilamente voltajes de 1,2V, 1,3V e incluso 1,4V para uso cotidiano con tarjetas Tahiti (creo que sólo algunas Asus permiten 1,4V), sí, lo he visto entre los "expertos" de turno. La gente parece que no entiende porqué AMD sacó las 7900 con frecuencias y VOLTAJES moderados inicialmente, y aún parece que entendió menos que con las GHz hizo un ajuste relativamente cercano al límite de voltaje seguro con estas gráficas.
Qué curioso, a nvidia Fermi le supuso muchos RMAs con voltaje "libre" y cuando lo limitó con Kepler, los redujo enormemente. Y a AMD resulta que deja más control que de costumbre con las Tahiti (son chips de 28 nm, repito, más sensibles al sobrevoltaje), y le toca más RMAs. Esto sí que son hechos que son trazables entre sí.
Espero que haya quedado este tema, porque es cansino ver repetida mil veces una leyenda sin base, y ver cómo los focos de ésta parece ser gente que creen que subir 0,1V "siempre es poco" en OCs, como si los incrementos de voltaje importaran de forma absoluta, y NO RELATIVA, esto es, que cada OC debe ser estudiado desde un punto de vista del semiconductor a Ocear y de sus valores por defecto. Que parece mentira lo de las GTX 590 y otras historias de "terror" generadas por pura torpeza y, un hard demasiado ajustado de fábrica.
KailKatarn
Un único icono
15.549 mensajes desde jun 2001 en Madrid
Editado 4 veces. Última: 1/08/2014 - 05:34:27 por KailKatarn.
Por tu lenguaje se te ve muy afectado cuando se habla o critica algo de NVIDIA, pero bueno, como dijo Jack el Destripador ... vayamos por partes:
wwwendigo escribió:Me centro en lo señalado, empezando por un NO INVENTES, qué manía con inventarse historias sin base, o repetirlas dando por hechos lo que NO lo son, a tomar por XXX cualquier tipo de metodología y comprobación real de los motivos de un fallo:
El problema de la GTX 590 no tenía que ver con drivers, sino con HARDWARE, las fases de regulación eran muy sensibles a la variación de voltaje, porque algunos animales le subían a un chip que de fábrica venía a 0,9V o incluso menos, a 1,1V pensando que "era lo mismo" que con otras gráficas Fermi (que de todas formas consumían una bastada).
Antes de inventarse historietas habría que saber algo de la física más elemental, y en el caso de las GTX 590, que ya venían apretadas de fábrica, pasar de 0,9V a 1,1V (valores aproximados), es incrementar el CONSUMO y el TRABAJO en las fases de regulación un (1,1/0,9)^2, esto es, un aumento del trabajo de un 50%.
Esto es lo que hacían los animales que subían el voltaje de las GTX 590, SIN CONTAR el incremento de frecuencias, ya que el consumo y TRABAJO en las fases de regulación en ese caso, crece linearmente respecto al aumento de frecuencias. Combinando uno y otro, se podían llegar perfectamente a cargas de TRABAJO en las fases de regulación del 100% EXTRA.
ESO es lo que mataba a las GTX 590, y por eso salieron despuiés "limitadas" de voltaje para evitar que la gente se las cargara, pero no es un fallo del driver en absoluto, que sólo dejaba las puertas abiertas en voltajes o un control de TDP válido de serie pero peligroso con OC (combinado con el sobrevoltaje), sino un fallo del HARDWARE.
Te lo repito, los drivers NO MATAN tarjetas, ni ahora ni antes que no había protecciones de TDP, lo que mata las tarjetas es el hard y un OC con muchas "holguras" en manos de inconscientes (sobre todo el sobrevoltaje). Y un diseño de HARD apretado, al que nunca se debió dejar margen a OCs con sobrevoltaje, más cuando la gente no entiende porqué se parte de un voltaje tan bajo.
Si te interesa saber hasta qué punto el consumo de una Fermi podía crecer y crecer:
No necesito que me cuentes la historia, me la conozco al completo. Me la conozco tan al completo que la solución de Nvidia rápidamente fue sacar unos drivers a toda leche y capar cualquier posibilidad de OC con esas tarjetas (pero claro, el driver anterior no quemaba tarjetas, que va, hasta de stock como se podrá ver luego, inclusive hasta con el nuevo no estaba garantizada su carga al 100%, pero claro, todo falso pero falso total). Pero que pasó? que muchas, por lo que comentas del fallo de hardware, no soportaban ni las propias frecuencias base de fábrica, como verás luego que reconoce NVIDIA, y en otros muchos casos porque los propios fabricantes TOP las habían sacado de base animando a su OC nada más sacarla de la caja.
Que pasa cuando te venden una tarjeta que no acepta ni sus frecuencias de serie al 100% de cargas reconocido pro el propio fabricante (que además animaban a hacerlas OC como verás luego) y hasta modelos OC que violan las posibilidades físicas materiales de la tarjeta y que a su vez fueron aprobadas por NVIDIA para su venta? pues sucede esto, que tienes que sacar un comunicado oficial:
Está claro que yo me invento mucho. Lo que si tengo claro es que tu has pasado de hablar de excepcionalidades de marca hasta aceptar ahora mismo que tuvieron un error de fabricación tremendo de base con sus tarjetas TOP, sí, esas que costaban 700 euros de base y 800-850 en sus modelos TOP de fabricantes reconocidos. Y que vieron todos esos consumidores? pues petar su gráfica, para nada barata, en su propia cara.
Sí, yo me invento mucho, está claro, por eso NVIDIA tiene que hacer un comunicado oficial y sacar un driver a toda leche que capaba sus modelos TOP al máximo. Sí, yo me invento mucho, desde luego. Y de hecho tampoco necesitaba tus historias, si lees atentamente toda la información en los 6 links que te puse lo tienes todo bien clarito, nada que tú me puedas enseñar nuevo sobre el tema.
wwwendigo escribió:1.- Cambiaron unidades a ALGUNOS usuarios muy puntuales como ELP3 y similares, pero POCO más, y para evitar entrar en rifirrafes en medio de un lanzamiento. Pero lo cierto es que algunos se comieron sus GTX 590 reventadas con patatas si se las denegaban en un RMA estándar (con Asus, casi lo tienes asegurado en casos así).
No sé quien es ELP3, pero no, créeme que no fue un consumidor exclusivo al que se la cambiaron porque para empezar a mi me tuvieron que cambiar 2 para 2 clientes mios. Vamos, que le dieron el trato que le dieron a cualquier cliente. No un servicio VIP. Para eso las pagabas a 800 eurazos de nada.
wwwendigo escribió:2.- Pongo este punto añadido a posteriori, ya que no vi el vídeo que has puesto hasta ahora y me ha hecho mucha gracia por esos "expertos", ¿sabes que han aumentado la carga de trabajo eléctrico o consumo de la gráfica en más del 50%? En fin, así está el patio si la gente que hizo ese vídeo después no sabe ni lo que hace (por hacer un símil, aumenta en un coche la potencia un 50% en la centralita sin más cambios, a ver cuántos sobreviven mucho tiempo).
Si repasas toda la información que te he puesto en los 6 links verás que hay gente que le petó de serie. Parece que aun no comprendes que estábamos hablando de la gráfica TOP, repito, TOP esas que precisamente no son baratas y se suelen sacar modelos subidos de vueltas, y lo que es peor, hubo muchos casos que petaron DE SERIE, REPITO, DE SERIE, pero es algo que veremos luego, tranquilo, no hay prisa. Si te crees que los del vídeo fueron los únicos es que no has repasado toda la información que circula en internet sobre el tema.
wwwendigo escribió:3.- Nvidia NO reconoció ningún fallo como el que tú pretendes infiltrar como "un driver matatarjetas", te lo repito, eso no existe. Lo que sí había es una situación que con drivers "normales" para toda la serie Fermi, sin bloqueo de voltaje ni un TDP esencialmente restringido, esas gráficas podían morir y de hecho murieron, pero por una falla del hard que ya de por sí venía muy apretado de fábrica, y MAS apretado quedaba cuando la gente se dedicaba a juguetear con OCs como si fuera el mismo caso que una Fermi monogpu anterior a la GTX 590:
Oh!, amigo vaya si reconoció. No sólo reconoció sino que hizo un comunicado oficial que ya te he puesto antes y que ahora vamos a estudiar tranquilamente. Vamos a ello:
"Anyone doing overclocking OR RUNNING STRESS APPS"
Tu sabes lo que significa eso traducido? si no lo sabes ya te lo digo yo: "Cualquier que esté usando OVERCLOCK o PASANDO PRUEBAS DE STRESS" . Ese "O" significa mucho, sabes? significa que reconocían que su propia tarjeta TOP de 800 napos ni más ni menos ni se atrevían a asegurar su funcionamiento DE STOCK a PLENA CARGA como genera una stress test App. Pero sí, yo me estoy inventando cosas, claro que sí. Pero que fácil habláis algunos, si en vez de creeros los más listos leyerais más ... no os pasarían estas cosas y estos OWNED.
Pero no, los primeros drivers no rompían tarjetas y no se saltaban a la torera el TDP, que va. Para nada. De hecho hasta tu propia historia de TechpowerUP lo dejaba bien claro:
"As a first step, I increased the voltage from 0.938 V default to 1.000 V, maximum stable clock was 815 MHz - faster than GTX 580! Moving on, I tried 1.2 V to see how much could be gained here, at default clocks and with NVIDIA's power limiter enabled. I went to heat up the card and then *boom*, a sound like popcorn cracking"
Repite conmigo, NVIDIA POWER LIMITER ENABLED, NVIDIA POWER LIMITER ENABLED, NVIDIA POWER LIMITER ENABLED and then ... !BOOM!
"Please note that overcurrent protection does not eliminate the risk of overclocking, and hardware damage is posible"
Eso viene a decir ... "Por favor, tenga en cuenta que la protección de overvoltaje añadida no elimina el riesgo bajo overclock y dañar el hardware todavía es posible".
Y sabes lo que significa eso en Román paladino? pues también te lo traduzco:
"Por favor, tenga en cuenta que le hemos puesto una protección que no le dejará ni subir un miligramo de overclock su tarjeta TOP de 800 napos de la cual usted acaba de pagar en caja y que encima no le garantizamos ni su funcionamiento a full porque la hemos cagado en el proceso de fabricación de la misma. Esperemos que usted no nos lo tenga en cuenta, entendemos que es nuestra top y no precisamente nuestra gama media, pero es completamente normal que a día de hoy usted entienda que no podrá hacer OC y lo que es peor, tiene una bomba de relojería por tarjeta que no le garantizamos su funcionamiento al 100% de carga. Disfrute de ella especialmente y de los efectos especiales que hará su ordenador si encima decide usar las capacidades GPGPU que tiene la tarjeta y someterla a carga del 100% la mayor parte del tiempo.
Miramos por usted!"
"Avoid working around overcurrent protection mechanism for stress applications"
O lo que es lo mismo ... "Por favor, le volvemos a recordar que su tarjeta TOP de 800 pavos no debe ser trasteada mucho y acuérdese de no usarla al 100% si no quiere tener efectos especiales en su caja en vez de en su monitor"
wwwendigo escribió:bla bla bla... te cuento mi vida después de vacilarte y tomarte por subnormal tratándote con prepotencia abosluta y bla bla bla, más bla bla bla bla y bla bla bla, te voy a enseñar lo que es el hardware, bla bla bla, no tienes ni idea de nada, bla bla bla bla bla, espera que me sobra tiempo y te voy a enseñar que es tu GCN dado que no tienes ni idea y bla bla bla bla bla bla bla bla
Lo dicho, todas esas historias las tengo más que miradas en páginas profesionales, vividas in-situ y más que reconocidas por NVIDIA en su comunicado de prensa oficial cuyo link te dejo al final porque seguro que lo has disfrutado enormemente.
PD: , estás para dar muchas lecciones, sí. Ya se ha podido ver.
PD2: Escribir tochacos e intentar ir de profesor y perdonavidas, como puedes ver, no da la razón.
PD3:
Voltaje tweak, sí, y overdrive seguro que también . Por mi parte lo dejo contigo aquí, no voy a estropearles el hilo a las personas que busquen información sobre la serie 8 (cosa que a mi también me interesa).
R0NiN escribió:Cuando salga la serie 800, la 700 bajará de precio, no?
Estaba a punto de pillarme un equipo completamente nuevo con una 780 y ahora dudo.
No creas, recuerdas el último precio de la 680? No había bajado mucho ni siquiera meses después de lanzar la serie 700, si quieres pillar una 780 a precio quizá tengas que esperar más que al lanzamiento de la nueva serie. Ojalá que no porque a mi también me interesaría una para gtaV, pero me da que poca rebaja le aplicarán.
Mi pregunta es la siguiente. Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable. Yo es que no soy partidario de gastarme ese dinero.
R0NiN
PortavozDeLosMuertos
1.203 mensajes desde jul 2003 en Badalona (Barcelona)
ipad escribió:Mi pregunta es la siguiente. Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable. Yo es que no soy partidario de gastarme ese dinero.
Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros (una radeon, no recuerdo el modelo), que me permitió jugar a todo a muy buena calidad durante 7 años. Se acabó quemando. No he tenido que tocar ese pc, salvo por la susodicha grafica que se quemó, la fuente que en un apagón se estropeó y la ram, que la acabé ampliando.
Ahora que tengo ingresos propios y llevo ahorrando año y algo, quiero repetir la jugada y hacerme un pc para los próximos 8-10 años y mover todo al maximo a 1080p en este tiempo, de ahí que barajase la opción 780. Jugar en pc es de mis pasatiempos principales, y un pc me lo compro/actualizo de peras a ramos, así que me gusta invertir.
Edit: evidentemente, habrán juegos que no puedas mover al maximo sin la ultra grafica de turno que haya salido el mismo año que ese juego, por directx o por que los desarroladores sean unos animales de lo gráfico (Crysis3 y Titan, os miro a vosotros...).
ipad escribió:Mi pregunta es la siguiente. Merece la pena gastarse 400,500 euros en una tarjeta gráfica nueva? No se. Una 660,760 tiran prácticamente cualquier juego a full y estable. Yo es que no soy partidario de gastarme ese dinero.
Depende de ti, la verdad. Mi último PC ha durado 10 años, y en su dia le puse una grafica puntera de 400 euros (una radeon, no recuerdo el modelo), que me permitió jugar a todo a muy buena calidad durante 7 años. Se acabó quemando. No he tenido que tocar ese pc, salvo por la susodicha grafica que se quemó, la fuente que en un apagón se estropeó y la ram, que la acabé ampliando.
Ahora que tengo ingresos propios y llevo ahorrando año y algo, quiero repetir la jugada y hacerme un pc para los próximos 8-10 años y mover todo al maximo a 1080p en este tiempo, de ahí que barajase la opción 780. Jugar en pc es de mis pasatiempos principales, y un pc me lo compro/actualizo de peras a ramos, así que me gusta invertir.
Edit: evidentemente, habrán juegos que no puedas mover al maximo sin la ultra grafica de turno que haya salido el mismo año que ese juego, por directx o por que los desarroladores sean unos animales de lo gráfico (Crysis3 y Titan, os miro a vosotros...).
Pues yo tengo seguro que va a caer la 870 o la 880 si la relacion potencia/precio es similar a la 780 - 780 ti. Llevo ya mas de 4 años con la 5870 y ya noto que se me esta quedando corta. Debo de llevar ya cosa de 6 años con ATI, y me apetece volver a probar con NVIDIA de nuevo. Lo de ARM a ver como queda, pero me parece interesante.
Lo de pillar una 880 nadie dice q sea necesario , yo con una 7850 1GB muevo practicamente todo. Eso si.. Bajando filtros etc etc
Por ejemplo , juego a skyrim bastante últimamente y por los mods tengo unos tirones bastantes serios de vez en cuando. Se q con una 770 2GB lo moveria bien, pero si ya voy a actualizar todo el PC, prefiero invertir en lo mas moderno, a menos q sea un precio desproporcionado.
Porque los nuevos juegos van a necesitar más chicha, y con las gráficas de ahora mueves lo de ahora bien.. Pero lo próximo q venga ya veremos.
Y ya una 760 se queda algo corta ahora.. Imagina en un año...
si esto es cierto, parece que van a tirar bastante.
Si eso es verdad entonces no cuadran los precios que se rumorean porque no me creo yo que Nvidia venda una gráfica superior a la 780TI entre 400€ y 450€,aparte que según el otro enlace la 880 se parecería mas a una 770,no cuadra nada rumore,rumore