evangelion_01 escribió:Darkcaptain escribió:Si, puede que NVIDIA se flipe un poco con el precio, pero es que sus drivers siempre me ha parecido bastante mejores y mas pulidos... al final creo que acaba saliendo rentable..
Si dejé un poco de lado el mundo PC Gamer es por esto mismo, gráficas cada 2 x 3 y la mayoría de ellas mueren sin estar todavía explotadas, todo por tema de drivers, software y optimización. Una gráfica de 200-250€ (actualmente) podría durar 5-6 años perfectamente a un buen detalle si se lo currarán, pero claro, los fabricantes de GPU viven de vender gráficas y no les saldría rentable.
El día que las GPU las optimicen como deben, volveré a ese mundillo, pero hasta entonces paso de cambiar de gráfica cada 2-3 años o de gastarme 400-500€ en una para que me dure lo que debería de durar (5-6 años) a un buen detalle/resolución/Frames.
Joder, pues a mi una GTX 285 me petó hace menos de un año, me costó algo menos de 200€ en su dia, en total creo que cumplió más de 5 años... Me la he cambiado por una 660, costandome casi lo mismo y estoy que lo flipo. Yo de momento ninguna queja con Nvidia aunque me mosquea eso que ha salido antes acerca de un driver que petaba tarjetas, la mía petó en julio del año pasado.
Edit: Mentira, creo que la 285 me costó alrededor de 300€, aun así creo que le he sacado mucho partido, lo he podido jugar todo con bastante calidad hasta que se me murió.
emipta escribió:jerrymh escribió:Claro que si, otro ejemplo es en sus inicios starcraft II, se cargo muchas graficas hacia trabajar al tope las graficas y tronaban,
amigo mío eso que dices es falso, el Starcraft tira de cpu principalmente, la gráfica la usa mucho menos que otros juegos, informate antes de hablar!
emipta escribió:jerrymh escribió:EmilioGT escribió: primera vez que oigo esto.¿unos driver se pueden cargar la grafica? o te refieres a rendimiento mucho peor que los anteriores driver?
mola que se piquen en optimizar y subir los fps,esto hara que dure mas nuestra gpu.
Claro que si, otro ejemplo es en sus inicios starcraft II, se cargo muchas graficas hacia trabajar al tope las graficas y tronaban,
amigo mío eso que dices es falso, el Starcraft tira de cpu principalmente, la gráfica la usa mucho menos que otros juegos, informate antes de hablar!
EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico
m0wly escribió:EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico
+1
Mantle es una basura.
Lo que tenia que hacer ATI es, junto con nvidia, y junto con todos los montadores de placas nvidia+ati es ponerse de acuerdo entre ellos para trabajar juntos en una API grafica multiplataforma. Ya sea openGL o ya sea otra nueva pensada desde cero. Pero juntos. Lo ideal seria que se involucrase tambien microsoft, para todos juntos crear un estandar y evolucionarlo.
Es que no tiene sentido que cada uno este trabajando en lo mismo pero por caminos diferentes, y que luego segreguen el mercado por incompatibilidades entre ellos... es absurdo, y el mas puteado es el usuario final.
Lo que ha hecho AMD con mantle es una guarrada total para el usuario final, y para la industria, que lo unico que consigue es poner trabas al desarrollo.
turok escribió:m0wly escribió:EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico
+1
Mantle es una basura.
Lo que tenia que hacer ATI es, junto con nvidia, y junto con todos los montadores de placas nvidia+ati es ponerse de acuerdo entre ellos para trabajar juntos en una API grafica multiplataforma. Ya sea openGL o ya sea otra nueva pensada desde cero. Pero juntos. Lo ideal seria que se involucrase tambien microsoft, para todos juntos crear un estandar y evolucionarlo.
Es que no tiene sentido que cada uno este trabajando en lo mismo pero por caminos diferentes, y que luego segreguen el mercado por incompatibilidades entre ellos... es absurdo, y el mas puteado es el usuario final.
Lo que ha hecho AMD con mantle es una guarrada total para el usuario final, y para la industria, que lo unico que consigue es poner trabas al desarrollo.
Pues del mismo modo Microsft y Nvidia podrían usar Mantle ya que fue la primera que hizo uso de la gpu a bajo nivel,y así mejorar esa Api.Te recuerdo la api esta abierta a que la usen otras compañías.
El 21 de septiembre de 2006 se anunció que el control de OpenGL pasaría del ARB al Grupo Khronos.3 Con ello se intentaba mejorar el marketing de OpenGL y eliminar las barreras entre el desarrollo de OpenGL y OpenGL ES.4 ARB se convirtió dentro de Khronos en el OpenGL ARB Working Group.5 El subgrupo de Khronos que gestiona la especificación de OpenGL se denomina OpenGL ARB Working Group.6 Para una relación de los miembros que componen el OpenGL ARB Working Group, véase el apartado Miembros del Grupo Khronos. El gran número de empresas con variados intereses que han pasado tanto por el antiguo ARB como por el grupo actual han hecho de OpenGL una API de propósito general con un amplio rango de posibilidades.
La especificación OpenGL era revisada por el OpenGL Architecture Review Board (ARB), fundado en 1992. El ARB estaba formado por un conjunto de empresas interesadas en la creación de una API consistente y ampliamente disponible. Microsoft, uno de los miembros fundadores, abandonó el proyecto en 2003.
El 21 de septiembre de 2006 se anunció que el control de OpenGL pasaría del ARB al Grupo Khronos.
El Khronos Group es un consorcio industrial financiado por sus miembros enfocado a la creación de APIs estándares abiertas y libres de royalties que permiten la creación y reproducción multimedia en un amplio abanico de plataformas y dispositivos. Todos los miembros de Khronos pueden contribuir al desarrollo de las especificaciones de las APIs, tienen el poder de votar en diversas etapas antes de la publicación de las mismas, y pueden acelerar la llegada de sus plataformas y aplicaciones 3D gracias al acceso temprano a los bocetos de las especificaciones y a los tests de conformidad.
algunos de los miembros del Grupo Khronos son:
AMD
Apple
Blizzard
Intel Graphics Controllers
nVIDIA
OpenGL 2.0 añadió soporte para un lenguaje ensamblador basado en GPU verdadero, llamado ARB (diseñado por el Architecture Review Board), que se convertiría en el estándar para vertex y fragment shaders. Las tarjetas publicadas con OpenGL 2.0 fueron las primeras en ofrecer shaders programables por el usuario.
m0wly escribió:No, lo normal seria seguir con openGL que lleva un monton de tiempo en el mercado, y es compatible con todo lo que hay en el mercado, y no es dependiente de ninguna compañia.
Y no la guarrada que esta intentando hacer ATI con Mantle, que lo unico que tratan es de segregar el mercado.
Lo logico es que ATI hubiese empezado a trabajar en el desarrollo de openGL que no esta ligado a ninguna compañia... vamos, basicamente lo que ha empezado a hacer NVIDIA junto con VALVE, poner ingenieros en comun para mejorar el desarrollo de openGL. Pero no.
Lo de ATI con mantle es una guarrada.
djyuyo escribió:m0wly escribió:No, lo normal seria seguir con openGL que lleva un monton de tiempo en el mercado, y es compatible con todo lo que hay en el mercado, y no es dependiente de ninguna compañia.
Y no la guarrada que esta intentando hacer ATI con Mantle, que lo unico que tratan es de segregar el mercado.
Lo logico es que ATI hubiese empezado a trabajar en el desarrollo de openGL que no esta ligado a ninguna compañia... vamos, basicamente lo que ha empezado a hacer NVIDIA junto con VALVE, poner ingenieros en comun para mejorar el desarrollo de openGL. Pero no.
Lo de ATI con mantle es una guarrada.
Estoy de acuerdo con lo de seguir el camino común del OpenGL. Me parece bastante superior al DirectX.
En lo que no estoy contigo es con lo de que es una guarrada lo que ha hecho AMD con Mantle. Por lo menos ellos lo ponen a disposición para que lo utilice cualquiera. Lo de Nvidia con su PhysX si que es una autentica guarrada
Saludos!
destroyerjjbg escribió:Esto lo que demuestra que hacen lo que quieren con el consumidor . Tienen tarjetas capadas por software que cuando les da la ganan rinden un 30 o 40 por ciento mas.
Primero amd que venda con mantle ahora voy yo y saco esto(y me paso mantle por el forro) para vender mas geforces. Van cojiditas de la mano.
Y eso hasta que lleguen las nuevas maxwell, tendran stock o algo con las antiguas(no me extraña con los precios que ponen y la crisis).
Salu2
Bandb escribió:no entiendo lo de los super pcs carisimos gamers.
tengo 4 gigas de ram y un intel dual core a 3,20 ghz con un HD de 1 tera y grafica chustera gforce 510, todo sobre w7 y el battlefield 4 me anda de puta madre, no todo a full pero a calidad similar a ps4.
Titanfall me corre perfectamente y ayer mismo probé ninja gaiden z yabuza y a FULL me anda sin despeinarse , sin tirones ni nada.
y ya veis que mi pc es chustero pa juegos.
A veces la peña se gasta miles de euros por correr un battlefield a maxima resolucion y con tdos los filtros posibles y con todos los efectos y particulas .... cuando muchas veces bajando 3 requisitos de estos lo juegas igual y ni te das cuenta de que no salen las particulas de polvo en el mapa x ....
melovampire escribió:Lo interesante a mi con mi gtx770 OC y mi i5 2500K a 4GHz me vaa mejorar el rendimiento o al final voy a continuar como estaba? Lo digo para instalar los drivers o esperarme.
Valkyrjur escribió:AMD lha provocado algo muy positivo q con el lanzamiento de su api Mantle es forzar la respuesta de microsoft primero y ahora nvidia ya que la verdad nos esta dando muchas alegrías a los usuarios de PC estas ultimas semanas, entre el anuncio de de DX12 y los drivers de nvidia. Ahora Nvidia ha dado un golpe sobre la mesa con este driver dejando un poco en evidencia a amd con el tema de directx 11. Yo creo que el paso natural para no quedarse descolgada es hacer algo parecido para sus gráficas y optimizar su driver para directx 11 a lo nvidia sin olvidar seguir trabajando en Mantle.
RaPhaT escribió:Pero vamos, si optimizo mis drivers para X juegos, toco algo de directx y te pongo esos X juegos para que veas la mejora en fps, me parece el timo de la estampita...
* Mejoran la eficiencia de la cpu en juegos DX9, DX10 y DX11 (sobretodo en estos últimos).
labor escribió:es aconsejable entonces actualizar a estos drivers?? aunque sean beta??
es que tengo miedo a que se repita el famoso caso de los drivers quematarjetas...
creeis que notare mejora con gtx 660 Ti 3 gb en castlevania LOS2?? en el cual en los videos me baja a 50 fps
hbk505 escribió:Buenas.
Quería saber si alguien que sepa mas que yo me podría responder una duda que tengo.
He leído las notas del nuevo driver (todavía no lo he instalado) y me ha parecido entender que reduce el cuello de botella quitandole carga al procesador, si esto es así, y esta es mi pregunta ¿se supone que cuanto peor sea el procesador mayor sera la diferencia que notaria?
Tengo el equipo de mi firma: procesador e7400 , 4GB Ram y GTX 650 1GB
Leyendo los mensajes de la gente que ya lo ha probado veo que usan procesadores mas potentes que el mio, ¿entonces yo notaria mucha diferencia?
Agredeceria si alguien que supiese me podría responder.
gracias y saludos
jerrymh escribió:hbk505 escribió:Buenas.
Quería saber si alguien que sepa mas que yo me podría responder una duda que tengo.
He leído las notas del nuevo driver (todavía no lo he instalado) y me ha parecido entender que reduce el cuello de botella quitandole carga al procesador, si esto es así, y esta es mi pregunta ¿se supone que cuanto peor sea el procesador mayor sera la diferencia que notaria?
Tengo el equipo de mi firma: procesador e7400 , 4GB Ram y GTX 650 1GB
Leyendo los mensajes de la gente que ya lo ha probado veo que usan procesadores mas potentes que el mio, ¿entonces yo notaria mucha diferencia?
Agredeceria si alguien que supiese me podría responder.
gracias y saludos
Amigo eso solo lo puedes saber tu si lo pruebas, haste unos benchmark antes de cambiar los drivers y luego los instalas para hacerlos nuevamente para ver que pasa. Aunque yo con el crysis 3 tenia un E8400 y me iba como el culo con una GTX670, es cambiar a una Core I7 3770k y va a las mil maravillas con la misma grafica, en teoria el procesador era el cuello de botella, a ver como te funciona a ti al hacer las pruebas.
Darkcaptain escribió:evangelion_01 escribió:Darkcaptain escribió:Si, puede que NVIDIA se flipe un poco con el precio, pero es que sus drivers siempre me ha parecido bastante mejores y mas pulidos... al final creo que acaba saliendo rentable..
Si dejé un poco de lado el mundo PC Gamer es por esto mismo, gráficas cada 2 x 3 y la mayoría de ellas mueren sin estar todavía explotadas, todo por tema de drivers, software y optimización. Una gráfica de 200-250€ (actualmente) podría durar 5-6 años perfectamente a un buen detalle si se lo currarán, pero claro, los fabricantes de GPU viven de vender gráficas y no les saldría rentable.
El día que las GPU las optimicen como deben, volveré a ese mundillo, pero hasta entonces paso de cambiar de gráfica cada 2-3 años o de gastarme 400-500€ en una para que me dure lo que debería de durar (5-6 años) a un buen detalle/resolución/Frames.
Joder, pues a mi una GTX 285 me petó hace menos de un año, me costó algo menos de 200€ en su dia, en total creo que cumplió más de 5 años... Me la he cambiado por una 660, costandome casi lo mismo y estoy que lo flipo. Yo de momento ninguna queja con Nvidia aunque me mosquea eso que ha salido antes acerca de un driver que petaba tarjetas, la mía petó en julio del año pasado.
Edit: Mentira, creo que la 285 me costó alrededor de 300€, aun así creo que le he sacado mucho partido, lo he podido jugar todo con bastante calidad hasta que se me murió.
Si, pero verás, te has gastado recientemente casi 200€ por una 660... y cuanto te va a durar dando un buen rendimiento? no mas de 2-3 años.. a eso es lo que me refiero, si compras gama media, no pasa de los 2 años o 2 años y pico.. si compras gama alta, te dura bastante mas, si, pero es que se van a los 400€.
Realmente, si optimizaran los drivers al máximo, os sorprendería a mas de uno lo que es capaz de hacer hoy en día una gráfica de 200€... si no por que creéis que las consolas "rinden tanto"? una X360 que es del 2005, moviendo Bioshock Infinite, Tomb Raider, Gears of war 3 etc... vale, no en detalle ultra ni a 1080p, pero al menos lo mueve a un detalle mas o menos decente, coge una gráfica del 2005 a ver si incluso llega a arrancar, es a eso a lo que me refiero, optimización y por eso jamás me gastaré un pastonazo en GPU's.
Y sorry por el comentario un poco offtopic, pero al fin y al cabo la noticia va un poco de eso, optimizar y mejorar drivers para que la GPU rindan mas.
Igualmente, NVIDIA vive de gráficas y puede sacar Drivers para mejorar el rendimiento de sus GPU's, pero si lo ha hecho es por el tema del Mantle... así que tarde o temprano, GPU nuevas al mercado y esto no ha pasado xD