Nintendork escribió:El 3D va igual de bien en nvidia o amd, en amd el costo es menor incluso.
Nintendork escribió:En amd el costo es menor incluso.
Nintendork escribió:el costo es menor incluso.
Orestes escribió:Si quieres rendimiento compra x2 6950 (o 560 Ti aunque las AMD escalan mejor en CF) que se meriendan a una 580 y te van a salir más baratas.
dr apocalipsis escribió:Dios mío, es que con lo del HD3D se puede hacer toda la sangre que se quiera.
Te ponen una lista con todas las GPU's de la serie 5000 y 6000, y marcan todas las casillas de la tabla en todas las gráficas:
Dices, vale, son cosas repetidas para hacer bulto porque, básicamente, hay sólo 2 conceptos: Juegos y vídeo. Ellos rellenan hasta 4 a base de decir lo mismo otras 2 veces, bastante triste esto de por sí. Pero luego lees la letra pequeña y resulta que la serie 5000 NO soporta Blu-ray 3D:
¡¿Entonces por qué en la tabla gorda y visible marcas como que sí lo soportan?! Demencial y publicidad engañosa de manual:
Pero aún hay más.
Estaban estos hablando de los drivers iZ3D para sacar estereoscopio en los juegos con una Radeon. Efectivamente en la página de AMD aparece el logo de los mencionados drivers... Pero un momento... ¿Qué es eso de un 50% de descuento?
¡Ah! Que no sólo se tiene que currar una empresa externa los drivers para el 3D, sino que encima pretenden soplarte 40 eurazos por algo que NVIDIA te incluye en el precio y con mucho mejores resultados.
La puta risión.
¿Cómo era?Nintendork escribió:El 3D va igual de bien en nvidia o amd, en amd el costo es menor incluso.Nintendork escribió:En amd el costo es menor incluso.Nintendork escribió:el costo es menor incluso.
Pero vamos a seguir pinchando con lo del Crossfire.Orestes escribió:Si quieres rendimiento compra x2 6950 (o 560 Ti aunque las AMD escalan mejor en CF) que se meriendan a una 580 y te van a salir más baratas.
Crossfire de Radeon 5870
Un i7 920 a 2'4Ghz puliéndose a un Phenom II x4 a 4Ghz. Y aquí los figuras recomendando Crossfires a peña con placas de 100€. Los de las reviews que ponen i7 oceados hasta las trancas sobre placas de más de 280€ para las configuraciones multiGPU unos payasos que no tienen ni idea. Estos si que saben con tó bonito, tó barato shurmano.
Project-2501 escribió:megaowned al comercial de ATI de la parte de dr apocalipsis. Es que no se puede poner mas claro.
Salu2
sitosnk escribió:dr apocalipsis yo agradezco tu esfuerzo.
pero porque no dejas que los evangelistas se ganen su sueldo, que ellos por su esfuerzo cobran a diferencia de ti.
dr apocalipsis no te preocupes que la mayoria de gente que compra una AMD/Ati luego acaba asqueada de sus drivers y movidas, cada vez se ven mas posts en los foros por esta razon. Yo he tenido dos Ati y en rendimiento me han impresionado pero los drivers simplemente dan pena y prefiero pagar un poco mas por una nvidia y no tener que comerme la cabeza metiendo hotfixes y demas. Por cierto estaria bien guardar el owned de dr apocalipsis para cada vez que postea Nintendork
Orestes escribió:El PhysX es un añadido unica y exclusivamente visual porque de otra forma no podría jugarse en configuraciones que no lo tengan. Incluso teniendo en cuenta esto en soluciones de una sola tarjeta es absurdo tomar la decision basado en que tenga PhysX o no porque la bajada de rendimiento es importante con ese filtro activado. Eso por no comentar que efectivamente es una tecnología propietaria a siglos de distancia del DirectX sin ningún futuro. Además está la limitada lista de juegos que lo soportan y dentro de esta los que no usan el PhysX para cosas anecdóticas o gilipolleces.
Orestes escribió:He opinado que es preferible un CF de dos 5850 que una 580. Si tu placa y micro no están preparadas para un CF de 5850 tampoco lo van a estar para una 580.
Respecto al OC, todas las reviews se hacen con micros con OC y si te compras una tarjeta de gama alta vas a tener que hacérselo al tuyo sí o sí para sacarle el rendimiento que prometen. Este problema no lo vas a tener con una tarjeta normalita del palo 460/5850.
Si todavía estás con un C2D/Q nada por encima de los 120 euros merece la pena porque la CPU te va a limitar si no le haces OC.
El PhysX es un añadido unica y exclusivamente visual porque de otra forma no podría jugarse en configuraciones que no lo tengan. Incluso teniendo en cuenta esto en soluciones de una sola tarjeta es absurdo tomar la decision basado en que tenga PhysX o no porque la bajada de rendimiento es importante con ese filtro activado. Eso por no comentar que efectivamente es una tecnología propietaria a siglos de distancia del DirectX sin ningún futuro. Además está la limitada lista de juegos que lo soportan y dentro de esta los que no usan el PhysX para cosas anecdóticas o gilipolleces.
Respecto a las líneas PCIe el colega dr apocalipsis está diciendo tonterías como pianos de enormes. Si tienes micro para la potencia gráfica que quieres manejar entonces no importa el link PCIe a no ser que sea multimonitor a una resolución bestial.
http://www.hardocp.com/article/2010/08/ ... _vs_x4x4/1
En cuanto a lo del SAI no deja de hacerme gracia que lo taches de patochada cuando era una comparación mucho más afortunada que la tontería del coche de 50k euros. La comparación venía a efectos del tiempo de juego, no de la utilidad real que tenga en un entorno gaming. Era una exageración, mañana te explico el chiste de "mis tetas".
De todas formas vuelvo a unos de los pilares básicos en las configuraciones de hardware: "No montes componentes con una diferencia de calidad y edad importante". A mí no se me ocurriría nunca montar un SLi/CF de tarjetas recientes (o viejas por rendimiento) porque mi Q6600 no va a estar a la altura incluso con OC. Pero por supuesto tampoco una de gama alta porque me va a pasar exactamente lo mismo.
Sin acritud.
dr apocalipsis escribió:Si algo acabo de demostrar es que necesitas mucho más equipo en forma de CPU+Chipset para aprovechar una configuración multiGPU que una monoGPU. Eso lo sabe cualquiera que haya cacharreado un poco. Entiendo que no es tu caso.
dr apocalipsis escribió:Claro, siempre se puede apurar el componente más fuerte oceando al componente más débil. Pero en el caso de sistemas multiGPU el limitante está en el ancho de banda y en la gestión de las lanes del PCIE. Y es por eso que un i7 con un chipset x58 se mea en un Phenom II aún con casi el doble de frecuencia al meterle una segunda GPU.
dr apocalipsis escribió:JAJAJAJA. O sea, que según tú a un Q9650 sólo se le puede emparejar con una GTX550ti o una HD6790. Joder, chaval. Lo tuyo es trolleo del 15, no se te puede tomar en serio con afirmaciones de ese palo.
dr apocalipsis escribió:Apenas hay diferencia. En el caso de juegos más CPU dependientes, le subes 1Ghz a ese Quad y volará cerca de cualquier i7. Ahora, pones 2 GPU's juntitas y todo aquello que no sea un i7 se hunde en la miseria.
dr apocalipsis escribió:No, va a ser un añadido sonoro, no te jode. Vaya dos. Estamos hablando de gráficas, que sirven para mejorar los GRÁFICOS, y tratan de menospreciar el Physx porque 'sólo' es una mejora estética. Vamos, es que ni me voy a molestar en poner capturas con Physx, porque es perder el tiempo. Si empiezas por criticar una tecnología que sirve para mejorar los gráficos de parte de una compañía que vende tarjetas gráficas, apaga y vámonos. Que va, hombre. El camino bueno es el de ATI, no invertir un puto duro ni en drivers ni es tecnologías gráficas. Eso es lo que es bueno para todos. NVIDIA innova, NVIDIA mala.
dr apocalipsis escribió:Bua, chaval. Te coronas. Benchs a 2560x1600, donde el cuello de botella está en la fuerza bruta de la GPU. Y aún así diferencias en FPS mínimos del 22%. Casi nada.
dr apocalipsis escribió:Nada, figura. Tú a tu rollo montando Crossfires sobre PCIEs a x4. Es que hay que tener muchas luces para tratar de restar importancia al chipset para configuraciones multiGPU cuando es casi lo más importante. Limitarse a la fuerza bruta de la CPU es no saber nada de esto:
dr apocalipsis escribió:No, si tus chistes puedes explicarlos todo lo que quieras. Gracia ninguna. Es lo que pasa cuando se viene a trollear y engañar al personal.
dr apocalipsis escribió:Aham. Claro, porque la diferencia de rendimiento clock por clock es inmensa entre un Phenom II y un Q6600. Vaya tela...
Orestes escribió:dr apocalipsis escribió:Si algo acabo de demostrar es que necesitas mucho más equipo en forma de CPU+Chipset para aprovechar una configuración multiGPU que una monoGPU. Eso lo sabe cualquiera que haya cacharreado un poco. Entiendo que no es tu caso.
¿Dónde? ¿Links? ¿Palabros? ¿Cualquier cosa?
dr apocalipsis escribió:Claro, siempre se puede apurar el componente más fuerte oceando al componente más débil. Pero en el caso de sistemas multiGPU el limitante está en el ancho de banda y en la gestión de las lanes del PCIE. Y es por eso que un i7 con un chipset x58 se mea en un Phenom II aún con casi el doble de frecuencia al meterle una segunda GPU.
Si no fuese porque te contradices con las imágenes de bench que pones un poco más alante igual lo que dices tendría sentido.
dr apocalipsis escribió:JAJAJAJA. O sea, que según tú a un Q9650 sólo se le puede emparejar con una GTX550ti o una HD6790. Joder, chaval. Lo tuyo es trolleo del 15, no se te puede tomar en serio con afirmaciones de ese palo.
JAJAJA. O sea, que según tú un Q9650 (que en sus días era comparable a un 990X) es un ejemplo de C2Q al igual que un 990X lo es de un i7 normalito. Bravo.
dr apocalipsis escribió:Apenas hay diferencia. En el caso de juegos más CPU dependientes, le subes 1Ghz a ese Quad y volará cerca de cualquier i7. Ahora, pones 2 GPU's juntitas y todo aquello que no sea un i7 se hunde en la miseria.
¿Otra vez el "porque yo lo digo"?
dr apocalipsis escribió:No, va a ser un añadido sonoro, no te jode. Vaya dos. Estamos hablando de gráficas, que sirven para mejorar los GRÁFICOS, y tratan de menospreciar el Physx porque 'sólo' es una mejora estética. Vamos, es que ni me voy a molestar en poner capturas con Physx, porque es perder el tiempo. Si empiezas por criticar una tecnología que sirve para mejorar los gráficos de parte de una compañía que vende tarjetas gráficas, apaga y vámonos. Que va, hombre. El camino bueno es el de ATI, no invertir un puto duro ni en drivers ni es tecnologías gráficas. Eso es lo que es bueno para todos. NVIDIA innova, NVIDIA mala.
Es una mejora estética que lastra el rendimiento al igual que cualquier otra. Los rendimientos vendrían a ser algo así:
AMD = 100%
NVIDIA = 100%
NVIDIA + PhysX = 90%
NVIDIA no innova, NVIDIA compra. PhysX fue comprada a otra empresa, NVIDIA y AMD priman a las desarrolladoras para que su software funcione mejor con sus tarjetas. Parece que lo digáis como si en las tarjetas NVIDIA llevasen algún tipo de chip mágico que hiciese que funcionase el PhysX y no es así. Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.
dr apocalipsis escribió:Bua, chaval. Te coronas. Benchs a 2560x1600, donde el cuello de botella está en la fuerza bruta de la GPU. Y aún así diferencias en FPS mínimos del 22%. Casi nada.
¿Cuello de botella a 2560x1600 con dos 480 en SLi? ¿Pero tú te lees?
dr apocalipsis escribió:Nada, figura. Tú a tu rollo montando Crossfires sobre PCIEs a x4. Es que hay que tener muchas luces para tratar de restar importancia al chipset para configuraciones multiGPU cuando es casi lo más importante. Limitarse a la fuerza bruta de la CPU es no saber nada de esto:
He buscado esa review en tweaktown y la primera hostia en la frente cuando veo que tienen colocados los dos puentes CrossFire.
http://www.xtremesystems.org/forums/sho ... re-bridges
Échale un ojo a una review un poco más seria y te miras si el link con el que esté la tarjeta importa tantíiiiiisimo como dices.
http://www.techpowerup.com/reviews/NVID ... ng/24.html
Bocas, que eres un bocas.
dr apocalipsis escribió:No, si tus chistes puedes explicarlos todo lo que quieras. Gracia ninguna. Es lo que pasa cuando se viene a trollear y engañar al personal.
Lo mismo puedo decir de tus estúpidas imágenes fourchaneras.
dr apocalipsis escribió:Aham. Claro, porque la diferencia de rendimiento clock por clock es inmensa entre un Phenom II y un Q6600. Vaya tela...
De hecho la de un Ph II es inferior. Lo que sí que he dicho es que hay que configurar un equipo equilibrado y desde luego un Ph II de 90 euros con una 580 o 2x 5850 no lo es.
Gloria.
What is the function of the SLI connector?
The SLI connector is a proprietary link between GPUs that transmits synchronization, display, and pixel data. The SLI connector enables inter-GPU communication of up to 1GB/s, consuming no bandwidth over the PCI Express bus.
Conclusion
From out testing here we can conclude that PhysX is still very much suited to either a dual purpose render/PhysX card or, ideally, a dedicated PhysX card. CPU PhysX performance just doesn't come close, even with a heavily overclocked six-core monster.
grudins escribió:No creeis que esto se esta iendo un poco de la pregunta que se lanzaba en el hilo principal?
Ahora mismo no existe una gráfica que se acerque a la 6990 en prestaciones.
Un saludo.
Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.
http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics
Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.
http://en.wikipedia.org/wiki/CoreAVC
Orestes escribió:Enlazas dos test de hace tres años y te crees en posesión de la verdad. Te enlazo dos reviews con un año dando resultados completamente opuestos y resulta que llevas la razón. Si quieres échale un vistazo a las resoluciones de 2560*1600 y piensa un poquito en por qué cuanto mayor sea la resolución mayor será el ancho de banda necesario y por lo tanto mayor la diferencia de rendimiento si hubiese un bottleneck tan inmenso como el que insistes una y otra vez.
Si no fuese porque el tráfico generado entre ambas tarjetas se transfiere mediante los bridge SLi/CF igual tendrías razón cuando dices que se multiplica el tráfico en las líneas PCIe de la placa al usar una solución multi-GPU. ¿O pensabas que los cablecitos esos eran para que las tarjetas fuesen de la mano?What is the function of the SLI connector?
The SLI connector is a proprietary link between GPUs that transmits synchronization, display, and pixel data. The SLI connector enables inter-GPU communication of up to 1GB/s, consuming no bandwidth over the PCI Express bus.
http://www.slizone.com/page/slizone_faq.html#g1
Esto por no quiere decir que la segunda tarjeta no consuma ancho de banda, lo que quiere decir es que el ancho de banda necesario para comunicar ambas tarjetas es transmitido con el cable SLi/CF. O lo que viene a ser lo mismo, si una gráfica necesita 8x lineas para funcionar si añades otra se usarán un total de 16x (8x/8x) si la placa base tiene esa función. No va a necesitar por arte de magia más de las 16x que se hubiesen necesitado originalmente si se usa el cable CF/SLi.
Vuelves a contradecirte una y otra vez cuando pasas por el barro las reviews que he puesto porque precisamente a esas resoluciones tan altas es cuando se necesita más ancho de banda en los puertos PCI, pero ya veo que no hay forma de hacerte entrar en razón.
Excepto por los chipsets antiguos que todavía usaban FSB (C2D/Q) o versiones viejas y cutrísimas de HyperTransport en vez de HyperTransport 2.0/3.0/3.1 (AM2/AM3/AM3+) o Quickpath (i3/i5/i7) el ancho de banda no debería ser un problema.
Por otro lado no veo el motivo por el que alguien montaría tanta potencia gráfica si no la fuese a utilizar en resoluciones altas y con filtros activados. Seguro que seríais capaces de comprar una 580 o similar y ahorrar en el monitor porque vais sobrados con un crt 1024 x 768.
Conclusion
From out testing here we can conclude that PhysX is still very much suited to either a dual purpose render/PhysX card or, ideally, a dedicated PhysX card. CPU PhysX performance just doesn't come close, even with a heavily overclocked six-core monster.
http://www.bit-tech.net/hardware/graphi ... formance/2
Ejem.
Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.
http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics
Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.
http://en.wikipedia.org/wiki/CoreAVC
Pero sigue arrastrándote. Es lo que pasa cuando oyes las cosas desde lejos y sólo miras los dibujitos.
Igual lo que teníais que hacer es aprender un poquito de inglés y leer reviews y foros guiris en vez de mirar gráficos y fiaros de los cuatro pelavaras españoles que también se fijan sólo en los gráficos de las reviews.
No he dicho en ningún momento que sea equilibrado un CF/SLi, he dicho que es infinitamente más barato que una tope de gama. Podéis tergiversar todo lo que os dé la gana de todas formas, se ve que el sentido común y la comprensión lectora no son vuestros fuertes.
Ahriman escribió:Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.
Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.
Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€
Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...
Ahriman escribió:
Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.
Ahriman escribió:Y bueno me gustaría saber cuanto costaría disfrutar del 3D
Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€
Y bueno, a mi de nvidia me llama el 3D pero por ahora no cunde por precio.
Ahriman escribió:Por lo visto es lo de siempre, nvidia carisma para lo que ofrece pero es de lo mejorcito. Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.
Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.
Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€
Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...
Pero bueno yo no digo que NVIDIA no sea superior porque como ya dije no soy un gamer y no sé mucho del tema. Pero, cuando en este foro se recomiendan gráficas no veo que se hable del Physx, es más en ingún foro de los que sigo veo que se recomiende nnvidia por ese sistema. Y o no tienen ni idea o realmente no es tan importante. Además hay muchos juegazos que no lo usan y si lo pagas estarías tirando el dinero.
Y bueno, a mi de nvidia me llama el 3D pero por ahora no cunde por precio. Ojalá las dos marcas fuesen iguales y se pelearan por reducir el precio pero no pagando para tener un sistema exclusivo...
Mensajepor grudins Hoy 11:24
No creeis que esto se esta iendo un poco de la pregunta que se lanzaba en el hilo principal?
Ahora mismo no existe una gráfica que se acerque a la 6990 en prestaciones.
Un saludo.
Mensajepor LordArthas Hoy 13:41
Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.
http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics
Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.
http://en.wikipedia.org/wiki/CoreAVC
te acabas de coronar... OLE, OLE y OLE!!!!... DirectCompute un motor de físicas!!!!! SI SEÑOR!!!!! 3DMark11 usa DirectCompute para sus tests de físicas por GPU!!!! VUELTA AL RUEDO!!!!
1. DriectCompute es un lenguaje GPGPU no un motor de físicas... es lo mismo que CUDA, OpenCL y (creo que ya difunto) ATI Stream... vale para implementar un API de físicas por GPU (como hace nvidia con PhysX implementado bajo CUDA) pero NO es un motor de físicas por sí sólo, vale para muchas cosas más...
2. 3DMark11 usa Bullet para sus test de físicas, una API de físicas por GPU implementada bajo OpenCL...
PD: y CoreAVC es un motor de vídeo implementado bajo CUDA, no el motor de decodificación de vídeo por hardware de nvidia...
Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.
Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.
Orestes escribió:CUDA se usa con el CoreAVC, un codec h264 muy popular.
CoreAVC now supports two forms of GPU hardware acceleration for h.264 decoding on Windows. NVIDIA with CUDA and DXVA for both ATI and NVIDIA hardware.
Con el CUDA lo mismo, hay gente que piensa que si no lo tienes no puedes tener aceleración de vídeo por hardware.
Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.
todas lo harían con la versión de DirectX
para DirectX existe una cosita llamada DirectCompute.
Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.
Orestes escribió:Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.
dr apocalipsis escribió:DirectCompute no es DirectX. Otra cosa es que los dos sean criaturas de Microsoft y las meta en el mismo Pack.
dr apocalipsis escribió:Una monoGPU puede funcionar a tope en un sistema que no pueda aprovechar al máximo un sistema multiGPU. Y eso lo sabe cualquiera que se haya molestado en hacer las pruebas o que haya leído un poquito.
Orestes escribió:Y permíteme que me ría sobre lo que comentas del consumo de recursos y el posprocesado con CUDA sobre DXVA cuando ese postprocesado y mejoras los tienes que activar y por lo tanto el consumo de recursos a igualdad de calidad de imagen es el mismo.
Los señores que saben algo de esto porque son los que desarrollan el CoreAVC escribió:DXVA will always have lower CPU usage since the decoded frame can be pushed straight from the video card to the display.
Las DOS reviews que te he puesto lo confirman. En una de ellas tienes todo tipo de resoluciones en una 480 con un link x4.
Te pongo un test con dos 480 en SLi con el link en x4
Teniendo en cuenta la situación de hace tres o cuatro años cuando hardware y software estaban todavía en pañales respecto a multi-gpu y la medida en la que el resto de hardware existente por aquel entonces era capaz de lidiar con ello.
dr apocalipsis escribió:Ahriman escribió:Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.
Pues si crees que sobra te compras una ATI, lo juegas en consola o, si tienes una NVIDIA, no lo activas. Ya ves tú el problema. Comprarse gráficas dedicadas para tener mejores gráficas. Es que estamos tontos.
http://www.youtube.com/watch?v=m1sI8ovRIFY
http://www.youtube.com/watch?v=ONQfbGBt ... re=relatedY bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.
Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€
Donde vaaaaas.
El 3D de Nvidia funciona sobre algo tan bajo como una 9600GT. Con una GTX260 ya puedes jugar a juegos exigentes en 3D. Con su correspondiente penalización de rendimiento, claro está. Como la tienes en PS3 o 360. Lo que no hace falta es un TRISLI de GTX580 para activar el 3D.
Ni un monitor de 400€. Los encuentras por 200€ e incluso menos. Pero vamos, que se te ve por donde vas.Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...
Efectivamente, se ve por donde vas.
Lo mejor va a ser que nadie invierta nada, claro está. Ports de consolas y a vivir.
Un saludo.
Orestes escribió:Teníamos el mismo PCIe 2.0 y los mismos chipsets, SOs, versión de DirectX, drivers y software. Igualito.
El iluminado escribió:Y permíteme que me ría sobre lo que comentas del consumo de recursos y el posprocesado con CUDA sobre DXVA cuando ese postprocesado y mejoras los tienes que activar y por lo tanto el consumo de recursos a igualdad de calidad de imagen es el mismo.
Los señores del CoreAVC escribió:DXVA will always have lower CPU usage since the decoded frame can be pushed straight from the video card to the display.
Orestes escribió:Igual que te puedo decir que el soporte para reproducción de vídeo sobre DXVA es una mierda en general y con el CoreAVC muy en particular.
¿Así que una 9800 GX2 o 3850 es capaz de pulirse el ancho de banda de un link PCIe 2.0 Blaoblao
Tienes razón, una HD 3850 no es multi-gpu, es una mierda pinchada en un palo e insistes en que colapsa un puerto PCIe. Reflexiona un poco.
misael17 escribió:Se puede argumentar sin llegar a faltas de respeto ...
Orestes escribió:Pues nada, has ganado y tal. ¿Es lo que querías leer?
Por tu propio bien deja de mirar dibujitos en Tom's Hardware y mucho más si tienen más de tres años o el día que salgas de EOL vas a tener que meter el rabo entre las piernas con más frecuencia de lo deseable. Deja de visitar sitios españoles/hispanos de hardware porque de verdad que no tienen ni puta idea de lo que hablan, normalmente lo que hacen es traducir mal sus reviews de otros sitios en inglés, configurar mal los equipos y en definitiva hacerlo todo bastante mal. Si el día que aprendas inglés vas a algún foro guiri y enlazas a un bench de Tom's Hardware avisa que quiero pasar un buen rato.
Saludos de un fanboy, ya me dirás de qué.
P.D: El fourchanerismo es lamentable, deja de imitar la corriente de moda y cómprate una personalidad.
Orestes escribió:No le veo futuro a una tecnología que descarta la aceleración por GPU de la competencia.
A no ser que la división de gráficas de AMD sea borrada del mapa le veo mucho más futuro a cualquier motor de físicas basado o no en DirectCompute u OpenCL que al PhysX.
Orestes escribió:Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.
Crazy Hattori escribió:Que pena que se acabe el hilo.
Lo que hemos aprendido algunos gracias a DR APOCALIPSIS Y A LORD ARTHAS y el baño que han recibido otros...