GTX 590, 580 O ATI 6990

1, 2, 3
Dios mío, es que con lo del HD3D se puede hacer toda la sangre que se quiera.

Te ponen una lista con todas las GPU's de la serie 5000 y 6000, y marcan todas las casillas de la tabla en todas las gráficas:

Imagen

Dices, vale, son cosas repetidas para hacer bulto porque, básicamente, hay sólo 2 conceptos: Juegos y vídeo. Ellos rellenan hasta 4 a base de decir lo mismo otras 2 veces, bastante triste esto de por sí. Pero luego lees la letra pequeña y resulta que la serie 5000 NO soporta Blu-ray 3D:

Imagen

¡¿Entonces por qué en la tabla gorda y visible marcas como que sí lo soportan?! Demencial y publicidad engañosa de manual:

Imagen

Pero aún hay más.

Estaban estos hablando de los drivers iZ3D para sacar estereoscopio en los juegos con una Radeon. Efectivamente en la página de AMD aparece el logo de los mencionados drivers... Pero un momento... ¿Qué es eso de un 50% de descuento?

¡Ah! Que no sólo se tiene que currar una empresa externa los drivers para el 3D, sino que encima pretenden soplarte 40 eurazos por algo que NVIDIA te incluye en el precio y con mucho mejores resultados.

La puta risión.

¿Cómo era?

Nintendork escribió:El 3D va igual de bien en nvidia o amd, en amd el costo es menor incluso.


Nintendork escribió:En amd el costo es menor incluso.


Nintendork escribió:el costo es menor incluso.


Pero vamos a seguir pinchando con lo del Crossfire.

Orestes escribió:Si quieres rendimiento compra x2 6950 (o 560 Ti aunque las AMD escalan mejor en CF) que se meriendan a una 580 y te van a salir más baratas.


Crossfire de Radeon 5870

Imagen

Un i7 920 underclockeado a 2'4Ghz puliéndose a un Phenom II x4 overclockeado a 4Ghz. Y aquí los figuras recomendando Crossfires a peña con placas de 100€. Los de las reviews que ponen i7 oceados hasta las trancas sobre placas de más de 280€ para las configuraciones multiGPU unos payasos que no tienen ni idea. Estos si que saben con tó bonito, tó barato shurmano.
dr apocalipsis escribió:
Dios mío, es que con lo del HD3D se puede hacer toda la sangre que se quiera.

Te ponen una lista con todas las GPU's de la serie 5000 y 6000, y marcan todas las casillas de la tabla en todas las gráficas:

Imagen

Dices, vale, son cosas repetidas para hacer bulto porque, básicamente, hay sólo 2 conceptos: Juegos y vídeo. Ellos rellenan hasta 4 a base de decir lo mismo otras 2 veces, bastante triste esto de por sí. Pero luego lees la letra pequeña y resulta que la serie 5000 NO soporta Blu-ray 3D:

Imagen

¡¿Entonces por qué en la tabla gorda y visible marcas como que sí lo soportan?! Demencial y publicidad engañosa de manual:

Imagen

Pero aún hay más.

Estaban estos hablando de los drivers iZ3D para sacar estereoscopio en los juegos con una Radeon. Efectivamente en la página de AMD aparece el logo de los mencionados drivers... Pero un momento... ¿Qué es eso de un 50% de descuento?

¡Ah! Que no sólo se tiene que currar una empresa externa los drivers para el 3D, sino que encima pretenden soplarte 40 eurazos por algo que NVIDIA te incluye en el precio y con mucho mejores resultados.

La puta risión.

¿Cómo era?

Nintendork escribió:El 3D va igual de bien en nvidia o amd, en amd el costo es menor incluso.


Nintendork escribió:En amd el costo es menor incluso.


Nintendork escribió:el costo es menor incluso.


Pero vamos a seguir pinchando con lo del Crossfire.

Orestes escribió:Si quieres rendimiento compra x2 6950 (o 560 Ti aunque las AMD escalan mejor en CF) que se meriendan a una 580 y te van a salir más baratas.


Crossfire de Radeon 5870

Imagen

Un i7 920 a 2'4Ghz puliéndose a un Phenom II x4 a 4Ghz. Y aquí los figuras recomendando Crossfires a peña con placas de 100€. Los de las reviews que ponen i7 oceados hasta las trancas sobre placas de más de 280€ para las configuraciones multiGPU unos payasos que no tienen ni idea. Estos si que saben con tó bonito, tó barato shurmano.

Jaja, muy bueno doctor apocalipsis, lo de las tablas es la hostia XD, vaya curro que te estas dando en este hilo tio
megaowned al comercial de ATI de la parte de dr apocalipsis. Es que no se puede poner mas claro.

Salu2
Project-2501 escribió:megaowned al comercial de ATI de la parte de dr apocalipsis. Es que no se puede poner mas claro.

Salu2

+1
[plas] [plas] [plas] [plas] [plas] [plas] [plas]

si señor, @dr apocalipsis, eso es un epic owned!!!... para que vuelvan a venir a evangelizar al personal...
dr apocalipsis yo agradezco tu esfuerzo.

pero porque no dejas que los evangelistas se ganen su sueldo, que ellos por su esfuerzo cobran a diferencia de ti.
dr apocalipsis no te preocupes que la mayoria de gente que compra una AMD/Ati luego acaba asqueada de sus drivers y movidas, cada vez se ven mas posts en los foros por esta razon. Yo he tenido dos Ati y en rendimiento me han impresionado pero los drivers simplemente dan pena y prefiero pagar un poco mas por una nvidia y no tener que comerme la cabeza metiendo hotfixes y demas. Por cierto estaria bien guardar el owned de dr apocalipsis para cada vez que postea Nintendork [qmparto]
sitosnk escribió:dr apocalipsis yo agradezco tu esfuerzo.

pero porque no dejas que los evangelistas se ganen su sueldo, que ellos por su esfuerzo cobran a diferencia de ti.

se esfuerzan tanto en los drivers..

dr apocalipsis no te preocupes que la mayoria de gente que compra una AMD/Ati luego acaba asqueada de sus drivers y movidas, cada vez se ven mas posts en los foros por esta razon. Yo he tenido dos Ati y en rendimiento me han impresionado pero los drivers simplemente dan pena y prefiero pagar un poco mas por una nvidia y no tener que comerme la cabeza metiendo hotfixes y demas. Por cierto estaria bien guardar el owned de dr apocalipsis para cada vez que postea Nintendork [qmparto]


Jajaja, pues si que estaria bien
Está bien casi todo lo que ha dicho porque si hace daño que una marca saque algo como el Physx y que las compañías de videojuegos hagan caso. Porque de ahí su precio, si tiene unas caracteristicas prpias las van a cobrar. Si el Physx lo tuviera también AMD no habría tanta diferencia de precio. Lo mismo si tiene CUDA, 3D y demás.

Ahora que nvidia es mejor no lo discuto porque no soy gamer y sé mucho del tema aún.
He opinado que es preferible un CF de dos 5850 que una 580. Si tu placa y micro no están preparadas para un CF de 5850 tampoco lo van a estar para una 580.

Respecto al OC, todas las reviews se hacen con micros con OC y si te compras una tarjeta de gama alta vas a tener que hacérselo al tuyo sí o sí para sacarle el rendimiento que prometen. Este problema no lo vas a tener con una tarjeta normalita del palo 460/5850. Si todavía estás con un C2D/Q nada por encima de los 120 euros merece la pena porque la CPU te va a limitar si no le haces OC.

El PhysX es un añadido unica y exclusivamente visual porque de otra forma no podría jugarse en configuraciones que no lo tengan. Incluso teniendo en cuenta esto en soluciones de una sola tarjeta es absurdo tomar la decision basado en que tenga PhysX o no porque la bajada de rendimiento es importante con ese filtro activado. Eso por no comentar que efectivamente es una tecnología propietaria a siglos de distancia del DirectX sin ningún futuro. Además está la limitada lista de juegos que lo soportan y dentro de esta los que no usan el PhysX para cosas anecdóticas o gilipolleces.

Respecto a las líneas PCIe el colega dr apocalipsis está diciendo tonterías como pianos de enormes. Si tienes micro para la potencia gráfica que quieres manejar entonces no importa el link PCIe a no ser que sea multimonitor a una resolución bestial.

http://www.hardocp.com/article/2010/08/ ... _vs_x4x4/1

En cuanto a lo del SAI no deja de hacerme gracia que lo taches de patochada cuando era una comparación mucho más afortunada que la tontería del coche de 50k euros. La comparación venía a efectos del tiempo de juego, no de la utilidad real que tenga en un entorno gaming. Era una exageración, mañana te explico el chiste de "mis tetas".

De todas formas vuelvo a unos de los pilares básicos en las configuraciones de hardware: "No montes componentes con una diferencia de calidad y edad importante". A mí no se me ocurriría nunca montar un SLi/CF de tarjetas recientes (o viejas por rendimiento) porque mi Q6600 no va a estar a la altura incluso con OC. Pero por supuesto tampoco una de gama alta porque me va a pasar exactamente lo mismo.

Sin acritud.
Orestes escribió:El PhysX es un añadido unica y exclusivamente visual porque de otra forma no podría jugarse en configuraciones que no lo tengan. Incluso teniendo en cuenta esto en soluciones de una sola tarjeta es absurdo tomar la decision basado en que tenga PhysX o no porque la bajada de rendimiento es importante con ese filtro activado. Eso por no comentar que efectivamente es una tecnología propietaria a siglos de distancia del DirectX sin ningún futuro. Además está la limitada lista de juegos que lo soportan y dentro de esta los que no usan el PhysX para cosas anecdóticas o gilipolleces.


Si te parece eso una gilipollez eso no pongas el ssao, el hqbaq , o incluso el AA,porque es todo visual, es más, pon los gráficos al mínimo, total es sólo visual y quita un montón de rendimiento.
Vale que quite rendimiento, pero que esperas?, estas calculando físicas, de verdad esperas que no baje el rendimiento cuando le estas dando más carga de lo normal?, crees realmente que es reprochable o es simple objetivismo?, si es por eso, como te dije arriba, ponlo todo al minimo, ni recomiendes eyefinity, ni 3d, no me jodas...
Puedo entender un AA de x2 o x4, incluso x8, pero x16 es ridículo. Lo mismo con el resto de filtros y añadidos gráficos. Mucho más cuando tantos factores desaconsejan su uso a no ser que tengas un presupuesto abultadísimo.

Entender esta capacidad de la gama nvidia como una característica principal y no como un simple extra me parece un error bastante gordo. Igual que el Eyefinity o el 3D, ¿de verdad a alguien que no tenga intención de hacer uso intensivo de esas características le interesa que le cobren un plus por ello?

A mí me gustaría que comercializasen tarjetas sin opción a hacerle un CF/SLi, sin la burrada de puertos que tienen, sin el eyefinity/sorround y que dejasen de cobrármelo.
Orestes escribió:He opinado que es preferible un CF de dos 5850 que una 580. Si tu placa y micro no están preparadas para un CF de 5850 tampoco lo van a estar para una 580.


Si algo acabo de demostrar es que necesitas mucho más equipo en forma de CPU+Chipset para aprovechar una configuración multiGPU que una monoGPU. Eso lo sabe cualquiera que haya cacharreado un poco. Entiendo que no es tu caso.

Respecto al OC, todas las reviews se hacen con micros con OC y si te compras una tarjeta de gama alta vas a tener que hacérselo al tuyo sí o sí para sacarle el rendimiento que prometen. Este problema no lo vas a tener con una tarjeta normalita del palo 460/5850.


Claro, siempre se puede apurar el componente más fuerte oceando al componente más débil. Pero en el caso de sistemas multiGPU el limitante está en el ancho de banda y en la gestión de las lanes del PCIE. Y es por eso que un i7 con un chipset x58 se mea en un Phenom II aún con casi el doble de frecuencia al meterle una segunda GPU.

Si todavía estás con un C2D/Q nada por encima de los 120 euros merece la pena porque la CPU te va a limitar si no le haces OC.


JAJAJAJA. O sea, que según tú a un Q9650 sólo se le puede emparejar con una GTX550ti o una HD6790. Joder, chaval. Lo tuyo es trolleo del 15, no se te puede tomar en serio con afirmaciones de ese palo.

Mira, una GTX580 con diferentes CPU's:

Minima resolución para que no haya cuello de botella en la GPU:
Imagen

Máxima resolución para asegurarse de que el cuello de botella sea la GPU:
Imagen

Apenas hay diferencia. En el caso de juegos más CPU dependientes, le subes 1Ghz a ese Quad y volará cerca de cualquier i7. Ahora, pones 2 GPU's juntitas y todo aquello que no sea un i7 se hunde en la miseria.

El PhysX es un añadido unica y exclusivamente visual porque de otra forma no podría jugarse en configuraciones que no lo tengan. Incluso teniendo en cuenta esto en soluciones de una sola tarjeta es absurdo tomar la decision basado en que tenga PhysX o no porque la bajada de rendimiento es importante con ese filtro activado. Eso por no comentar que efectivamente es una tecnología propietaria a siglos de distancia del DirectX sin ningún futuro. Además está la limitada lista de juegos que lo soportan y dentro de esta los que no usan el PhysX para cosas anecdóticas o gilipolleces.


No, va a ser un añadido sonoro, no te jode. Vaya dos. Estamos hablando de gráficas, que sirven para mejorar los GRÁFICOS, y tratan de menospreciar el Physx porque 'sólo' es una mejora estética. Vamos, es que ni me voy a molestar en poner capturas con Physx, porque es perder el tiempo. Si empiezas por criticar una tecnología que sirve para mejorar los gráficos de parte de una compañía que vende tarjetas gráficas, apaga y vámonos. Que va, hombre. El camino bueno es el de ATI, no invertir un puto duro ni en drivers ni en tecnologías gráficas. Eso es lo que es bueno para todos. NVIDIA innova, NVIDIA invierte, NVIDIA mala.

Vaya tela.

Respecto a las líneas PCIe el colega dr apocalipsis está diciendo tonterías como pianos de enormes. Si tienes micro para la potencia gráfica que quieres manejar entonces no importa el link PCIe a no ser que sea multimonitor a una resolución bestial.

http://www.hardocp.com/article/2010/08/ ... _vs_x4x4/1


Bua, chaval. Te coronas. Benchs a 2560x1600, donde el cuello de botella está en la fuerza bruta de la GPU. Y aún así diferencias en FPS mínimos del 22%. Casi nada.

Imagen

Nada, figura. Tú a tu rollo montando Crossfires sobre PCIEs a x4. Es que hay que tener muchas luces para tratar de restar importancia al chipset para configuraciones multiGPU cuando es casi lo más importante. Limitarse a la fuerza bruta de la CPU es no saber nada de esto:

Imagen

Imagen

Imagen

Imagen

En cuanto a lo del SAI no deja de hacerme gracia que lo taches de patochada cuando era una comparación mucho más afortunada que la tontería del coche de 50k euros. La comparación venía a efectos del tiempo de juego, no de la utilidad real que tenga en un entorno gaming. Era una exageración, mañana te explico el chiste de "mis tetas".


No, si tus chistes puedes explicarlos todo lo que quieras. Gracia ninguna. Es lo que pasa cuando se viene a trollear y engañar al personal.

De todas formas vuelvo a unos de los pilares básicos en las configuraciones de hardware: "No montes componentes con una diferencia de calidad y edad importante". A mí no se me ocurriría nunca montar un SLi/CF de tarjetas recientes (o viejas por rendimiento) porque mi Q6600 no va a estar a la altura incluso con OC. Pero por supuesto tampoco una de gama alta porque me va a pasar exactamente lo mismo.


Aham. Claro, porque la diferencia de rendimiento clock por clock es inmensa entre un Phenom II y un Q6600. Vaya tela...

Sin acritud.


Y sin idea.

No quiero pasarme de borde, pero es que vaya actitud y vaya jeta se gastan algunos.

Un saludo.
dr apocalipsis escribió:Si algo acabo de demostrar es que necesitas mucho más equipo en forma de CPU+Chipset para aprovechar una configuración multiGPU que una monoGPU. Eso lo sabe cualquiera que haya cacharreado un poco. Entiendo que no es tu caso.


¿Dónde? ¿Links? ¿Palabros? ¿Cualquier cosa?

dr apocalipsis escribió:Claro, siempre se puede apurar el componente más fuerte oceando al componente más débil. Pero en el caso de sistemas multiGPU el limitante está en el ancho de banda y en la gestión de las lanes del PCIE. Y es por eso que un i7 con un chipset x58 se mea en un Phenom II aún con casi el doble de frecuencia al meterle una segunda GPU.


Si no fuese porque te contradices con las imágenes de bench que pones un poco más alante igual lo que dices tendría sentido.

dr apocalipsis escribió:JAJAJAJA. O sea, que según tú a un Q9650 sólo se le puede emparejar con una GTX550ti o una HD6790. Joder, chaval. Lo tuyo es trolleo del 15, no se te puede tomar en serio con afirmaciones de ese palo.


JAJAJA. O sea, que según tú un Q9650 (que en sus días era comparable a un 990X) es un ejemplo de C2Q al igual que un 990X lo es de un i7 normalito. Bravo.

dr apocalipsis escribió:Apenas hay diferencia. En el caso de juegos más CPU dependientes, le subes 1Ghz a ese Quad y volará cerca de cualquier i7. Ahora, pones 2 GPU's juntitas y todo aquello que no sea un i7 se hunde en la miseria.


¿Otra vez el "porque yo lo digo"?

dr apocalipsis escribió:No, va a ser un añadido sonoro, no te jode. Vaya dos. Estamos hablando de gráficas, que sirven para mejorar los GRÁFICOS, y tratan de menospreciar el Physx porque 'sólo' es una mejora estética. Vamos, es que ni me voy a molestar en poner capturas con Physx, porque es perder el tiempo. Si empiezas por criticar una tecnología que sirve para mejorar los gráficos de parte de una compañía que vende tarjetas gráficas, apaga y vámonos. Que va, hombre. El camino bueno es el de ATI, no invertir un puto duro ni en drivers ni es tecnologías gráficas. Eso es lo que es bueno para todos. NVIDIA innova, NVIDIA mala.


Es una mejora estética que lastra el rendimiento al igual que cualquier otra. Los rendimientos vendrían a ser algo así:

AMD = 100%
NVIDIA = 100%
NVIDIA + PhysX = 90%

NVIDIA no innova, NVIDIA compra. PhysX fue comprada a otra empresa, NVIDIA y AMD priman a las desarrolladoras para que su software funcione mejor con sus tarjetas. Parece que lo digáis como si en las tarjetas NVIDIA llevasen algún tipo de chip mágico que hiciese que funcionase el PhysX y no es así. Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.

dr apocalipsis escribió:Bua, chaval. Te coronas. Benchs a 2560x1600, donde el cuello de botella está en la fuerza bruta de la GPU. Y aún así diferencias en FPS mínimos del 22%. Casi nada.


¿Cuello de botella a 2560x1600 con dos 480 en SLi? ¿Pero tú te lees?

dr apocalipsis escribió:Nada, figura. Tú a tu rollo montando Crossfires sobre PCIEs a x4. Es que hay que tener muchas luces para tratar de restar importancia al chipset para configuraciones multiGPU cuando es casi lo más importante. Limitarse a la fuerza bruta de la CPU es no saber nada de esto:


He buscado esa review en tweaktown y la primera hostia en la frente cuando veo que tienen colocados los dos puentes CrossFire.

http://www.xtremesystems.org/forums/sho ... re-bridges

Échale un ojo a una review un poco más seria y te miras si el link con el que esté la tarjeta importa tantíiiiiisimo como dices.

http://www.techpowerup.com/reviews/NVID ... ng/24.html

Bocas, que eres un bocas.

dr apocalipsis escribió:No, si tus chistes puedes explicarlos todo lo que quieras. Gracia ninguna. Es lo que pasa cuando se viene a trollear y engañar al personal.


Lo mismo puedo decir de tus estúpidas imágenes fourchaneras.

dr apocalipsis escribió:Aham. Claro, porque la diferencia de rendimiento clock por clock es inmensa entre un Phenom II y un Q6600. Vaya tela...


De hecho la de un Ph II es inferior. Lo que sí que he dicho es que hay que configurar un equipo equilibrado y desde luego un Ph II de 90 euros con una 580 o 2x 5850 no lo es.

Gloria.
no sé por dónde empezar a citarte en cuanto a la sarta de tonterías que puedes llegar a soltar por línea...

1. vete estudiando lo que es un API de físicas y si DirectX tiene alguna (podrías citar Havok como motor por CPU o Bullet como motor por GPU... pero citas DirectX, vamos ni puta idea de lo que dices)...
por cierto ya que estamos, intentas vender PhysX como algo caduco que no tiene futuro... ¿sabes que tb se puede usar por CPU y no son pocos los juegos que lo usan? ¿sabes que es algo más que un añadido gráfico?...

2. ¿sabes que los límites de OC de un 990X y un i7 normalito están más o menos en los mismos valores?... vamos que las reviews se pueden hacer con un 990X o con un 920, que van a dar lo mismo...
que por cierto, un Core 2 bien subidito no es una barrera muy importante para una GTX580, pero es una losa del 30% cuando tenemos dos tarjetas (y esto te lo digo con conocimiento de causa, porque casualmente tengo un Q9450 y un 920 y un SLI y he hecho pruebas)...

3. AMD innova que te cagas... se compra ATI... copia el SLI... copia el 3D Visión... copia el CUDA... etc... ¿o es que acaso son ellos los que inventaron la GPU, el multi GPU, el 3D o el GPGPU?... no digo que fuera NVidia la que lo inventó, pero sí la primera en tenerlo en la calle...

así, por encima...
Orestes escribió:
dr apocalipsis escribió:Si algo acabo de demostrar es que necesitas mucho más equipo en forma de CPU+Chipset para aprovechar una configuración multiGPU que una monoGPU. Eso lo sabe cualquiera que haya cacharreado un poco. Entiendo que no es tu caso.


¿Dónde? ¿Links? ¿Palabros? ¿Cualquier cosa?


Ya he puesto imágenes de reviews tanto de sistemas monoGPU como de sistemas multiGPU que me avalan. Pero no voy a perder más el tiempo contigo. Es de culturilla general que sistemas multiGPU sólo se aprovechan de verdad con un i7.

dr apocalipsis escribió:Claro, siempre se puede apurar el componente más fuerte oceando al componente más débil. Pero en el caso de sistemas multiGPU el limitante está en el ancho de banda y en la gestión de las lanes del PCIE. Y es por eso que un i7 con un chipset x58 se mea en un Phenom II aún con casi el doble de frecuencia al meterle una segunda GPU.


Si no fuese porque te contradices con las imágenes de bench que pones un poco más alante igual lo que dices tendría sentido.


¿Dónde está la contradicción?

Te he puesto una review con los mismos componentes exactos. Un Q9650 a 4Ghz y que sólo se diferencian en el chipset. Y la ventaja del x48 frente al P45 en la gestión multiGPU le da ventajas tan abultadas como hasta el DOBLE de rendimiento en algunos casos.

dr apocalipsis escribió:JAJAJAJA. O sea, que según tú a un Q9650 sólo se le puede emparejar con una GTX550ti o una HD6790. Joder, chaval. Lo tuyo es trolleo del 15, no se te puede tomar en serio con afirmaciones de ese palo.


JAJAJA. O sea, que según tú un Q9650 (que en sus días era comparable a un 990X) es un ejemplo de C2Q al igual que un 990X lo es de un i7 normalito. Bravo.


¿LOL?

La única diferencia entre un Q9550 y un Q9650 es 0'5 más de multi. Un 990X tiene 2 cores mas que un 920, 4MB más de caché y va a 32nm en vez de 45nm. Vamos, lo mismito. Que manera tan bestia de hacer el ridículo. Cómo se nota que no le tienes aprecio a ese usuario y estás simplemente trolleando al personal.

dr apocalipsis escribió:Apenas hay diferencia. En el caso de juegos más CPU dependientes, le subes 1Ghz a ese Quad y volará cerca de cualquier i7. Ahora, pones 2 GPU's juntitas y todo aquello que no sea un i7 se hunde en la miseria.


¿Otra vez el "porque yo lo digo"?


Te he puesto gráficas antes dónde se demuestra que en configuraciones monoGPU la plataforma no es tan determinante como en configuraciones multi. Tú mismo.

dr apocalipsis escribió:No, va a ser un añadido sonoro, no te jode. Vaya dos. Estamos hablando de gráficas, que sirven para mejorar los GRÁFICOS, y tratan de menospreciar el Physx porque 'sólo' es una mejora estética. Vamos, es que ni me voy a molestar en poner capturas con Physx, porque es perder el tiempo. Si empiezas por criticar una tecnología que sirve para mejorar los gráficos de parte de una compañía que vende tarjetas gráficas, apaga y vámonos. Que va, hombre. El camino bueno es el de ATI, no invertir un puto duro ni en drivers ni es tecnologías gráficas. Eso es lo que es bueno para todos. NVIDIA innova, NVIDIA mala.


Es una mejora estética que lastra el rendimiento al igual que cualquier otra. Los rendimientos vendrían a ser algo así:

AMD = 100%
NVIDIA = 100%
NVIDIA + PhysX = 90%


Eso sí que es un porque tú lo digas, palabros, cualquier cosa. ¿Links, reviews, cualquier cosa?

NVIDIA no innova, NVIDIA compra. PhysX fue comprada a otra empresa, NVIDIA y AMD priman a las desarrolladoras para que su software funcione mejor con sus tarjetas. Parece que lo digáis como si en las tarjetas NVIDIA llevasen algún tipo de chip mágico que hiciese que funcionase el PhysX y no es así. Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.


¿La versión de DirectX de qué? Es que no sabes ni de qué estás hablando. Confundir una API de físicas como Physx con la API gráfica por excelencia como es DirectX. ¿Te refieres a usar las físicas de DirectX? Pues espérate sentado porque eso no existe. Es la segunda vez que mezclas una cosa con otra. La primera la dejé pasar porque pensé que sería un error de expresión por tu parte, pero esta segunda ya me deja claro que lo que pasa es que no controlas absolutamente nada del tema. Es como cuando dices lo de acelerar vídeo por hardware con CUDA, cuando eso se hace con el PUREVIDEO en NVIDIA o el AVIVO en ATI. Con lógica dedicada, no con los SP. NO SABES NADA.

dr apocalipsis escribió:Bua, chaval. Te coronas. Benchs a 2560x1600, donde el cuello de botella está en la fuerza bruta de la GPU. Y aún así diferencias en FPS mínimos del 22%. Casi nada.


¿Cuello de botella a 2560x1600 con dos 480 en SLi? ¿Pero tú te lees?


No, hombre, no. 2560x1600 es una resolución de nada. Vamos, tú juegas al Crysis a esa resolución y 120fps con tus Crossfires en Phenoms II con links a 4x.

dr apocalipsis escribió:Nada, figura. Tú a tu rollo montando Crossfires sobre PCIEs a x4. Es que hay que tener muchas luces para tratar de restar importancia al chipset para configuraciones multiGPU cuando es casi lo más importante. Limitarse a la fuerza bruta de la CPU es no saber nada de esto:


He buscado esa review en tweaktown y la primera hostia en la frente cuando veo que tienen colocados los dos puentes CrossFire.

http://www.xtremesystems.org/forums/sho ... re-bridges

Échale un ojo a una review un poco más seria y te miras si el link con el que esté la tarjeta importa tantíiiiiisimo como dices.

http://www.techpowerup.com/reviews/NVID ... ng/24.html


¿Y? Tener un segundo puente SLI o CFX no afecta EN NADA al rendimiento. Es más, la gente los suele poner para no perderlos en un cajón. Da exactamente lo mismo. Depende de la serie de la gráfica y ni siquiera hay una regla universal al respecto.

Pero tú a lo tuyo. Poniendo análisis de monoGPU's para demostrar tu teoría de que la velocidad del link PCIE no afecta al rendimiento en multiGPU, cuando el tráfico de datos en multiGPU aumenta exponencialmente al tener que cruzar datos las tarjetas.

Bocas, que eres un bocas.


Que esta ya me la conozco. Clon para tratar de que me baneen contigo a base de provocar. Vas a durar poco.

dr apocalipsis escribió:No, si tus chistes puedes explicarlos todo lo que quieras. Gracia ninguna. Es lo que pasa cuando se viene a trollear y engañar al personal.


Lo mismo puedo decir de tus estúpidas imágenes fourchaneras.


Wuooo, el niño se hace mayor y ya suelta tacos y todo.

dr apocalipsis escribió:Aham. Claro, porque la diferencia de rendimiento clock por clock es inmensa entre un Phenom II y un Q6600. Vaya tela...


De hecho la de un Ph II es inferior. Lo que sí que he dicho es que hay que configurar un equipo equilibrado y desde luego un Ph II de 90 euros con una 580 o 2x 5850 no lo es.


Lo que no es equilibrado es ir recomendando Crossfires por ahí sin tan siquiera interesarse por el equipo que monte el usuario. Es que no has preguntado ni por la fuente. Tú a vender gráficas ATI, eso es lo importante. Figura.

Gloria.


La que has dejado en el post con todas tus perlas. Y encima vas de entendido y recomendando a la peña lo que tiene que hacer. Os la prometíais muy felices en este foro vendiendo la dupla AMD/ATI, pero los usuarios ya os han calado.

Buena suerte buscando vuestro siguiente foro.
Por lo visto es lo de siempre, nvidia carisma para lo que ofrece pero es de lo mejorcito. Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.

Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.


Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€


Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...

Pero bueno yo no digo que NVIDIA no sea superior porque como ya dije no soy un gamer y no sé mucho del tema. Pero, cuando en este foro se recomiendan gráficas no veo que se hable del Physx, es más en ingún foro de los que sigo veo que se recomiende nnvidia por ese sistema. Y o no tienen ni idea o realmente no es tan importante. Además hay muchos juegazos que no lo usan y si lo pagas estarías tirando el dinero.


Y bueno, a mi de nvidia me llama el 3D pero por ahora no cunde por precio. Ojalá las dos marcas fuesen iguales y se pelearan por reducir el precio pero no pagando para tener un sistema exclusivo...
Enlazas dos test de hace tres años y te crees en posesión de la verdad. Te enlazo dos reviews con un año dando resultados completamente opuestos y resulta que llevas la razón. Si quieres échale un vistazo a las resoluciones de 2560*1600 y piensa un poquito en por qué cuanto mayor sea la resolución mayor será el ancho de banda necesario y por lo tanto mayor la diferencia de rendimiento si hubiese un bottleneck tan inmenso como el que insistes una y otra vez.

Si no fuese porque el tráfico generado entre ambas tarjetas se transfiere mediante los bridge SLi/CF igual tendrías razón cuando dices que se multiplica el tráfico en las líneas PCIe de la placa al usar una solución multi-GPU. ¿O pensabas que los cablecitos esos eran para que las tarjetas fuesen de la mano?

What is the function of the SLI connector?
The SLI connector is a proprietary link between GPUs that transmits synchronization, display, and pixel data. The SLI connector enables inter-GPU communication of up to 1GB/s, consuming no bandwidth over the PCI Express bus.


http://www.slizone.com/page/slizone_faq.html#g1

Esto por no quiere decir que la segunda tarjeta no consuma ancho de banda, lo que quiere decir es que el ancho de banda necesario para comunicar ambas tarjetas es transmitido con el cable SLi/CF. O lo que viene a ser lo mismo, si una gráfica necesita 8x lineas para funcionar si añades otra se usarán un total de 16x (8x/8x) si la placa base tiene esa función. No va a necesitar por arte de magia más de las 16x que se hubiesen necesitado originalmente si se usa el cable CF/SLi.

Vuelves a contradecirte una y otra vez cuando pasas por el barro las reviews que he puesto porque precisamente a esas resoluciones tan altas es cuando se necesita más ancho de banda en los puertos PCI, pero ya veo que no hay forma de hacerte entrar en razón.

Excepto por los chipsets antiguos que todavía usaban FSB (C2D/Q) o versiones viejas y cutrísimas de HyperTransport en vez de HyperTransport 2.0/3.0/3.1 (AM2/AM3/AM3+) o Quickpath (i3/i5/i7) el ancho de banda no debería ser un problema.

Por otro lado no veo el motivo por el que alguien montaría tanta potencia gráfica si no la fuese a utilizar en resoluciones altas y con filtros activados. Seguro que seríais capaces de comprar una 580 o similar y ahorrar en el monitor porque vais sobrados con un crt 1024 x 768.

Conclusion
From out testing here we can conclude that PhysX is still very much suited to either a dual purpose render/PhysX card or, ideally, a dedicated PhysX card. CPU PhysX performance just doesn't come close, even with a heavily overclocked six-core monster.


http://www.bit-tech.net/hardware/graphi ... formance/2

Ejem.

Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.

http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics

Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.

http://en.wikipedia.org/wiki/CoreAVC

Pero sigue arrastrándote. Es lo que pasa cuando oyes las cosas desde lejos y sólo miras los dibujitos.

Igual lo que teníais que hacer es aprender un poquito de inglés y leer reviews y foros guiris en vez de mirar gráficos y fiaros de los cuatro pelavaras españoles que también se fijan sólo en los gráficos de las reviews.

No he dicho en ningún momento que sea equilibrado un CF/SLi, he dicho que es infinitamente más barato que una tope de gama. Podéis tergiversar todo lo que os dé la gana de todas formas, se ve que el sentido común y la comprensión lectora no son vuestros fuertes.
No creeis que esto se esta iendo un poco de la pregunta que se lanzaba en el hilo principal?

Ahora mismo no existe una gráfica que se acerque a la 6990 en prestaciones.

Un saludo.
grudins escribió:No creeis que esto se esta iendo un poco de la pregunta que se lanzaba en el hilo principal?

Ahora mismo no existe una gráfica que se acerque a la 6990 en prestaciones.

Un saludo.

si es verdad que se esta alejando un monton del hilo, pero mejor pillarse una gtx 580 o un sli de gtx 570, que ahora estan por buen precio y por menos de 600 euros puede tenerlas (mira en pixmania y por 550 puedes tener el sli de gtx 570). a mi realmente la amd 6990 no me la pillaria, preferiria una 6970, que ya creo que es suficiente o incluso un crossfire. puede que sea partidario de tarjtas de nvidia. pero yo tengo una gtx 460 super overclock de gygabyte y va como la seda. en el portatil tengo una 5850 y la verdad que los detalles de amd, parecen como peor con la misma configuracion que en el ordenador de sobremesa, no se si sera el pshyx o yo que se pero parece como que se aprecian menos detalles.
un saludo
Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.

http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics

Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.

http://en.wikipedia.org/wiki/CoreAVC



te acabas de coronar... OLE, OLE y OLE!!!!... DirectCompute un motor de físicas!!!!! SI SEÑOR!!!!! 3DMark11 usa DirectCompute para sus tests de físicas por GPU!!!! VUELTA AL RUEDO!!!!

1. DriectCompute es un lenguaje GPGPU no un motor de físicas... es lo mismo que CUDA, OpenCL y (creo que ya difunto) ATI Stream... vale para implementar un API de físicas por GPU (como hace nvidia con PhysX implementado bajo CUDA) pero NO es un motor de físicas por sí sólo, vale para muchas cosas más...

2. 3DMark11 usa Bullet para sus test de físicas, una API de físicas por GPU implementada bajo OpenCL...

PD: y CoreAVC es un motor de vídeo implementado bajo CUDA, no el motor de decodificación de vídeo por hardware de nvidia...
Orestes escribió:Enlazas dos test de hace tres años y te crees en posesión de la verdad. Te enlazo dos reviews con un año dando resultados completamente opuestos y resulta que llevas la razón. Si quieres échale un vistazo a las resoluciones de 2560*1600 y piensa un poquito en por qué cuanto mayor sea la resolución mayor será el ancho de banda necesario y por lo tanto mayor la diferencia de rendimiento si hubiese un bottleneck tan inmenso como el que insistes una y otra vez.


Te he puesto una review de hace 3 años porque es el caso perfecto para demostrar lo que para todo el mundo es obvio, la importancia del chipset de la placa en un sistema multiGPU. No te puedo poner una actual porque, como seguramente no sabes, todos los i7 1366 usan el x58 porque no hay otro chipset para esa plataforma.

Si no fuese porque el tráfico generado entre ambas tarjetas se transfiere mediante los bridge SLi/CF igual tendrías razón cuando dices que se multiplica el tráfico en las líneas PCIe de la placa al usar una solución multi-GPU. ¿O pensabas que los cablecitos esos eran para que las tarjetas fuesen de la mano?

What is the function of the SLI connector?
The SLI connector is a proprietary link between GPUs that transmits synchronization, display, and pixel data. The SLI connector enables inter-GPU communication of up to 1GB/s, consuming no bandwidth over the PCI Express bus.


http://www.slizone.com/page/slizone_faq.html#g1


Si no fueras tan ignorante sabrías que se puede correr SLI sin ese cablecito y a veces ni hay penalización de rendimiento. Sólo en ocasiones concretas. Y es que el PCIE 2.0 se mea de la risa con sus 8GB/s frente al pírrico 1GB/s del cablecito. Que a estas alturas está más por el soporte legacy y el marketing que otra cosa. Como los chips NF200 que en una x58 sólo sirven para consumir electricidad y darle unas perras por royalties a NVIDIA.

Esto por no quiere decir que la segunda tarjeta no consuma ancho de banda, lo que quiere decir es que el ancho de banda necesario para comunicar ambas tarjetas es transmitido con el cable SLi/CF. O lo que viene a ser lo mismo, si una gráfica necesita 8x lineas para funcionar si añades otra se usarán un total de 16x (8x/8x) si la placa base tiene esa función. No va a necesitar por arte de magia más de las 16x que se hubiesen necesitado originalmente si se usa el cable CF/SLi.


Jojo. Ni de coña va a bastar un canal de 1GB/s para compensar todo el overhead de una configuración multiGPU.

Vuelves a contradecirte una y otra vez cuando pasas por el barro las reviews que he puesto porque precisamente a esas resoluciones tan altas es cuando se necesita más ancho de banda en los puertos PCI, pero ya veo que no hay forma de hacerte entrar en razón.


¿Yo? Yo te he puesto una review donde a 1600P la diferencia entre un x48 (2x16) y un P45 (2x8) con el mismo micro y las mismas tarjetas es del DOBLE de rendimiento para el primero. Ahora, estando las gráficas tan ahogadísimas en la práctica se trata de 6fps contra 3fps. Tú mismo si eso no es un cuello de botella de manual. Aunque bueno, con tus superconfiguraciones multiGPU sobre x4 a lo mejor te piensas que es normal jugar a 3fps. Vete a saber, ya no me sorprenderías.

Excepto por los chipsets antiguos que todavía usaban FSB (C2D/Q) o versiones viejas y cutrísimas de HyperTransport en vez de HyperTransport 2.0/3.0/3.1 (AM2/AM3/AM3+) o Quickpath (i3/i5/i7) el ancho de banda no debería ser un problema.


Si, bueno. Que los x38 y x48 no son monstruos brutales con el tema del ancho de banda. Y sí, que AMD lo peta ahora mismo en configuraciones multiGPU.

LOL

A ver, que te lo vuelvo a poner:

Imagen

Mira, que te pongo otra más bonita si cabe:

Imagen

Fíjate. En monoGPU apenas hay diferencia entre una plataforma AM3 y una 1366. Ni con ATI ni con NVIDIA. Pero es hacer un crossfire y las barritas con el x58 se disparan y las barritas con el chipset 890 de AMD se quedan rezagadísimas. ¿Me lo puedes explicar?

Por favor, olvídate de todo lo demás. Céntrate en este gráfico. Apenas una puta diferencia en monoGPU y de repente un --->40%<--- de diferencia en multiGPU.

Que me lo expliques, que no me entra. Que somos todos subnormales menos tú. Que la gente que pone pasta en un i7 con varios PCIE 2.0 @16 son todos gilipollas por no saber tanto como tú. Que nos tienen engañados y por fin has venido a iluminarnos. Salve ¡oh! Glorioso prócer del chip y sálvanos de la ignorancia que asola nuestros bolsillos.

Por otro lado no veo el motivo por el que alguien montaría tanta potencia gráfica si no la fuese a utilizar en resoluciones altas y con filtros activados. Seguro que seríais capaces de comprar una 580 o similar y ahorrar en el monitor porque vais sobrados con un crt 1024 x 768.


Muéstrame esa configuración tuya que nos permita jugar al Metro 2033 o al Crysis a 1600P a 60fps.

Será que, a lo mejor, hace falta eso sólo para jugar a esos 2 a 1080P con filtros. No sé, sólo digo que a lo mejor ¿eh? O incluso en esa misma configuración para no perder los 60fps con el 3D.

Conclusion
From out testing here we can conclude that PhysX is still very much suited to either a dual purpose render/PhysX card or, ideally, a dedicated PhysX card. CPU PhysX performance just doesn't come close, even with a heavily overclocked six-core monster.


http://www.bit-tech.net/hardware/graphi ... formance/2

Ejem.


Buá. Me has abierto los ojos. Una tecnología que mejora la experiencia visual pero que consume recursos. ¡Qué descaro! Si es que somos unos ignorantes. ¡Vivan los polígonos planos!

Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.

http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics


Jajaja, y el notas insiste. DirectCompute es una API GPGPU. No un motor de físicas ni nada que se le parezca. Básicamente es la respuesta de Microsoft a CUDA o OPENCL, no a PHYSX, que es otra cosa. Demasiados conceptos para ti ¿no? Macho, que manera tan brutal y humillante de hacer el ridículo.

Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.

http://en.wikipedia.org/wiki/CoreAVC

Pero sigue arrastrándote. Es lo que pasa cuando oyes las cosas desde lejos y sólo miras los dibujitos.


Es un no parar. Si CoreAVC sólo funcionara sobre CUDA ¿Cómo demonios es que también ofrece aceleración sobre tarjetas Radeon que no usan CUDA? Ya te lo digo yo: DXVA.

Anda, hijo mío, lee un poco:

AVIVO.
PUREVIDEO.
DXVA.

Igual lo que teníais que hacer es aprender un poquito de inglés y leer reviews y foros guiris en vez de mirar gráficos y fiaros de los cuatro pelavaras españoles que también se fijan sólo en los gráficos de las reviews.


A lo mejor lo que tendrías que aprender es a callarte y a leer.

Sin más.

No he dicho en ningún momento que sea equilibrado un CF/SLi, he dicho que es infinitamente más barato que una tope de gama. Podéis tergiversar todo lo que os dé la gana de todas formas, se ve que el sentido común y la comprensión lectora no son vuestros fuertes.


No, si barato puede ser todo lo que tu quieras. Pero como no tengas un i7 fuerte ya te digo que ni se va a acercar en rendimiento a una monoGPU potente sobre un sistema más humilde.

Tú con tu dinero haz lo que quieras. Pero deja de engañar a la gente con tus tonterías. Que te crees el más listo del barrio con esas afirmaciones que sólo te atreves a sostener tú a nivel mundial. Que ya hay que tenerlos cuadrados.

Venga, chaval. A ver si te vas mejorando de lo tuyo.

Ahriman escribió:Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.


Pues si crees que sobra te compras una ATI, lo juegas en consola o, si tienes una NVIDIA, no lo activas. Ya ves tú el problema. Comprarse gráficas dedicadas para tener mejores gráficas. Es que estamos tontos.

http://www.youtube.com/watch?v=m1sI8ovRIFY
http://www.youtube.com/watch?v=ONQfbGBt ... re=related

Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.


Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€


Donde vaaaaas.

El 3D de Nvidia funciona sobre algo tan bajo como una 9600GT. Con una GTX260 ya puedes jugar a juegos exigentes en 3D. Con su correspondiente penalización de rendimiento, claro está. Como la tienes en PS3 o 360. Lo que no hace falta es un TRISLI de GTX580 para activar el 3D.

Ni un monitor de 400€. Los encuentras por 200€ e incluso menos. Pero vamos, que se te ve por donde vas.


Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...


Efectivamente, se ve por donde vas.

Lo mejor va a ser que nadie invierta nada, claro está. Ports de consolas y a vivir.

Un saludo.
Ahriman escribió:
Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.


A esto mejor no contesto

Ahriman escribió:Y bueno me gustaría saber cuanto costaría disfrutar del 3D

Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€



Y bueno, a mi de nvidia me llama el 3D pero por ahora no cunde por precio.


Cambia de tienda ya
Ahriman escribió:Por lo visto es lo de siempre, nvidia carisma para lo que ofrece pero es de lo mejorcito. Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.

Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.


Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€


Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...

Pero bueno yo no digo que NVIDIA no sea superior porque como ya dije no soy un gamer y no sé mucho del tema. Pero, cuando en este foro se recomiendan gráficas no veo que se hable del Physx, es más en ingún foro de los que sigo veo que se recomiende nnvidia por ese sistema. Y o no tienen ni idea o realmente no es tan importante. Además hay muchos juegazos que no lo usan y si lo pagas estarías tirando el dinero.


Y bueno, a mi de nvidia me llama el 3D pero por ahora no cunde por precio. Ojalá las dos marcas fuesen iguales y se pelearan por reducir el precio pero no pagando para tener un sistema exclusivo...


EL que yo tengo cuesta 400 euros y tiene las gafas incluidas, no hables sin saber, porque en el batman, como tu dices, no sobran papelitos, si has jugado al juego, los papeles que ves en un monton por el suelo o las mesas que no se mueven son los que, con physx se mueven al darle un puñetazo, patada o pasando por lo alto, con las hojas de los arboles igual, con el humo igual, con las banderas, cortinas o pancartas que cuelgan igual hasta las puedes romper con el boomerang ese

Mensajepor grudins Hoy 11:24
No creeis que esto se esta iendo un poco de la pregunta que se lanzaba en el hilo principal?

Ahora mismo no existe una gráfica que se acerque a la 6990 en prestaciones.

Un saludo.


Es que la 6990 no es una grafica en si, si no que tiene dos nucleos, pon 2 gtx 580 en sli a ver como deja a esa 6990 tan querida por los fanboys de ATI

Mensajepor LordArthas Hoy 13:41

Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.

http://channel9.msdn.com/Blogs/gclassy/ ... ed-Physics

Volvamos con las metidas de pata, CUDA se usa con el CoreAVC, un codec h264 muy popular.

http://en.wikipedia.org/wiki/CoreAVC



te acabas de coronar... OLE, OLE y OLE!!!!... DirectCompute un motor de físicas!!!!! SI SEÑOR!!!!! 3DMark11 usa DirectCompute para sus tests de físicas por GPU!!!! VUELTA AL RUEDO!!!!

1. DriectCompute es un lenguaje GPGPU no un motor de físicas... es lo mismo que CUDA, OpenCL y (creo que ya difunto) ATI Stream... vale para implementar un API de físicas por GPU (como hace nvidia con PhysX implementado bajo CUDA) pero NO es un motor de físicas por sí sólo, vale para muchas cosas más...

2. 3DMark11 usa Bullet para sus test de físicas, una API de físicas por GPU implementada bajo OpenCL...

PD: y CoreAVC es un motor de vídeo implementado bajo CUDA, no el motor de decodificación de vídeo por hardware de nvidia...


Lo que te esta diciendo lordathas es cierto, estas muy equivocado en este tema

PD: orentes, deja de hablar porque te estan dejando en bragas..
Lo dicho, no se si es una capacidad lectora reducida, que vuestro dominio del castellano deja mucho que desear o que realmente tratáis de difamar a cualquiera que os haya podido poner en duda.

-¿Cuando he dicho yo que DirectCompute sea un motor de físicas? He dicho y repetido que se puede usarse en motores de físicas. La gestión de físicas con el motor Bullet se hace mediante DirectCompute y OpenCL. Hace uso extensivo de las librerías de DirectCompute para gestionar el motor de físicas y se necesitaba un método nativo en las tarjetas certificadas como DirectX 11.

Las dos veces que he hablado de usar DirectX como alternativa a PhysX:

Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.


Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.


En serio, ¿dónde digo que DirectX sea un motor de físicas? Digo que lo harían con las versiones de DirectX. Si procesar el test de físicas del 3DMark 11 mediante la tarjeta gráfica se hiciese mediante el motor X escrito o usando Java seguiría diciendo que Java es el método que se usa para llevarlo a cabo. Ahora bien, DirectCompute es parte de DirectX ¿o no? Para la próxima vez trataré de ser más específico y ahorrarme problemas con talibanes como vosotros.

Vuelves a insistir con la chorrada de las configuraciones multi gpu. Te pongo un test con dos 480 en SLi con el link en x4 y 40, 60 y 70 fps de media y me hablas de bottlenecks y que van a 3 y 6 fps. Después pones un gráfico en el que la tarjeta gráfica es obviamente demasiado para los Phenom II (sin link a la review, por supuesto) y te quedas tan tranquilo. Poco después pones otro gráfico más (otra vez sin link) en donde resulta que un Phenom II puede con una 5870 pero no con un CF de la misma. Demagogia barata, lo que llevo diciéndote todo el tiempo es que si encontrases un CF/SLi con la misma potencia gráfica que una 5870 ambos test serían muy similares por no decir idénticos (que es lo que he hecho al enlazarte ambas reviews).

Orestes escribió:CUDA se usa con el CoreAVC, un codec h264 muy popular.


Como ves no he dicho que CoreAVC sólo funcione con CUDA, he dicho que CUDA se usa con el CoreAVC. ¿El español es demasiado complicado para ti? Lo siento pero con gruñidos no me sé comunicar así que trata de mejorar tu comprensión de lo que lees.

http://en.wikipedia.org/wiki/CoreAVC
CoreAVC now supports two forms of GPU hardware acceleration for h.264 decoding on Windows. NVIDIA with CUDA and DXVA for both ATI and NVIDIA hardware.


CoreAVC tiene varias formas de decodificar vídeo y una de ellas es con CUDA. ¿Te lo explico con diagramas de Venn?

Vuelvo a insistir en vuestra incapacidad para entender, reconocer o procesar cualquier cosa que no llevéis como dogmas de fe en vuestras cabecitas. Desde un principio he dicho que prefiero un CF/SLi equivalente a una tope de gama porque es más barato. Si no puede hacer funcionar en condiciones un CF/SLi equivalente es que tampoco va a poder mover esa tope de gama. No he dicho en ningún momento que un CF/SLi potente sea buena idea sobre un Ph II o Socket 775 y en lo que he insistido es en montar PCs equilibrados.
Benditos avisos al correo. Esto se está convirtiendo en un divertimiento malsano.

A ver, de nuevo sobre lo mismo:

Con el CUDA lo mismo, hay gente que piensa que si no lo tienes no puedes tener aceleración de vídeo por hardware.


Te explico la diferencia.

DXVA se limita a decodificar y plantar la imagen directamente de la gráfica a la pantalla. Punto.
CoreAVC con CUDA añade la posibilidad de postprocesado, corrección de color, superposición de subtítulos, conversiones, etc... Esto es, en vez de pintar todo directamente se vuelve a traer el frame a la memoria principal para luego volver a mandarlo una vez lo ha maquillado a gusto del consumidor.

DXVA es aceleración de vídeo en el término más estricto del término, y por tanto consume muchos menos recursos que CUDA. CoreAVC con CUDA no sirve para simplemente descodificar vídeo, sino para manipularlo y mejorar su calidad final antes de entregarlo a la pantalla. Y, por ende, hace mayor uso de los recursos disponibles que DXVA.

¿Entiendes la diferencia?

Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.


Otra vez. ¿La versión de DirectX de qué?

Luego tratas de salvar el culo metiendo de por medio el DirectCompute. DirectCompute no es DirectX. Otra cosa es que los dos sean criaturas de Microsoft y las meta en el mismo Pack. Pero una cosa es una API gráfica, y otra una API GPGPU. Y tú ahí pones claramente:

todas lo harían con la versión de DirectX


Y luego insistes:

para DirectX existe una cosita llamada DirectCompute.


Sigues mezclando cosas sin saber. Los juegos de Nvidia con Physx también funcionan en su parte gráfica con DirectX. 10 u 11, pero DirectX igual. Son cosas no excluyentes. Una cosa es una API gráfica, otra una API GPGPU y otra un motor de físicas. Funcione por soft sobre la CPU o acelerado por hard por la GPU.

Y si al desarrollador le sale del nabo usar OpenGL podrá seguir usando el motor de físicas que le salga de los huevos. No tiene nada que ver con DirectX. De hecho hay juegos con uso de Physx en Playstation 3, y ya te digo que esos no pueden usar DirectX por motivos obvios.

Y no me vengas llorando por los gráficos sin links porque todos tienen marca de agua y una url que se puede copiar y pegar. Así que menos lamentitos.

Deja ya de decir sandeces sobre multiGPU's. Por todos es sabido que es más eficiente tener toda la fuerza en un único núcleo que no tener que dividir la carga entre 2. Porque eso incluye un costo de ancho de banda y trabajo que ha de duplicarse. Ya sin meternos en temas de drivers ni nada más. Cunden más 800 SP en un único núcleo que no 1000 en 2. Culturilla general de este mundillo.

Una monoGPU puede funcionar a tope en un sistema que no pueda aprovechar al máximo un sistema multiGPU. Y eso lo sabe cualquiera que se haya molestado en hacer las pruebas o que haya leído un poquito.

Una cosa es que a un señor con un i7 le salgan más a cuenta 2 GTX570 que una GTX580, y otra que a un señor con un Phenom II le convenga muchísimo más una GTX580 porque las GTX570 van a gripar y van a estar tocándo las bolas a dos manos con índices de carga bajísimos.

Me pones tests en x4 donde el cuello de botella no está en el ancho de banda, sino en los ROPS, los SP o cualquier otro lado de la GPU. Prueba de ello son los pocos FPS. Pero si nos buscamos juegos que chupen VRAM a saco la cosa cambia:

Imagen

O si ponemos un juego que no exprima a la GPU y pueda escupir frames hasta donde dé el ancho de banda:

Imagen

¡Pero es que en el Crysis no se nota!

Imagen

Claro, porque el cuello de botella se produce mucho antes de colapsar el ancho de banda. 30fps a 1024, nos ha jodío.

Te he demostrado fehacientemente que una GTX580 se puede aprovechar bien en sistemas que no sean un i7, y que las multiGPUs sólo se aprovechan bien en un i7. Cada vez que te pongo gráficos te los pasas por el forro. Los ignoras o te pones a llorar porque no les he puesto un link.

¿Sabes cuando un debate se alarga tanto que el público se aburre y al final el señor que lleva razón pierde igualmente porque ya nadie se acuerda?

Pues aquí tanto LordArthas como yo hemos demostrado que tenemos una mínima idea sobre el tema y también hemos dejado en evidencia tu profundo desconocimiento sobre la materia. Por mi parte no sé si él querrá seguir divirtiéndose contigo, pero yo ya tengo que pensar en que no todo es divertirme a tu costa y que tengo que cuidar otras cosas.

Así que agur, yogur.
a ver que estudiemos la historia @Orestes...

te has enfangado hasta las orejas diciendo tonterías y sosteniendo estupideces porque tú lo vales... has escrito cosas que he tenido que leer mínimo tres veces para intentar asimilar la gilipollez del concepto... y soy yo el que no tiene capacidad lectora????... que sí, chaval, que sí... que lo que tú digas... intentas huir hacia adelante pero la mierda está bien a la vista...

Orestes escribió:Más metidas de pata, para DirectX existe una cosita llamada DirectCompute que permite gestionar motores de físicas. Quizá y sólo quizá si has probado el 3DMark 11 habrás visto el test de físicas en DirectCompute.


aham, ¿me explicas cómo puede GESTIONAR motores de físicas?...
lo que permite es IMPLEMENTAR un motor de físicas, como tb lo permite CUDA (PhysX) u OpenCL (Bullet)... pero que no sólo de físicas viven DC, CUDA u OpenCL, porque el mismo CoreAVC que tanto nombras se basa en CUDA (y creo que tiene poco que ver con las físicas) o las mil y una aplicaciones de folding que están escritas en CUDA... si quieres hablar sobre algo, por lo menos entérate de lo que es, por si acaso te ves con el culo al aire...

Orestes escribió:Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.


ante esto puedo decir varias cosas...
1. ¿sólo el procesado de físicas? ¿pero tú qué eres? ¿un tío que considera el Tetris como un prodigio técnico?... ¿menosprecias uno de los apartados que más influyen en la inmersión dentro de un juego?... ¿acaso consideras que en una joya técnica como Half Life 2 las físicas son un aspecto terciario?... o mejor dicho, ¿jugano a Crysis 2 no te chirria que yendo con un tanque por una calle te quedes bloqueado por una mierda farola?... las físicas pueden parecer un aspecto secundario, pero cuando falta un buen motor de físicas la experiencia jugable se desmorona (Crysis 2 da pena pena pena por mucho graficazo DX11 tenga por cosas como la de la farola)...

2. te pensarás que programarse un motor de físicas es cosa de dos días... y que la gente se lo va a hacer con DC por que ellos lo valen... ¿no?... en lugar de usar otro motor de físicas como Havok o el mismo PhysX por CPU (sorpresa, se puede usar por CPU y en cualquier plataforma -menos Wii, creo-!!!!), se lo meten a pelo por GPU mediante DC... vamos que eres un lumbrera...

3. pues mira que a mi me gusta que NVidia se tome la molestia de enviar ingenieros al estudio o bien directamente financiarlo para que optimicen el código y metan cosillas exclusivas de PC... ¿acaso quieres vivir a base de cutreports que pidan un Cray para funcionar sin el más minimo cambio -GTA4 por ejemplo-?... a mi que una empresa se involucre en el desarrolo para que el producto mejore me da buenas sensaciones, el juego me va a costar lo mismo y si la tarjeta me garantiza que funciona bien y no tengo que andar esperando tres o cuatro meses a que saquen el hotfix o arreglen no se qué bug, pues esa es la compra (luego la gente se quedaba de que el Batman filtrara por product ID para dejar funcionar el AA en sólo en nvidia, cuando fue nvidia quien envió ingenieros a Rocksteady para hacer funcionar el AA)...

en fin... </thread>...
Usar el CoreAVC con el modo CUDA es un codec para vídeo que usa CUDA para la aceleración por hardware de las tarjetas NVIDIA con esa capacidad. Puedes seguir poniéndole puntillas que ese hecho no va a cambiar. Y permíteme que me ría sobre lo que comentas del consumo de recursos y el posprocesado con CUDA sobre DXVA cuando ese postprocesado y mejoras los tienes que activar y por lo tanto el consumo de recursos a igualdad de calidad de imagen es el mismo.

Componentes de DirectX:

http://en.wikipedia.org/wiki/DirectX
DirectCompute for GPU Computing

Repito, bocazas. Lo que más gracia me hace es que digas:

dr apocalipsis escribió:DirectCompute no es DirectX. Otra cosa es que los dos sean criaturas de Microsoft y las meta en el mismo Pack.


Y que el pack se llame precisamente DirectX y que no exista como otra cosa más que como ese pack. Deberías dedicarte a otra cosa, ahorrarás en salud mental.

No he dicho en ningún momento que DirectX y PhysX sean excluyentes, deja de inventarte las cosas. Por otra parte tampoco he dicho que un sistema multi-gpu escale igual de bien que un sistema mono-gpu, lo que he dicho y repetido hasta la saciedad es que a igualdad o incluso mayor rendimiento es más barato. Tienes un problema muy gordo con tu percepción de la realidad. Deja de tergiversar y mentir.

dr apocalipsis escribió:Una monoGPU puede funcionar a tope en un sistema que no pueda aprovechar al máximo un sistema multiGPU. Y eso lo sabe cualquiera que se haya molestado en hacer las pruebas o que haya leído un poquito.


Oh, empezamos a poner condiciones. Vuelvo a repetir a ver si logro atravesar esa cortina de fundamentalismo:

- A mismo rendimiento gráfico un CF/SLi es más barato.
- Un PC debe montar piezas equilibradas entre ellas.
- Es obviamente mejor que los puertos PCIe tengan toda la velocidad posible pero no suponen un cuello de botella tan brutal como el que sugieres y las DOS reviews que te he puesto lo confirman. En una de ellas tienes todo tipo de resoluciones en una 480 con un link x4.

¿He hablando en algún momento de la escalabilidad de los sistemas multi-gpu? Yo diría que no.

Por favor, sigue poniendo gráficos de reviews más viejas que internet. ¿9800 GX2 y HD 3850? No me hagas reír. Encima eres asiduo de TomsHardware, probablemente la peor página medianamente famosa de reviews de la historia. No tienes que buscar mucho en Google para comprobarlo. Cuando hablo de dogmas de fe me refiero a esto, seguir teniendo en cuenta la situación de hace tres o cuatro años cuando hardware y software estaban todavía en pañales respecto a multi-gpu y la medida en la que el resto de hardware existente por aquel entonces era capaz de lidiar con ello.

¿Así que una 9800 GX2 o 3850 es capaz de pulirse el ancho de banda de un link PCIe 2.0 x16 y una 580 con unas cuantas veces su potencia no? Porque con esos gráficos de escalabilidad lo que estás diciendo básicamente es que con un PCIe x32 hubiesen sacado incluso más fps y que para una 580 un link PCIe 3.0 x16 no será suficiente.

Sigue viviendo en el pasado, tú a mí también me diviertes.

@LordArthas:

Llevas ya un rato diciendo que Bullet es OpenCL. Tiene soporte para ambas cosas, OpenCL y DirectCompute.

3DMark 11:
http://bulletphysics.org/wordpress/?p=269
Soporte OpenCL y DirectCompute en Bullet:
http://www.geeks3d.com/20100923/bullet- ... e-support/

Bonita forma de ignorar mi segunda frase con el primer quote que me haces y seguimos con los fundamentalismos. ¿Existe una alternativa a la aceleración mediante la tarjeta gráfica a PhysX? Sí, motores basados en DirectCompute (u OpenCL) que está incluido en DirectX. Por favor qué poco raciocinio. Sigue escavando por aquí que igual sacas petróleo.

¿Así que estás mezclando lo mal que se pueda programar un juego con el uso que se haga o se deje de hacer de las físicas? Demagogia gran reserva.

En fin, cuando queráis más.
Orestes escribió:Y permíteme que me ría sobre lo que comentas del consumo de recursos y el posprocesado con CUDA sobre DXVA cuando ese postprocesado y mejoras los tienes que activar y por lo tanto el consumo de recursos a igualdad de calidad de imagen es el mismo.


Los señores que saben algo de esto porque son los que desarrollan el CoreAVC escribió:DXVA will always have lower CPU usage since the decoded frame can be pushed straight from the video card to the display.


https://customers.corecodec.com/knowled ... -DXVA.html

Las DOS reviews que te he puesto lo confirman. En una de ellas tienes todo tipo de resoluciones en una 480 con un link x4.

Te pongo un test con dos 480 en SLi con el link en x4


No sabes ni lo que enlazas.

Teniendo en cuenta la situación de hace tres o cuatro años cuando hardware y software estaban todavía en pañales respecto a multi-gpu y la medida en la que el resto de hardware existente por aquel entonces era capaz de lidiar con ello.


Hace tres años teníamos el mismo standard PCIE 2.0 que ahora.
Una HD3850 No es multiGPU.


Etc, etc... Paja y más paja.

Aburres.
Orestes, dejalo ya de verdad...
Igual que te puedo decir que el soporte para reproducción de vídeo sobre DXVA es una mierda en general y con el CoreAVC muy en particular. Es exactamente lo mismo que pensar que un benchmark a 1024*768 tiene alguna utilidad excepto remarcar diferencias que en un entorno real no existen.

La review de techpowerup es de una GTX 480 y la de Hardocp de dos GTX 480. Aprende a leer. Estoy empezando a pensar que eres incapaz de ver esto porque desmonta los gráficos que pones en tus posts. O quizá es que de verdad eres incapaz de entender el inglés de esas dos reviews para darte cuenta de lo evidente.

Teníamos el mismo PCIe 2.0 y los mismos chipsets, SOs, versión de DirectX, drivers y software. Igualito.

Tienes razón, una HD 3850 no es multi-gpu, es una mierda pinchada en un palo e insistes en que colapsa un puerto PCIe. Reflexiona un poco.

Besos.
dr apocalipsis escribió:
Ahriman escribió:Aunque el Physx en el batman a veces sobra, estés donde estés casi siempre vuelan papelitos por el aire en círculos xD.


Pues si crees que sobra te compras una ATI, lo juegas en consola o, si tienes una NVIDIA, no lo activas. Ya ves tú el problema. Comprarse gráficas dedicadas para tener mejores gráficas. Es que estamos tontos.

http://www.youtube.com/watch?v=m1sI8ovRIFY
http://www.youtube.com/watch?v=ONQfbGBt ... re=related

Y bueno me gustaría saber cuanto costaría disfrutar del 3D ya que parece que el de AMD no sirve para nada.


Monitor: 400€ (igual los hay algo más baratos pero creo que compatibles con 3D Vision no)
Gráfica: 450€
3D Vision: 150€


Donde vaaaaas.

El 3D de Nvidia funciona sobre algo tan bajo como una 9600GT. Con una GTX260 ya puedes jugar a juegos exigentes en 3D. Con su correspondiente penalización de rendimiento, claro está. Como la tienes en PS3 o 360. Lo que no hace falta es un TRISLI de GTX580 para activar el 3D.

Ni un monitor de 400€. Los encuentras por 200€ e incluso menos. Pero vamos, que se te ve por donde vas.


Si esto cunde y está bien que un sólo fabricante use Physx untando a las desarrolladoras...


Efectivamente, se ve por donde vas.

Lo mejor va a ser que nadie invierta nada, claro está. Ports de consolas y a vivir.

Un saludo.




Te contesto por puntos por el lio de los quotes no vayas a pensar otra cosa.

1. Tranquilízate porque el contestarte al otro usuario igual te alteró y ya pillas a todos por delante. A ver si nos vas a meter a todos en el mismo saco. Y yo no dije que sobre el Physx, sino que vi que en algunos sitios parece que lo ponen por poner ya (es mi opinión y la sensación que me dio) pero lo que dicen los otros usuarios de cortar las banderas y tal si me mola (Aunque sigo pensando que eso debería hacerlo cualquier gráfica actual gama alta y depende más del desarrollador que otra cosa, pero es lo que creo o me parece). Y el comprar una NVIDIA y no activarlo si no me gusta vale, pero si me rebajan 100€ firmando que no lo voy a usar porque cobrar te lo van a cobrar. Y yo estoy preguntado por el foro a ver si me interesa más una ATi o una NVIDIA y si hay algo que no me gusta lo digo.

2. Yo leo que hasta la 580 le cuesta o tiene bajones con el 3D, dicho en el foro y por un amigo. Entonces si quiero 3D no voy a comprar algo muy inferior porque si me monto un PC nuevo para empezar a jugar a juegos multiplataforma y olvidar un poco la consola es para verlos con buenos gráficos, que no va a ser para jugar a un tetris en 3D.

3. Me callo porque miré el monitor de kanijo y era de los pocos compatibles que vi con 3D Vision y supuse que todos rondarían por ahí por el tema de 120hz también y tal.

4. Y por donde voy? No me gusta nada que una compañía unte a otras para tener algo exclusivo que deberían poder hacer otras. Es como el tema Xbox - PS3, no creo que en gráficos haya mucha diferencia entre ellas pero si desarrollas un juego para una y luego portas a la otra, no se van a ver igual.


Y bueno, yo estoy por aquí para ver que gráfica me compro para dentro de un par de meses teniendo en cuenta Bulldozer y la serie 7000 porque van a salir pronto y no sé que tal rinden entonces me espero. Pero si tengo que cambiar el PC totalmente a un i7 y nvidia lo haré si me vale la pena. Pero por decir que en algún momento me pareció que sobraba el Physx ya soy un fanboy? xD Ya dije que tiro para AMD, una por precio y por el tema ese de no untar a otros (igual me equivoco y lo hacen también...) y otra porque tengo aun mi primer PC con 7 años y sólo se jodió la fuente de alimentación. Pues ese PC tiene AMD, ATI, ASUS por lo cual tiraré siempre para esos salvo que algún entendido me recomiende otra cosa, porque es la experiencia personal que tuve con esas marcas.


Así que a mi no meterme en el mismo saco que Orestes o Nintendork (o algo así) porque repito estoy preguntando por varios foros para ver que PC me monto. Si fuera un fanboy me montaba lo top de AMD y fuera...
Orestes escribió:Teníamos el mismo PCIe 2.0 y los mismos chipsets, SOs, versión de DirectX, drivers y software. Igualito.


Pues, básicamente, sí.

Tengo el mismo PCIe 2.0@16. He actualizado a Windows 7 x64. A los drivers 275.33 y juego con los juegos que han ido saliendo entonces y desde entonces.

¿Es que eres tonto?

Ya sabemos 2 cosas. Que te dejas la pasta en gráficas para montarlas en puertos a 4x y que no actualizas tu PC.

Bueno, ya sabemos 3 cosas.

El iluminado escribió:Y permíteme que me ría sobre lo que comentas del consumo de recursos y el posprocesado con CUDA sobre DXVA cuando ese postprocesado y mejoras los tienes que activar y por lo tanto el consumo de recursos a igualdad de calidad de imagen es el mismo.


Los señores del CoreAVC escribió:DXVA will always have lower CPU usage since the decoded frame can be pushed straight from the video card to the display.


Orestes escribió:Igual que te puedo decir que el soporte para reproducción de vídeo sobre DXVA es una mierda en general y con el CoreAVC muy en particular.




¿Así que una 9800 GX2 o 3850 es capaz de pulirse el ancho de banda de un link PCIe 2.0 Blaoblao


Imagen

Tienes razón, una HD 3850 no es multi-gpu, es una mierda pinchada en un palo e insistes en que colapsa un puerto PCIe. Reflexiona un poco.


Y así con todo. Sobre las tonterías que tratas de poner en mi boca paso directamente de contestar.

Imagen

EOL merece trolls mejores que vosotros 2.
Se puede argumentar sin llegar a faltas de respeto ...
Vamos a dejar ya el tema no? nos estamos alejando bastante del tema, ha quedado claro todo lo que se ha dicho, aunque algunos no quieran admitirlo, pero dejemos ya este tema de fanboysmo y si puede ser, sigamos con el tema de lo que trata el hilo, un saludo
misael17 escribió:Se puede argumentar sin llegar a faltas de respeto ...


Exacto, se puede discutir sin llevar a faltar al respeto. Al principio se veía bien la discusión para aprender pero no tiene nada que ver ya...
Si el tema se tenía que haberse cerrado hace 2 páginas. Las cosas se quedaron bien aclaradas.

Lo que no quita que un buen contratroleo siempre sea divertido.

Yo ya hace rato que paso de argumentar. Contesto lo más brevemente posible a lo que se pone en mi boca y fuera. Una cosa es que no quiera seguir el tema y otra que permita que se manipule lo que digo. Y por ahí no paso.

Al final es lo de siempre.

1. Alguien pregunta algo.

2. Alguien responde desde el fanboyismo.

3. Alguien empieza con el Somebody is wrong in the internet.

4. El 2º alguien empieza a atacar al 3er alguien.

5. El 3er alguien acaba hasta los huevos de tener que defenderse y maldice el momento en que se metió donde no debía.

Además, que no sé de qué os quejáis. Que he puesto una imagen de un mono. Ha subido la calidad del hilo mogollón con eso.

Un saludo.
Pues nada, has ganado y tal. ¿Es lo que querías leer?

Por tu propio bien deja de mirar dibujitos en Tom's Hardware y mucho más si tienen más de tres años o el día que salgas de EOL vas a tener que meter el rabo entre las piernas con más frecuencia de lo deseable. Deja de visitar sitios españoles/hispanos de hardware porque de verdad que no tienen ni puta idea de lo que hablan, normalmente lo que hacen es traducir mal sus reviews de otros sitios en inglés, configurar mal los equipos y en definitiva hacerlo todo bastante mal. Si el día que aprendas inglés vas a algún foro guiri y enlazas a un bench de Tom's Hardware avisa que quiero pasar un buen rato.

Saludos de un fanboy, ya me dirás de qué.

P.D: El fourchanerismo es lamentable, deja de imitar la corriente de moda y cómprate una personalidad.
Orestes escribió:Pues nada, has ganado y tal. ¿Es lo que querías leer?

Por tu propio bien deja de mirar dibujitos en Tom's Hardware y mucho más si tienen más de tres años o el día que salgas de EOL vas a tener que meter el rabo entre las piernas con más frecuencia de lo deseable. Deja de visitar sitios españoles/hispanos de hardware porque de verdad que no tienen ni puta idea de lo que hablan, normalmente lo que hacen es traducir mal sus reviews de otros sitios en inglés, configurar mal los equipos y en definitiva hacerlo todo bastante mal. Si el día que aprendas inglés vas a algún foro guiri y enlazas a un bench de Tom's Hardware avisa que quiero pasar un buen rato.

Saludos de un fanboy, ya me dirás de qué.

P.D: El fourchanerismo es lamentable, deja de imitar la corriente de moda y cómprate una personalidad.


si todavía te creerás con la catadura moral como para dar consejos... me encanta la gente con semejante sobervia, siempre se acaba comiento una pared de ladrillo...

me llamas demagogo (por cierto, mírate la definición) por explicarte que estás bastante equivocado al intentar reducir la física en un juego a un aspecto trivial que cualquier programador haría con la miga con DC sin tener que usar PhysX (y lo llamas filtro, que ya hay que ser inútil), precisamente para desprestigiar al propio motor (lo de que Bullet tenga bindings DC te ha venido muy bien, no??... no has mencionado Bullet ni una sóla vez, pero luego sale misteriosamente cuando bien te conviene... me gustaría saber si hubiera salido a colación Havok aunque sea por CPU si la dueña fuera AMD y no Intel) y yo soy el demagogo, claro hombre, claro...

PD: ten cuidado con el muro que hay al salir a mano izquierda, no sea que tu ego no te lo deje ver...
¿Ves como eres un demagogo? No he dicho que los motores de físicas sean una chorrada, he dicho desde un principio que se pueden tener físicas sin PhysX y que no le veo futuro a una tecnología que descarta la aceleración por GPU de la competencia. A no ser que la división de gráficas de AMD sea borrada del mapa le veo mucho más futuro a cualquier motor de físicas basado o no en DirectCompute u OpenCL que al PhysX.

En cuanto a lo de estamparme contra un muro puedes estar tranquilo, soy el primero en reconocer mis errores y los argumentos de los demás pero este no es el caso.
Orestes escribió:No le veo futuro a una tecnología que descarta la aceleración por GPU de la competencia.


Mientras que la competencia siga haciendo lo mismo y no saque un motor de físicas que tenga aceleración en el hardware de su competencia no creo que pase nada. Y si encima de que no saca nada que funcione en el hard de la competencia, tampoco saca nada que al menos funcione exclusivamente en el hard propio, sí que lo veo más complicado.

A no ser que la división de gráficas de AMD sea borrada del mapa le veo mucho más futuro a cualquier motor de físicas basado o no en DirectCompute u OpenCL que al PhysX.


¿Sabes lo que pasa? Que AMD no va a financiar un motor de físicas propio. Así que, pase lo que pase, cualquier motor con aceleración GPGPU funcionará en NVIDIA. ATI no puede decir lo mismo.

Y eso sin entrar en lo jodidamente maduro que está Physx y con su SDK que ya lo pueden hacer rular hasta en smartphones.

Por cierto, me he autoreportado xD
Orestes escribió:Si NVIDIA no primase a las desarrolladoras por usar PhysX todas lo harían con la versión de DirectX, a fin de cuentas es sólo el procesado de físicas.


cualquiera que tenga una mínima noción de lo que es un motor de físicas sabe lo que quiere decir esa frase... menosprecio puro y duro...
pero que si es demagogia lo mío, pues hala, demagogia Magna Cum Laude...
O_O lo k ha dado de si mi preguntilla! Muchas gracias a todas las respuestas!!! al final entre vuestros consejos y los de un compañero, me he pillado la 580, un modelo de estos que es mas fresco y silencioso, pq antes se me caldeaba toda la habitación.

Y vaya cambio! casi no escucho el ventilador... Y la tarjeta como yo soy muy cazurro con esto solo puedo decir que me encanta, este agosto voy a quemar el teclado con el alice, crysis, crysis 2, battlefield bc2 y un largo etc!

Insisto muchas gracias a todos por vuestros comentarios, y LordArthas y cia... buffff jugais a otro nivel! intento seguir vuestro debate y la verdad es que me cuesta, mira que era informático... pero es k noto k abandonar el tema 8 años me ha echo mucho daño...


Gracias [toctoc] [toctoc] [toctoc] [toctoc] [toctoc] [toctoc]
Que pena que se acabe el hilo.
Lo que hemos aprendido algunos gracias a DR APOCALIPSIS Y A LORD ARTHAS y el baño que han recibido otros...
El corporativismo de ciertos usuarios en este foro da un poco de grima pero es entretenido.
Crazy Hattori escribió:Que pena que se acabe el hilo.
Lo que hemos aprendido algunos gracias a DR APOCALIPSIS Y A LORD ARTHAS y el baño que han recibido otros...


¿Y de Orestes por ejemplo no dices nada?

Si al final siempre es lo mismo: los que quieren defender una marca van a defender la marca a la que ellos compraron la tarjeta y el procesador y punto.
De ORESTES he aprendido que hay que cerrar la boca a tiempo.
Hay un refrán muy oportuno que viene al caso: "Manolete, si no sabes torear pa que te metes"
Yo lo que llevo comprobando desde hace años es que da igual los argumentos que des y lo válidos que sean, si eres un usuario con muchos menos mensajes y más nuevo que otros toda la comunidad se te va a echar encima para defender a sus paladines. Por absurdo que sea lo que defienden, por muchas veces que se equivoquen el mensaje de apoyo de los banderilleros defendiendo al maestro llegará tarde o temprano.

Un refrán mucho más adecuado sería "En el país de los ciegos el tuerto es el rey". Buena suerte con vuestros gurús.
124 respuestas
1, 2, 3