Quadro vs GeForce: ¿mito o realidad?

Buenas a todos,

Un compañero diseñador me ha pedido ayuda. Tiene problemas con el After Effects y el Premiere, asegurando que al meter efectos y capas la cosa se le ralentiza mucho. Funciona, en líneas generales, bien pero cuando le mete caña le demora mucho a su trabajo. A mí en realidad me escribió pensando que le hacía falta más gráfica: toda la vida mi entendimiento ha sido que en editar imágenes estáticas y vídeo la tarjeta gráfica como tal no afecta casi nada o apenas, sobre todo en renderizar efectos, por más que haya plugins que admitan procesamiento CUDA y demás. Este hombre es un profesional, vive de ello, pero toca muchos palos: hace sobre todo 2D para lo que le va

Donde sí tenía entendido que las Quadro brillaban era en proceso de vídeo y modelado 3D muy tocho, mostrar wireframes, y que además de que los drivers están certificados y si uno se compra la placa que dice el fabricante, la gráfica y los drivers del fabricante y todo como lo dice el fabricante el software sencillamente tiene que funcionar.

Adobe indica lo siguiente para After Effects, CUDA y la aceleración gráfica:
"IMPORTANTE: En general, After Effects no necesita las funciones CUDA de un conjunto específico de GPU de Nvidia. Solo las necesita el procesador 3D con trazo de rayo y aceleración de GPU. Las otras funciones de la GPU funcionan en cualquier GPU que cumpla ciertos requisitos básicos, incluidas las GPU de AMD y de Intel. Siga leyendo para ver más funciones."


Entonces, mis preguntas son dos: profesionales del vídeo y la imagen, ¿merecen la pena las Quadro para Adobe Premiere, After Affects y 3D Studio? Y más concretamente, ¿qué le faltaría a este muchacho para que fuera más fluido el render y los efectos del After Effects.

Especificaciones del equipo:
  • Intel Core i7 3770
  • 16 GB memoria DDR3
  • Quadro 2000
  • SSD Samsung 840 256 GB
  • varios TB de HDD mecánicos

Programas que usa y que renquean:
  • Adobe Premiere CS6
  • After Effects CS6
  • DaVinci Resolve 12

También usa estos que curiosamente no nota que petardeen:
  • ZBrush R4.7
  • 3D Max 2012
  • 3D Max 2015
Desconozco el panorama actual, pero años atras, me acuerdo de ganarme unos eurillos transformando nvidia GTX en Quadro

Realmente la diferencia esta en los drivers mas que otra cosa, y que las quadro suelen tener la tecnologia mas nueva de nvidia, que en la gama de consumo tarda en llegar


Ahora sobre tu amigo, lo primero que habria que analizar es si realmente esta usando bien el CPU. Que versiones usa? el After Effects ultimo , 2015, por lo que escuche es que es lento, el 2014 es el que tira bien para multi render o como se llame

Lo que te digo es de oidas, a veces les hago algunas chapuzas informaticas en un estudio de diseño, y hablo del tema con los flacos, pero no es algo que me interese mucho asi q paso bastante de ellos

Me quedo lo del 2015 vs 2014, porque me llamaron para ver como desinstalar uno y poner el otro, porque no se podia facilmente
En After Effects lo que más va a notar es tener cuanto más núcleos mejor (inclusive multi-cpu) a no ser que utilice el render por ray-tracing donde entonces los núcleos CUDA son importantes, si no... no.


Imagen

Imagen

Imagen




En premier, 3/4 de lo mismo sólo que la acceleración por GPU es lo suyo en este caso, pero claro, no necesita ser una Quadro sino una tarjeta cuanto más rápida mejor:


Imagen

Imagen
Coincido con @theelf con que lo primero es conocer el entorno de software, tanto la versión del programa como la embergadura de los proyectos con los que se trabaja.
Pues ya por interés y curiosidad he actualizado el mensaje inicial con las versiones de los programas. Como el muchacho no quiere molestar, ahora insiste en que igual hace muchas cosas a la vez, pero me parece un pepinazo de equipo. He creído entender también que el Premiere muestra unas líneas rojas y amarillas cuando algo tarde más de lo que debe y a él le aparecen.
Las Quadro lo que tienen es mas rendimiento en cálculos muy precisos. (que no tendrían sentido en juegos) Y su punto fuerte realmente es en manejo de preview o modelado 3D en tiempo real en programas tipo 3D Studio Max, Maya y demás, es donde mas notará soltura.

En otros programas no se que tal hará su desempeño, es una tarjeta para uso muy especifico que puede no ser la ideal bajo determinados programas.

Es como en juegos que se sabe que las GTX suelen dejar a las Quadro con cara de diarrea.
Esas especificaciones están muy bien, pero si pretende hacer algo más profesional debería actualizar ese PC.

Yo pondría un i7 5820k + 32 GB DDR4 con una buena placa y lo ocearía un poquito. Después pondría una GTX 680 (son baratitas de segunda mano). Para render cuantos más núcleos CUDA, mejor. Como te dice @KailKatarn esa Quadro es para modelado 3d a tiempo real.

Pude meter la Quadro para 3D y la GeForce para render sin problemas.

No es necesario que cambie el PC completo, pero si que buscaría esa GTX 680 de segunda zarpa.
Bueno, si tu amigo no quiere ayuda por 'no molestar' [no se a quien molestaria], pues creo que ya esta por demas seguir preguntando.
Yo en su día le dije a un amigo ingeniero que en su siguiente workstation montará una Gefore en lugar de una Quadro y no notó ningún cambio y se ahorraba unos buenos euros..

Yo creo que las Quadro iban mejor sólo con determinado Soft por el tema de drivers sobre todo..

En su caso notó más cuando el soft empezó a trabajar bien con varios núcleos..
@TRASTARO gracias hombre.

Me escribe ahora lo siguiente:
yo trabajo mucho importando secuencias de imágenes PNG numeradas, pues eso no es capaz de reproducirlodurante la edición. En mi portátil viejo las reproducía en tiempo real en el premiere muy suavemente, como si se tratase de un archivo de vídeo
pero desde premiere CS5, eso no lo hace nada bien
se traba, y además tarda en responder (se continúa oyendo la pista de audio, pero la imágen se queda desde los primeros fotogramas congelada, y al detener tarda unos 5 seg en responder)
en todo caso, en edición de vídeo son más cosas. Va cojonudo, hasta q superpones 2 ó más capas, o le añades algunos efectos (efectos, eso sí, q suelen consumir muchos recursos, de programas terceros
Scylla escribió:Buenas a todos,

Un compañero diseñador me ha pedido ayuda. Tiene problemas con el After Effects y el Premiere, asegurando que al meter efectos y capas la cosa se le ralentiza mucho. Funciona, en líneas generales, bien pero cuando le mete caña le demora mucho a su trabajo. A mí en realidad me escribió pensando que le hacía falta más gráfica: toda la vida mi entendimiento ha sido que en editar imágenes estáticas y vídeo la tarjeta gráfica como tal no afecta casi nada o apenas, sobre todo en renderizar efectos, por más que haya plugins que admitan procesamiento CUDA y demás. Este hombre es un profesional, vive de ello, pero toca muchos palos: hace sobre todo 2D para lo que le va

Donde sí tenía entendido que las Quadro brillaban era en proceso de vídeo y modelado 3D muy tocho, mostrar wireframes, y que además de que los drivers están certificados y si uno se compra la placa que dice el fabricante, la gráfica y los drivers del fabricante y todo como lo dice el fabricante el software sencillamente tiene que funcionar.

Adobe indica lo siguiente para After Effects, CUDA y la aceleración gráfica:
"IMPORTANTE: En general, After Effects no necesita las funciones CUDA de un conjunto específico de GPU de Nvidia. Solo las necesita el procesador 3D con trazo de rayo y aceleración de GPU. Las otras funciones de la GPU funcionan en cualquier GPU que cumpla ciertos requisitos básicos, incluidas las GPU de AMD y de Intel. Siga leyendo para ver más funciones."


Entonces, mis preguntas son dos: profesionales del vídeo y la imagen, ¿merecen la pena las Quadro para Adobe Premiere, After Affects y 3D Studio? Y más concretamente, ¿qué le faltaría a este muchacho para que fuera más fluido el render y los efectos del After Effects.

Especificaciones del equipo:
  • Intel Core i7 3770
  • 16 GB memoria DDR3
  • Quadro 2000
  • SSD Samsung 840 256 GB
  • varios TB de HDD mecánicos

Programas que usa y que renquean:
  • Adobe Premiere CS6
  • After Effects CS6
  • DaVinci Resolve 12

También usa estos que curiosamente no nota que petardeen:
  • ZBrush R4.7
  • 3D Max 2012
  • 3D Max 2015


Básicamente NO necesita una Quadro, porque la mayor diferencia entre una quadro y una geforce no está en la gráfica, está en el driver y en la habilitación de ciertas técnicas de aceleración que se usan sólo en programas profesionales 3D, como por ejemplo la aceleración de antialiasing de líneas (que no es equivalente para nada al AA usado en juegos), u optimizaciones que van en el sentido de poder manejar meshes complejas en geometría pero muy simples en texturizado.

Esto está muy orientado al 3D (los cambios en el driver entre una Quadro y una Geforce), y como ahora resulta que 3D Max usa D3D ya no existe ese problema de segmentación ya que el driver D3D en ambos casos es el mismo, donde se notan más las diferencias es en OpenGL.

Lo de "cálculos más precisos", creo que la gente ha oído campanas pero no saben de dónde viene el tema, las Quadro NO tienen mayor precisión en sus cálculos que una Geforce, y si se refieren a si tiene mayor capacidad de cálculo para doble precisión, la mayoría de Quadro TAMPOCO son más rápidas en esto, precisamente le modelo de tu amigo no es para nada apta ni mejor que una geforce normal para cálculos en DP.

Si se quiere garantizar el mejor rendimiento en DP con una nvidia, te vas a una Tesla que está orientada a la computación, y no una Quadro, aunque haya alguna Quadro que sí sea una mezcla entre lo que sería una Tesla (computación) y una Quadro normal (orientadas al diseño y 3D), no es algo universal en estas gráficas, y en este caso, directamente NO es así. Si por haber hay Geforce muy orientadas a computación y cálculo en DP, como la primera Titan.

Por otro lado, por el tipo de programas que usa tu amigo, no necesita para nada doble precisión, está trabajando con las típicas aplicaciones que tiran y mucho de precisión simple, así que en este punto le daría igual una Geforce que una Quadro, excepto por algún tema puntual a la hora de usar programas 3D si tiran de OpenGL.

Dado que la Quadro 2000 es bastante "vieja" (fermi) y además está basada en un chip de gama media-baja (GF106), seguramente si es la gpgpu lo que está limitando el rendimiento de su equipo, actualizar a una geforce moderna debería aumentar mucho el rendimiento. Pero tampoco queda claro que éste sea el caso.

Supongo que está usando e habilitando correctamente la aceleración en todos los programas, ¿qué sistema operativo usa, hay alguna incompatibilidad con alguno de estos programas? A veces los tiros vienen por otros lados.
Scylla escribió:
yo trabajo mucho importando secuencias de imágenes PNG numeradas, pues eso no es capaz de reproducirlodurante la edición. En mi portátil viejo las reproducía en tiempo real en el premiere muy suavemente, como si se tratase de un archivo de vídeo
pero desde premiere CS5, eso no lo hace nada bien
se traba, y además tarda en responder (se continúa oyendo la pista de audio, pero la imágen se queda desde los primeros fotogramas congelada, y al detener tarda unos 5 seg en responder)
en todo caso, en edición de vídeo son más cosas. Va cojonudo, hasta q superpones 2 ó más capas, o le añades algunos efectos (efectos, eso sí, q suelen consumir muchos recursos, de programas terceros


Entonces ¿quiere o no quiere ayuda?
TRASTARO escribió:
Scylla escribió:
yo trabajo mucho importando secuencias de imágenes PNG numeradas, pues eso no es capaz de reproducirlodurante la edición. En mi portátil viejo las reproducía en tiempo real en el premiere muy suavemente, como si se tratase de un archivo de vídeo
pero desde premiere CS5, eso no lo hace nada bien
se traba, y además tarda en responder (se continúa oyendo la pista de audio, pero la imágen se queda desde los primeros fotogramas congelada, y al detener tarda unos 5 seg en responder)
en todo caso, en edición de vídeo son más cosas. Va cojonudo, hasta q superpones 2 ó más capas, o le añades algunos efectos (efectos, eso sí, q suelen consumir muchos recursos, de programas terceros


Entonces ¿quiere o no quiere ayuda?

Eso no importa: lo quiero saber yo.

Vamos a probar a meterle una GeForce GTX 970 y ver si mejora en algo el asunto.
Los programas de Adobe aunque parezca mentira y que cuestan una pasta aún que yo sepa no han actualizado para soportar las versiones de CUDA y NVENC de las series 9xx. Adobe mucho programa profesional y dan un soporte de mierda.
Scylla escribió:Eso no importa: lo quiero saber yo.

Vamos a probar a meterle una GeForce GTX 970 y ver si mejora en algo el asunto.


Ah, entonces sera que lo aclararas desde el principio.

Probaria a primero usar un software desinstalador, con el cual desinstalaria el editor de video. estos programas hacen mejor trabajo que el desinstalador de windows, ya que limpian completamente el registro de windows, carpetas del sistema y otros archivos, eliminando configuraciones huerfanas y otras basuras, que despues pudieran dar problemas cuando instalas o reinstalas ese programa pero en una version mas reciente. Tambien buscaria ver si hay actualizaciones del software editor de video, que corrigan algun bug o que mejoren la optimizacion. Y por ultimo consultar el FORO del desarrollador del editor de video, que si existe algun problema en esa version del programa seguro en sus foros ya lo han reportado y pedido [y exigido] soluciones.



.
Por no abrir un hilo: ¿y para uso exclusivo de edición fotográfica con photoshop y algo de illustrator, cual recomendais? ¿una geforce tocha?
owenfran escribió:Por no abrir un hilo: ¿y para uso exclusivo de edición fotográfica con photoshop y algo de illustrator, cual recomendais? ¿una geforce tocha?

Y sin ser tocha: yo creo que el uso de CUDA en Photoshop no justificaría, por ejemplo, una gráfica de 300 euros. Pero te hablo así un poco a volapié, hay opiniones mucho más autorizadas que la mía en este hilo.
Me interesa mucho este tema y ya he abierto dos hilos donde he sido completamente ignorado.

Yo quiero montarme una estación de trabajo orientada a Maya (odio el 3ds Max y no tiene la mitad de cosas que Maya sí), Realflow y After Effects.

Estoy pensando ponerme una 1070 o 1080 pero quizás esté malgastando la pasta porque no voy a notar diferencia con respecto a una 970 o 980. No voy a jugar a nada. Lo digo porque siempre surgen los comentarios de ese tipo. Quiero rapidez en los previos al cambiar la iluminación de la escena, las texturas y las animaciones. También que renderice en tiempo record.

Yo vengo de Apple y no me pensaba que iba a ser tan complicado decidirse
owenfran escribió:Por no abrir un hilo: ¿y para uso exclusivo de edición fotográfica con photoshop y algo de illustrator, cual recomendais? ¿una geforce tocha?


De no utilizar una Quadro o FirePro, te recomiendo una Radeon. En fotografía es muy importante la calibración del monitor, y las GeForce suelen dar problemas de Banding al tener solo 8-bits para sus tablas LUT (donde, digamos, se guardan los ajuste de calibrado). Las Radeon tienen 10-bits (creo que actualmente 12-bits), y eso mitiga el problema.

También es cierto que quien se dedica a ello profesionalmente suele tener un monitor con calibración interna (las tablas LUT se guardan en éste y no en la GPU), de modo que no tiene problemas de Banding aunque tenga una GeForce.
Eso si, de tener un monitor tan bueno, lo recomendable es que le acompañen una Quadro o una FirePro, ya que son las únicas capaces de ofrecer 10-bits por canal en profundidad de color.

Resumiendo, si tienes un monitor profesional, Quadro o FirePro para aprovecharlo sí o sí. Si solo vas a dedicarlo a fotografía, aunque tengas un monitor sencillo, también son recomendables.
Pero si por alguna razón tiene que ser una gráfica para juegos, mejor que sea una Radeon.
maxpower91 escribió:
owenfran escribió:Por no abrir un hilo: ¿y para uso exclusivo de edición fotográfica con photoshop y algo de illustrator, cual recomendais? ¿una geforce tocha?


De no utilizar una Quadro o FirePro, te recomiendo una Radeon. En fotografía es muy importante la calibración del monitor, y las GeForce suelen dar problemas de Banding al tener solo 8-bits para sus tablas LUT (donde, digamos, se guardan los ajuste de calibrado). Las Radeon tienen 10-bits (creo que actualmente 12-bits), y eso mitiga el problema.

También es cierto que quien se dedica a ello profesionalmente suele tener un monitor con calibración interna (las tablas LUT se guardan en éste y no en la GPU), de modo que no tiene problemas de Banding aunque tenga una GeForce.
Eso si, de tener un monitor tan bueno, lo recomendable es que le acompañen una Quadro o una FirePro, ya que son las únicas capaces de ofrecer 10-bits por canal en profundidad de color.

Resumiendo, si tienes un monitor profesional, Quadro o FirePro para aprovecharlo sí o sí. Si solo vas a dedicarlo a fotografía, aunque tengas un monitor sencillo, también son recomendables.
Pero si por alguna razón tiene que ser una gráfica para juegos, mejor que sea una Radeon.


Las Radeon tienen 10 bits de salida actualmente y la Geforce en Linux desde 2012 puedes habilitar los 10 bits de salida, de todas formas la nueva serie de nvidia 1080/1070 ya tienen soporte para 10 y 12 bits de color. Las Quadro tienen ciertas compatibilidades con el video profesional como soportar las conexiones SDI.
Buba-ho-tep escribió:Me interesa mucho este tema y ya he abierto dos hilos donde he sido completamente ignorado.

Yo quiero montarme una estación de trabajo orientada a Maya (odio el 3ds Max y no tiene la mitad de cosas que Maya sí), Realflow y After Effects.

Estoy pensando ponerme una 1070 o 1080 pero quizás esté malgastando la pasta porque no voy a notar diferencia con respecto a una 970 o 980. No voy a jugar a nada. Lo digo porque siempre surgen los comentarios de ese tipo. Quiero rapidez en los previos al cambiar la iluminación de la escena, las texturas y las animaciones. También que renderice en tiempo record.

Yo vengo de Apple y no me pensaba que iba a ser tan complicado decidirse


Tu mejor solución es comprar una GTX 690 y mutar una de las dos GPU a Quadro.

http://www.eevblog.com/forum/chat/hacki ... nterparts/
Leopold escribió:
maxpower91 escribió:
owenfran escribió:Por no abrir un hilo: ¿y para uso exclusivo de edición fotográfica con photoshop y algo de illustrator, cual recomendais? ¿una geforce tocha?


De no utilizar una Quadro o FirePro, te recomiendo una Radeon. En fotografía es muy importante la calibración del monitor, y las GeForce suelen dar problemas de Banding al tener solo 8-bits para sus tablas LUT (donde, digamos, se guardan los ajuste de calibrado). Las Radeon tienen 10-bits (creo que actualmente 12-bits), y eso mitiga el problema.

También es cierto que quien se dedica a ello profesionalmente suele tener un monitor con calibración interna (las tablas LUT se guardan en éste y no en la GPU), de modo que no tiene problemas de Banding aunque tenga una GeForce.
Eso si, de tener un monitor tan bueno, lo recomendable es que le acompañen una Quadro o una FirePro, ya que son las únicas capaces de ofrecer 10-bits por canal en profundidad de color.

Resumiendo, si tienes un monitor profesional, Quadro o FirePro para aprovecharlo sí o sí. Si solo vas a dedicarlo a fotografía, aunque tengas un monitor sencillo, también son recomendables.
Pero si por alguna razón tiene que ser una gráfica para juegos, mejor que sea una Radeon.


Las Radeon tienen 10 bits de salida actualmente y la Geforce en Linux desde 2012 puedes habilitar los 10 bits de salida, de todas formas la nueva serie de nvidia 1080/1070 ya tienen soporte para 10 y 12 bits de color. Las Quadro tienen ciertas compatibilidades con el video profesional como soportar las conexiones SDI.


Es que los bits de las tablas LUT no son exactamente la profundidad de color. Son primos hermanos, pero no es lo mismo.
Para explicarlo mejor, hay tres sitios por donde la señal puede pasar:

Entrada: Lo que gráfica indique.
LUTs: Tamaño independiente.
Salida: Lo que la gráfica indique.

Los ajustes de calibrado se guardan en las tablas LUT. A su vez hay dos componentes que pueden tener tablas LUT, GPU o Monitor.
Conectas una Radeon. Aunque tenga 8-bits a la entrada de las tablas LUT, estas tienen 10 bits, y se produce un tramado para reducir a 8 bits por canal a la salida. No hay Banding, porque aunque la señal se calibra, lo hace mediante unas LUT "grandes".
Ocurre lo opuesto si utilizas una GPU con 10 o más bits, pero que utilice tablas LUT de 8 bits. Si la señal entra en las tablas LUT a 10 bits, pasa por las LUTs de 8-bits, y sale a 10 bits... Se produce Banding aunque la salida sea a 10 bits, por culpa de las tablas de calibrado.
Es similar a un cuello de botella, dicho de una manera un poco chapuzas. Porque la profundidad si te la dá en su salida, el problema es el Banding que produce.

El caso es que las LUT de la GPU no tienen porque estar activas. Puede que no hayas calibrado el monitor (no tienes porque hacerlo) y estén inactivas, o que los ajustes de calibrado estén en la propias tablas LUT del monitor (que normalmente superan los 10 bits sin mayor problema), haciendo que no tengas que hacer uso de la GPU para ello.
El problema es que los monitores sencillos no tienen calibración por hardware, tan solo suelen hacer uso de ellos los fotógrafos.

Cierto es que las GeForce pueden sustituir a una Quadro si tienes un monitor con calibración por hardware, ahí me colé, porque efectivamente ya son capaces de darte más de 8 bits. El problema que tenia Nvidia en la pasada generación es que, aunque la GTX 980 ya tenía salida a más bits de lo habitual, sus tablas LUT seguían siendo de 8 bits. Aprovechabas esa salida si no hacías uso de esas tablas, que por otra parte, es lo que ocurre con la mayoría de mortales [sonrisa].

De todos modos yo estoy a la espera, porque aun no sé que ocurrirá con las GTX 1070/1080, y puede que esta vez tengamos tablas LUT de más de 10 bits. En problema es que los fabricantes no dan ese dato, pues aunque las tablas sean vayan acordes a la profundidad de color, deberían ponerlo como un dato independiente.
De hecho nunca he sabido con exactitud el tamaño de las LUTs de la GTX 980, y quizas hasta tengan 10 bits. Es un infierno encontrar datos del tema, pero en cuanto tenga un rato le pego un repaso.
De hecho nunca he sabido con exactitud el tamaño de las LUTs de la GTX 980, y quizas hasta tengan 10 bits. Es un infierno encontrar datos del tema, pero en cuanto tenga un rato le pego un repaso.


Soy aficionado a la calibración y siempre aprendes cosas nuevas.

Tengo unas preguntas:

¿De poder generar una LUT mediante soft por qué tiene que ser más grande en un Firepro vs Radeon o en una Quadro vs Geforce?. En el discalpgui la radeon marca 1024 pasos /10 bits salida (siempre y cuando tengas salida de 10 bits y por tanto un monitor de 10 bits? y cuando calibras co la Geforce la Lut cargada en la gráfica que muestra el discalpgui es de 256 pasos/ 8 bits, si lo haces con la Quadro y tienes salida 10 bits pués tendrás 1024 pasos por canal, teóricamente la geforce en linux podría tener 10 bits, lo que nunca he leído es que la quadro pueda generar una lut más grande que la geforce o la Firepro que la Radeon. Me gustaría mucho que me pases esa info!


Las luts son un corrector para el tono final que se mostrará en pantalla qué estará limitado por la profundidad real del monitor, aunqué tengas una lut de 16 bits el monitor no prodrá mostrar más que 8 o 10 bits (en principio no hay monitores superiores a 10 bits) en principio dicen que 12 bits de look up table serían suficiente pero como dato curioso la gráfica basada en el RTC que cuelgan en Tft central no suele mostrar errores de 0 a 256 incluso en monitores que sólo tiene 6 bits+frc. Opinion particular mía: soy bastante escéptico con el tema de los bits, en avforums o avsforum no recuerdo cuál de los dos hay un tío que ha sido durante 35 años ingeniero de Kodak y solía decir que si se "hace bien" en un contexto de imagenes fotos o cine 8 bits era suficiente para no ver ditering.

Ten por cuenta que la teoría esta muy bien pero haz un ejercicio; En un monitor calibrado que muestre correctamente una escala de 256 tonos verás que no distingues los contiguos, con eso quiero decir que vemos muy poco.

Saludos.
@xNezz Al final, después de darle tantas vueltas, me he pillado la Quadro m2000 viendo que ya empiezan a escasear.

Sí, me puedes llamar gilipollas. Lo voy a compensar con un i7 5820k y 32 gb de ram. Es que no voy a jugar a nada de nada y para emuladores creo que ya me iría bien.
Buba-ho-tep escribió:@xNezz Al final, después de darle tantas vueltas, me he pillado la Quadro m2000 viendo que ya empiezan a escasear.

Sí, me puedes llamar gilipollas. Lo voy a compensar con un i7 5820k y 32 gb de ram. Es que no voy a jugar a nada de nada y para emuladores creo que ya me iría bien.


Yo te lo digo porque para lo que quieres necesitas tanto CUDA como drivers Quadro. En verdad cada GPU GeForce tiene su homóloga Quadro, la mayor diferencia es a nivel de drivers.

Pero bueno, lo que has elegido te va a dar muy buen resultado igualmente :)
@xNezz Siempre puedo meterle otra Quadro m2000 o una GTX si lo necesito. Es que a este paso jamás tendré el pc. Jeje Hay tantas posibilidades a la hora de montarte uno tú mismo.
26 respuestas