[CONSEJO] ¿Una segunda gráfica para controlar los monitores?

Buenas.

Me estoy montando un PC de gama alta ya que trabajo en temas de 3D, renders, demos con Unreal Engine, Realidad Virtual para arquitectura.

El PC es en resumidas cuentas un Ryzen 7950X y una RTX 4090.

La cosa es que le quiero conectar un monitor ultrawide de resolución 5K x 2K, más otro monitor 4K.

Al comentar el tema en Reddit a raíz de otra cosa, un tío me comentó que esos dos monitores, debido a su resolución, me restarían rendimiento a la hora de trabajar (por ejemplo renderizando) y que lo suyo sería hacerme con otra gráfica (se entiende que menos bestia que la 4090) para controlar las pantallas y así liberar de esta tarea la 4090, que así podría quedar disponible al 100% para tareas gráficas, render, etc.

¿Qué pensáis de esto, os parece buena recomendación? Yo la verdad es que no me lo había planteado y ahora me he quedado con la duda de si vale la pena o es muy exageración...

Y en caso de que pensarais que es buena idea, ¿qué gráfica secundaria iría bien para esta tarea?

¡Gracias!
Yo tengo tres monitores 2k a 144hz y donde se nota más es en el consumo. ya que la gráfica la vas a tener consumiendo 60w ella solita siempre (cuando tengas encendidos los monitores). Esto sucede con las Nvidia y es un fallo conocido. Mi GPU es inferior a la tuya y tal vez gaste más por ser menos eficiente energéticamente.

Para evitar este consumo alto lo único que puedes hacer es que todos los monitores tengan los mismos hz (y tal vez la misma resolución), así bajará el consumo con dos monitores, si añades un tercero el consumo se dispara de nuevo. Pero en mi caso, he conectado el tercero a la placa base y es la GPU integrada la que se encarga de él, aunque a veces no llega a los 144hz y se nota.

Creo que en rendimiento o te va a suponer mucho sacrificio, a unas malas si tu CPU lleva integrada conecta uno de los monitores ahí (o incluso dos más si quieres) y te ahorras pillar dos gráficas y ya tienes GPU dedicada al 100% para renders. En tu caso si son monitores a 60hz no vas a notar nada raro y con la integrada te basta.

PD: Para ahorrar energía con el multimonitor, activa el modo bajo consumo en el panel de Nvidia.

PD2: Yo que tú no me pillaría un ultrawide. Pillaría monitores de 27 o 32 pulgadas independientes (24 o 4k ya como prefieras) y brazos de este tipo:

Imagen

Para que puedas rotarlos, bajarlos, subirlos y hacer verdaderas locuras. Yo tengo tres del estilo anclados en la mesa de escritorio. Casi siempre tengo a ambos lados los monitores en vertical y en medio en horizontal. Estos brazos son eternos porque lo único que llevan dentro es la varilla típica que llevan los coches para subir y bajar el maletero. Si algún día pierden fuerza, por 5€ pillas otra varilla y tienes brazo para otro porrón de años. Los míos tienen 3 años y siguen como el primer día. y eso que les doy buenas palizas.

Para los programas que dices son agua bendita para colocar a los lados todas las herramientas, editor de código, etc. y en el centro la ventana libre con la escena 3D, vídeo para editar o el scene de Unreal, etc. Para programar, tomar notas o navegar los verticales son oro puro.

Tengo scripts que apagan los monitores cuando no los necesito y de esa forma no se desordenan las ventanas. Si sólo quiero ver una peli o jugar, pues apago los otros dos con un click.

Tuve un ultrawide un par de meses y cuando probé los monitores independientes no vuelvo a la limitación de un ultrawide ni loco.
@paco_man

Guau cuánta info, gracias!

- Coñe, pos no sabía lo de los 60W. Pero dices "cuando tengas encendidos los tres monitores"... ¿Significa eso que cada monitor encendido supone 20W de gasto en la gráfica? Perdón si no he entendido bien.

- Lo de la gráfica integrada es buena idea... Lo que mirando las specs del Ryzen 7950X veo que solo pone esto en cuanto a gráficos integrados:

Imagen

Eso de que ponga solo "AMD Radeon™ Graphics" en lugar de poner algún modelo en concreto suena a que lo que integra es una gráfica de los más bajito que hay... ¿Crees que podría ir bien para al menos ponerle uno de los dos o tres monitores que planeo? Porque la verdad que estaría bien no tener que poner dos gráficas que me parece matar moscas a cañonazos...

- ¿Dónde está la opción de energía que comentas? No la encuentro en el panel de Control de Nvidia...

- Lo del ultrawide, ya llevo como 6 años con uno y la verdad que me veo muy cómo con este formato. Para mi lo ideal es tener el ultrawide y al lado uno "normal" con un brazo como dices, que te lo pones en vertical u horizontal a tu gusto y listos, y otro tercero más grande donde por ejemplo mientras trabajo me pongo algún streaming, o para visualizar los renders acabados. Supongo que es a gustos, jeje, pero gracias por la recomendación.

- Me interesa lo de los scripts que comentas, que la verdad como dices es un coñazo el movimiento de ventans de una pantalla a otra cuando apagas una... ¿Puedo pediirte que especifiques un poco más qué hacen, por curiosidad? Aunque tengo el DisplayFusion Pro comprado en Steam y seguro que mirando un poco hay opcines que deben hacer lo que tus scrpits.

De nuevo muchas gracias por tu respuesta. [tadoramo]

EDIT: me respondo a mi mismo con lo del rendimiento de la gráfica integrada:



Alguien hizo un vídeo usando esta gráfica en juegos actuales y no está nada mal el rendimiento (para lo que es, claro), así que para conectarle una o dos pantallas secundarias y dejar la gráfica principal para las tareas de 3D y tal ya irá bien.
Miles Wolf escribió:@paco_man

Guau cuánta info, gracias!

- Coñe, pos no sabía lo de los 60W. Pero dices "cuando tengas encendidos los tres monitores"... ¿Significa eso que cada monitor encendido supone 20W de gasto en la gráfica? Perdón si no he entendido bien.

- Lo de la gráfica integrada es buena idea... Lo que mirando las specs del Ryzen 7950X veo que solo pone esto en cuanto a gráficos integrados:

Imagen

Eso de que ponga solo "AMD Radeon™ Graphics" en lugar de poner algún modelo en concreto suena a que lo que integra es una gráfica de los más bajito que hay... ¿Crees que podría ir bien para al menos ponerle uno de los dos o tres monitores que planeo? Porque la verdad que estaría bien no tener que poner dos gráficas que me parece matar moscas a cañonazos...

- ¿Dónde está la opción de energía que comentas? No la encuentro en el panel de Control de Nvidia...

- Lo del ultrawide, ya llevo como 6 años con uno y la verdad que me veo muy cómo con este formato. Para mi lo ideal es tener el ultrawide y al lado uno "normal" con un brazo como dices, que te lo pones en vertical u horizontal a tu gusto y listos, y otro tercero más grande donde por ejemplo mientras trabajo me pongo algún streaming, o para visualizar los renders acabados. Supongo que es a gustos, jeje, pero gracias por la recomendación.

- Me interesa lo de los scripts que comentas, que la verdad como dices es un coñazo el movimiento de ventans de una pantalla a otra cuando apagas una... ¿Puedo pediirte que especifiques un poco más qué hacen, por curiosidad? Aunque tengo el DisplayFusion Pro comprado en Steam y seguro que mirando un poco hay opcines que deben hacer lo que tus scrpits.

De nuevo muchas gracias por tu respuesta. [tadoramo]

EDIT: me respondo a mi mismo con lo del rendimiento de la gráfica integrada:



Alguien hizo un vídeo usando esta gráfica en juegos actuales y no está nada mal el rendimiento (para lo que es, claro), así que para conectarle una o dos pantallas secundarias y dejar la gráfica principal para las tareas de 3D y tal ya irá bien.

Claro, esa gráfica integrada te irá de cine para un monitor secundario o dos. Yo tengo un 7900X y debe de ser la misma integrada que el 7950X.

Yo le he conectado un tercer monitor 2k a 144hz y va genial, aunque no va tan fluido como los otros porque no irá a 144hz seguramente, pero si le pones uno por ejemplo a 60hz irá completamente sobrado. Lo bueno de esto es que la CPU con el monitor conectado consume lo mismo, parece magia. Es como conectar un monitor de gratis. Además es un monitor para poner los paneles de los programas, por ejemplo el panel de propiedades de Blender, una ventana con las UV y el panel de la jerarquía (las capas o como se llame) o un editor de código como Visual Basic... No te hace falta que todo vaya a 144hz en ese monitor, con 60 hz sobra.

Si vas a usar el ultrawide en el centro y al lado uno vertical u horizontal cuando lo necesites, tal vez también sea una buena idea. En mi caso sólo probé el ultrawide y claro, se me quedaba corto. [carcajad]

No te hace falta para nada comprar otra gráfica, con la integrada va genial. Luego en el panel de windows de GPU puedes decidir qué programas van a usar la gráfica principal y cuales la integrada.

Lo del modo economizador de Nvidia lo tienes en Controlar la configuración 3D / Configuración global:

Imagen

Ahí en la captura no sale pero búscalo en la lista. Estará puesto por defecto en alto rendimiento, pero al desplegar te sale la opción de equilibrado y modo bajo consumo.

Sólo funciona si lo activas, aplicas y reinicias PC. Y si quieres volver a alto rendimiento, has de aplicar y reiniciar el PC de nuevo.

Para controlar los monitores puedes usar el programa multimonitortool. Te lo descargas de su web y lo metes por ejemplo en la raíz de C:\. Pero es un lío de narices domarlo si eres mucho de enchufar/desenchufar los display ports y hdmi de la gráfica. Si los tocas mucho el sistema se vuelve loco. [carcajad]

Pero si no vas a tocarlo, va de cine siempre. Y se apagan o se encienden con un click. Hice un script para ello, me echó una mano GPT.

DisplayFusion lo probé en su momento aunque no la versión PRO. Pero creo que no lograba apagar los monitores. Multimonitortool no los apaga tampoco, los desconecta de windows, es como cuando vas a la configuración de pantalla de windows, seleccionas el monitor y en el desplegable eliges "Desconectar esta pantalla". Gracias a eso las ventanas se recolocan cuando activas o desactivas los monitores.

Aquí un código de ejemplo para apagar el monitor de la izquierda, pero también puedes apagarlo desde la interfaz del programa, pero quería hacerlo de forma aún más cómoda. Si sólo vas a poner un monitor más, creo que aún es más simple ya que siempre tendrás encendido el ultrawide y sólo apagarás y encenderás el secundario, así que únicamente necesitas un script con esto.

$multimonitortool = "C:\multimonitortool-x64\MultiMonitorTool.exe"

$multimonitortool /switch $monitor_Name

La variable monitor_Name ha de tener el valor del ID de tu monitor, que podrás ver en la interfaz del programa multimonitortool. Pégale todo esto que te explico aquí a GPT y él te lo explica rápido. Dile que quieres hacer un script powershell para apagar y encender los monitores con el programa multimonitortool.

El monitor principal no te recomiendo apagarlo nunca porque si no, tendrás que escribir un código más elaborado para seleccionar otro primario si lo desconectas, o para setear de nuevo como primario tu monitor central si lo conectas de nuevo. Yo he tenido que hacerlo porque además de los monitores también tengo conectado un proyector por HDMI y la cosa se complicaba aún más. [carcajad]

Vaya tochacos que me están saliendo al estilo del compañero @TRASTARO [qmparto] [beer]

EDIT: Otra cosa que se me olvidaba, si aún no conoces lo de los múltiples escritorios de Windows 10 y 11 eso para monitores múltiples es una pasada. Puedes tener en un escritorio el Blender con los paneles y todo ordenado y en otro escritorio puedes tener por ejemplo Unreal Engine con todos sus paneles ordenados... Y en otro el Photoshop, y en otro cualquier cosa que se te ocurra, etc. Así de esta forma es como si tuvieses no 3, si no 20 monitores. Y si configuras un atajo de teclado para cambiar entre escritorios harás las cosas rapidísimo y de forma comodísima, y más con el bicharraco que tienes 7950x. Yo lo cambio con los botones de avanzar y retroceder del ratón MX Master.

Esos dos botoncitos que ves en la zona del pulgar:

Imagen

Con el 7900x puedo abrir decenas de programas y esto ni se inmuta. Luego cuando termino de currar guardo los proyectos y lo pongo a hibernar. Al volver de hibernar estará todo exactamente igual y me ahorro de abrir 10 programas otra vez y se activa todo en segundos. En fin, una pasada, qué te voy a contar si tú tienes algo incluso más bestia. XD
Teniendo en cuenta que, actualmente, para tareas CPGPU se puede utilizar un adaptador gráfico distinto del que tienes conectadas las pantallas, pero para renderizar "lo que ves" sí o sí una pantalla tiene que estar conectada a la gráfica que lo está haciendo, me da que la persona que te dio el consejo no tenía mucha idea de lo que estaba hablando.

La pérdida de rendimiento por manejar dos pantallas en tareas ligeras (ventanas del escritorio, acelerar vídeo, etc.), por mucha resolución que tengan las pantallas, es mínima. La pérdida de rendimiento por mover una escena compleja en Blender (por decir algo) puede ser considerable pero es que en general quieres que esa tarea esté acelerada por la GPU potente y no por una secundaria.

Para mí de hecho sería contraproducente utilizar la integrada teniendo una 4090. El consumo de la 4090 evidentemente es más alto en multimonitor que sin él pero ni es tan acusado como en otras gráficas (en las intel por ejemplo la diferencia es muy grande) ni estáis teniendo en cuenta al valorar el consumo que la iGPU también pasa de consumir 0 (normalmente se desconecta por completo si se usa una GPU dedicada salvo que la habilites en la BIOS expresamente o le conectes una pantalla) a consumir "algo", y ese algo probablemente estará en la misma zona que los 8W de diferencia de la 4090.

Yo conectaría los dos monitores a la 4090. Sin dudarlo un momento. Usaría solo la integrada si me quedara sin salidas en la 4090, cosa complicada por otro lado. Si nos ponemos así usar la integrada también quita rendimiento, porque "roba" un poco de RAM (que es lo de menos) pero sobre todo tiene que competir por el bus de RAM con las tareas de CPU. ¿Es notorio esto? Por lo general no. Pero tampoco lo es usar la 4090 para lo que sea mientras la usas para renderizado. Es mi humilde opinión al menos.

Saludos
Pollonidas escribió:Teniendo en cuenta que, actualmente, para tareas CPGPU se puede utilizar un adaptador gráfico distinto del que tienes conectadas las pantallas, pero para renderizar "lo que ves" sí o sí una pantalla tiene que estar conectada a la gráfica que lo está haciendo, me da que la persona que te dio el consejo no tenía mucha idea de lo que estaba hablando.

La pérdida de rendimiento por manejar dos pantallas en tareas ligeras (ventanas del escritorio, acelerar vídeo, etc.), por mucha resolución que tengan las pantallas, es mínima. La pérdida de rendimiento por mover una escena compleja en Blender (por decir algo) puede ser considerable pero es que en general quieres que esa tarea esté acelerada por la GPU potente y no por una secundaria.

Para mí de hecho sería contraproducente utilizar la integrada teniendo una 4090. El consumo de la 4090 evidentemente es más alto en multimonitor que sin él pero ni es tan acusado como en otras gráficas (en las intel por ejemplo la diferencia es muy grande) ni estáis teniendo en cuenta al valorar el consumo que la iGPU también pasa de consumir 0 (normalmente se desconecta por completo si se usa una GPU dedicada salvo que la habilites en la BIOS expresamente o le conectes una pantalla) a consumir "algo", y ese algo probablemente estará en la misma zona que los 8W de diferencia de la 4090.

Yo conectaría los dos monitores a la 4090. Sin dudarlo un momento. Usaría solo la integrada si me quedara sin salidas en la 4090, cosa complicada por otro lado. Si nos ponemos así usar la integrada también quita rendimiento, porque "roba" un poco de RAM (que es lo de menos) pero sobre todo tiene que competir por el bus de RAM con las tareas de CPU. ¿Es notorio esto? Por lo general no. Pero tampoco lo es usar la 4090 para lo que sea mientras la usas para renderizado. Es mi humilde opinión al menos.

Saludos

Eso es justo lo que pensaba yo Pollonidas. Pero resulta que no. :O

Si puedes haz la prueba. Conecta dos monitores a tu PC. Uno a tu gráfica dedicada y otro a la integrada.

Luego ejecuta un juego tocho en modo ventana. Con dlss de nvidia, ray tracing, etc, etc. Ahora mueve la ventana de ese juego desde el monitor principal (el de la gráfica dedicada) al monitor de la gráfica integrada. Si miras el consumo de la CPU y el de tu GPU dedicada es exactamente el mismo y el juego está en la pantalla conectada a la gráfica integrada. Parece magia, pero el juego sigue con las opciones tochas, con dlss, ray tracing, todo en ultra... A pesar de que la gráfica integrada sea una AMD y no pueda ejecutar un juego tan tocho a esa calidad gráfica, ni tenga las tecnologías exclusivas de Nvidia.

Eso probando juegos a 60fps que es como juego yo siempre, a más fps no lo he probado pero imagino que ahí algo se tendrá que notar, porque la integrada incluso mostrando el escritorio no va a 144hz. Con el navegador lo tengo puesto que sea la dedicada la que lo renderice, pero si lo paso al monitor de la integrada ya no va tan fluido. Pero creo que pasa con todo, el monitor de la dedicada no va a 144hz con ningún contenido, va a 60hz creo o quizás algo más. Y eso pasará si metes ahí un juego, o metes el navegador, o cualquier otra cosa que se te ocurra, el monitor siempre refresca a menos de 144hz.

Si eliges en Windows que por ejemplo Blender solo use la gráfica dedicada, aunque arrastres la ventana de algo de una alta complejidad poligonal a ese monitor, el uso y la temperatura de la CPU son los mismos y el uso y la temperatura de tu GPU dedicada sigue alto porque es esa gráfica la que lo está administrando. Y lo tienes corriendo en el monitor de la dedicada, pero aún así va igual que en el otro monitor. Incluso si estás en modo render y usas Cycles para objetos de millones de polígonos, la CPU sigue al 3% y la dedicada al 80% y va igual de fluido (más de 60fps) en el monitor de la dedicada que en el de la integrada.

Me pasaba como a ti, no me lo creía hasta que lo probé. Pero sí, funciona de esa forma. :O

Lo del consumo con la 4090 ni idea, tal vez tengas razón. Pero en mi caso con la 2080ti, el consumo de tres monitores a 144hz conectados a la dedicada no baja de 60 watios en ningún momento. Aunque no estés haciendo nada y estés mostrando en los monitores los iconos de escritorio, o incluso un fondo negro vacío en los tres monitores. Da igual que pongas la GPU en consumo óptimo desde el panel de Nvidia que eso no baja ni a tiros. Puedes investigar en Reddit que la mayoría de gente con varios monitores se quejan de lo mismo.

Pero si conectas los dos monitores secundarios a la placa base y dejas sólo el primario (en mi caso el del centro) conectado a la dedicada, el consumo en idle de la gráfica baja hasta los 6 watios, y la CPU consume exactamente igual. O sea, te ahorras casi 60 watios de consumo sólo haciendo eso y estás disfrutando de los 3 monitores.

En mi caso he conectado dos monitores a la dedicada y el tercero a la integrada porque me gusta que esos dos monitores funcionen a 144hz, el tercero no me importa si va a menos. De esa forma, la GPU dedicada en idle o haciendo tareas sencillas (por ejemplo navegando) consume unos 20 watios y el ahorro de energía es considerable. De eso a 60w siempre hagas lo que hagas, hay mucha diferencia.

¿La CPU cuánto consume con un monitor conectado (uno a la dedicada y el otro a la placa base)? En idle ahora mismo 33 watios. ¿Y si quito el monitor de la placa base? Sigue consumiendo 33 watios. ¿Cómo es posible? O sea un monitor enchufado a la integrada, es como un monitor "de gratis". Sólo gasta lo que esté consumiendo ese monitor de corriente, pero la CPU consume lo mismo y el % de uso también es el mismo. Aunque arrastres a ese monitor algo tocho, la CPU no se cosca y sigue con el mismo consumo, ¿Bujería? Fui más allá y conecté un enchufe inteligente al PC para ver el consumo real del equipo y lo que dije anteriormente se cumple, hay un ahorro considerable de energía al conectar los dos monitores a la placa base.

Si consume más RAM o menos del sistema no lo he probado, aún no me he visto falto de memoria RAM en ningún momento, y eso que soy un animal abriendo varios programas tochos a la vez.

EDIT: Acabo de probar con Unity. Escena realmente compleja:

En el monitor de la gráfica dedicada:

Consumo de la 2080ti al moverte por la escena 180 w
Consumo de la CPU al moverte por la escena 50 w
Consumo escena detenida 2080ti 10 w
Consumo escena detenida CPU 30 w
Uso de RAM del sistema en ambos casos 18 GB

Al mover esa ventana al monitor de la integrada:

Consumo de la 2080ti al moverte por la escena 180 w
Consumo de la CPU al moverte por la escena 50 w
Consumo escena detenida 2080ti 10 w
Consumo escena detenida CPU 30 w
Uso de RAM del sistema en ambos casos 18 GB

Fluidez en ambos monitores, exactamente la misma. ¿Cuándo empieza a consumir realmente la gráfica integrada? Pues si pones desde las opciones de Windows que el programa Unity funcione sólo con la integrada, en ese caso incluso en el monitor principal que está conectado a la dedicada la escena va a pedales y el consumo de la CPU se dispara.

EDIT 2: He ido más allá. He desconectado el monitor de la dedicada y he dejado sólo el monitor de la integrada (y puesto como monitor principal). Y va exactamente igual, mismos consumos y rendimiento, sigue usando la 2080ti para mover el programa como antes dije, a pesar de estar desconectado el monitor de la gráfica dedicada. Y el dato que más me ha llamado la atención, en idle la gráfica dedicada consume 2 watios. Ojito con esto que no tenía ni idea, pero como medida de ahorro energético usando un monitor (sin perder el rendimiento de la GPU dedicada) podría ser una excelente opción dejar el monitor principal sólo conectado a la placa base. Es increíble.
@paco_man Pues... ostras, lo probaré en cuanto tenga ocasión, ahora mismo solo tengo a mi disposición un PC sin iGPU y un portátil, que no me sirven para hacer las pruebas. Me sorprende mucho el resultado precisamente porque hasta hace bien poco si querías hacer lo de sacar imagen por la GPU integrada renderizando con una GPU dedicada había que hacer poco menos que el pino puente (en el vídeo del enlace es necesario porque quiere utilizar una tarjeta de minería, sin salidas de vídeo, para juegos, y si le echas un ojo verás que necesita una versión antigua de drivers y bastante trabajo previo para que le salga la opción de qué procesador gráfico utilizar como en los portátiles)

Lo del consumo sin duda me parece una ventaja importante. La razón de que esto ocurra es que los clocks de 2D que suelen usar las gráficas en reposo son más que suficientes para un solo monitor, pero dado que la gráfica está a menos del 5% de su potencia a nada que tuviera más "trabajo" se verían tirones y rascones. El problema es que muchas veces no hay un "término medio" y los fabricantes son demasiado agresivos subiendo los clocks, a veces al nivel de los de 3D.

Lo del rendimiento no lo tengo muy claro. Porque siendo como dices, que al mover la ventana de un juego exigente al segundo monitor, incluso directamente desconectando el monitor de la gráfica dedicada, todo sigue funcionando con aceleración, es evidente que la aceleración gráfica la está llevando a cabo la GPU dedicada, ¿correcto?. En ese caso... dudo mucho que haya más recursos libres que usando la GPU dedicada de principal. Habría que mirar cosas como el uso de VRAM de la dedicada en el escritorio con el monitor secundario enchufado, alternativamente, a las dos GPUs. Si es el mismo, yo creo que las ventanas, efectos, etc. los sigue haciendo la dedicada.

...otra cuestión que para la iGPU nos da igual pero para poner otra gráfica de gama baja puede ser una pega: Con las plataformas de escritorio actuales tanto de Intel como de AMD no hay suficientes lineas PCIe en los procesadores para tener dos gráficas a 16x. Conque en el momento que se conecte otra gráfica, la 4090 va a funcionar a 8x. Salvo que se conecte a un slot formato 16x cableado a 4x que vaya al chipset, que pocas placas llevan, y sería una penalización grande para la gráfica secundaria claro.

Quizás Blender haya sido mal ejemplo porque utiliza CPGPU para todo, independientemente de cómo le mandes renderizar, así que independientemente de la pantalla "manda" lo que le digas en opciones. Lo del juego sí que me ha sorprendido.

Lo dicho, que me estoy enrollando mucho... en cuanto tenga ocasión lo pruebo [beer]

Saludos
Pollonidas escribió:@paco_man Pues... ostras, lo probaré en cuanto tenga ocasión, ahora mismo solo tengo a mi disposición un PC sin iGPU y un portátil, que no me sirven para hacer las pruebas. Me sorprende mucho el resultado precisamente porque hasta hace bien poco si querías hacer lo de sacar imagen por la GPU integrada renderizando con una GPU dedicada había que hacer poco menos que el pino puente (en el vídeo del enlace es necesario porque quiere utilizar una tarjeta de minería, sin salidas de vídeo, para juegos, y si le echas un ojo verás que necesita una versión antigua de drivers y bastante trabajo previo para que le salga la opción de qué procesador gráfico utilizar como en los portátiles)

Lo del consumo sin duda me parece una ventaja importante. La razón de que esto ocurra es que los clocks de 2D que suelen usar las gráficas en reposo son más que suficientes para un solo monitor, pero dado que la gráfica está a menos del 5% de su potencia a nada que tuviera más "trabajo" se verían tirones y rascones. El problema es que muchas veces no hay un "término medio" y los fabricantes son demasiado agresivos subiendo los clocks, a veces al nivel de los de 3D.

Lo del rendimiento no lo tengo muy claro. Porque siendo como dices, que al mover la ventana de un juego exigente al segundo monitor, incluso directamente desconectando el monitor de la gráfica dedicada, todo sigue funcionando con aceleración, es evidente que la aceleración gráfica la está llevando a cabo la GPU dedicada, ¿correcto?. En ese caso... dudo mucho que haya más recursos libres que usando la GPU dedicada de principal. Habría que mirar cosas como el uso de VRAM de la dedicada en el escritorio con el monitor secundario enchufado, alternativamente, a las dos GPUs. Si es el mismo, yo creo que las ventanas, efectos, etc. los sigue haciendo la dedicada.

...otra cuestión que para la iGPU nos da igual pero para poner otra gráfica de gama baja puede ser una pega: Con las plataformas de escritorio actuales tanto de Intel como de AMD no hay suficientes lineas PCIe en los procesadores para tener dos gráficas a 16x. Conque en el momento que se conecte otra gráfica, la 4090 va a funcionar a 8x. Salvo que se conecte a un slot formato 16x cableado a 4x que vaya al chipset, que pocas placas llevan, y sería una penalización grande para la gráfica secundaria claro.

Quizás Blender haya sido mal ejemplo porque utiliza CPGPU para todo, independientemente de cómo le mandes renderizar, así que independientemente de la pantalla "manda" lo que le digas en opciones. Lo del juego sí que me ha sorprendido.

Lo dicho, que me estoy enrollando mucho... en cuanto tenga ocasión lo pruebo [beer]

Saludos

Sí, la verdad es que a mí también me sorprendió mucho que funcionase de esa forma. Que lo mismo es algo de los Ryzen 7000 y las placas nuevas, pero me extraña, ¿no? Yo creo que más bien es cosa de Windows.

Lo de recursos libres jugando no creo que haya más, te hablaba del pc en reposo o no usando cosas tochas. En idle por ejemplo el consumo es mucho más bajo si el monitor principal está conectado a la dedicada y el secundario a la placa base (en vez de los dos a la dedicada), pero aún es más bajo si usas el monitor de la placa base como principal y desconectas el otro, eso me ha dejado a cuadros. Aunque eso sí, no va a 144hz. Te juro que si fuese a 144hz lo dejaría con el monitor de la placa como principal porque el ahorro es considerable. [carcajad] Y todo funciona perfectamente, juegos con RT en ultra, Unity, Unreal, Blender, etc, etc. Lo bueno es que cuando no toco nada, al par de segundos baja el consumo a 2w en la gráfica y a 33w la cpu. Eso para el que use un monitor de 60 Hz es una ventaja abrumadora en consumo.

Creo que en este caso el ahorro es la mala optimización de Nvidia con las opciones multimonitor. Es un disparate que si tienes 2 monitores, sean 20w más de consumo y si tienes tres se dispara a 60w sin hacer absolutamente nada.

Lo del consumo de VRAM de la GPU integrada tal vez sea más alto, no lo he mirado.

EDIT:

Ahora mismo en reposo según Hwinfo es de 82 MB. Voy a hacer lo de antes a ver como sube.

Con únicamente el monitor de la placa base, el consumo de VRAM es de 369MB. Pero da igual lo que abra. He probado Unity y la VRAM sigue igual, escena tocha y se mueve como la seda, el % de uso es el de la GPU dedicada. También he probado un juego y lo mismo, la CPU ni se entera y es la GPU dedicada la que mueve el juego, va espectacular. En ningún caso la VRAM de la integrada ha subido de 370MB.

Eso sí, el consumo en reposo de la dedicada es salvaje, jamás lo he visto tan bajo.
7 respuestas