Pollonidas escribió:Teniendo en cuenta que, actualmente, para tareas CPGPU se puede utilizar un adaptador gráfico distinto del que tienes conectadas las pantallas, pero para renderizar "lo que ves" sí o sí una pantalla tiene que estar conectada a la gráfica que lo está haciendo, me da que la persona que te dio el consejo no tenía mucha idea de lo que estaba hablando.
La pérdida de rendimiento por manejar dos pantallas en tareas ligeras (ventanas del escritorio, acelerar vídeo, etc.), por mucha resolución que tengan las pantallas, es mínima. La pérdida de rendimiento por mover una escena compleja en Blender (por decir algo) puede ser considerable pero es que en general
quieres que esa tarea esté acelerada por la GPU potente y no por una secundaria.
Para mí de hecho sería contraproducente utilizar la integrada teniendo una 4090.
El consumo de la 4090 evidentemente es más alto en multimonitor que sin él pero ni es tan acusado como en otras gráficas (en las intel por ejemplo la diferencia es muy grande) ni estáis teniendo en cuenta al valorar el consumo que la iGPU también pasa de consumir 0 (normalmente se desconecta por completo si se usa una GPU dedicada salvo que la habilites en la BIOS expresamente o le conectes una pantalla) a consumir "algo", y ese algo probablemente estará en la misma zona que los 8W de diferencia de la 4090.
Yo conectaría los dos monitores a la 4090. Sin dudarlo un momento. Usaría solo la integrada si me quedara sin salidas en la 4090, cosa complicada por otro lado. Si nos ponemos así usar la integrada también quita rendimiento, porque "roba" un poco de RAM (que es lo de menos) pero sobre todo tiene que competir por el bus de RAM con las tareas de CPU. ¿Es notorio esto? Por lo general no. Pero tampoco lo es usar la 4090 para lo que sea mientras la usas para renderizado. Es mi humilde opinión al menos.
Saludos
Eso es justo lo que pensaba yo Pollonidas. Pero resulta que no.
Si puedes haz la prueba. Conecta dos monitores a tu PC. Uno a tu gráfica dedicada y otro a la integrada.
Luego ejecuta un juego tocho en modo ventana. Con dlss de nvidia, ray tracing, etc, etc. Ahora mueve la ventana de ese juego desde el monitor principal (el de la gráfica dedicada) al monitor de la gráfica integrada. Si miras el consumo de la CPU y el de tu GPU dedicada es exactamente el mismo y el juego está en la pantalla conectada a la gráfica integrada. Parece magia, pero el juego sigue con las opciones tochas, con dlss, ray tracing, todo en ultra... A pesar de que la gráfica integrada sea una AMD y no pueda ejecutar un juego tan tocho a esa calidad gráfica, ni tenga las tecnologías exclusivas de Nvidia.
Eso probando juegos a 60fps que es como juego yo siempre, a más fps no lo he probado pero imagino que ahí algo se tendrá que notar, porque la integrada incluso mostrando el escritorio no va a 144hz. Con el navegador lo tengo puesto que sea la dedicada la que lo renderice, pero si lo paso al monitor de la integrada ya no va tan fluido. Pero creo que pasa con todo, el monitor de la dedicada no va a 144hz con ningún contenido, va a 60hz creo o quizás algo más. Y eso pasará si metes ahí un juego, o metes el navegador, o cualquier otra cosa que se te ocurra, el monitor siempre refresca a menos de 144hz.
Si eliges en Windows que por ejemplo Blender solo use la gráfica dedicada, aunque arrastres la ventana de algo de una alta complejidad poligonal a ese monitor, el uso y la temperatura de la CPU son los mismos y el uso y la temperatura de tu GPU dedicada sigue alto porque es esa gráfica la que lo está administrando. Y lo tienes corriendo en el monitor de la dedicada, pero aún así va igual que en el otro monitor. Incluso si estás en modo render y usas Cycles para objetos de millones de polígonos, la CPU sigue al 3% y la dedicada al 80% y va igual de fluido (más de 60fps) en el monitor de la dedicada que en el de la integrada.
Me pasaba como a ti, no me lo creía hasta que lo probé. Pero sí, funciona de esa forma.
Lo del consumo con la 4090 ni idea, tal vez tengas razón. Pero en mi caso con la 2080ti, el consumo de tres monitores a 144hz conectados a la dedicada no baja de 60 watios en ningún momento. Aunque no estés haciendo nada y estés mostrando en los monitores los iconos de escritorio, o incluso un fondo negro vacío en los tres monitores. Da igual que pongas la GPU en consumo óptimo desde el panel de Nvidia que eso no baja ni a tiros. Puedes investigar en Reddit que la mayoría de gente con varios monitores se quejan de lo mismo.
Pero si conectas los dos monitores secundarios a la placa base y dejas sólo el primario (en mi caso el del centro) conectado a la dedicada, el consumo en idle de la gráfica baja hasta los 6 watios, y la CPU consume exactamente igual. O sea, te ahorras casi 60 watios de consumo sólo haciendo eso y estás disfrutando de los 3 monitores.
En mi caso he conectado dos monitores a la dedicada y el tercero a la integrada porque me gusta que esos dos monitores funcionen a 144hz, el tercero no me importa si va a menos. De esa forma, la GPU dedicada en idle o haciendo tareas sencillas (por ejemplo navegando) consume unos 20 watios y el ahorro de energía es considerable. De eso a 60w siempre hagas lo que hagas, hay mucha diferencia.
¿La CPU cuánto consume con un monitor conectado (uno a la dedicada y el otro a la placa base)? En idle ahora mismo 33 watios. ¿Y si quito el monitor de la placa base? Sigue consumiendo 33 watios. ¿Cómo es posible? O sea un monitor enchufado a la integrada, es como un monitor "de gratis". Sólo gasta lo que esté consumiendo ese monitor de corriente, pero la CPU consume lo mismo y el % de uso también es el mismo. Aunque arrastres a ese monitor algo tocho, la CPU no se cosca y sigue con el mismo consumo, ¿Bujería? Fui más allá y conecté un enchufe inteligente al PC para ver el consumo real del equipo y lo que dije anteriormente se cumple, hay un ahorro considerable de energía al conectar los dos monitores a la placa base.
Si consume más RAM o menos del sistema no lo he probado, aún no me he visto falto de memoria RAM en ningún momento, y eso que soy un animal abriendo varios programas tochos a la vez.
EDIT: Acabo de probar con Unity. Escena realmente compleja:
En el monitor de la gráfica dedicada:
Consumo de la 2080ti al moverte por la escena 180 w
Consumo de la CPU al moverte por la escena 50 w
Consumo escena detenida 2080ti 10 w
Consumo escena detenida CPU 30 w
Uso de RAM del sistema en ambos casos 18 GB
Al mover esa ventana al monitor de la integrada:
Consumo de la 2080ti al moverte por la escena 180 w
Consumo de la CPU al moverte por la escena 50 w
Consumo escena detenida 2080ti 10 w
Consumo escena detenida CPU 30 w
Uso de RAM del sistema en ambos casos 18 GB
Fluidez en ambos monitores, exactamente la misma. ¿Cuándo empieza a consumir realmente la gráfica integrada? Pues si pones desde las opciones de Windows que el programa Unity funcione sólo con la integrada, en ese caso incluso en el monitor principal que está conectado a la dedicada la escena va a pedales y el consumo de la CPU se dispara.
EDIT 2: He ido más allá. He desconectado el monitor de la dedicada y he dejado sólo el monitor de la integrada (y puesto como monitor principal). Y va exactamente igual, mismos consumos y rendimiento, sigue usando la 2080ti para mover el programa como antes dije, a pesar de estar desconectado el monitor de la gráfica dedicada. Y el dato que más me ha llamado la atención, en idle la gráfica dedicada consume 2 watios. Ojito con esto que no tenía ni idea, pero como medida de ahorro energético usando un monitor (sin perder el rendimiento de la GPU dedicada) podría ser una excelente opción dejar el monitor principal sólo conectado a la placa base. Es increíble.