Hola, tengo el ordenador conectado a una TV 1080p de 40" pero como a veces me interesa ver la TV mientras, utilizo un portátil para verla por internet.
El caso es que fui al Cash Converters por otro asunto y me encontré un monitor Samsung (igual marca que mi TV) de 19" (1440x900) por 20€, aunque solo con entrada VGA y la verdad es que funciona perfecto.
Por lo que ahora tengo la TV por HDMI y el monitor por VGA conectado a través del adaptador (DVI-VGA) que trajo la GPU a la salida DVI-I.
Y todo perfecto, puedo lanzar aplicaciones a pantalla completa en la TV a 1080p mientras puedo ver videos, usar programas de monitorización, etc. en el monitor.
El problema viene que incluso con el ordenador en reposo (idle) la memoria de la GPU pasa a estar al máximo como si estuviera en alto rendimiento (overclockeada a 1450Mhz) y claro las temperaturas suben , etc.
Si con una pantalla está a 300MHz el reloj de la GPU y 150MHz la memoria, todo es activar el segundo monitor y pasan a 450MHz y 1450MHz respectivamente.
Además, la actividad de la gráfica está entre 0% y el 2% por lo que no está bajo ningún stress.
Pasa tanto en modo extendido (el que estaba usando), como en duplicado (por probar).
Los drivers que estoy usando son los últimos estables (14.4).
¿Hay alguna solución?
Un saludo.
PD: He encontrado una "solución", mirando por internet he visto que AMD escogió poner la velocidad de la memoria al máximo para evitar parpadeos en el segundo monitor por lo que le he bajado la velocidad manualmente a la memoria a 300MHz para alto rendimento y no tengo ningún problema de parpadeo a 300MHz-450MHz de núcleo y 300MHz de memoria.
Quizás hace años si que era necesario poner la velocidad al máximo, pero hoy no, el problema que me trae esta "solución" es que tendría que ir cambiando los máximos de reloj cada vez.