¿Vale la pena un monitor con DVI?
La respuesta es inmediata, SI, aunque la explicaremos un poco.
Las tarjetas graficas tienen la informacion grafica almacenada en forma digital en su memoria. Los paneles LCD son de naturaleza digital y a través del cable DVI cada pixel que tiene almacenado en su memoria la tarjeta de video y que corresponde a un pixel concreto del monitor se transmite directamente al panel. Por el contrario un cable analógico debe realizar dos conversiones, la primera se realiza en la propia VGA donde transforma la información gráfica de su memoria a un formato analógico para transmitirlo por el cable (el componente encargado de esto es el RAMDAC). La segunda se realiza en el monitor LCD para convertir esta información analógica a digital.
De este modo se iluminará un pixel concreto del panel, según el nivel de voltaje de la señal analógica. Obvimente en las dos conversiones se pierde calidad y la señal que viaja por el cable es más susceptible a interferencias.
Por lo tanto en un conexión digital con DVI la imagen final es totalmente nítida, ya que no existe conversión, y tampoco distorsión ya que no es posible, a menos que la interferencia sea tan grave que la señal digital sea ilegible por el monitor.
En realidad no hay otra razón que no sea la existencia de millones de tarjetas gráficas con conector exclusivo D-Sub15 en el mercado, para incluír la circuitería necesaria para convertir la señal analógica a digital que recibe el monitor desde la tarjeta gráfica.
Cualquier tarjeta de video actual mínimamente decente posee ya conector Digital DVI, incluso varias de gama muy alta trae ya de fábrica doble salida DVI en vez de una analógica y otra digital. Os mostramos a continuación una foto de los conectores D-Sub15 (analógico) y DVI (digital) de una VGA y de un monitor, además de ambos cables.
La diferencia de precio entre un modelo sin entrada digital y el mismo con DVI no es demasiada, y en cambio la diferencia de calidad lo vale.
Hay dos mitos respecto a la conexión DVI. El primero es que la señal analógica permite mejor color. Esto es falso y no se sabe con exactitud de donde sale el rumor. A excepción de modelos de 2000€, los LCD trabajan con 24bits de color (excepto los TN+Film que lo hacen a 18bits), esto significa que el monitor sólo puede contemplar valores enteros del 0 al 255 para información del color rojo, azul y verde, tarea para la cual la interfaz DVI es perfectamente suficiente. Con la salida VGA, es un conversor analógico/digital el que mide el voltaje de la señal para determinar qué valor entero es más cercano a la señal tomada.
El segundo mito es que la señal analógica es tan nítida como la DVI en los monitores actuales gracias a mejorados conversores analógico/digitales. Esta es una afirmación incorrecta, aunque para muchos la diferencia sea inapreciable de un vistazo rápido. Es mejor invertir en un monitor un poco mejor con DVI que no tener que cambiarlo en 2 años por falta de nitidez.
Realmente han mejorado las salidas VGA pero no ha sido gracias a mejores conversores, sino a mejorados algoritmos de filtrado post-conversión, que se encuentran como opción del menú de los monitores. Aunque realmente mejoran las letras, introducen artefactos en el fondo de la imagen y aumentan el contraste real, distorsionando la imagen final, lo cual no ocurre con la conexión DVI.
Informacion sacada de
AQUI
saludos