KoGollin escribió:
Owned
DVI es la Señal MAS PURA que pueda llegar a tu monitor YA QUE Es digital OS PONGAIS COMO OS PONGAIS.
P.D QUE ME Digas que no se notan las letras mas claras y nitidas....
Esque no lo USAS porque es lO PRIMERO que me di cuenta cuando salte a un DVI.
Si te quedas contento escribiendo 'owned', pues perfecto...
Tu argumento apreciativo: 'lo veo mejor', no demuestra nada. Ni a mí ni a nadie.
Y lo de señal "pura" porque es digital... pues tampoco.
Es como si me dices que la fotografía de tu cámara de 2MPX tiene más calidad o definición que la de mi negativo solo porque la tuya es digital.
Una conexión digital no lleva más que una señal electrica alternando varios valores discretos de voltaje.
Y la conexión analógica... pues lo mismo, salvo que los valores son continuos.
A la hora de transformar dichos valores a la matriz de LEDs que componen nuestros monitores si la señal no ha sufrido ninguna distorsión vamos a disponer de la misma información.
¿Qué ventaja nos aporta la señal digital? Que podemos aplicar una serie de algoritmos a la señal como el de corrección de errores que se utiliza en los CDs de AUDIO, o el HDCP para evitar la copia.
Pero ni la interfaz DVI ni la HDMI usan ningún tipo de protocolo de corrección de errores. Por lo que la señal sigue siendo tan sensible a las interferencias externas como otra cualquiera.
Es más, DVI y HDMI utilizan cableado de par trenzado, mucho más sensible a la impedancia que el coaxial (el que usa el VGA). Por eso para cableados largos no se usan ni DVI ni HDMI, si no VGA.
Y por supuesto, en el mundo profesional se usan otro tipo de conexiones digitales. Ni HDMI ni DVI.
--
Edito: Si tú notaste cambio al pasar de VGA a DVI pudo ser por 2 motivos:
- El cable que usabas era una mierda.: Muchos Hz para tal impedancia y las ferritas serían una mierda. A mí me ha pasado, y cada vez es más normal.
- El conversor AD de tu monitor era una castaña, o el RAMDAC de tu tarjeta una mierda.