¿Por qué VGA mejor que HDMI?

Buenas,

se que el título puede traer confusión y que la gente se tire de los pelos y me llamen de todo...pero es que hasta ahora mi experiencia me dice que todo equipo que hay conectado a la tele (Samsung LE32M87 100Hz 32" HDReady) consigo mejores resultados y de manera más rápida y cómoda con el cable VGA que con el HDMI.

La resolución de 1360 x 768 por VGA en un plis y cogiéndome toda la pantalla (además el TV te permite un ajuste automático en el modo PC que te la pone perfecta). En cambio por HDMI siempre o se queda corta o se sale de los bordes.

¿Por qué? ¿Qué ventajas tengo con HDMI y no con VGA? Porque si me decís el audio, yo lo saco normalmente por un ampli con cable óptico por lo que el HDMI lleve audio no me vale.

¿Alguien me lo puede explicar?

Gracias y un saludo
Seguramente en HDMI no tengas puesto mapeado 1:1 y así pasa lo que pasa.
Buenas,

¿A qué te refieres exactamente?

Saludos
zopenko escribió:Buenas,

¿A qué te refieres exactamente?

Saludos

Pues a lo que he dicho exactamente. Es una opción que tienen las teles para la salida HDMI.
Gracias por responder,

pero es que no se si mi tele no es como todas las teles o bien es que ese no es mi problema, porque yo no veo nada de mapeado 1:1 ni nada configurable en el HDMI de mi tele.

¿Alguna otra idea? ¿Qué pierdo poniendo VGA?

Saludos
zopenko escribió:Gracias por responder,

pero es que no se si mi tele no es como todas las teles o bien es que ese no es mi problema, porque yo no veo nada de mapeado 1:1 ni nada configurable en el HDMI de mi tele.

¿Alguna otra idea? ¿Qué pierdo poniendo VGA?

Saludos

Pierdes calidad de imagen.
En las samsung, al menos en la mía, el modo que comenta johnny se llama "Solo exploración" y está dentro de las opciones de tamaño de imagen. Por otro lado, sueles tener un puerto HDMI pensado para usarse con el PC, que te ajusta los valores de la imagen para que veas las cosas correctamente.

SaluDos!!
Miraré en casa lo que me comentas de las Samsung...a ver si encuentro esa opción. Lo de que el PC te ajusta...es un poco así así. Ya te digo que todos los equipos que he conectado a la tele, con VGA en seguida se ha ajustado a los bordes y si no la tele tiene una opción de ajuste automático. En cambio con HDMI no...aún poniendo la misma resolución que en VGA. Aparte que no veo opción en HDMI de mi tele que lo cambie.

Sobre lo de que pierdo calidad....no sé que decirte...porque yo no lo noto. En algún momento leí que la tasa de bits de transmisión en HDMI era mayor...pero me imagino que será solo notable en 1080P o en BlueRays...y eso...no? Yo lo demás por VGA lo veo de lujo.
zopenko escribió:Sobre lo de que pierdo calidad....no sé que decirte...porque yo no lo noto. En algún momento leí que la tasa de bits de transmisión en HDMI era mayor...pero me imagino que será solo notable en 1080P o en BlueRays...y eso...no? Yo lo demás por VGA lo veo de lujo.

Será que no eres muy exigente, porque notarse se nota, y un huevo. Es como conectar un lcd de pc por vga y dvi, la diferencia es abismal.
Johny27 escribió:
zopenko escribió:Sobre lo de que pierdo calidad....no sé que decirte...porque yo no lo noto. En algún momento leí que la tasa de bits de transmisión en HDMI era mayor...pero me imagino que será solo notable en 1080P o en BlueRays...y eso...no? Yo lo demás por VGA lo veo de lujo.

Será que no eres muy exigente, porque notarse se nota, y un huevo. Es como conectar un lcd de pc por vga y dvi, la diferencia es abismal.


Pues francamente, qué vista tienes.

Yo en todos los monitores que he tenido, jamás he apreciado diferencia ninguna entra VGA y DVI. La única, diferencia, eso sí, es que si la resolución cambia, el VGA tiene que autoajustar y DVI es automático.

Por supuesto, siempre he utilizado DVI (excepto en el primer monitor que solo tenía VGA) pero lo que es notar, diferencia ninguna. Me gustaría saber qué notas, porque para mí es completamente imposible ver nada.

Porque yo entre compuesto y RGB noto diferencia, entre componentes y VGA también, y ya no digamos entre SD y HD, pero entre un mismo monitor con VGA y DVI, nada de nada.
Yoshi's escribió:Pues francamente, qué vista tienes.

Yo en todos los monitores que he tenido, jamás he apreciado diferencia ninguna entra VGA y DVI. La única, diferencia, eso sí, es que si la resolución cambia, el VGA tiene que autoajustar y DVI es automático.

Por supuesto, siempre he utilizado DVI (excepto en el primer monitor que solo tenía VGA) pero lo que es notar, diferencia ninguna. Me gustaría saber qué notas, porque para mí es completamente imposible ver nada.

Porque yo entre compuesto y RGB noto diferencia, entre componentes y VGA también, y ya no digamos entre SD y HD, pero entre un mismo monitor con VGA y DVI, nada de nada.

Se nota en la definición del texto, en la perfecta diferenciación entre colores, en la gradación de los mismos, etc. Es tan grande la diferencia que no se cómo no lo notas.
Johny27 escribió:Se nota en la definición del texto, en la perfecta diferenciación entre colores, en la gradación de los mismos, etc. Es tan grande la diferencia que no se cómo no lo notas.


Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna. El texto está definido 100% perfecto (cada píxel en su sitio), los colores están perfectamente diferenciados (como digo, cada píxel de un color, sin efecto frontera no nada parecido). Y los colores no es apreciable diferencia ninguna. De hecho, aún se venden muchos monitores TFT solo con VGA y no pasa absolutamente nada.

Como he dicho, el único problema es que al cambiar resolución hay que estarlo ajustando, muchas veces ya no solo de forma automática sino de forma manual, dando al botón (porque automáticamente no se queda bien ajustado y efectivamente se ve mal), pero una vez que cada píxel queda ajustado, aunque haya que darle varias veces, se ve 100% perfecto.
Yoshi's escribió:Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna.
El monitor del que hablo vale más de 2000 euros, así que bueno es.

El texto está definido 100% perfecto (cada píxel en su sitio), los colores están perfectamente diferenciados (como digo, cada píxel de un color, sin efecto frontera no nada parecido). Y los colores no es apreciable diferencia ninguna. De hecho, aún se venden muchos monitores TFT solo con VGA y no pasa absolutamente nada.
Será que sois poco exigentes. Yo soy MUY exigente con la imagen, pero mucho mucho.

Como he dicho, el único problema es que al cambiar resolución hay que estarlo ajustando, muchas veces ya no solo de forma automática sino de forma manual, dando al botón (porque automáticamente no se queda bien ajustado y efectivamente se ve mal), pero una vez que cada píxel queda ajustado, aunque haya que darle varias veces, se ve 100% perfecto.

Técnicamente es imposible que se vea 100% igual, pero acepto que hay gente que no lo nota.
Johny27 escribió:
Yoshi's escribió:Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna.
El monitor del que hablo vale más de 2000 euros, así que bueno es.


No tiene nada que ver, hay monitores por 100 euros que solo tienen entrada VGA y el ADC hace su trabajo perefectamente, y hay otros de 300 euros (como el que tengo actualmente) que ya tienen HDMI, DVI y VGA se va horrible, pero se ve con unas ondas horribles como si tuviera interferencias (y está todo comprobado que está bien). Y luego hay teles de 3000 euros que directamente no tienen entrada VGA, así que imagina que ADC tienen para esta entrada: ninguno.


Johny27 escribió:Técnicamente es imposible que se vea 100% igual, pero acepto que hay gente que no lo nota.


Eso sí que no, técnicamente es perfectamente posible que se vea igual. Por eso lo afirmo. Imagina que tienes un monitor CRT, de resolución 1920x1080 conectado por VGA, pues VGA es una señal que, gracias a sus 5 señales: R, G, B, H y V, permite sacar cada uno de los píxeles de la resolución 1920x1080 de forma INDEPENDIENTE, y cada color no se ve afectado por los píxeles de alrededor ni nada parecido. Si mediante un ADC consigues digitalizar esa señal para representar cada uno de los píxeles del monitor, entonces tendrás la misma calidad (en ausencia de interferencias, que en un cable de 1 metro apantallado no tiene por qué haber).

Yo precisamente que estudio telecomunicaciones y ahora estoy dando las modulaciones analógicas y digitales, la ventaja de lo digital no es que sea mejor. De hecho, es más bien al revés, la naturaleza es analógica, el sonido y el color son analógicos; si tú lo ves analógico, lo ves de forma pura (de hecho, un CRT en la mayoría de los casos se ve mejor que un LCD, y un disco de vinilo suena mejor que un CD) y de hecho para pasar lo analógico a digital tienes que muestrearlo con la consiguiente pérdida de calidad. La ventaja de lo digital es que podemos detectar e incluso corregir los errores, y reconstruir la señal, asegurándonos que por el camino no se pierde información (pudiendo enviar datos a grandes distancias). La segunda ventaja de lo digital (y esto sí que se aplica aquí) es que en un mundo donde ya todo es digital, resulta más sencillo y más BARATO (sencillez de procesacimiento) enviar información digital. Precisamente las tarjetas gráficas son digitales, y los monitores TFT también, pues bien VGA implicaba pasar la señal de digital analógica con un DAC, y luego en el monitor pasarla de nuevo a digital con un ADC. Entonces esto implica pérdida de calidad si el DAC/ADC es malo, o si hay intereferencias, pero sobre todo es mil veces más caro que no tener DAC y que pasar la información directamente de forma digital.

Por tanto, es evidente que DVI nunca se va a ver peor: ausencia de transformaciones, ausencia de errores, etc., especialmente en un caso en el que ambos extremos ya son digitales. Pero para un caso ideal, con un cable bueno y unos conversores buenos, VGA se verá igual de bien que DVI. Lo primero porque el medio de transmisión no te deforma la imagen como para que sea apreciable por el ojo humano (tendrías que tener muchos metros de cable), y lo segundo porque tanto el DAC como el ADC están "sincronizados" para una resolución concreta, de forma que los píxeles entran donde tienen que entrar al monitor, y con el color que tienen que entrar. Digamos que por cable VGA viaja una imagen que acaba de ser analogizada en la tarjeta gráfica, si luego el monitor, muestrea esa señal con la misma frecuencia que tenía la señal original, técnicamente tendríamos la misma señal, cuya única variación (pérdida) posible, sería el ruido gausiano que ha metido el cable, que para un cable bueno de un metro es completamente inapreciable.


Johny27 escribió:Será que sois poco exigentes.


Justamente al contrario, yo tengo dos monitores calibrados con un calibrador LaCie profesional. Si no, no los veo bien, así que imagina mi grado de exigencia.
Yoshi's escribió:No tiene nada que ver, hay monitores por 100 euros que solo tienen entrada VGA y el ADC hace su trabajo perefectamente
Aún no me he encontrado ninguno, y menos de 100 €. Si hablamos de monitores de referencia sí, pero sino no.

Eso sí que no, técnicamente es perfectamente posible que se vea igual. Por eso lo afirmo. Imagina que tienes un monitor CRT, de resolución 1920x1080 conectado por VGA, pues VGA es una señal que, gracias a sus 5 señales: R, G, B, H y V, permite sacar cada uno de los píxeles de la resolución 1920x1080 de forma INDEPENDIENTE, y cada color no se ve afectado por los píxeles de alrededor ni nada parecido. Si mediante un ADC consigues digitalizar esa señal para representar cada uno de los píxeles del monitor, entonces tendrás la misma calidad (en ausencia de interferencias, que en un cable de 1 metro apantallado no tiene por qué haber).
Tendrás "aparentemente" la misma calidad, pero las conversiones no son sin pérdida, por lo que aunque no lo notes estará ahí, por muy bien que se reconstruya.


Entonces esto implica pérdida de calidad si el DAC/ADC es malo
Como lo son el 99% de los dac no profesionales.

Por tanto, es evidente que DVI nunca se va a ver peor: ausencia de transformaciones, ausencia de errores, etc., especialmente en un caso en el que ambos extremos ya son digitales. Pero para un caso ideal, con un cable bueno y unos conversores buenos, VGA se verá igual de bien que DVI.
Veo que te sigues refiriendo al típico caso teórico que luego en la realidad no se da jamás.

Lo primero porque el medio de transmisión no te deforma la imagen como para que sea apreciable por el ojo humano (tendrías que tener muchos metros de cable), y lo segundo porque tanto el DAC como el ADC están "sincronizados" para una resolución concreta, de forma que los píxeles entran donde tienen que entrar al monitor, y con el color que tienen que entrar.
Eso si el monitor es medianamente decente como para dejar ajustar la fase y demás, pero normalmente los ajustes son muy poco finos, y jamás queda igual de bien.

Digamos que si por cable VGA viaja una imagen que acaba de ser analógizada en la tarjeta gráfica, si luego el monitor, se muestrea esa señal con la misma frecuencia que tenía la señal original, técnicamente tendríamos la misma señal sin pérdida, cuya única variación posible, serían el ruido que ha metido el cable, que para un cable bueno de un metro es inapreciable.
Son casos que, aunque posibles, jamás se dan, y menos en monitores y gráficas de consumo y no de referencia.


Johny27 escribió:Justamente al contrario, yo tengo dos monitores calibrados con un calibrador LaCie profesional. Si no, no los veo bien, así que imagina mi grado de exigencia.

Fíjate que a mi el calibrador lacie no me gusta nada, no lo deja tan fino como otros. Yo, si veo hasta 1 punto de diferencia de color y soy capaz de quejarme, mi trabajo me va en ello.

De todas maneras vamos a zanjarlo, porque aunque llevas razón en que "teóricamente" se pueden ver igual de bien, en la práctica del 99% de los mortales no y a eso me refiero. Y mucho menos en el caso del creador del hilo, que dice que se le ve mejor VGA que HDMI, lo que es imposible por definición.
Bueno yo no entiendo mucho del tema pero voy a hacer un símil con lo que pasa en los equipos de audio....
En principio la señal analógica en un equipo de los muy caros, se escucha mejor que la digital, tiene matices que se pierden con la digitalización.
En Video puede pasar lo mismo y la señal VGA analógica puede ofrecer, si la fuente es muy buena y el receptor también (cosa que no dudo ya que no todo el mundo posee un monitor de 2000 €) unos matices que no se consiguen con la digitalización.
En fotografía pasa casi lo mismo, las cámaras buenas serán siempre analógicas, otra cosa es que los profesionales tengan las mejores cámaras digitales, pero eso es por comodidad en el uso.
Otro tema que hay que tener en cuenta es que el estándar HDMI ha ido mejorando con el paso del tiempo y las velocidades de transferencia de las ultimas versiones son muy elevadas, hay que saber con que estándar estas trabajando.
Yo supongo que para un equipo normal, y visionando señal digital, se verá mejor con DVi y HDMI ya que no hay que hacer conversiones de formato que si se tienen que hacer con la VGA. Pero los equipos caros son caros por algo.......Yo he visto un CTR grande en un hospital y la verdad es que se ríe de los mejores TFT´s y plasmas........
Leyendo el ultimo post veo que sois profesionales y que no se donde me estoy metiendo...pero como ya lo he escrito, pues lo posteo.
1saludo y perdón por mi ignorancia.
kinkon escribió:Bueno yo no entiendo mucho del tema pero voy a hacer un símil con lo que pasa en los equipos de audio....
En principio la señal analógica en un equipo de los muy caros, se escucha mejor que la digital, tiene matices que se pierden con la digitalización.
No es lo mismo. En el audio la señal original (sonido) es analógica. En imagen es digital de entrada, por lo que VGA no puede ofrecer nada que no estuviera ya en la original.

En fotografía pasa casi lo mismo, las cámaras buenas serán siempre analógicas, otra cosa es que los profesionales tengan las mejores cámaras digitales, pero eso es por comodidad en el uso.
NO. Hace mucho que las cámaras digitales superaron a las analógicas, y en mucho. El único caso donde no lo han hecho (y porque no interesa comercializar un modelo así porque no es rentable ya que lo comprarían 3) es en el blanco y negro extremo y en gran formato.

Yo supongo que para un equipo normal, y visionando señal digital, se verá mejor con DVi y HDMI ya que no hay que hacer conversiones de formato que si se tienen que hacer con la VGA. Pero los equipos caros son caros por algo.......Yo he visto un CTR grande en un hospital y la verdad es que se ríe de los mejores TFT´s y plasmas........
Es que de siempre la tecnología CRT se ha meado en los TFT y plasmas salvo en geometría y definición por pixel. Yo uso TFT porque uso 3 monitores y con CRT necesito 3 habitaciones solo para ellos, pero si pudiera usaría CRT, es lo mejor para balance de color crítico.
Johny27 escribió:Tendrás "aparentemente" la misma calidad, pero las conversiones no son sin pérdida, por lo que aunque no lo notes estará ahí, por muy bien que se reconstruya.

Veo que te sigues refiriendo al típico caso teórico que luego en la realidad no se da jamás.


No es cierto, me he referido a un caso real.

Tú partes de una señal digital (en la gráfica), al analogizarla, no hay pérdida, porque simplemente unes los puntos digitales (mediante interpolación) y te queda una señal analógica, pero con "infomación" digital. Si luego tú vuelves a digitalizar esa señal, y lo haces muestreando con la misma frecuencia, te va a quedar la misma señal que a la entrada.

Hay pérdidas al pasar de una señal analógica real (grabación de vídeo o audio) porque al muestrear te cargas la forma de la señal. Pero aquí partimos de una señal digital que la pasas a analógico artificialmente para luego volverla al digital, y ese caso, en la teoría y en la práctica, no tiene pérdida. De hecho, he demostrado que la única varación es el ruido o interfencias que mete el cable. De hecho, tú mismo has dicho que usarías un CRT si tuvieras sitio, y los CRT usan cable VGA (son analógicos)...

De hecho, ahora entiendo por qué en un monitor de 2000 euros ves la diferencia y yo en uno de 100 euros no lo noto, ahora me cuadra todo. Tú estás trabajando con un equipo profesional que te da un color real, con tanta PRECISIÓN que a poca imperfección que haya (ADC o mismo cable) la notas. Yo, con un monitor de 100 euros, por muy calibrado que esté, me da unos colores absolutamente irreales, por tanto por mucha variación que haya, es completamente inapreciable la diferencia de VGA a DVI. Porque como yo ya parto de un rojo que no es rojo, de un azul que no es azul, ¿qué más da la mínima imperfección que meta el DAC? A lo mejor esa imperfección me mejora el color o me lo empeora más, es completamente aleatorio. Y sobre todo, como yo no tengo nada con que comprar el color, los dos (con DVI y VGA) me parecen igual de buenos, o igual de malos.

Para que lo entienda la gente, sería similar a si yo estoy dibujando líneas con un lápiz con en un papel, si mi pulso me da una imperfección de un milímetro o dos en el papel, lo noto, se ve en el dibujo. Ahora, si con el mismo pulso, me pongo a dibujar las líneas blancas (marcas viales) de una carretera (se pintan a mano con una máquina especial, pero manual) y al pintarlas me desvío un milímetro, pues ese milímetro, debido al grosor de la línea (varios céntímetros) y al ancho del carril (varios metros) es algo completamente inapreciable.
Joer, soy teleco y me da vergüenza ajena un poco todo esto. Perdidas de información digitalizando a 16 y 24 bits como se digitaliza desde la epoca del CD, que si el vinilo se escucha mejor,... Que mal...
18 respuestas