› Foros › Tecnología › Electrónica de consumo
zopenko escribió:Buenas,
¿A qué te refieres exactamente?
Saludos
zopenko escribió:Gracias por responder,
pero es que no se si mi tele no es como todas las teles o bien es que ese no es mi problema, porque yo no veo nada de mapeado 1:1 ni nada configurable en el HDMI de mi tele.
¿Alguna otra idea? ¿Qué pierdo poniendo VGA?
Saludos
zopenko escribió:Sobre lo de que pierdo calidad....no sé que decirte...porque yo no lo noto. En algún momento leí que la tasa de bits de transmisión en HDMI era mayor...pero me imagino que será solo notable en 1080P o en BlueRays...y eso...no? Yo lo demás por VGA lo veo de lujo.
Johny27 escribió:zopenko escribió:Sobre lo de que pierdo calidad....no sé que decirte...porque yo no lo noto. En algún momento leí que la tasa de bits de transmisión en HDMI era mayor...pero me imagino que será solo notable en 1080P o en BlueRays...y eso...no? Yo lo demás por VGA lo veo de lujo.
Será que no eres muy exigente, porque notarse se nota, y un huevo. Es como conectar un lcd de pc por vga y dvi, la diferencia es abismal.
Yoshi's escribió:Pues francamente, qué vista tienes.
Yo en todos los monitores que he tenido, jamás he apreciado diferencia ninguna entra VGA y DVI. La única, diferencia, eso sí, es que si la resolución cambia, el VGA tiene que autoajustar y DVI es automático.
Por supuesto, siempre he utilizado DVI (excepto en el primer monitor que solo tenía VGA) pero lo que es notar, diferencia ninguna. Me gustaría saber qué notas, porque para mí es completamente imposible ver nada.
Porque yo entre compuesto y RGB noto diferencia, entre componentes y VGA también, y ya no digamos entre SD y HD, pero entre un mismo monitor con VGA y DVI, nada de nada.
Johny27 escribió:Se nota en la definición del texto, en la perfecta diferenciación entre colores, en la gradación de los mismos, etc. Es tan grande la diferencia que no se cómo no lo notas.
El monitor del que hablo vale más de 2000 euros, así que bueno es.Yoshi's escribió:Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna.
Será que sois poco exigentes. Yo soy MUY exigente con la imagen, pero mucho mucho.El texto está definido 100% perfecto (cada píxel en su sitio), los colores están perfectamente diferenciados (como digo, cada píxel de un color, sin efecto frontera no nada parecido). Y los colores no es apreciable diferencia ninguna. De hecho, aún se venden muchos monitores TFT solo con VGA y no pasa absolutamente nada.
Como he dicho, el único problema es que al cambiar resolución hay que estarlo ajustando, muchas veces ya no solo de forma automática sino de forma manual, dando al botón (porque automáticamente no se queda bien ajustado y efectivamente se ve mal), pero una vez que cada píxel queda ajustado, aunque haya que darle varias veces, se ve 100% perfecto.
Johny27 escribió:El monitor del que hablo vale más de 2000 euros, así que bueno es.Yoshi's escribió:Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna.
Johny27 escribió:Técnicamente es imposible que se vea 100% igual, pero acepto que hay gente que no lo nota.
Johny27 escribió:Será que sois poco exigentes.
Aún no me he encontrado ninguno, y menos de 100 €. Si hablamos de monitores de referencia sí, pero sino no.Yoshi's escribió:No tiene nada que ver, hay monitores por 100 euros que solo tienen entrada VGA y el ADC hace su trabajo perefectamente
Tendrás "aparentemente" la misma calidad, pero las conversiones no son sin pérdida, por lo que aunque no lo notes estará ahí, por muy bien que se reconstruya.Eso sí que no, técnicamente es perfectamente posible que se vea igual. Por eso lo afirmo. Imagina que tienes un monitor CRT, de resolución 1920x1080 conectado por VGA, pues VGA es una señal que, gracias a sus 5 señales: R, G, B, H y V, permite sacar cada uno de los píxeles de la resolución 1920x1080 de forma INDEPENDIENTE, y cada color no se ve afectado por los píxeles de alrededor ni nada parecido. Si mediante un ADC consigues digitalizar esa señal para representar cada uno de los píxeles del monitor, entonces tendrás la misma calidad (en ausencia de interferencias, que en un cable de 1 metro apantallado no tiene por qué haber).
Como lo son el 99% de los dac no profesionales.Entonces esto implica pérdida de calidad si el DAC/ADC es malo
Veo que te sigues refiriendo al típico caso teórico que luego en la realidad no se da jamás.Por tanto, es evidente que DVI nunca se va a ver peor: ausencia de transformaciones, ausencia de errores, etc., especialmente en un caso en el que ambos extremos ya son digitales. Pero para un caso ideal, con un cable bueno y unos conversores buenos, VGA se verá igual de bien que DVI.
Eso si el monitor es medianamente decente como para dejar ajustar la fase y demás, pero normalmente los ajustes son muy poco finos, y jamás queda igual de bien.Lo primero porque el medio de transmisión no te deforma la imagen como para que sea apreciable por el ojo humano (tendrías que tener muchos metros de cable), y lo segundo porque tanto el DAC como el ADC están "sincronizados" para una resolución concreta, de forma que los píxeles entran donde tienen que entrar al monitor, y con el color que tienen que entrar.
Son casos que, aunque posibles, jamás se dan, y menos en monitores y gráficas de consumo y no de referencia.Digamos que si por cable VGA viaja una imagen que acaba de ser analógizada en la tarjeta gráfica, si luego el monitor, se muestrea esa señal con la misma frecuencia que tenía la señal original, técnicamente tendríamos la misma señal sin pérdida, cuya única variación posible, serían el ruido que ha metido el cable, que para un cable bueno de un metro es inapreciable.
Johny27 escribió:Justamente al contrario, yo tengo dos monitores calibrados con un calibrador LaCie profesional. Si no, no los veo bien, así que imagina mi grado de exigencia.
No es lo mismo. En el audio la señal original (sonido) es analógica. En imagen es digital de entrada, por lo que VGA no puede ofrecer nada que no estuviera ya en la original.kinkon escribió:Bueno yo no entiendo mucho del tema pero voy a hacer un símil con lo que pasa en los equipos de audio....
En principio la señal analógica en un equipo de los muy caros, se escucha mejor que la digital, tiene matices que se pierden con la digitalización.
NO. Hace mucho que las cámaras digitales superaron a las analógicas, y en mucho. El único caso donde no lo han hecho (y porque no interesa comercializar un modelo así porque no es rentable ya que lo comprarían 3) es en el blanco y negro extremo y en gran formato.En fotografía pasa casi lo mismo, las cámaras buenas serán siempre analógicas, otra cosa es que los profesionales tengan las mejores cámaras digitales, pero eso es por comodidad en el uso.
Es que de siempre la tecnología CRT se ha meado en los TFT y plasmas salvo en geometría y definición por pixel. Yo uso TFT porque uso 3 monitores y con CRT necesito 3 habitaciones solo para ellos, pero si pudiera usaría CRT, es lo mejor para balance de color crítico.Yo supongo que para un equipo normal, y visionando señal digital, se verá mejor con DVi y HDMI ya que no hay que hacer conversiones de formato que si se tienen que hacer con la VGA. Pero los equipos caros son caros por algo.......Yo he visto un CTR grande en un hospital y la verdad es que se ríe de los mejores TFT´s y plasmas........
Johny27 escribió:Tendrás "aparentemente" la misma calidad, pero las conversiones no son sin pérdida, por lo que aunque no lo notes estará ahí, por muy bien que se reconstruya.
Veo que te sigues refiriendo al típico caso teórico que luego en la realidad no se da jamás.