TV con panel 10 bits pero windows me marca 8 ¿? y otra duda..

Lo pongo en general porque no se si es software, hardware o yo que se.

Ayer me compré un televisor nuevo para el salon, una LG Oled de 55", modelo C8. Tiene un panel de 10 bits, HDR de todas las clases, 4k, 120hz nativos, etc..

El caso es que en configuracion de pantalla me pone esto:

Imagen

Y no veo donde cambiarlo y ni si se puede. Lo que si he cambiado son los hz que me ponia a 59hz y lo he dejado en 60hz. Realmente afecta en algo el ponerlo en 50hz, 59, 60hz, etc..?

Otro cosa que veo es que la imagen por pc no queda del todo centrada a la tv, es como si hiciera un pelo de zoom y se come unos milimetros de imagen por cada lado, y no veo donde se centra, ni en la tv ni en windows. En la misma imagen de atras se aprecia como se come la fecha un poco.

Otra cosa, en los juegod con hdr se activa solo al msrcar la opcion de hdr en el juego o hay que activarlo en la tv tambien?

Tengo una Rx 580, por si ayuda con el tema.
¿Y donde viste que sea de 10bit reales?, porque podria ser un panel con 8bit+RFC para simular 10bit [con lo que el HDR seria simulado y no real]. Tambien, si es un GPU geforce, el panel de control de nvidia puede estar limitando a que solo use 8bit [esto lo digo considerando que sea un panel de 10bit reales].

Tambien, el controlador generico de windows no ayuda mucho, ve si hay un controlador desde la pagina del fabricante para bajarlo e instalarlo, sino, pues puedes usar el software CRU ´para crear un controlador propio, CRU leera la informacion EDID del televisor, y podras modificar la parte deonde indica los bits de profundidad de color, asi lo cambis de 8 a 10bit.

Pagina ofuicial y descarga de CRU, desde los foros de guru3D.
https://forums.guru3d.com/threads/cru-c ... crt.410187



Esto tambien ayuda a quitar las limitaciones de los controladores Radeon y Geforce para la conexion HDMI.
hilo_amd-ati-pixel-clock-patcher-nvidia-pixel-clock-patcher_2247164



.
@TRASTARO

Es una LG Oled C8, es 10 bits nativos y tiene multitud de HDRs. Sale en todas las reviews, fabricante, etc..

La Gpu he puesto que es una Radeon Rx 580.

Voy a echar un vistazo a los links que pones.
El que tenga 'multitud de HDR' no significa nada, porque eso se puede forzar con el firmware del monitor/televisor. HDR, HDR10, Dolby Vision y variantes de HDR con su 'soporte' en el televisor no me prueba que sea de 10bit reales, porque como dije eso se puede forzar con 8bit+frc [el firmware].

Pero confiemos en esas reviews que dicen es de 10bit reales, y entonces ya es cosa del controlador de video y del controlador del monitor/televisor el que no aparezca. Porcierto, es raro que no aparezca en el controlador Adrenalin [o en cualqueira de los controladores radeon anteriores] el poder cambiar la profundidad de color.



.
@TRASTARO
Hombre si tanto el fabricante y webs como Rtings que analizan a fondo las tv ponen que es 10 bits y tine Hdr, hdr10,hdr pro, dolby vision, etc.. pues hombre, digo yo que sera verdad xD.
Da igual que lo tengas a 10 o a 8bit si el formato de color es un pobre y deficiente yuv 4:2:0

Imagen

Lo ideal es que fuese RGB o YUV444

El cable HDMI es seguro HDMI 2.0?
@Darumo

El cable hdmi no creo que sea 2.0 porque lo tengo desde la epoca de ps3, juraria es 1.3 o 1.4 a lo sumo.

Tiene que ser 2.0 para aprovechar 100% la tv? Osea hdr, 10 bits, 4:4:4, etc.
fonsiyu escribió:@Darumo

El cable hdmi no creo que sea 2.0 porque lo tengo desde la epoca de ps3, juraria es 1.3 o 1.4 a lo sumo.

Tiene que ser 2.0 para aprovechar 100% la tv? Osea hdr, 10 bits, 4:4:4, etc.


Sí. Necesitas un buen cable HDMI 2.0.

Con HDMI 1.4 a partir de 1080p ya o pierdes formato de color o herzios o ambos.

Tienes que estar viendo las letras y otras tantos detalles fatal ahora mismo en yuv420.

Te va a tocar darte una vuelta mañana a por un cable.
Darumo escribió:
fonsiyu escribió:@Darumo

El cable hdmi no creo que sea 2.0 porque lo tengo desde la epoca de ps3, juraria es 1.3 o 1.4 a lo sumo.

Tiene que ser 2.0 para aprovechar 100% la tv? Osea hdr, 10 bits, 4:4:4, etc.


Sí. Necesitas un buen cable HDMI 2.0.

Con HDMI 1.4 a partir de 1080p ya o pierdes formato de color o herzios o ambos.

Tienes que estar viendo las letras y otras tantos detalles fatal ahora mismo en yuv420.

Te va a tocar darte una vuelta mañana a por un cable.

Ostia creía que con hdmi 1.4 valía, he mirado y googleando la referencia de Sony que esta serigrafiada en el cable me sale que es 1.4, ya digo tendra 12 años igual xD.

Pues mirare un cable decente 2.0, alguna recomendación?

Y gracias por la info! No había caido en el cable.
fonsiyu escribió:@Darumo



Tiene que ser 2.0 para aprovechar 100% la tv? Osea hdr, 10 bits, 4:4:4, etc.


Pues depende, si es para resoluciones inferiores a UHD [2160p] el cable HDMI ver 1.4 te sirve, pero si es a resoluciones de UHD solo tendras 4:4:4 a frcuencias inferiores a 50/60Hz.

hilo_la-falacia-de-hdr-sobre-2160p-60hz-las-limitaciones-de-hdmi-2_2200897
Imagen
Ya te digo yo que hace poco cambié a una TV 4k que vas a tener que elegir entre RGB 4:4:4 a 8bits o 4:2:2 a 10/12bits. Eso si quieres poner Windows a 4k/60fps. Esto es debido a las limitaciones del HDMI (incluso el 2.0). Lo puedes cambiar en el panel de control de Nvidia.
Yo de momento me quedo con RGB 4:4:4 por cierto. Mejor definición en los colores aunque pierdo en algunos degradados.

Aprovecho para preguntar sobre el próximo HDMI 2.1 que si tendrá más ancho de banda. ¿creéis que podran las teles más antiguas beneficiarse de él por actualización de software o solo será posible usarlo con las que salgan con soporte en el futuro?
@El Centinela

No, necesitarás una pantalla HDMI 2.1 para usar las especificaciones HDMI 2.1 en una gráfica con HDMI 2.1. Así que no te beneficiarás ni del ancho de banda ni del refresco varíable si no es todo HDMI 2.1.
Darumo escribió:@El Centinela

No, necesitarás una pantalla HDMI 2.1 para usar las especificaciones HDMI 2.1 en una gráfica con HDMI 2.1. Así que no te beneficiarás ni del ancho de banda ni del refresco varíable si no es todo HDMI 2.1.

Pues Samsung en sus Qled usa 2.0 (2.0b ¿?) y dice tiene refresco variable (o lo tendran) y fresync.

Mi oled tiene el mismo hdmi que estos, y leí que LG mediante actualización meteria refresco variable.
fonsiyu escribió:
Darumo escribió:@El Centinela

No, necesitarás una pantalla HDMI 2.1 para usar las especificaciones HDMI 2.1 en una gráfica con HDMI 2.1. Así que no te beneficiarás ni del ancho de banda ni del refresco varíable si no es todo HDMI 2.1.

Pues Samsung en sus Qled usa 2.0 (2.0b ¿?) y dice tiene refresco variable (o lo tendran) y fresync.

Mi oled tiene el mismo hdmi que estos, y leí que LG mediante actualización meteria refresco variable.


Pero porque se habrán salido del estándar, refresco variable NO existe en el HDMI 2.0, que lo soporte extraoficialmente por soportar Freesync ya no sé, esto es tema de cada compañía. Pero si esperas que todas las compañías lo hagan, no, o lo harán donde les venga en gana.
@Darumo

Pero el refresco variable que es exactamente?
fonsiyu escribió:@Darumo

Pero el refresco variable que es exactamente?


Lo que hacen AMD Freesync y Nvidia Gsync. La pantalla ajusta la sincronía del panel cuando la gráfica le dice, no es la gráfica la que tiene que esperar unos momentos fijos para sincronizar la imagen, que si pierde ese momento la imagen vieja estará el doble de tiempo del que debería porque no se ha cambiado por la nueva, y el resultado de perder el momento de sincronia y esperar a la siguiente hace que no se note suave.

Con esto del refresco variable se traduce en mucha mas suavidad al ser mas uniforme.

Piensa en la pantalla como si fuese un tren, con la sincronía normal Vsync el tren siempre sale cada 5minutos, si llegas 5minutos y 1sg tarde tendrás que esperar al siguiente para poder montarte. Con el refresco/sincronía variable el tren siempre sale digamos cuando tu llegas.

Ahora en el monitor, suponiendo 60hz que sé que son 16.6ms por imagen. Si tu grafica pierde ese momento (no tiene la imagen aún terminada) a los 16.6ms, no podrá sincronizar y la vieja imagen se mostrará 33.2ms, el doble de tiempo. La vista se da cuenta de una falta de suavidad cuando hay 16.6 16.6 de pronto 33.2 16.6 16.6 33.2 33.2, nota que hay un algo que está más tiempo y no lo nota suave. Con el refresco variable, si la imagen tarda 18ms en vez de 16.6, se mostrará en 18ms no tiene porqué esperar, ni la vieja imagen está el doble de tiempo, esto da una uniformidad que lo hace ver suave.

Lógicamente esto tiene un rango de hz mínimos y máximos efectivos donde puede variar según el panel de la pantalla.

Por ponerte un ejemplo, que tengas variaciones de 55~60fps, es IMPERCEPTIBLE en una pantalla con sincronía variable. En cambio esas pequeñas bajadas se notan apreciablemente en las pantallas de hz fijos como falta de suavidad o tironcillos (stuttering).
Pero si viene a ser lo mismo que el Freesync o Gsync, porque se necesita un hdmi 2.1? Si con un hdmi inferior se pueden usar esas dos tecnologias?
fonsiyu escribió:Pero si viene a ser lo mismo que el Freesync o Gsync, porque se necesita un hdmi 2.1? Si con un hdmi inferior se pueden usar esas dos tecnologias?


Porque oficialmente no existe adaptive sync en HDMI 2.0 e inferiores. El estándar no lo contempla. Ningún fabricante tiene obligación alguna.

Y Freesync funciona en HDMI como algo extra no estándar por parte de AMD no es algo que se haya contemplado en especificaciones, pero Nvidia nunca ha funcionado Gsync en HDMI ni tampoco ahora que permiten usar Adaptive Sync, Nvidia siempre Gsync ha sido en Displayport.

Displayport siempre ha estado años por delante al HDMI en prestaciones, tanto en ancho de banda, como resoluciones y demás prestaciones. HDMI es el patito feo que siempre parece ir más atrasado que las pantallas que salen al mercado.
Este cable es realmente 2.0?

AmazonBasics - Cable HDMI 2.0 de Alta Velocidad (Ethernet, 3D, vídeo 4K y ARC, 1.8 m), Color Negro
https://www.amazon.es/dp/B014I8SSD0/ref ... GCbNNFXS66

O mejor buscar uno 2.0b o 2.1 para un futuro? Muchos cables que he visto 2.0 luego en los comentarios mucha gente pone que no es 2.0 y que no les sirve para 10 bits, 4k 60hz o 4:4:4.
BNueno, es que esas interfaces estan planeadas para mercados y necesidades diferentes.

HDMI para video casero. Por eso usa los estandares de resoluciones y frecuencias de refresco de pantalla estandares de los sistemas de television y video casero digital

DisplayPort para estaciones graficas, por ello tiene mayor cantidad de resoluciones soportadas, mayores relaciones de refresco de pantalla, mas funciones y por ello mayor ancho de banda, intrucciones, metadatos y etc., etc., etc.

Basicamente hay una certificacion de HDMI 2.0 pero en si, mientras ponga que es un cable HDMI de muy alta velocidad swera un cable HDMI 2.0

hilo_nueva-certificacion-premium-para-cables-hdmi_2127460
hilo_hdmi-2-1-y-hdmi-alt-para-mediados-de-este-2017_2214031

Ahora, ¿de que nos serviria el refresco variable en un televisor empleando HDMI?, pensando en un aparato reproductor de video solamente, pues sirve muy a cuenta para video codificado en VFR [variable frame rate o velocidad de cuadroa variante], donde, por ejemplo, escenas con muy poca accion o movimiento se puede codificar a una velocidad de 16fps, luego en escenas con mas movimiento ir a 21-22fps y en escenas de mucha accion y movimiento ir a los 25fps o 29.97fps, asi se aprovecha mejor el bitrate, se mantiene una buena calidad de imagen, se mantiene una fluidez del movimiento.

Pensando en juegos, ya sea en consolas o en la PC, pues igualmente se obtiene la mayor fluidez de movimiento durante el juego.

hilo_alguien-me-explica-que-es-free-sync-g-sync-v-sync-y-en-que-afecta-en-un-monitor_2320133#p1747211577


Asi que agregandiolo como parte del estandar del HDMI se tiene una gran ganancia en prestaciones.



.
@TRASTARO

Viendo esos posts, para que un cable sea HDMI 2.0 real debe poner o llevar una certificación Premium, si es High Speed es inferior, y luego esta Ultra que llega hasta los 48gbps, no?

Porque ayer estando en un Carrefour todos los cables eran High Speed, uno ponía 2.0 pero detras ponía que llegaba hasta los 17gbps, no debería ser 18?
Los 18Gbps son teoricos, ya reales o mas creibles serian los 17Gbps
A mí me pasa lo mismo con la Sony XF9005 y por ahora no hay manera de cambiarla a 10bits en la configuración de Windows. Diría que mi HDMI si es 2.0, ¿has conseguido solucionarlo?.

Saludos.
El Centinela escribió:Ya te digo yo que hace poco cambié a una TV 4k que vas a tener que elegir entre RGB 4:4:4 a 8bits o 4:2:2 a 10/12bits. Eso si quieres poner Windows a 4k/60fps. Esto es debido a las limitaciones del HDMI (incluso el 2.0). Lo puedes cambiar en el panel de control de Nvidia.
Yo de momento me quedo con RGB 4:4:4 por cierto. Mejor definición en los colores aunque pierdo en algunos degradados.

Aprovecho para preguntar sobre el próximo HDMI 2.1 que si tendrá más ancho de banda. ¿creéis que podran las teles más antiguas beneficiarse de él por actualización de software o solo será posible usarlo con las que salgan con soporte en el futuro?

Pues efectivamente he cambiado el cable y bien elijo 8 bits y 4:4:4 o 4:2:2 y 10 o 12 bits.

Lo que por que me sale 12 bits si la tv que yo sepa es de 10 bits?

Luego tambien veo que hay dos opciones en 4:4:4
- RGB 4:4:4 Pixel Format Pc standart (full rgb)
- YcbCr 4:4:4 Pixel format

Cual es mejor?
Por HDMI y para el televisor usaria YCbCr [componetes de video], aunque no se tendria el rango completo de colores [de 16 a 250 niveles, en lugar de 0-255 niveles del Full range]
fonsiyu escribió:@TRASTARO

Viendo esos posts, para que un cable sea HDMI 2.0 real debe poner o llevar una certificación Premium, si es High Speed es inferior, y luego esta Ultra que llega hasta los 48gbps, no?

Porque ayer estando en un Carrefour todos los cables eran High Speed, uno ponía 2.0 pero detras ponía que llegaba hasta los 17gbps, no debería ser 18?


https://www.amazon.com/HDMI-Cable-6-5ft ... B078LTNDZW

lo tengo en el salon , lo recomiendo
Titán_Salvaje_ escribió:
fonsiyu escribió:@TRASTARO

Viendo esos posts, para que un cable sea HDMI 2.0 real debe poner o llevar una certificación Premium, si es High Speed es inferior, y luego esta Ultra que llega hasta los 48gbps, no?

Porque ayer estando en un Carrefour todos los cables eran High Speed, uno ponía 2.0 pero detras ponía que llegaba hasta los 17gbps, no debería ser 18?


https://www.amazon.com/HDMI-Cable-6-5ft ... B078LTNDZW

lo tengo en el salon , lo recomiendo

Pero realmente ese cable da 22gbps de ancho de banda? Podria llegar a 10 bits 4:4:4?

Porque si me va a dar la misma opcion que el que me ha llegado hoy de 8 bits y 4:4:4 o 10 bits 4:2:2...

@TRASTARO

Pero si rgb da todo el rango de colores porque es mekor Ycbcr?
yo creo que si , pero si quieres salir de dudas pregunta directamente al fabricante support@zeskit.com en 24 horas te responden
Porque los televisores emplean YCbCr
@Titán_Salvaje_

Una cosa, ese enlace es de amazon usa, no cobran aduanas o mucho de envio? En amazon espeña no lo veo.
como haceis para que os detecte Windows el TV?

Tengo una Sony Bravia y me pone lo tipico, monitor o tv generico... No se Rick.
fonsiyu escribió:@Titán_Salvaje_

Una cosa, ese enlace es de amazon usa, no cobran aduanas o mucho de envio? En amazon espeña no lo veo.


aduanas no al ser un producto inferior a 20 euros , los gastos de envio son 5 euros en envio stardard
31 respuestas