El submuestreo de color, denominado técnicamente submuestreo de crominancia, suele presentar valores de 4:2:0, 4:2:2 o 4:4:4 y afecta directamente a la calidad del vídeo. El primer número hace referencia a la luminancia, el segundo al color azul y el tercero al rojo.
TRASTARO escribió:Que tenga un impacto significativo; incluso lo tenga, en el rendimiento del juego, no te preocupes por ello, usa la que mas calidad de imagen puedas usar [4:2:2]
Rubéns escribió:hay diferencia en los juegos?
TRASTARO escribió:..
Asi que usa los 12bit de profundidad de color [que seria la calidad en que se generraran las imagenes],..
.
ionesteraX escribió:@Rubéns Usa rgb y rango completo si es para juegos, lo más sencillo es dejar en automatico y ya se selecciona solo segun la fuente que entre.
ionesteraX escribió:@Rubéns Te debe dar dos opciones una manual y con el checkbox de arriba automatica:
pdriko31 escribió:Perdonad pir meterme en el hilo, sabéis alguno porque al activar hdr se quedan los colores apagados en vez de vivos? Tengo monitor con hdr10, gtx 1070,windows 10 actualizado.
Rubéns escribió:pdriko31 escribió:Perdonad pir meterme en el hilo, sabéis alguno porque al activar hdr se quedan los colores apagados en vez de vivos? Tengo monitor con hdr10, gtx 1070,windows 10 actualizado.
en el panel de control de nvidia en el apartado de cambiar la resolucion un poco mas abajo, donde pone lo de los bit y el color lo pones en predeterminado, prueba aver
ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).
pdriko31 escribió:ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).
Imagino que aunque sea un monitor,hdr es hdr igualmente,pasa lo mismo le ponga hdmi high speed o displayport 1.4,de todos modos el doa 30 me llega otro nuevo a ver si el monitor es el problema o es la grafica o el mismo windows,esto es una gran odisea
Rubéns escribió:pdriko31 escribió:ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).
Imagino que aunque sea un monitor,hdr es hdr igualmente,pasa lo mismo le ponga hdmi high speed o displayport 1.4,de todos modos el doa 30 me llega otro nuevo a ver si el monitor es el problema o es la grafica o el mismo windows,esto es una gran odisea
cuantos metros de cables tienes y que version de hdmi es, yo uso el hdr en el samsung qled9fn, porque mi monitor no es hdr,
pero lo de que se ve mas oscuro el hdr al activarlo en windows 10 es normal, pero en los juego no pasa, en los juegos se ven mas vivos y realistas los colores,
en windows 10 en donde activas el hdr tiene como para configurar el brillo sdr, le puedes poner mas brillo pero no llega a verse con el brillo como si tubieras hdr desactivado.
ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.
TheBanditPCL escribió:@Rubéns Por muchos bits que pongas en la salida, la TV tiene panel de 10 bits, si lo pones a 12 estás enviando información que no ves.
ionesteraX escribió:@pdriko31 Tambien depende del juego, por ejemplo en el odyssey creo recordar que no te da la opción de marcar la casilla de hdr si no lo activas antes en windows ( hablo de memoria pero juraria que es así ) mientras que otros juegos al entrar en ellos y activar el hdr es cuando windows lo activa.
Yo sigo pensando que es problema de cable ( prueba con otros, de la ps4 por ejemplo si la tienes ) o es cuestión del monitor, si tienes actualizado windows a la última versión no hay más.
pdriko31 escribió:ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.
Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?
angelillo732 escribió:pdriko31 escribió:ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.
Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?
El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.
¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.
En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.
Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.
TRASTARO escribió:Rubéns escribió:hay diferencia en los juegos?TRASTARO escribió:..
Asi que usa los 12bit de profundidad de color [que seria la calidad en que se generraran las imagenes],..
.
Y como dicen arriba, usa rango completo, asi te dara toda la gfama de colores posibles.
pdriko31 escribió:angelillo732 escribió:pdriko31 escribió:Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?
El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.
¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.
En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.
Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.
Es de 10 bits reales y 3000:1 de contraste
https://www.displayspecifications.com/es/model/413b1231
Échale un vistazo.
angelillo732 escribió:pdriko31 escribió:angelillo732 escribió:
El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.
¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.
En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.
Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.
Es de 10 bits reales y 3000:1 de contraste
https://www.displayspecifications.com/es/model/413b1231
Échale un vistazo.
No tiene nada que ver, lo importante aquí son los nits como te digo, y de hecho, en esa misma web que me has pasado pone que es capaz de alcanzar 600 solo en ocasiones y en partes pequeñas de la pantalla, así que es aún peor.
Básicamente, es tremendamente difícil ver la diferencia entre sdr y HDR.
angelillo732 escribió:@pdriko31 Hay un hilo en el subforo general de Xbox que habla sobre el hdr, ahí hay gente que controla muchísimo.
Es imposible que se note muchísimo, lo que hace la gente es sobresaturar los colores y romper los degradados de estos, si vieras un monitor perfectamente calibrado seguramente te parecería muy fea la imagen ya que en tiendas, móviles y todo tipo de pantallas, retocan los colores y los exageran para así vender y que sean más atractivos a la vista.
Si quieres una imagen de verdad real a como los desarrolladores de juegos o películas lo hicieron, necesitas una sonda de calibrado, todo lo demás es marketing, y si quieres un HDR mirate una oled y ya verás como tienes cero problemas y, entonces si fliparas con el hdr y el brillo que mete eso.
angelillo732 escribió:@pdriko31 Por que en videojuegos no se estila tanto, y los desarrolladores no siempre lo implementan bien, pero tú mismo puedes hacer la prueba, configura bien en sdr y no notarás diferencia alguna entre sdr y HDR.
pdriko31 escribió:angelillo732 escribió:@pdriko31 Por que en videojuegos no se estila tanto, y los desarrolladores no siempre lo implementan bien, pero tú mismo puedes hacer la prueba, configura bien en sdr y no notarás diferencia alguna entre sdr y HDR.
Yo creo que no, el problema es la relación monitor-Nvidia, los controladores no se llevan bien, hice una prueba con un driver antiguo y al activar HDR se veia todo rosa!?
angelillo732 escribió:@Rubéns Bueno, yo no me refiero a eso, pero es cierto que cuanto mejores degradados debería haber.
Rubéns escribió:angelillo732 escribió:@Rubéns Bueno, yo no me refiero a eso, pero es cierto que cuanto mejores degradados debería haber.
pero quería saber cual es la diferencia en hdr 10 vs 12 bit
que si es menos o igual de apreciable 8 bit vs 10 que 10 vs 12