hdr 10 bit vs 12 bit

Hola amigo, tengo conectado el pc a la qled 9qfn, y al parecer en windows 10 64 bit, en el panel de nvidia, me deja coger también los 12 bit con 420, 422,
y no se cual es la diferencia.
4:2:2 te dara mas colores y degradados de color con menos bandas, lo cual es la mejor opcion para el tema de HDR [y en si de cualquier tipo de imagen]. En si influye en la calidad de la imagen que se muestra, siendo la mejor calidad el 4:4:4, la siguiente seria el 4:2:2.

Asi que usa los 12bit de profundidad de color [que seria la calidad en que se generraran las imagenes], y elige el 4:2:2 [la calidad de la imagen transmitida por la tarjeta de video a sus puertos de salida de video].

El submuestreo de color, denominado técnicamente submuestreo de crominancia, suele presentar valores de 4:2:0, 4:2:2 o 4:4:4 y afecta directamente a la calidad del vídeo. El primer número hace referencia a la luminancia, el segundo al color azul y el tercero al rojo.


https://www.cinedigital.tv/que-es-todo- ... ubsampling
https://www.formacionaudiovisual.com/bl ... -422-y-444


Imagen




.
Nos vamos mejor al subforo General de PC ;).
En mi opinion lo mejor sería en RGB o 4:4:4, que son sin compresión de color.

No sirve de mucho intentar subir los bits, si al final terminas teniendo mucho Chroma subsampling, porque esto deriva en tonos de color peores, ya que es una compresión del color para reducir el ancho de banda necesario para representar la imagen. 4:2:2 puede ser medio razonable según el contenido que se va a ver, películas o juegos, 4:2:0 intentar ver elotrolado en esa pantalla puede ser bastante doloroso ya que en tonos de color básicos (R G B) o texto lo notarás mucho.

Mira en los rojos y verdes de esta imagen
Imagen
vale lo que se me olvido preguntar, es en como afecta a los juegos, porque para ver pelis uso hdd al tele y en juegos el pc, claro está que como mucho me coge 422 a 12 bit de pc a tv, porque según en leido el cable hdmi 2.0 está limitado el ancho de banda + el televisor que no admite el 2.1
Que tenga un impacto significativo; incluso lo tenga, en el rendimiento del juego, no te preocupes por ello, usa la que mas calidad de imagen puedas usar [4:2:2]
TRASTARO escribió:Que tenga un impacto significativo; incluso lo tenga, en el rendimiento del juego, no te preocupes por ello, usa la que mas calidad de imagen puedas usar [4:2:2]

pero a 10 o 12 bit?
hay diferencia en los juegos?
@Rubéns Usa rgb y rango completo si es para juegos, lo más sencillo es dejar en automatico y ya se selecciona solo segun la fuente que entre.
Rubéns escribió:hay diferencia en los juegos?


TRASTARO escribió:..

Asi que usa los 12bit de profundidad de color [que seria la calidad en que se generraran las imagenes],..


.


Y como dicen arriba, usa rango completo, asi te dara toda la gfama de colores posibles.
ionesteraX escribió:@Rubéns Usa rgb y rango completo si es para juegos, lo más sencillo es dejar en automatico y ya se selecciona solo segun la fuente que entre.

automático?? tengo nvidia, no veo esa opción por ninguna parte, solo me deja seccionar RGB a 8 bit 444 rango completo, para lo demas es ycbcr limitado a 420, 422, a 10 o 12 bit
@Rubéns Te debe dar dos opciones una manual y con el checkbox de arriba automatica:

Imagen
ionesteraX escribió:@Rubéns Te debe dar dos opciones una manual y con el checkbox de arriba automatica:

Imagen

te refieres en el apartado 3:
configuracíon de color predeterminada: seria la automática

configuración de color de nvidia: sería la manual

es así?
Hola buenas , ionesteraX te quería preguntar una cosa yo tengo una TV Sony 4k con panel de 10bits y una GTX 1080TI ,la mejor configuración en el panel de control de NVIDIA es dejar la configuración de color en automático como le has comentado al compañero? Eso no afecta al HDR ni nada no? Y con la gráfica y TV que te he comentado es como mejor se verian los juegos?

Gracias
@chikitin No es que sea la mejor, simplemente es la más sencilla para evitar errores, segun la fuente te dara lo que necesitas, cuando este en sdr te dara rgb 8bits y cuando este en hdr te dara 420 o 422 10bits que es lo maximo que tira por ancho de banda en hmdi 2.0, cuando tengamos trastos que tiren hdmi 2.1 supongo que aumentara esa salida a 444 mediante drivers.

Despues tú ya puedes poner parametros diferentes si les vas a sacar partido, por ejemplo yo recuerdo hace años jugar al último mass effect en hdr a 444 12bits por probar, bajando la resolucion a 1080p para reducir ese ancho de banda.

En resumen, dejalo automatico salvo que no te pille el hdr cuando entres a un juego que lo tenga cosa que a mi no me pasa en ningun juego con drivers y windows actualizado.
Perdonad pir meterme en el hilo, sabéis alguno porque al activar hdr se quedan los colores apagados en vez de vivos? Tengo monitor con hdr10, gtx 1070,windows 10 actualizado.
pdriko31 escribió:Perdonad pir meterme en el hilo, sabéis alguno porque al activar hdr se quedan los colores apagados en vez de vivos? Tengo monitor con hdr10, gtx 1070,windows 10 actualizado.

en el panel de control de nvidia en el apartado de cambiar la resolucion un poco mas abajo, donde pone lo de los bit y el color lo pones en predeterminado, prueba aver
Rubéns escribió:
pdriko31 escribió:Perdonad pir meterme en el hilo, sabéis alguno porque al activar hdr se quedan los colores apagados en vez de vivos? Tengo monitor con hdr10, gtx 1070,windows 10 actualizado.

en el panel de control de nvidia en el apartado de cambiar la resolucion un poco mas abajo, donde pone lo de los bit y el color lo pones en predeterminado, prueba aver

Al ponerlo me pasa lo mismo y a veces salen brillos verdes.
@Rubéns Por muchos bits que pongas en la salida, la TV tiene panel de 10 bits, si lo pones a 12 estás enviando información que no ves.
@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).
ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).

Imagino que aunque sea un monitor,hdr es hdr igualmente,pasa lo mismo le ponga hdmi high speed o displayport 1.4,de todos modos el doa 30 me llega otro nuevo a ver si el monitor es el problema o es la grafica o el mismo windows,esto es una gran odisea [buuuaaaa]
pdriko31 escribió:
ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).

Imagino que aunque sea un monitor,hdr es hdr igualmente,pasa lo mismo le ponga hdmi high speed o displayport 1.4,de todos modos el doa 30 me llega otro nuevo a ver si el monitor es el problema o es la grafica o el mismo windows,esto es una gran odisea [buuuaaaa]

cuantos metros de cables tienes y que version de hdmi es, yo uso el hdr en el samsung qled9fn, porque mi monitor no es hdr,
pero lo de que se ve mas oscuro el hdr al activarlo en windows 10 es normal, pero en los juego no pasa, en los juegos se ven mas vivos y realistas los colores,
en windows 10 en donde activas el hdr tiene como para configurar el brillo sdr, le puedes poner mas brillo pero no llega a verse con el brillo como si tubieras hdr desactivado.
Rubéns escribió:
pdriko31 escribió:
ionesteraX escribió:@pdriko31 Ya lo comentamos en el otro hilo, al ser un monitor yo ahí ya me pierdo en como trata ese hardware la fuente que le entra, en una tele va perfecto el hdr, almenos en los modelos que he probado yo de samsung y lg ( 3 oleds ).

Imagino que aunque sea un monitor,hdr es hdr igualmente,pasa lo mismo le ponga hdmi high speed o displayport 1.4,de todos modos el doa 30 me llega otro nuevo a ver si el monitor es el problema o es la grafica o el mismo windows,esto es una gran odisea [buuuaaaa]

cuantos metros de cables tienes y que version de hdmi es, yo uso el hdr en el samsung qled9fn, porque mi monitor no es hdr,
pero lo de que se ve mas oscuro el hdr al activarlo en windows 10 es normal, pero en los juego no pasa, en los juegos se ven mas vivos y realistas los colores,
en windows 10 en donde activas el hdr tiene como para configurar el brillo sdr, le puedes poner mas brillo pero no llega a verse con el brillo como si tubieras hdr desactivado.

Lo tengo por displaypoet 1.4 y tiene 1 metro, active o no el hdr en windows se ve igual, colores lavados, en el juego lo mismo.
@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.
ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.

Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?
@pdriko31 Tambien depende del juego, por ejemplo en el odyssey creo recordar que no te da la opción de marcar la casilla de hdr si no lo activas antes en windows ( hablo de memoria pero juraria que es así ) mientras que otros juegos al entrar en ellos y activar el hdr es cuando windows lo activa.

Yo sigo pensando que es problema de cable ( prueba con otros, de la ps4 por ejemplo si la tienes ) o es cuestión del monitor, si tienes actualizado windows a la última versión no hay más.
TheBanditPCL escribió:@Rubéns Por muchos bits que pongas en la salida, la TV tiene panel de 10 bits, si lo pones a 12 estás enviando información que no ves.

pero lo que yo no entiendo es si el tele es de 10 bit porque me deja coger tambien 12 bit,
porque en el monitor que es 8 bit no me deja coger nada mas que eso, lo cual eso tiene mas sentido.

por cierto otra cosa que he visto porque, esque ifluye el hdr en el nombre de entrada que tengas, en que influye?
yo lo tengo en consola en vez de pc
ionesteraX escribió:@pdriko31 Tambien depende del juego, por ejemplo en el odyssey creo recordar que no te da la opción de marcar la casilla de hdr si no lo activas antes en windows ( hablo de memoria pero juraria que es así ) mientras que otros juegos al entrar en ellos y activar el hdr es cuando windows lo activa.

Yo sigo pensando que es problema de cable ( prueba con otros, de la ps4 por ejemplo si la tienes ) o es cuestión del monitor, si tienes actualizado windows a la última versión no hay más.

La play no la tengo,que cable me recomiendas?
@pdriko31 Si probaste por displayport y te da el mismo problema no creo que sea el cable, por eso te comente que rebajas los hz o la resolución para ver si te solucionaba el problema ya que así consumiria menos ancho de banda y se vería si el cable te da problemas o no pero creo me dijiste windows no te deja poner hdr si no estas en 4K 60hz, no estoy en casa para probarlo pero dale un tiento a ver si te deja poner hdr rebajando una de esas dos cosas.
@ionesteraX a lo mejor no me expliqué bien, mi monitor no es 4k,es 1440p y si he probado 1080p,30hrz,etc...yo tampoco creo que sea del cable, yo creo que es problema de mi gtx 1070, de todos modos el dia 30 me sustituyen el monitor por otro nuevo, a ver si es del mismo monitor y salimos de dudas, gracias.
pdriko31 escribió:
ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.

Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?


El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.

¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.

En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.

Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.
angelillo732 escribió:
pdriko31 escribió:
ionesteraX escribió:@pdriko31 Si y no, el hdr por ejemplo es tratado de forma diferente en la misma tele si pones ocmo entrada consola o pc, por eso te comento que no se hasta que punto influye el monitor, busca por internet gente con el mismo monitor y mira si alguien tuvo ese problema y como lo soluciono, a mi ese color verdoso que comentas me sale cuando le meto una fuente que se aproxima al ancho de banda que permite el cable, me pasaba eso y tambien como parpadeos, fue cuestion de cambiar de cable, pero tambien la tele influye ya que una b6 que tengo es más sensible a eso que la última c9.

Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?


El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.

¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.

En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.

Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.

Es de 10 bits reales y 3000:1 de contraste
https://www.displayspecifications.com/es/model/413b1231

Échale un vistazo.
TRASTARO escribió:
Rubéns escribió:hay diferencia en los juegos?


TRASTARO escribió:..

Asi que usa los 12bit de profundidad de color [que seria la calidad en que se generraran las imagenes],..


.


Y como dicen arriba, usa rango completo, asi te dara toda la gfama de colores posibles.


Rango completo tambien en caso de consolas? Siempre he leído que es ideal ponerlo limitado para las tv, aunque si lo pongo en automático en consola (PS4) me selecciona rango completo la verdad.
pdriko31 escribió:
angelillo732 escribió:
pdriko31 escribió:Lo raro es que cambié de cable a uno 1.4 displayport, no sé si probar otro que sea hdmi, puede ser que los tiros vayan por el mismo controlador de Nvidia, he probado drivers antiguos y directamente no me patece la opción en Wundows de activarlo, me he dado cuenta de una cosa, si inicio un juego y se activa automáticamente el HDR se apagan los colores, pues bien, si le doy ctrl+alt+spr y salgo al escritorio y apago el HDR de windows, se ve el escritorio en HDR(los colores más saturados), si vuelvo al juego me salta el hdr de Windows y se vuelve a ver lavados...
No hay alguna manera de que Windows no active automáticamente el HDR? No sé, desactivandolo desde el registro o algo?


El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.

¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.

En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.

Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.

Es de 10 bits reales y 3000:1 de contraste
https://www.displayspecifications.com/es/model/413b1231

Échale un vistazo.


No tiene nada que ver, lo importante aquí son los nits como te digo, y de hecho, en esa misma web que me has pasado pone que es capaz de alcanzar 600 solo en ocasiones y en partes pequeñas de la pantalla, así que es aún peor.

Básicamente, es tremendamente difícil ver la diferencia entre sdr y HDR.
angelillo732 escribió:
pdriko31 escribió:
angelillo732 escribió:
El HDR no satura lo colores, lo que da es un mayor contraste entre negros y blancos, haciéndolos más puros, algo de lo que obviamente se benefician los colores más brillantes y oscuros. Si ves colores saturados cuando activas HDR, es por que está mal, de hecho, es más parecido al HDR el escritorio con colores lavados que colores saturados.

¿Por que pasa esto? Al tener un HDR600, prácticamente no hay diferencia apreciable entre ese HDR y el SDR, ya que no hay nits suficientes para mostrar correctamente contenido HDR ni los minimos de luminancia que este requiere, ni en iluminaciones ni, por supuesto en negros, por eso paneles OLED, son ideales.

En estos casos, se recomienda no usar HDR si quieres una mejor calidad imagen, desgraciadamente, el HDR por debajo de los 1.000 nits en paneles ips es casi inservible y no hace más que dar problemas, esto está hablado muchas veces en webs especializadas como rtings.

Mi consejo es que desactives el HDR y te evites comerte la cabeza, nunca te funcionará bien, para poder apreciar un HDR "básico", sería a partir de los mil nits (como he comentado antes) y si puede ser oled mejor, hay alguno por los mil y poco €.

Es de 10 bits reales y 3000:1 de contraste
https://www.displayspecifications.com/es/model/413b1231

Échale un vistazo.


No tiene nada que ver, lo importante aquí son los nits como te digo, y de hecho, en esa misma web que me has pasado pone que es capaz de alcanzar 600 solo en ocasiones y en partes pequeñas de la pantalla, así que es aún peor.

Básicamente, es tremendamente difícil ver la diferencia entre sdr y HDR.

Un compañero de este foro tiene el monitor pero con una grafica AMD y a él le funciona de pt,no tiene ningun problema que yo presento y segun dice el HDR se nota un wevo al activarlo,cosa que a mi no,por eso decia lo de mi grafica Nvidia,el monitor lleva tecnologia AMD(freesync) y por eso a lo mejor no funciona bien con los drivers de Nvidia
@pdriko31 Hay un hilo en el subforo general de Xbox que habla sobre el hdr, ahí hay gente que controla muchísimo.

Es imposible que se note muchísimo, lo que hace la gente es sobresaturar los colores y romper los degradados de estos, si vieras un monitor perfectamente calibrado seguramente te parecería muy fea la imagen ya que en tiendas, móviles y todo tipo de pantallas, retocan los colores y los exageran para así vender y que sean más atractivos a la vista.

Si quieres una imagen de verdad real a como los desarrolladores de juegos o películas lo hicieron, necesitas una sonda de calibrado, todo lo demás es marketing, y si quieres un HDR mirate una oled y ya verás como tienes cero problemas y, entonces si fliparas con el hdr y el brillo que mete eso.
angelillo732 escribió:@pdriko31 Hay un hilo en el subforo general de Xbox que habla sobre el hdr, ahí hay gente que controla muchísimo.

Es imposible que se note muchísimo, lo que hace la gente es sobresaturar los colores y romper los degradados de estos, si vieras un monitor perfectamente calibrado seguramente te parecería muy fea la imagen ya que en tiendas, móviles y todo tipo de pantallas, retocan los colores y los exageran para así vender y que sean más atractivos a la vista.

Si quieres una imagen de verdad real a como los desarrolladores de juegos o películas lo hicieron, necesitas una sonda de calibrado, todo lo demás es marketing, y si quieres un HDR mirate una oled y ya verás como tienes cero problemas y, entonces si fliparas con el hdr y el brillo que mete eso.

El caso es que las peliculas con HDR y videos las veo perfectas, con HDR activado, pero en juegos no, tengo el cidec Hecv.
@pdriko31 Por que en videojuegos no se estila tanto, y los desarrolladores no siempre lo implementan bien, pero tú mismo puedes hacer la prueba, configura bien en sdr y no notarás diferencia alguna entre sdr y HDR.
angelillo732 escribió:@pdriko31 Por que en videojuegos no se estila tanto, y los desarrolladores no siempre lo implementan bien, pero tú mismo puedes hacer la prueba, configura bien en sdr y no notarás diferencia alguna entre sdr y HDR.

Yo creo que no, el problema es la relación monitor-Nvidia, los controladores no se llevan bien, hice una prueba con un driver antiguo y al activar HDR se veia todo rosa!?
pdriko31 escribió:
angelillo732 escribió:@pdriko31 Por que en videojuegos no se estila tanto, y los desarrolladores no siempre lo implementan bien, pero tú mismo puedes hacer la prueba, configura bien en sdr y no notarás diferencia alguna entre sdr y HDR.

Yo creo que no, el problema es la relación monitor-Nvidia, los controladores no se llevan bien, hice una prueba con un driver antiguo y al activar HDR se veia todo rosa!?


Es que da igual, aún que se llevarán bien, te invito a que entres en rtings.com y leas reviews de teles con HDR por abajo de los 1000 nits, ya verás que siempre hablan de HDR insuficiente.

Aprovecha los 10 bits en sdr que ya está de lujo.
lo del tema de las bandas seran según en que zonas y según en que juegos, esque no estoy seguro de averlo entendido de que tiene menos bandas 10 bit que 8 bit,
si que es verdad que por ejemplo en el Resident evil 2 remake en la gasolinera, cuando me voy a la lluvia y miro el cielo hay menos bandas con 10 bit que con 8 pero siguen habiendo, a eso os referís?
@Rubéns Bueno, yo no me refiero a eso, pero es cierto que cuanto mejores degradados debería haber.
angelillo732 escribió:@Rubéns Bueno, yo no me refiero a eso, pero es cierto que cuanto mejores degradados debería haber.

pero quería saber cual es la diferencia en hdr 10 vs 12 bit
que si es menos o igual de apreciable 8 bit vs 10 que 10 vs 12
Rubéns escribió:
angelillo732 escribió:@Rubéns Bueno, yo no me refiero a eso, pero es cierto que cuanto mejores degradados debería haber.

pero quería saber cual es la diferencia en hdr 10 vs 12 bit
que si es menos o igual de apreciable 8 bit vs 10 que 10 vs 12


Pues depende de tu monitor o tv, si es de 8 bits, da igual que lo pongas a 10 o 12, siempre estará a 8. Cuantos más bits más colores será capaz de reproducir. Siempre tienes que poner los bits que tenga tu monitor, poner más no sirve de nada.
Hola iba a hacer una pregunta tengo una Sony xf8596 4k panel de 10bits y una GTX 1080ti , en el panel de NVIDIA cómo debo ponerlo?

En automático?

O:


Profundidad de color de escritorio: Máxima (32 bits)
Profundidad de color de salida: 10 bpc
Formato de color de salida: YCbCr422
Rango dinámico de salida: Limitado

O:

Profundidad de color de escritorio: Máxima (32 bits)
Profundidad de color de salida: 8 bpc
Formato de color de salida: YCbCr422 / YCbCr444
Rango dinámico de salida: Completo


Gracias
@chikitin Puedes ponerlo de varias maneras.

En automático.

En RGB, 10 bits y completo

En 422, 10 y limitado

Todas son válidas diría yo, pruébalas todas por qué pc y TV es un mundo a parte..

Yo lo dejaría en automático y te evitas fallos.
@angelillo732 ya me funciona el HDR con el monitor renovado,te dejo un par de fotos(con el movil) que en directo se nota un monton en los negros y blancos y algo en el color,se ve como mas definido:
Sin HDR
Imagen

Con HDR
Imagen

Que opinas compi?
@pdriko31 Se ve muy bien y se nota mucho el plus de contraste. Que has hecho al final?

Según mi experiencia, para que el HDR se note aún que sea flojito, hay que configurar la tele o monitor en sdr correctamente, sobre todo en temas de brillo y color, ya que luego, en HDR, hayq ue dar casi a tope de brillo, contraste y se puede subir más la saturación de color (siempre mirando patrones). Ahí es donde realmente se aprecia la diferencia.
@angelillo732 sinceramente ni idea,lo unico que he echo es actualizar el driver de la grafica,subir un poco el vibrance y ponerlo en 422,de todos modos mirare en profundidad lo que me dices,pero ya te digo,no me impresiona mucho porque incluso con reshade consigo mejores resultados.
@pdriko31 Lo más importante es que, cuando esté el hdr activado, en el monitor tiene que estar brillo y contraste a máximo prácticamente. En sdr tienes que tener el brillo a la mitad, el contraste también puedes bajarlo un poco.
60 respuestas
1, 2