El HDR, el 4K y la ONE X [Toda la información útil en el primer post]

Buenas, hace ya algunos meses se actualizó mi LG c7 y aparentemente se solucionó el tema del Hdr oscuro en muchos juegos. El caso es que en Assassin's Creed Odissey, lo tenía anteriormente a 1000 de luminancia, 120 blanco papel y brillo creo recordar que 2 puntos.

Pero no lo había vuelto a tocar después de la actuación de la tele. Y ahora creo que así no está configurado correctamente. Estoy cambiando entre el brillo general del juego, blanco papel y luminancia pero no acabo de encontrar una configuración que me guste del todo.

He probado a 4000 luminancia máxima, a 2000(que es el punto donde si subo más no aprecio que cambie nada en la imagen) y 120 blanco papel o 300 blanco papel. Y el brillo general donde se supone que debe estar, que el logo apenas sea visible a 1 punto. Alguien con la misma tele, como tenéis los ajustes dentro del juego? Juego con el modo Juego Hdr por defecto. Gracias.
Winters85 escribió:Buenas, hace ya algunos meses se actualizó mi LG c7 y aparentemente se solucionó el tema del Hdr oscuro en muchos juegos. El caso es que en Assassin's Creed Odissey, lo tenía anteriormente a 1000 de luminancia, 120 blanco papel y brillo creo recordar que 2 puntos.

Pero no lo había vuelto a tocar después de la actuación de la tele. Y ahora creo que así no está configurado correctamente. Estoy cambiando entre el brillo general del juego, blanco papel y luminancia pero no acabo de encontrar una configuración que me guste del todo.

He probado a 4000 luminancia máxima, a 2000(que es el punto donde si subo más no aprecio que cambie nada en la imagen) y 120 blanco papel o 300 blanco papel. Y el brillo general donde se supone que debe estar, que el logo apenas sea visible a 1 punto. Alguien con la misma tele, como tenéis los ajustes dentro del juego? Juego con el modo Juego Hdr por defecto. Gracias.

Para assassins creed odyssey el valor del brillo general es en el medio, no recuerdo donde lo leí pero en este esta mal el regulador de brillo en HDR. Si lo pones en Sdr verás que es el valor correcto del brillo. Luego los valores en HDR yo lo tengo en 1000 180 y modo juego con contraste dinámico en medio
@kodypa
Gracias por la ayuda. Al final le subí el brillo general no recuerdo si a 2 o 3 puntos, luminancia a 1000 y blanco papel a 180. Y ahí lo veo bastante bien, incluso los menús. Con el brillo general al 1 para que justo se viera el símbolo lo veía todo muy oscuro.

Estuve mirando en la web de Ubisoft y está otra daban algunos consejos para ajustarlo:

https://www.forbes.com/sites/kevinmurna ... d-odyssey/

Según ponía en esta última un buen punto para luminancia era dejarlo en el nivel más bajo que quede el sol cubierto por las nubes, eso justo es en los 1000 de mi tele. 2000 es el punto en el que veo que si subo más las nubes cercanas al sol ya no varían lo más mínimo. Así que supongo que lo correcto serán los 1000.

En cuanto al blanco papel daban dos indicaciones, una fijarse hasta que el brillo en la columna sature a blanco. Y otro fijarse en las flores lilas de la izquierda como referencia. Yo aquí he puesto el que tenías puesto y la verdad que lo veo bien así.
soccola está baneado por "Saltarse el ban con un clon"
@iamdevil netflix se ve mejor sin hdr
con hdr la gamma y los colores pierden punch
prueba a ver algo con/sin hdr mpor ejemplo "maniac" o "stranger things" y verás lo q digo
en xbox puedes desactivar el hdr
con la app de la tv no
Pero por qué ponéis el contraste dinamico en medio?creo que de siempre es mejor desactivarlo no?eso si no tengo oled,pero creo que siempre se ha dicho que es mejor desactivarlo.no se.
El contraste dinámico en medio en las OLED de 2016 y 2017 ayuda a arreglar un problema que introdujeron los de LG con una de sus actualizaciones,en las que "decidieron" que era mejor así. No lo quisieron cambiar y es la forma de revertir el problema y volver a la situación anterior.

En las de 2018 no sucede eso y es más, el modo juego HDR es el modo que más luminosidad ofrece en estos modelos.

El contraste dinámico en las OLED de LG funciona de diferente forma que en otros displays/marcas, no cambia brillo ni se ven cosas raras, nunca. Yo es como lo tengo desde hace mucho y si lo hiciese sería el primero en cagarme en LG y recomendar desactivarlo, como lo recomiendo en cualquier otro caso que NO sea juegos en HDR y LG OLED de 2016 y 2017
actpower escribió:El contraste dinámico en medio en las OLED de 2016 y 2017 ayuda a arreglar un problema que introdujeron los de LG con una de sus actualizaciones,en las que "decidieron" que era mejor así. No lo quisieron cambiar y es la forma de revertir el problema y volver a la situación anterior.

En las de 2018 no sucede eso y es más, el modo juego HDR es el modo que más luminosidad ofrece en estos modelos.

El contraste dinámico en las OLED de LG funciona de diferente forma que en otros displays/marcas, no cambia brillo ni se ven cosas raras, nunca. Yo es como lo tengo desde hace mucho y si lo hiciese sería el primero en cagarme en LG y recomendar desactivarlo, como lo recomiendo en cualquier otro caso que NO sea juegos en HDR y LG OLED de 2016 y 2017


Te creo.es mas me gusta mas el color de mi Lg 1080p ips que mi samsung 4k.aparte se nota muchisimo que LG hace mejores paneles,mi proxima tv sera LG por que samsung no me gusta nada.
katatsumuri está baneado del subforo hasta el 24/9/2019 22:23 por "flames"
Buenas, tengo una duda que me está quebrando

¿Sé puede sacar HDR a través de HDMI DVI-input de un televisor?

DEJO EL HILO CON TODOS LOS DETALLES, SI PODÉIS RESPONDER ALLÍ MEJOR PARA ACLARAR DUDAS A LOS QUE VENGAN EN UN FUTURO hilo_hdmi-dvi-in-para-hdr_2332631
A ver, no se de donde sacas que un puerto HDMI es DVI con conector "nuevo". Eso no existe como tal. Lo que sí existe es un tipo de HDMI DVI que solo permite vídeo. Es decir, es un conector CAPADO.

No se que televisor tienes, no todos los televisores admiten HDR por todos los puertos HDMI, y puede que sea tu caso.
katatsumuri está baneado del subforo hasta el 24/9/2019 22:23 por "flames"
actpower escribió:A ver, no se de donde sacas que un puerto HDMI es DVI con conector "nuevo". Eso no existe como tal. Lo que sí existe es un tipo de HDMI DVI que solo permite vídeo. Es decir, es un conector CAPADO.

No se que televisor tienes, no todos los televisores admiten HDR por todos los puertos HDMI, y puede que sea tu caso.


He conseguido sacar HDR con la gráfica poniendo la frecuencia de refresco a 30Hz 4K pero es imposible en xbox one x o ps4 pro sacar HDR a alguna resolución, me dice que no es compatible.

En un principio he pensado que podría ser mi cable HDMI al ser un 2.0 de los primeros y de 7m pero he usado el de la xbox one x y nada así que supongo que el de PS4 pro aún menos...

Todo podría indicar a una limitación de ese puerto HDMI DVI como comentas o podría ser cosa del cable...

Los otros dos puertos me sacan 4K HDR 60Hz sin problema alguno con todos mis dispositivos.

¿Sabes que tipo de HDMI 2.0 viene con la xbox one x?

saludos y gracias
El cabe HDMI da igual si es de los primeros. He usado cables HDMI 1.4 que funcionan perfectamente en HDR. Hay mucho mito con el tema, un cable HDMI/DVI en esencia es un cable Ethernet.

Si precisamente te funcionan los otros puertos, no entiendo porqué quieres usar el que está marcado como DVI. Posiblemente ese puerto NO sea compatible con HDR. En los menús del televisor deberían salirte los HDMIs compatibles con Deep Colour. Al menos en las LG es así. Puedes activarlos y desactivarlos.

El problema yo lo veo aquí que es con esa entrada HDMI en concreto. Sencillamente no soporta HDR, aunque soporte 4K a 30Hz, que será lo máximo que soporte por infrastructura Hardware.
katatsumuri está baneado del subforo hasta el 24/9/2019 22:23 por "flames"
@actpower la única diferencia con el resto de menús en los puertos HDMI 1 y 2 es que en cada uno de ellos puedo activar o desactivar el enlace 2.0 y que si lo desactivo pues hay problemas con el HDR.
En cambio el HDMI 3 no tiene la opción de activar el enlace 2.0, eso es lo que ya me pareció raro.

Al ser un puerto pensado para conectar un PC pues pensé que igual se necesita otro tipo de configuración... me está llevando de cabeza, se que me puedo pillar un switch porque no me hace gracia ir poniendo y sacando HDMIs pero me gustaría sacarle un sentido a todo esto, me gustaría entender el porqué por simple curiosidad.


Es que no estoy usando un cable HDMI a DVI, estoy usando un cable HDMI normal, HDMI-DVI es el input de la TV. Nunca había visto que una interfaz DVI podía tener forma de HDMI... se que puedes reconvertir la señal DVI a RGB o HDMI pero lo otro aún sabiendo que ya existía en televisores de la época de PS3 pues no me había fijado hasta ahora mirando las specs de mi TV. Es que si pones DVI en google te salen todos los conectores de siempre, no sale ninguno con forma de HDMI y esa es la imagen que yo tenía del DVI ya que siempre lo he usado y tengo adaptadores a RGB y HDMI.

¿Qué sentido tenía ponerle un puerto HDMI-DVI si le podían haber puesto un HDMI normal como los otros? Ahorro de dinero?

Además los puertos HDMI se supone que son todos HDMI 2.0a, por lo que tendrían que soportar 4K 60Hz HDR... por lo menos el HDR a 30Hz si lo puedo sacar.

Y creo que no todos los 1.4 permiten HDR. en PS4 normal si que hicieron un cable que lo permitiese para aprovechar la tecnología, pero no es la norma.

Lo que más me jde es tener un puerto a la virulé sin ningún tipo de utilidad...

Yo también creo que es lo que dices, o eso o el cable, pero me decanto más por lo que dices... la verdad que me gustaría entender el porqué más allá de que pueda arreglarlo con un simple switch o cambiando los cables.

Y gracias por responder.
Tú mismo estás dando con la clave de ello...los puertos 1 y 2 soportan Deep Color, el 3 no. Sigues sin decirme que televisor tienes. Una búsqueda técnica sobre él seguro que te dice qué soportan esos puertos.

No hay un sentido, es así y ya está. Ese puerto 3 es DVI y está orientado para conectar un ordenador, solo con imagen. El audio va aparte.

Sigues confundiendo las cosas...la interfaz DVI y la HDMI son idénticas. La única diferencia es que DVI no lleva audio y HDMI sí. Ya está. No es que la interfaz DVI tenga forma de HDMI, eso no es así. Son conectores diferentes pero compatibles. Por eso existen adaptadores DVI a HDMI y viceversa. Lo único que no pasa es el AUDIO.

Y sí, muchas veces es ahorro de dinero. No todos los televisores soportan en todos sus puertos Deep Colour. Al igual que no todos los televisores soporan ARC más que en un solo puerto, o soportan 2.0 en todos los puertos.

Si tienes demasiados trastos que dan salida HDR, no tendrás más remedio que tirar de Switch que soporte HDR y andar cambiando fuentes.

Eso o usar un ampli moderno, que haga esa función y además tenga sonido 5.1.
katatsumuri está baneado del subforo hasta el 24/9/2019 22:23 por "flames"
actpower escribió:Tú mismo estás dando con la clave de ello...los puertos 1 y 2 soportan Deep Color, el 3 no. Sigues sin decirme que televisor tienes. Una búsqueda técnica sobre él seguro que te dice qué soportan esos puertos.

No hay un sentido, es así y ya está. Ese puerto 3 es DVI y está orientado para conectar un ordenador, solo con imagen. El audio va aparte.

Sigues confundiendo las cosas...la interfaz DVI y la HDMI son idénticas. La única diferencia es que DVI no lleva audio y HDMI sí. Ya está. No es que la interfaz DVI tenga forma de HDMI, eso no es así. Son conectores diferentes pero compatibles. Por eso existen adaptadores DVI a HDMI y viceversa. Lo único que no pasa es el AUDIO.

Y sí, muchas veces es ahorro de dinero. No todos los televisores soportan en todos sus puertos Deep Colour. Al igual que no todos los televisores soporan ARC más que en un solo puerto, o soportan 2.0 en todos los puertos.

Si tienes demasiados trastos que dan salida HDR, no tendrás más remedio que tirar de Switch que soporte HDR y andar cambiando fuentes.

Eso o usar un ampli moderno, que haga esa función y además tenga sonido 5.1.

Entiendo lo que me dices, aún recuerdo cuando tenía que conectar mi GT 9600 con el cable spdif para sacar audio digital, me está liando ver un HDMI así en una TV más que nada también porque tampoco le encuentro ninguna razón de ser y es un desperdicio de entrada. Hace diez años aún ¿Pero ahora? No le veo sentido alguno.

Imagen

Hice la búsqueda técnica y puse los datos en el otro hilo.

http://www.mediacenter.tcl.eu/uploads/d ... b79f1f.pdf
https://www.tcl.eu/es/productos/uhd-p66-55dp660
TCL 55dp660

No especifica nada más, además es una marca china y seguramente no haya mucha información.

Esto es de otro modelo de la misma marca:
Imagen
https://www.manualslib.com/manual/32589 ... =13#manual

Parece muy cutre todo, conectar el audio por separado con un mini jack... me parece cosa de hace 10 años o más aunque por lo menos este dvi si tiene retorno de audio, pero es cierto que mi TV 4K también tiene salida jack así que la función del DVI es conectar equipos viejos y de paso soporta resolución 4K para equipos más modernos, pero no deja de parecerme algo muy cutre porque se han cargado una funcionalidad esencial para los dispositivos modernos, por suerte permite resoluciones 4K pero si uso todo con HDR me quedo con un muerto.


Tampoco me entra en la cabeza que no hayan podido dar soporte a esos 60Hz con HDR 4K cuando si es posible sacar HDR a 30Hz 4K, es algo que no me entra en la cabeza.

Otro lastre que tiene es que la interfaz de red ethernet no es ni gigabit y no tiene ni wifi 5GHz aunque veo películas en 4K HDR sin problema alguno porque con 100Mbps hay más que suficiente, incluso para ver contenido 8K.
Lo del wifi se veía venir en las specs pero lo del ethernet es algo que tienes que comprobar por ti mismo porque no pone nada en las specs... una pena porque quería usar el ordenador de la TV para descargar a máxima velocidad.

La TV me costó tirada de precio y supongo que habrán recortado cosas los chinos para que cueste menos.

De todas formas el lunes llamaré al teléfono del servicio técnico y a ver que me dicen, aunque todo apunta a lo que comentas, más que nada porque quiero ver que me dicen.


Muchas gracias por todo
Hola muy buenas, tengo una pequeña duda respecto al hdr, tengo una tv con un hdr con un pico de brillo máximo muy bajo (300 nits), el caso es que voy a adquirir una nueva tv con un pico de nits razonablemente más alto, a mí siempre me ha gustado jugar con la luz de fondo bajita, aproximadamente al 30%, y en algunos juegos, como por ejemplo el far cry 5, en mi tele con esos nits tan bajos, cuando la escena era luminosa me molestaba ese chorro de luz.

Teniendo en cuenta la limitación de mi actual tv y su hdr, si me voy a comprar una tv con más nits, hablamos de más del doble, no sé si podré soportarlo, mi pregunta es si a nadie más le pasa esto, que le molesta tanta luz o si el problema es mío que me molesta en exceso cuando no debería ser así.

Muchas gracias.

Un saludo.
Es que la luz de fondo en HDR no se toca!!!. Si lo haces, jodes precisamente lo interesante del HDR. Para eso, mejor jugar en SDR.
Nooo, perdona, no me he explicado bien, la luz de fondo en hdr la dejo al máximo, juego normalmente al 30% en sdr.

Mi duda es que el principal atractivo del hdr, que es el juego con la luminosidad del panel es lo que me molesta, tanta luz me parece incluso insano!!!

Gracias!
Bueno, eso ya son "gustos". El HDR es rango dinámico. Es como quejarse de que la luz del sol es demasiado brillante. El HDR busca precisamente dar ese "efecto" a la imagen.
Entiendo lo que dices, pero cuando hace mucho sol me pongo gafas de sol y así no me molesta, me veo un poco ridículo en casa delante de la tele con gafas de sol cuando me vaya de caza en el far cry a las 12:00... XD XD XD

Además no sé yo si ese chorro de luz puede ser bueno, no me quiero imaginar en una tele con 1000 nits lo molesto que puede llegar a ser.

Un saludo.
¿Mil nits?. Pues cuando lleguen las de 10.000 te explota la cabeza, jaja.

A ver, todo esto tiene que ver con el rango dinámico. Esa es la clave. Obviamente no vas a tener siempre 1000 nits o los que sean en pantalla. Son en momentos puntuales. Al igual que tú cuando pasas de oscuridad a luz durante un momento te quedas "ciego" hasta que tus ojos se habitúan a la nueva situación, con el HDR sucede lo mismo. El HDR intenta emular la realidad como la vemos, y obviamente añade su creatividad aparte.

Es así como se debe ver, vamos.
buenas noches

hace unos dias me hice de una samsung nu8000, la verdad no he retocado nada los ajustes para los juegos (tengo una one x)
bueno tengo una duda sobre la pantalla, con red dead redemtion 2, he leido por todos lados lo del HDR falso que maneja, entonces me puse a moverle a la tv, para ver si daba con un ajuste que me gustara, hasta que me tope con que desactivando el modo juego, quitando y volviendo a poner el HDMI UHD color del hdmi 1 (donde esta la one x) y por ultimo activar de nuevo el modo juego, mejoraba bastante la imagen (colores vivos, nitides y sin esa especie de niebla), el problema es que si quito el juego o con solo salir al menu de xbox vuelve a los ajustes normales (ese tipo de neblina fea que tiene)
IMG-20190710-WA0000.jpg

IMG-20190710-WA0001.jpg
Buenas gente perdonad si me equivoco o esto no es así, llevo buscando mucho tiempo como configurar mi tele LG 55UJ65 que tiene 4K y HDR. He visto cien mil tutorials y no se como hacerlo y en algunos juego se me activa el HDR y se ve con más definición y tal pero un tanto más oscuro... Alguien podría aconsejarme algo o pasarme como tenga en su tele brillo, contraste y demás, tal cual???
Os estaba leyendo por aqui un rato, y queria aclarar un punto q yo mismo en otro hilo dije y reconozco despues de hacer mas pruebas q estaba equivocado [+risas]

El tema de los 8, 10, 12 bits

Realmente entre la mala informacion q da Microsoft en temas de la imagen y las cosas raras q hace la X en conversiones de imagen. Es verdad q lleva a confusion. Empezare por el final, lo mejor es q tengais la tv a 8bits. Independientemente de vuestro panel, yo tengo una Lg C8 de 10 bits. Me explico.

El 8bits realmente lo podriamos llamar el modo automatico, creo q lo ha mencionado @zgotenz , porq reproduce tanto el rango de color como la profundidad de bits q toca en relacion al juego y la Tv. Todo lo q no es HDR lo emite a 8bits RGB y lo q es HDR lo emite a Ycbcr 4:2:0 a 10 bits q son los dos formatos nativos q tenemos dentro del espacio de color en estandar q muestra la xbox.

Q es verdad! q cuando tenemos algo a 8bits y tenemos una tv 10 bits lo tiene q reescalar alguien...o la tv o la xbox si o si...mejor q lo haga la xbox? No.

No, porque curiosamente la xbox y hablo de la X q es la q tengo. Cuando la pones a 10 bits y tiene q mostrar un juego sin HDR (q va a ser 8bits) no sólo reescala esos 8bits a 10bits sino q tambien modifica la señal de color de RGB a Ycbcr 4:2:0... cawento
Cuando en realidad la señal de origen es RGB. Q siempre es mejor q Ycbcr.

Resumen
Con espacio color estandar y a 8bits (y teneis una tv 4k a 10bits)
Juego sin HDR se muestra a RGB 8bits sin HDR
Juego con HDR se muestra a Ycbcr 4:2:0 10bits con HDR

Con espacio color estandar y a 10bits (y teneis una tv 4k a 10bits)
Juego sin HDR se muestra a Ycbcr 4:2:0 10 bits forzado sin HDR
Juego con HDR se muestra a Ycbcr 4:2:0 10 bits con HDR

No pongo a 12 bits por razones obvias. Y tambien pienso q el 4:2:2 solo activarlo si teneis problemas, normalmente es para usar en tvs mas antiguos.

Hasta aqui lo mas corto q he podido solo explicando el modo estandar de color...Otra cosa es si teneis el espacio de color RGB completo ( modo Pc 4:4:4) [qmparto]

Pero aqui no es muy complicado...
Con espacio color Pc Completo a 8bits (y teneis tv 4k a 10bits)
Juego sin HDR se muestra a RGB 4:4:4 8bits sin HDR
Juego con HDR se muestra a RGB 4:4:4 PERO a 8bits con HDR

Con espacio color Pc completo a 10 bits (y teneis tv 4k a 10bits)
Juego sin HDR se muestra a RGB 4:4:4 10 bits forzado sin HDR
Juego con HDR se muestra a RGB 4:4:4 PERO a 8bits con HDR

Todo lo HDR a 4:4:4, como muy bien dijo nuestro compañero @actpower [oki] , no hay ancho de banda suficiente en HDMI 2.0 para llevarlo a 10bits. Y se hace una conversion a 8bits

Hasta aqui mi apreciacion personal y solo hablo de lo q viene nativo y la teoria de verlo como viene de origen. Luego q cada uno lo configuré a su gusto, hay gente q le gusta mas a 12 bits, con todas las “mejoras” de la tv activadas, pues para gustos colores. [oki]

Salu2
@Baus
Vale, si tengo una qled 4k pongo la xbox one x a 8 bits entonces ? Se nota en realidad estos settings a simple vista ?
sparco escribió:@Baus
Vale, si tengo una qled 4k pongo la xbox one x a 8 bits entonces ? Se nota en realidad estos settings a simple vista ?


Depende de lo tiquismicis q seas [qmparto]
En HDR no notaras nada, porq se ve igual a 10 bits todo. Solo seria en juegos sin HDR, q deberias valorar quien reescala mejor la Tv o la xbox esos 8bits y el espacio de color rgb vs Ycbcr. [oki]

En una Tv 4k con HDR a 10bits (LG C8) Yo lo tengo en espacio color estandar y a 8 bits.

Saludos
@Baus
Ok, lo probaré , gracias por la información.
@Baus Gracias por la explicación. Tengo una Samsung KS7500 y siempre la he puesto a 10 bits. Luego la pruebo a o a ver qué tal.
@ros

Ya como dije antes mucha diferencia no se verá, es sólo para respetar el formato mas original posible en q fue procesado el juego o peliculas.

Ahora q me comentas q dice q tienes una Samsung. Os hago un apunte de las tv Samsung q tambien trae a confusion por lo mal explicado q esta. Yo antes tenia una Samsung, bueno todavia tengo una con la Xbox S [fiu]

El tema del espacio de color q sale en configuracion avanzada...

Nativo/Original
Auto
Personal.

Aqui, y siempre q se pueda hacer (depende del modo d imagen no se puede) el “correcto” es Auto.

https://www.samsung.com/cl/support/tv-audio-video/tv-what-is-the-color-space-setting/

Aunq lo d original/nativo parece q a d hacer referencia es a la fuente d origen (en este caso la xbox)...en realidad hace referencia a la Tv. Asi q Auto es el valor q hace q la Tv utilize correctamente la gama de colores de la Xbox.
Tambien deciros q con original/nativo quizas os guste más porq es mas saturado y con mas exceso de color. Evidentemente falso porq se lo inventa la Tv.

Como ya dije, tanto en la entrada de los bits como lo de gama d colores...es intentar respetar lo q viene de la fuente madre...la xbox. Y otra cosa es lo q os guste a vuestros ojos. Ponedlo como os guste más. [toctoc]

Saludos
@Baus en auto lo tengo yo también. Repito, muchísimas gracias por tus palabras que te agradecemos todos los amantes de los ajustes [angelito]
@ros

Un placer! [oki]

Aunq muchas veces pienso q estoy enfermo, si un pixel aqui o otro alla, y ver cosas q la gente q vive conmigo dice q no ve...
Q lo ve todo igual de bien [facepalm]

Y luego esta el tema del audio q tambien me gusta incluso mas, q tambien en la X se marca unos cuantos “misterios” con el Dolby Atmos... Aunq eso prometieron arreglarlo, a mas razon con el Dts X a la vuelta de la esquina [babas]

Sigo diciendo q la Xbox no deja claro varios procesos, y hace unas reconversiones y reescalados a su antojo y sin avisar...y saltandose lo q tienes configurado a la torera. Sirvase de ejemplos los 8/10 bits, el ycc4:2:2 a 12 bits, el Dolby Vision no en UHD, el pcm 7.1 en container de Dolby Atmos...cositas q vuelven locos a los amantes de los ajustes. [uzi]

Saludos
Yo ya hice los deberes en ese aspecto y te adelanto que no vas a apreciar NADA. Igual aprecias algo acercándote a 10 centímetros para comprobar...pero a poco que te alejes un metro...adios.

Otro cantar sería si estás jugando con un monitor, que suelen estar cerca del careto. Pero incluso ahí en resoluciones 4K sencillamente nadie es capaz de distinguir un 4:2:0 de un 4:2:2. Yo no, al menos, y tengo uno de 40"

Luego, el tener los 10bits activados para juegos que son SDR, tampoco afecta negativamente en nada.

El tema de las conversiones de RGB a Ycc es sencillamente por ancho de banda. Ycc es un sistema de color (YUV) que se basa en la compresión de color (4:2:0, 4:2:2, 4:4:4). En RGB por lo general no hay compresión de color. La señal de VIDEO siempre ha sido YUV, solo los ordenadores trabajan de forma nativa en RGB.

Por otro lado, Dolby Visio (o el HDR en general), nunca se ha ligado a UHD. Puedes tener señal 1080P y HDR, porque son dos cosas diferentes.

Este es el clásico problema del "pixel que no deja ver el bosque digital" xD. Cuando en realidad no es todo para tanto. Yo a veces me pongo en ese plan, pero ¿Sabes qué?. No necesito tantas alforjas para este viaje.
Como ya dije mi intencion era informar de los elementos nativos q salen de la Xbox y nuestras tvs. Luego cada uno q ponga como quiera, porq cada tv es un mundo incluso... una tv d un mismo modelo se ve distinta q otra igual. Evidentemente tamaños, procesados q haga la tv, banding q haga o no, etc etc.

Por si os aburriis aqui os dejo un enlace q explica lo mismo y con un video de nuestro amigo de Hdtvtest q es un poco largo y aburrido [qmparto]

https://messofmedia.com/even-using-a-4k-hdr-tv-set-your-xbox-one-to-output-8-bit-color-depth/2019/01/02/

Q way hubiera sido en nuestra generacion d consolas jugar a 1080p con HDR a 60fps como una roca y full effects...pero eso no vende. Y el 4k y ahora ya nos empiezan a taladrar con el 8k...tienen mas marketing. Aunq nuestras videoconsolas no lleguen allí...ni la Scarlett [facepalm]
Pero siempre nos quedaran los nombres tan chulos como “resolucion dinámica”... [qmparto]

Saludos
Sí, claro que hay demasiados condicionantes. Yo obviamente hablo de lo que veo en mi televisor (LG OLED 65C6), pero que también detrás de todo ello hay una teoría básica de la que todos beben, que no son más que las señales de vídeo y su tratamiento.

Un televisor correctamente ajustado, eliminando todos los procesados posibles (modo juego, básicamente), no debería "distorsionar" una imagen que originalmente es 8bits, al reconvertirla a 10bits.

Es más, estoy por apostar que quien hace esa conversión es la Xbox, que es lo lógico.

Es más, estoy más que seguro que aunque se ponga la profunidad de bits más alta, en un juego de 8 bits, no creo que la Xbox envíe señal de 10 o 12 bits, porque no tiene sentido dentro de SDR (aunque exista la posibilidad).

El artículo es muy detallado, sí, pero no ofrece ningún ejemplo. Es decir, lo ideal es poner una imagen "macro" de un área concreta de la imagen comparando esas supuestas "diferencias". Nadie las ha hecho ni nadie las ofrece porque básicamente, de haberlas, éstas desaparecen en cuanto te alejas lo suficiente (que es normalmente la posición de visión lógica, no a 20 centímetros del pantallón).

Hay, de hecho, un PNG para comprobar el subsampling, bastante conocido (de esta forma se sabe si la salida es 4:2:0, 4:2:2 o RGB 4:4:4.

Es el siguiente:

http://www.avsforum.com/attachments/9759

(está como parte de los test de mis guías de ajuste, además)

Bueno, pues con este simple test, alejándonos lo suficiente, podremos ver el efecto del chroma sampling en una señal 1080. Ya adelanto que a distancia NORMAL de visionado, apenas se podrá diferenciar nada. Si te acercas, sí. Como cuando te acercas a un cartel enorme de los del Metro, se aprecian las tramas de impresión. Obvio, no?. Pero no están diseñados para verse de cerca.

Luego el artículo comete errores de bulto como asociar HDR10 a 10bits de profundidad y Dolby Vision a 12bits. No es correcto, pero tampoco voy a explayarme mucho sobre este asunto.

La gracia final de todo éste asunto es que el artículo, al final, admite que "Realistically, most people would never notice the difference."

Pues eso.
1182 respuestas
120, 21, 22, 23, 24