Televisores 4k para Xbox

darksch escribió:@GTX565 recuerdo un video de "lo mejor en 4K" que hacía eso, salían macrobloques, bajar brillo un punto y éstos fuera. No entiendo cómo pueden cometer errores tan tontos hoy en día, que tal y como viene por defecto que es como la mayoría de gente lo dejará esté mal.


Sí, por lo que he leido hay mas casos y es algo habitual. Algunas unidades vienen con el negro algo levantado en HDR y Dolby. La solución es poner el brillo en 49 hasta que LG lo corrija y vuelva a ser 50
leonigsxr1000 escribió:-El motion sigue casi igual (es un todo/nada) solo que ahora hay menos artefactos

Prueba a desactivar el Natural Motion, que es el interpolador, y poner la otra opción Clear Motion en Máximo. Si no me equivoco esa opción sería como un mezclador de fotogramas, en lugar de interpolador, por lo que no genera artefactos pero aumenta las líneas de movimiento a una cifra más cercana a CRT y Plasma.
En la Panasonic creo que ese efecto se obtiene poniendo el IFC en Mínimo, yo por lo menos noto mejora del movimiento pero no he visto aún ningún artefacto, por lo que debo suponer que usa también algún tipo de frame blending y no interpolation.
darksch escribió:
leonigsxr1000 escribió:-El motion sigue casi igual (es un todo/nada) solo que ahora hay menos artefactos

Prueba a desactivar el Natural Motion, que es el interpolador, y poner la otra opción Clear Motion en Máximo. Si no me equivoco esa opción sería como un mezclador de fotogramas, en lugar de interpolador, por lo que no genera artefactos pero aumenta las líneas de movimiento a una cifra más cercana a CRT y Plasma.
En la Panasonic creo que ese efecto se obtiene poniendo el IFC en Mínimo, yo por lo menos noto mejora del movimiento pero no he visto aún ningún artefacto, por lo que debo suponer que usa también algún tipo de frame blending y no interpolation.

No, también tengo la Panasonic gz950 de este año y el motion al mínimo añade un pelin de efecto telenovela (pero muy poco) es ideal si quieres un pelin de suavidad sin mucho efecto...

En la philips yo esa opción no noto apenas nada , en mi opinión es como la opción de-blur de los oled (y más marcas) que es más para fuentes a 60fps

Una vez acostumbrado a los 24p pues se ven bien y es puro cine , pero philips podría poner otro baremo que fuera añadiendo motion poco a poco y no de golpe y al máximo

Un saludete!! :)
Me está dejando un poco frío la C9. Todo lo que sea 4K pesado: BluRays, Remux (50GB), juegos... va perfecto. Ofrece una calidad espectacular. Ahora bien, todo lo demás... TDT, Netflix, HBO, Micros, Full... se ve peor que en mis otras teles y con muchos más defectos. Y claro, estamos y vivimos en un momento en el que por ahora no es posible reproducir todo sin comprimir, por lo que todas las miserias del contenido sin comprimir (ruido, suciedad, parpadeos, flashes...) salen a la luz en estas teles. Me imagino que a medida que vayan pasando los años las productoras editarán y producirán para llegar al 0% de negro y el contenido (hasta el comprimido) irá llegando en mejor calidad y se verán menos problemas, pero ahora mismo todo contenido en baja o en menos calidad que en Remux es un problema para estas teles.

Siempre se ha dicho que OLED destaca en negros, pero yo añadiría un matiz: en negros sin comprimir. Como estén comprimidos la experiencia es mala y vais a ver más negro el negro en una LCD de gama alta o en una LCD de gama media/alta que tengáis en casa de hace unos años (comprobado por mí). Y el motivo está muy claro: al no poder estas LCD mostrar el negro hasta el 0%, toda esa suciedad no aparece y el resultado, con contenido comprimido, es más satisfactorio y menos imperfecto en una LCD decente.

Después de estos días usándola mis dudas aumentan sobre si ahora mismo, y para el contenido que se disfruta, es más apropiado una LCD de gama alta o esperar a ver lo que trae Samsung con sus OLED, TCL ya trae Miniled y demás...

Los que os den miedo estas teles por tema de quemados, retenciones y demás, olvidaos. No son un problema ya. He estado viendo TDT, fútbol y encendida durante horas y horas y 0 retenciones. Así que esto, ni caso.
Llevo desde 2014 con OLED y nunca he observado esos problemas. Es decir, sí los he observado pero están dentro de lo que se esperaría.

No existe el vídeo "sin comprimir" en ámbito doméstico. Lo que se llama "sin compresión", tiene compresión y por extensión tiene posibilidades de exhibir problemas.

Hay contenidos masterizados con 0% de negro, antes incluso que la llegada de OLED. De hecho es lo más habitual. Pero la intención artística también existe y alguien puede decidir poner el suelo de negro más arriba que el 0%. Asociar un suelo de negro 0% a "mejor calidad" es una falacia.

Si veo un contenido mal comprimido en mi monitor, también lo voy a ver así de mal en mi OLED. Lo contrario significaría que mi monitor está mal ajustado o no me está enseñando las verguenzas de las compresiones.

Igual el problema no está en el televisor, sino en la persona que juzga el televisor :-)
@actpower

Yo tengo en casa un monitor VA y una Samsung D6000 que no se han calibrado en la vida, que tienen más de 5 años y que simplemente tienen puesto el modo cine. En estas dos pantallas el contenido de menor calidad se ve más uniforme, sin ruido, posterización, artefactos y hasta más vivo y más negro que en la OLED C9, que está calibrada con patrones y de acuerdo a la norma. Tienen blooming, una capa de vaselina por encina y demás historias de la LCD, pero en el cómputo global son las conclusiones que he sacado en este tiempo.

Otra opción es que la tele esté mal y tenga algún defecto, pero lo dudo. Por lo que tengo entendido es normal ver "más" (sea bueno o malo) en este tipo de pantallas.
Ya. Supongo que el tema es que nunca has visto las imágenes como en realidad son. Y la tecnología OLED es la única que es capaz de visualizar cosas que el resto no puede. Aunque como digo, un monitor LCD bien ajustado y calibrado, puede enseñar todas esas verguenzas. Vamos, que estoy delante de uno ahora mismo, y comparo cosas también. Obviamente, en el OLED veo más cosas aún. La única forma de poder verlas "virtualmente" en el LCD es usando esa maravillosa herramienta de los editores de vídeo llamada "vectorscopio". Ahí no hay mentira que valga. Todo se revela ahí.

Igual la diferencia está en eso...en que mi monitor está ajustado con sonda y no usando una preset "de aquella manera".

Si no te acabas de acostumbrar a la OLED, ya sabes, salta a LCD y aguanta hasta que no tengas otra opción que volver de nuevo a OLED, o más concretamente a paneles autoiluminados a nivel de pixel. Esa es la gran diferencia.


Aprovecho para comentar algo que estoy leyendo últimamente, y es que se afirma que Dolby Vision es mejor porque está codificado a 12bits, lo cual no es cierto, y la propia Dolby tiene un PDF muy bonito donde lo explica todo:

https://www.dolby.com/us/en/technologie ... levels.pdf

Y es que gente confundida hay por todos lados. Menos mal que a estos de Dolby no se les puede rechistar nada. ¿O habrá alguien que sí lo haga? :-D
@actpower

¿Sabes de alguna guía o pautas para calibrar los modos HDR y Dolby con patrones? O comprobar al menos que están en el punto de brillo correcto.

El modo SDR lo tengo fino, pero estos dos no los tengo bien.

Yo no noto diferencia entre HDR y Dolby si te soy sincero jaja. Casi no la noto ni con dos teles al lado reproduciendo lo mismo una en HDR y otra en Dolby... pues fíjate alternando entre un contenido y otro en una tele.
Los modos HDR no se pueden calibrar con patrones. Necesitas una SONDA para ello, y la verdad es que si mides los valores con ella, son todos de referencia.

Hay patrones para comprobar determinadas cosas, pero el brillo, contraste, luz oled, color...tienen que estar donde están (en las OLED de LG al menos es así, el resto de marcas lo ignoro, pero YO no tocaría esos valores).

Yo nunca he ajustado los modos HDR de mi tele, y cuando veo contenidos en HDR los veo bien.

Y si están "mal", pues como no tengo un monitor de estudio de masterizado al lado que me "chive" si lo que veo está bien o está mal, pues me da igual, me fío de mi ojo clínico y de mi experiencia (esto va dedicado a mi amiguito que tanto le mola que lo diga) de más de 20 años relacionada con el audiovisual
Pero está claro que no todos los paneles vienen igual. Al igual que el brillo en SDR en una tele se encuentra en un punto y en otra en otro, en HDR ocurre lo mismo, y prueba de ello es lo de Stranger Things que comentaba, que hay paneles que con el brillo en 50 no ven flashes en esa escena y otros que sí los ven, con un negro más levantado. De ahí que quiera comprobar cual es el punto de brillo HDR óptimo para mi tele
Ya, pero olvidas o desconoces que el mundo SDR no es igual que el mundo HDR. Al menos en el caso de LG, los modos HDR vienen correctos de fábrica (la sonda no miente) y la propia imagen en HDR es la que "dirige" al televisor.

Yo tengo una LG OLED de 2016 y no veo esos problemas que citas, y como tampoco los he visto cuando he ajustado televisores de 2018, pues no puedo decir mucho más al respecto. Ignoro el resto de personas como ven o dejan de ver los contenidos porque no estoy físicamente allí.

Igual deberías ver más contenidos en HDR para hacerte una idea real de como trata tu panel las imágenes, no siempre ver una y otra vez el mismo contenido. No se, vamos. No veo muy sano el enrocarse en un mismo contenido ad-eternum.

P.D: También puedes optar por pagar el servicio profesional de alguien que te vaya a casa y te ajuste el televisor con sonda.
Sí, he visto más contenido en HDR y en Dolby Vision y en todos ellos me da la sensación de que el brillo está algo levantado. Y esto coincide con lo de los flashes que veo en 50 y en 49 ya no.

Pero también me mosquea que la gente no ves esos flashes en esa escena (tú por ejemplo), y yo sí. Igual está mal la tele no lo sé. Porque si el brillo en 50 en HDR y Dolby es el correcto y mi tele muestra errores (flashes) que otras no... pues... blanco y en botella.
Si piensas que tu tele está defectuosa, pues que te la cambien por otra. Yo mucho más no puedo decirte al respecto.
Lo de bajar un punto el brillo en hdr en la c9 por lo que leí viene de un update de fw de hace un par de meses, parpadeos y cosas blancas no es por ajuste fino del brillo, es un bug.

En sdr yo veo muchas series 720p y ni de broma se ve mejor en cualquier lcd de las que tengo a mano (gamas medias y altas de los últimos 5 años), y en casa del colega con la q90r no las veo mejor ni de broma, sobretodo si hay escenas oscuras. Eso si, yo no uso microhd, uso los 720p normales de episodios sobre 1gb.

Lo de Netflix sí que me choca, Netflix en 4k hdr siempre lo he visto de lujo y sin duda mucho mejor que el casa del colega, hicimos en su día pruebas precisamente con stranger things y vamos, a oscuras ni de lejos.
@zgotenz

Los parpadeos y cosas blancas que dices que es un bug. ¿Es un bug en las LG de este año? O sea no es fallo de la tele, al igual que lo del brillo en HDR que se levante. Entiendo que deberían de corregir ambas cosas.
@GTX565 https://www.reddit.com/r/OLED/comments/ ... s_view_all

Dice esto uno, y lo había leído en otro sitio:
Believe it's a known issue with the latest official firmware. Macroblocking or something. Can be hidden with a bit of black crush? Sorry I don't remember exactly. Search the LG C8/C9 forums on avsforum.
Yo quisiera aprovechar este hilo, el tirón que tiene y la cantidad de usuarios que son usuarios a su vez de otros foros para aclarar, con la venia de @N_N y el resto de foreros que permitan el Offtopic de a continuación, una serie de cosas que estoy leyendo sobre mi nick asociado a mi persona útimamente:

1) Es FALSO que se me haya echado de "F.o.r.o.D.V.D". Después de muchos años tratando de aportar, decidí darme de baja voluntariamente por una serie de acontecimientos que me afectaron profundamente y de los que no voy a hablar. Tengo los emails confirmando este hecho concreto con sus administradores.

2) Es FALSO que se me haya echado de "N.o.s.o.l.o.H.D", sigo siendo miembro de ese foro y leo todos los días sus mensajes. Decidí no volver a escribir allí debido a una serie de problemas personales con una persona de la cual no quiero hablar pero que por desgracia tengo que aguantar.

3) Es FALSO que se me haya echado de "m.u.n.d.o.D.V.D", de hecho suelo postear allí, aunque no tanto. Suelo ceñirme a hilos muy concretos y jamás se me ha echado de allí, ni siquiera de forma temporal.

4) Es CIERTO que se me ha echado de un foro en el que recientemente me uní, pese a que no debería haberlo hecho por una serie de problemas personales con una persona que lleva ese foro. Pero lo hice sobre todo para tratar de ayudar a la gente. Lamentablemente parece que me equivoqué y los motivos de mi baneo nunca han sido exhibidos por parte de la dirección de ese foro y han generado una falsa imagen sobre mi persona.

5) No estoy registrado en ningún otro foro relacionado con el audiovisual, de habla hispana. Ni de España ni de fuera de España.

6) Siempre utilizo mi nick "actpower" en todos los foros donde me registro. Nunca oculto ni mi identidad ni a que me dedico. No tengo motivos por los que hacerlo. Tampoco uso "multinicks" ni "clones" ni falta que me hace. No me escudo en el anonimato, para bien o para mal.

Se que habrá gente que no le importe lo más mínimo este post, mi persona y mis problemas personales con otras personas de otros sitios, pero al menos me gustaría dejar claras ciertas cosas.

No volveré a escribir más sobre este tema en este hilo, el que quiera más información me puede contactar por privado y le daré todas las explicaciones que desee.

P.D: Me gustaría, por favor, que nadie reportase este mensaje como una especie de "vendetta" hacia mi persona. Seamos personas y no niños pequeños, por favor. Si alguno, por alguna causa concreta tiene algún tipo de problema personal conmigo, puede contactarme por privado.

Gracias a todos y perdonar la molestia. Y ahora, sigamos con el hio en cuestión.
Bueno he tardado un poco que he estado liado, aprovecho para deciros que CORRAIS A VER JOKER, pero ya!!!, menudo peliculon [tadoramo] [tadoramo] [tadoramo] [tadoramo] .

Bueno aqui dejo los ajustes del modo juego paraa la Q90r en HDR.

Como ya sabran los que la tengan el modo juego lava la imagen, no siendo muy validos los ajustes generales o lo vereis asi, aparte de joder bastante los negros, con los ajustes todo arreglado!! [fumando] [fumando] [fumando]


EDITO ERROR EN GAMA DE COLOR, PONER AUTOMATICO EN HDR

MODO HDR

Motion plus del modo juego desactivado.
Perfeccionador de juegos ON
Ecualizador de negros 0
Freesync definitivo
Luz de fondo 30,-3,50,10,40,0
Atenuacion local ALTO
Intensificador de contraste OFF
Tono color CALIDO 1
Gamma ST 2084 puesto a 0
Color AUTOMATICO


Uno modo juego y otro fuera del modo juego, el que ahi no esta ajustado es el FH4, pero primero tenia que ajustar la Tv [+risas]

Imagen

Imagen

ImagenImagen

Dejo aqui los que uso para juego SDR

Motion plus modo juego desactivado
Perfeccionador de juegos ON
Ecualizador de negros 0
Freesync definitivo
Luz de fondo 40.0.50,10,30,0
Atenuacion local ALTO
Intensificador de contraste BAJO
Tono color ESTANDAR
Gamma BT 1886 puesto a 0
Color ORIGINAL

Igual una modo juego y otro no.


Imagen

Imagen


Como siempre el tono de color a eleccion, igual te gusta frio o calido 2 eso ya segun gustos, el nitidez puedes ponerlo como quieras desde cero a 10 segun tus gustos ya que no afecta al resto de la imagen mas alla de lo que su nombre indica.

Y a partir de ahi ya tocar solo los ajustes dentro del propio juego, sin tocar los de la tele.


Los ha probado tambien un compañero con la Q80 y van bien, quizas haya que tocar algo , pero es un buen punto de partida.

Y esto muy importante!!!

Como siempre hay que ajustar tambien los modos normales fuera del modo juego, especialmente porque viene con atenuacion en baja, lo que provoca peores negros entre otras cosas, esta Tv aunque se ve muy muy bien sin tocar nada , realmente lo necesita, gana muchisimo.
zgotenz escribió:@GTX565 https://www.reddit.com/r/OLED/comments/ ... s_view_all

Dice esto uno, y lo había leído en otro sitio:
Believe it's a known issue with the latest official firmware. Macroblocking or something. Can be hidden with a bit of black crush? Sorry I don't remember exactly. Search the LG C8/C9 forums on avsforum.


Lo que me mosquea es que es de hace tres meses y todavía no hay firmware que lo solucione. Supongo que LG estará al tanto y lo corregirá... pero a saber...
@Ashtyr, esas fotos lucen de manera espectacular [tadoramo]

Y aquí tenéis una muy detallada review de la OLED Panasonic GZ950, con todo lujo de detalles y medidas de todo tipo. Es muy completa y está muy bien elaborada y redactada.

https://www.avmagazine.it/articoli/4K/1 ... index.html
La Panasonic 950 no es la misma que la 800 pero con mejor sistema de audio?
De ser así mejor ahorrarse el dinero, pillar la 800 y la diferencia gastársela en el sistema de audio 5.1 más barato no chino que encuentres, que aún así le da mil vueltas al del TV por muy Premium que sea.
darksch escribió:La Panasonic 950 no es la misma que la 800 pero con mejor sistema de audio?
De ser así mejor ahorrarse el dinero, pillar la 800 y la diferencia gastársela en el sistema de audio 5.1 más barato no chino que encuentres, que aún así le da mil vueltas al del TV por muy Premium que sea.


No olvidemos que la 950 trae HDR10+ y DV que puede llegar hasta una profundidad de color de 12 bits, y que la 800 solo trae HDR10+ de 10 bits, no Dolby vision.

Yo creo que la compatibilidad DV por si sola ya es motivo más que suficiente, al menos, como para pensárselo bien...

[bye]
@Ashtyr el rango de color en HDR ponlo en automático. Si lo dejas en original estás perdiendo tonalidades y profundidad de color.

En SDR si hay que dejarlo en original.
Esto quizá aclare la duda

Imagen

traducción:

Imagen

O sea, que sí que soporta hasta 12 bits reales en FEL.

[bye]
Esos 2 bit extra de la variante FEL es una "capa de vídeo accesoria" (esos dos bit extra que suponen la luminancia a nivel de fotograma).

La capa de vídeo "master" o primaria es SIEMPRE de 10 bits.

La salida NO ES de 12 bits de imagen, no suponen 4096 niveles de gris, sino 1024, que se llevan a los niveles que defina la capa segundaria.

El PDF de Dolby es bastante aclaratorio, no hay que engañar a la gente con tretas chungas para intentar llevar la razón.

No indicas de donde sacas la información, yo si:

https://forum.blu-ray.com/showpost.php? ... tcount=119

Omites deliberadamente otra información importante al respecto de tu amigo Geoff:

Originally Posted by Geoff D

Dolby Vision encoding for disc is more complicated than DV encoding for streaming. I don't mean the actual DV master as that should be the same between both and is a separate process, I mean the physical encoding of that master into a disc or streaming format.

It's not that DV on disc is impossible to do, but it can take more time than a straight HDR10 encode, and more time means more money. If anything, the disc version of DV with FEL is the 'true' 12-bit decoded version while the streaming versions are all essentially MEL, there's no additional enhancement data whatsoever and they uprate the 10-bit stream to 12-bit purely via 'shaping' of the 10-bit version.
Yes.

[edit] though when you bear in mind that some content - especially older DIs - will have been finished at 10-bit anyway then one wonders where those extra DV bits are supposed to have come from, although a 12-bit HDR encode of a 10-bit HDR source should have less banding than a 10-bit encode of a 10-bit source. (Incidentally, there's a mastering mode in the Dolby Vision toolset which is specifically designed to take an HDR10 grade and Dolby Vision-ise it.)


Aquí hay que prestar atención a como de "verdad" es esa supuesta señal 12bit, que en realidad no es tal.

Sí es cierto que con la artimaña se logra una versión con menos banding que las versiones de 10bit, pero NO ES en absoluto una verdadera imagen con profundidad de 12bit. Es una "ñapa"

Que te lo aclare tu amigo Geoff. Yo con mis más de 20 años de experiencia en el audiovisual, se de lo que hablo. Al menos en este campo y en este caso.
Precisamente en el quote que tú has puesto de Geoff D, ya te lo dice textualmente bien claro donde te lo he subrayado en negrita:

If anything, the disc version of DV with FEL is the 'true' 12-bit

Geoff dice lo mismo que he dicho yo. "Que DV con FEL soporta 12 bits verdaderos.

Y por ejemplo, un disco codificado en FEL sería Aquaman que ha comprado el compañero @Ashtyr

Y esto es de laboratorios DOLBY:

Imagen

TRADUCIDO

¿Qué profundidad de bit necesitamos?

Después de establecer que Dolby Vision debería ser capaz de representar el brillo en un rango de 0 a 10,000 NITS, los científicos de Dolby buscaron una manera eficiente de entregar este video de alto rango dinámico. En los sistemas actuales de rango dinámico estándar (SDR) de 100 nit, el video se codifica con una profundidad de 8 bits por componente utilizando una curva gamma tradicional. Usar este mismo enfoque de gamma requeriría hasta 14 bits cuando el rango se incrementa en un factor de 100. Afortunadamente, el sistema visual humano es mucho menos sensible a los cambios en las áreas brillantes que en las áreas oscuras. Por lo tanto, Dolby desarrolló una nueva función de transferencia electroóptica (EOTF) que puede codificar todo el rango de 10,000 nits con tan solo 12 bits en lugar de los 14 sin introducir ningún artefacto. Este nuevo cuantificador perceptual (PQ) se ha estandarizado como SMPTE ST-2084 y se utiliza en varios estándares y aplicaciones relacionados con HDR.

Algunos enfoques genéricos de HDR utilizan PQ EOTF con 10 bits en lugar de 12. ¿Y por qué es importante utilizar 12 bits en lugar de 10? Porque el sistema visual humano tiene diferentes sensibilidades a diferentes niveles de brillo, y es particularmente sensible a pequeños cambios producidos en grandes áreas de brillo uniformes. El siguiente gráfico muestra cuán notable es la cuantización de 10 y 12 bits dependiendo de la luminancia. La cuantización de 10 bits siempre está por encima del umbral visual, lo que significa que el usuario promedio puede ver diferencias notables con cada cambio de valor de luminancia. En escenas naturales, el ruido en la escena a menudo puede enmascarar esta diferencia, pero en áreas como el cielo azul a menudo se mostrarán bandas o contornos si los pasos de cuantización son demasiado gruesos.

https://www.dolby.com/us/en/technologie ... -paper.pdf

También lo dicen en rtings, que es un lugar que se cita muy habitualmente:

Imagen

https://www.rtings.com/tv/learn/hdr10-vs-dolby-vision

Bit depth describes the amount of graduations of colors in an image. SDR content is typically mastered at 8-bit, which allows for 16.7 million colors. HDR content is usually mastered at 10 bit, which allows for up to 1.07 billion colors. The more colors you can display, the more realistic the image appears, with less banding and a more subtle transition in areas of similar color. For more information, have a look at our article on gradients.

Dolby Vision content allows for up to 12-bit color; HDR10 and HDR10+ are only 10 bit. This might not sound like a big difference, but 10-bit color equals 1.07 Billion colors, whereas 12 bit increases that to an impressive 68.7 Billion colors. This allows for much finer control over gradations, resulting in a more life-like image, with no banding.

Winner: Dolby Vision, technically. Even though Dolby Vision supports 12-bit color, there are almost no devices out there that can take advantage of it. Hopefully, 12-bit panels will start to hit the market in the coming years.

Por mi parte nada más...

[bye]
EDITOOOO

Tardar la vida en escribir un mensaje y que el de arriba te lo chafe poniendo lo mismo [+risas] [+risas] [+risas]



@SuperDan2000

Lo de aquaman es asi, es 12 bits reales?, lo pregunto por que no lo se realmente, si se que la version UHD es acojonante, hasta ahora el mjor UHD con diferencia en calidad de imagen, pero eso no implica que sea 12 bits reales, bueno tampoco es que yo fuera a verlos [+risas] [+risas] [+risas] .

Pero los degradados de colro, es que se te caen los huevos.

Si es asi y han empezado a salir ya peliculas realmente codificadas en 12 bits genial, ahora faltan los paneles [beer]


Ale mensaje qeu escribi sin que estuviese el de arriba
[toctoc] [toctoc]

A groso modo que estoy liado con otras cosas


Si Dolby vision soporta hasta 12bit, y soporta desde cero hasta 10000 nits, pero lo que ocurre es que eso no necesariamente significa que todo lo que lleve la etiqueta DB lo use,

Por cierto si alguien queria saber porque 10000 la respuesta es esta

The Dolby imaging research team ran a set of experiments with ordinary viewers to answer this question. The researchers tested what viewers preferred for black level, diffuse white level, and highlight level. They determined that a system that could reproduce a range of 0 to 10,000 nits satisfied 90 percent of viewers asked to pick an ideal range.



Pero por supuesto con 600 sobra, que deslumbra [fumando] [plas] [plas] [plas] [plas]

Sobre si puede llegar a 12 bits o no.


9WHAT BIT DEPTH DO WE NEED?

After establishing that the Dolby Vision should be able to represent brightness from 0 to 10,000 nits, scientists at Dolby looked for an efficient way to deliver this high-dynamic-range video. In current 100-nit Standard Dynamic Range (SDR) systems, video is coded with 8-bits-per-component precision, using a gamma curve. Using the same gamma approach would require 14 bits when the range is increased by a factor of 100. Fortunately, the human visual system is much less sensitive to changes in highlights than in dark areas. Therefore, Dolby developed a new electro-optical transfer function (EOTF) that can code the entire 10,000-nit range with 12 bits instead of 14, without introducing any artifacts. This new perceptual quantizer (PQ) has been standardized as SMPTE ST-2084 and is used in various HDR-related standards and applications.Some generic HDR approaches use the PQ EOTF with 10 bits instead of 12. Why is it important to use 12 bits instead of 10? The human visual system has different sensitivities at different levels of brightness, and it is particularly sensitive to small changes over large areas of nearly uniform brightness. The following graph shows how noticeable 10- and 12-bit quantization is, depending on luminance. 10-bit quantization is always above the visual threshold, meaning that the average user can see noticeable differences with each change of luminance value. In natural scenes, noise in the scene can often mask this difference, but areas such as blue sky will often show banding or contouring if the quantization steps are too coarse


Ahora bien DB se penso como un estandar de futuro, por eso es hasta 12 bits y hasta 10000 nits cuando no hay nada a nivel usuario que logre eso. incluso se remasteriza a 4000 nits de maximo como en HDR10, quitando la edicion USA de Blade runner , la sacaron a 10000nits y fue la primera y unica hasta ahora si no me equivoco.

Asi que si m soporta 12 bits, si, pero no lo usa a dia de hoy, al menos no a nivel usuario que sepa, igual ya han salido peliculas que si lo llevan pero vamos , no me preocupa no tengo Db y los paneles son 10 bits


https://www.dolby.com/us/en/technologies/dolby-vision/dolby-vision-white-paper.pdf


@BitratE

Ya me has hecho dudar, a ver se que uno "estira" los colores para llegar al maximo del panel si la señal tiene menos volumen de color, y otro al reves, adecua el panel a la señal de entrada, en original pone color nativo, y pense que era el nativo de la entrada, pero igual es el nativo del panel [360º] [360º] [360º]

Joer voy a buscar info, que igual di por sentado las cosas justo al reves de como debiera.

De todos modos no note diferencia alguna en uno u otro, lo deje por pensar que era el nativo de la entrada.

Gracias compi [beer]
@Ashtyr en original la señal en HDR perderá tonalidades por lo que estás perdiendo lo mejor que tiene el HDR.

Prueba pero tienes que notar la diferencia. No es que se vea saturado, es que claramente se distinguen las diferentes tonalidades dentro de un color.
Ashtyr escribió:EDITOOOO

Tardar la vida en escribir un mensaje y que el de arriba te lo chafe poniendo lo mismo [+risas] [+risas] [+risas]



@SuperDan2000

Lo de aquaman es asi, es 12 bits reales?, lo pregunto por que no lo se realmente, si se que la version UHD es acojonante, hasta ahora el mjor UHD con diferencia en calidad de imagen

[beer]


Imagen

El problema es que no disponemos de paneles de12 bits, pero aún así sería mejor para una TV de 10 bits enviarle una señal de12 bits que de 10 bits.

[bye]
SuperDan2000 escribió:
Ashtyr escribió:EDITOOOO

Tardar la vida en escribir un mensaje y que el de arriba te lo chafe poniendo lo mismo [+risas] [+risas] [+risas]



@SuperDan2000

Lo de aquaman es asi, es 12 bits reales?, lo pregunto por que no lo se realmente, si se que la version UHD es acojonante, hasta ahora el mjor UHD con diferencia en calidad de imagen

[beer]


Imagen

El problema es que no disponemos de paneles de12 bits, pero aún así sería mejor para una TV de 10 bits enviarle una señal de12 bits que de 10 bits.

[bye]



primero aclarar que Aquamn es el mejor con diferencia de imagen que he visto en UHD, vamos de los que tengo [+risas] , no de todos los que han salido, de eso ni idea, aunque joder quiero ver la version USA de blade runner 2049 a 10000 nits [looco]

Segundo, joder pues eso no lo sabia ves, si sabia qeu el DB en streaming no era de 12 bits, y pensaba que en UHD tampoco lo usaban, pero si hacemos caso y las versiones en UHD con FELD si van a a12 bits pues nada.

No te acostaras sin saber algo nuevo

Un saludo [beer]
Cuando alguien escribe una palabra "entrecomillada", no significa que esa palabra sea sinónimo de certeza.

Geoff dice CLARAMENTE "TRUE", entrecomillado.

Esto es como decir que un panel 8+3FCR es un panel de 10bit. Pues mira no, no lo es. Dará el pego, pero NO lo es.

Por eso GEOFF entrecomilla ese "TRUE", porque SABE que no puede mentir, y la prueba la tienes analizando el STREAM de vídeo primario, usa cualquier herramienta y verás como te dice que el bitdepth es de 10bit. PUNTO.

Y no, enviar una señal de "supuestos" 12 bits (que no son tales, insisto), no mejora en nada en un televisor de 10bit.

Tantos años trabajando con imágenes de 16bit de profundidad y pasándolas a 8bit para que alguien venga a darselas de listo, ¡venga hombre por favor!

De todas formas, estos temas son muy complejos de debatir en un foro DE VIDEOJUEGOS.

Invito a quien quiera hacerlo, a plantear sus dudas técnicas de alto nivel a este foro, donde estoy seguro que tiene más cabida:

https://www.liftgammagain.com/forum/index.php

Ese SI es un foro de profesionales donde SI saben perfectamente como funcionan estas cosas y SI pueden dar información certera, no cosas escogidas, procesadas y manipuladas como hacen otros. Que eso sí que es triste.
Lo que me pregunto es si esos 12 bit (incluso los 10) son reales. Es decir, al ver las características de las pantallas, ni siquiera muestran el 100% del espacio de color que sale en las reviews, entonces ¿de verdad pueden poner esas pantallas que claman 12-bit esos 68.700 millones de colores?, son muchos. O, por el contrario, lo que significa es que hacen una conversión algo mejor de los datos del contenido (aquel que vaya en 12-bit) al espacio de color de la pantalla.
Es que a mí ya me suena a otra cosa en plan marketing. Es como si una pantalla monocroma acepta DV, pues leer lo lee, pero luego te lo tiene que sacar en B/N. Entonces cuidado con buscar el mero logo, porque me parece que más importante es la fidelidad del color de la pantalla en sí.
Ya he dicho por activa y por pasiva, y poniendo los enlaces de la propia Dolby, que esos 12 bits no son reales.

Dolby Vision maneja en su versión para disco dos streams en paralelo. El primero de ellos sirve para todas las versiones HDR (si las hubiese) y está codificado a 10bit de profundidad de color (1024 gradaciones de color RGB). Luego hay una capa secundaria que define las partes más luminosas de la imagen para llevarlas de forma "fina" a su sitio. Eso es lo que se denomina "metadata dinámica".

Su funcionamiento es similar a ATMOS, donde la pista 14 de audio (en DCP, ignoro como es en la versión consumidor) lleva una METADATA a nivel de fotograma que dice en que posición del espacio XYZ se posiciona el audio (luego ya el procesador dolby mapea ese audio en función de los altavoces de la sala.

Respecto a si los 10 bits son reales...pues bueno, depende. Yo puedo crear un proyecto a 10bits y cascar dentro material de 8bits o de 4bits, como si meto un gif animado ultracomprimido. Al final es un contenedor que tiene unas "dimensiones" donde puedes meter cosas más pequeñas, o aprovechar todo el espacio que te ofrece.

Cuando se habla de volumen de color, profundidad de bits, nits, etc...se habla de valores absolutos y máximos. Lo que haya dentro después es variable. Puedes tener un volumen de color muy alto pero realizar un grading muy conservador.

El otro día analizando imágenes en SDR para otra de esas falacias que uno se encuentra de vez en cuando, me di cuenta que la peli "Valerian", no llega al máximo de luminancia (235). Se queda siempre en 230. Y sin embargo, uno ve la peli y los planos donde hay mucha luminosidad se ven geniales. Y sin embargo uno no cuestiona si está al límite o no. Solo analizando la imagen es cuando te das cuenta de que muchas veces nos las dan con queso.

Yo puedo decir de primera mano que NO se edita nada a 12bits. Ahora mismo TODO se hace y se masteriza a 10 bits. Los masters finales se exportan a 10bits, los DCP que van a cine van en 10bits P3, aunque los proyectores más punteros soporten 100% Rec2020, los UHD se exportan en 10bit.

Y por supuesto, claro que algo de marketing hay, porque de otra forma no puedes vender la burra. Y parece que la cosa cuela, aunque luego los de Dolby tienen un paper donde especifican CLARAMENTE que el stream mandatorio es de 10bits.

No digo que sea "malo", simplemente digo que es una ñapa, la que han encontrado, para poder llevar a buen puerto su idea. Que al final las diferencias entre uno y otro son marginales por mucho que alguno se empeñe en magnificarlas (por supuesto bajo su criterio subjetivo y sin demostrar nada fehacientemente).

Así que cuidado por dar por hecho cosas que no son. Más de uno se lleva una sorpresa cuando hace una visita a una sala de postpro..."ah, que yo pensaba que...". Y es que el mundo de la imagen no es como alguno se piensa.

Edito para AÑADIR la metadata de los dos STREAMS en un archivo con Dolby Vision (pertenece a una demo creada por ellos para el CES). Creo que es bastante aclaratoria:

Video #1 (este es el vídeo pricipal, compatible HDR10)
ID : 4113 (0x1011)
Menu ID : 1 (0x1)
Format : HEVC
Format/Info : High Efficiency Video Coding
Format profile : Main 10@L5.1@High
Codec ID : 36
Duration : 3 min 7 s
Width : 3 840 pixels
Height : 2 160 pixels
Display aspect ratio : 16:9
Frame rate : 23.976 (24000/1001) FPS
Color space : YUV
Chroma subsampling : 4:2:0 (Type 2)
Bit depth : 10 bits
Color range : Limited
Color primaries : BT.2020
Transfer characteristics : SMPTE ST 2084
Matrix coefficients : BT.2020 non-constant
Mastering display color primar : R: x=0.680000 y=0.320000, G: x=0.265000 y=0.690000, B: x=0.150000 y=0.060000, White point: x=0.312700 y=0.329000
Mastering display luminance : min: 0.0050 cd/m2, max: 4000.0000 cd/m2
Maximum Content Light Level : 1000 cd/m2
Maximum Frame-Average Light Le : 471 cd/m2

Video #2 (esta es la capa Dolby Vision)
ID : 4117 (0x1015)
Menu ID : 1 (0x1)
Format : HEVC
Format/Info : High Efficiency Video Coding
Format profile : Main 10@L5.1@High
Codec ID : 36
Duration : 3 min 7 s
Width : 1 920 pixels
Height : 1 080 pixels

Display aspect ratio : 16:9
Frame rate : 23.976 (24000/1001) FPS
Color space : YUV
Chroma subsampling : 4:2:0 (Type 2)
Bit depth : 10 bits
Color range : Limited
Color primaries : BT.2020
Transfer characteristics : SMPTE ST 2084
Matrix coefficients : BT.2020 non-constant
Mastering display color primar : R: x=0.680000 y=0.320000, G: x=0.265000 y=0.690000, B: x=0.150000 y=0.060000, White point: x=0.312700 y=0.329000
Mastering display luminance : min: 0.0050 cd/m2, max: 4000.0000 cd/m2
Bueno en realidad si lees el mensaje completo el "true" se refiere a que es la autentica señal de 12 bits, ya que ambas segun dice son 12 bits, lo que ocurre es que una de ellas es realmente 12 bits mientras que la otra es una señal de 10 en un contenedor de 12.

Eso ciñiendonos a lo que dice el tal Geoff.

Pero en todas partes que he estado mirando si te pone que la señal de DB usa 12 bits.



Y bueno para el caso , aqui Vicent lo explica bien, y por cierto todos equivocados!!

Primero esto




Luego SONY hizo un firm para añadir DB a algunas de sus TV , aqui




Que resulto en que si, usaba DB, peroooo no por HDMI, asi que le hizo investigar y resulto en esto.

DB si usa 12 bits, o puede usarlo mas bien, pero resulta que DB hay muchos, demasiados, asi que puede ser 10 bits y seguir siendo DB, y bueno ver el video que lo dice muy clarito





A partir del 1:18

En resumen, cagadon de DB pero grande por liarla tanto, si tu Tv es DB pero no es apto para el DB "completo" no lo veras, pero si te dira que estas en DB, usando un modo mas simple de DB, pero DB al fin y al cabo, si usas streaming dependiendo de si es netflix o un UHD ambos te diran que es DB pero uno puede ser, 12 bits y el otro 10, y recalco lo de puede, por que al final depende de lo que estes viendo y donde lo estes viendo, y ya para liarla mas si el DB que tienes es por hardware, por sofware o una combinacion de ambos tendras diferentes DB, ya sea single layer, base layer+MEL o base +FEL.

Un cacao que flipas, creo que hasta yo me he liado con la explicacion , pero vamos no hay un unico DB.
Ver el video que lo dice bien claro.

@darksch

Simpre es mejor partir de una señal de mas calidad, otra cosa es que el resultado final sea apreciable si no es comparando lado a lado y mirando con lupa, pero peor no va a ser.
Ahi tienes el supersampling que se ve mejor que mandar la resolucion nativa.
Ashtyr escribió:Bueno en realidad si lees el mensaje completo el "true" se refiere a que es la autentica señal de 12 bits, ya que ambas segun dice son 12 bits, lo que ocurre es que una de ellas es realmente 12 bits mientras que la otra es una señal de 10 en un contenedor de 12.

Eso ciñiendonos a lo que dice el tal Geoff.

Pero en todas partes que he estado mirando si te pone que la señal de DB usa 12 bits.


Veo que lo has entendido perfectamente [oki]

Por cierto, la capa DV si es "FEL" no solo contiene la metadata dinámica, sino que es una capa de mejora completa donde la capa FEL incorpora la información de imagen adicional que transporta, entre otras cosas además de valiosa información del master original DV, la salida final de12 bits.

En cambio la capa MEL es una capa de mejora mínima que solo contendría la metadata dinámica, lo que significa que la información de vídeo completa solo estaría en la capa base HDR10 de 10 BITS 4:2:0, por lo tanto, estos títulos serían únicamente de 10 bits de profundidad de color a diferencia de los basados en FEL que serían de 12 bits

Por cierto, no tener en cuenta lo que indique el stream de vídeo porque si bien la codificación es de 10 bits 4:2:0 1080p. Eso no sería un archivo de vídeo real. Se trataría tan solo de unos datos residuales que hasta que no pasen por el motor Dolby para la decodificación no son imagen real.

O sea, que los títulos DOLBY VISION con capa adicional FEL son los que contienen datos de 12 bits divididos en dos flujos durante la etapa de codificación, y que después son recombinados en la etapa de decodificación para una reconstrucción completa de 12 bit verdadera.

Y la pregunta del millón. ¿Por qué toda esta movida para dar una salida verdadera de 12 bits? Simple. HEVC solo permite hasta 10 bits [carcajad]

De todas formas casi todo viene explicado en este archivo de Dolby

Imagen

https://www.dolby.com/us/en/technologie ... rkflow.pdf

[bye]
HEVC soporta 12bits en MAIN12 y 16bits en la máxima capacidad.

Su implantación se irá realizando poco a poco, la prioritaria es MAIN10

Sigo diciendo que este tipo de aspectos demasiado técnicos no tiene demasiada cabida por aquí, sencillamente son demasiado irrelevantes para la inmensa mayoría de la gente, salvo que te dediques profesionalmente.

Y Miguel no se dedica profesionalmente a este tipo de cosas. Por eso tanta verborrea fácil (cualquiera puede buscar y encontrar la información que postea) y que parece que deslumbra.

Tener cuidado, no os ciegen sus MILES DE NITS [+risas] [+risas] [+risas]
Ya, pero HEVC en Main10, que es el códec utilizado para 4K UHD Blu-rays, solo admite una profundidad de color de hasta 10 bits.

[bye]
Claro, el Bluray original al principio solo soportaba MPEG2. Luego añadieron H264.

Tampoco existía el formato 24P en DVD, y años más tarde lo añadieron como soporte.

De todas formas para mi el formato físico está muerto.

El problema es que tergiversas y modificas los datos para que cuadren con tu pensamiento, que no es correcto.

De todas formas voy a solucionar este tema de forma muy sencilla. Pasas a ignore, porque ya no vas a jugar más conmigo, y que te siga la bola cualquier otro. Nos conocemos demasiado ya, por desgracia.
Buenas tardes a todos.

No se si os habéis dado cuenta pero, entre todos, hemos desvirtuado el hilo hasta el punto en que no sirve, no ayudamos a nadie.

Se supone que aquí entra la gente a ver qué TV se puede comprar para su Xbox, a pedir consejo a la hora de elegir TV para su Xbox o a comparar Tvs para su Xbox.

Si esto sigue así quizá sea mejor cerrarlo y que se abra un hilo en multiplataforma sobre TVs en general.

Yo estoy cansado y seguro que vosotros también.

Un saludo.
N-N escribió:Buenas tardes a todos.

No se si os habéis dado cuenta pero, entre todos, hemos desvirtuado el hilo hasta el punto en que no sirve, no ayudamos a nadie.

Se supone que aquí entra la gente a ver qué TV se puede comprar para su Xbox, a pedir consejo a la hora de elegir TV para su Xbox o a comparar Tvs para su Xbox.

Si esto sigue así quizá sea mejor cerrarlo y que se abra un hilo en multiplataforma sobre TVs en general.

Yo estoy cansado y seguro que vosotros también.

Un saludo.


Entono el mea culpa por caer al trapo, cuando lo ideal es haberme callado.

Desde luego, muerto el perro se acabó la rabia, así que tienes el beneplácito para hacerlo. Posiblemente sea lo mejor porque es un hilo que lo único que genera es mal rollo, toxicidad y atrae a personas que ni siquiera tiene un interés en los videojuegos ni en ayudar realmente a nadie.

Yo lo he intentado de mil formas, y parece que es imposible, así que...lo dejo.
@actpower

No se trata de que lo deje nadie, se trata de que los que sabéis del tema como tu o @SuperDan2000 , @Ashtyr , @BitratE , @darksch , @zgotenz y muchos otros echéis una mano a quien quiera conseguir la mejor TV posible, dentro de sus necesidades y presupuesto, para su Xbox.

PD: por favor, que los mencionados no malinterpreten la mención conjunta ;)

Un saludo.
Ya, pero ya sabes que eso es imposible. Lo has visto mil veces en el hilo y a final por H o por B, todo acaba siendo un despropósito.

Así que yo sencillamente prefiero pasar a un tercer plano, y ya está. Sencillamente me cansa mucho todo esto. Y lo hago de buen gusto...pero me cansa demasiado. Lo siento.
N-N escribió:@actpower

No se trata de que lo deje nadie, se trata de que los que sabéis del tema como tu o @SuperDan2000 , @Ashtyr , @BitratE , @darksch , @zgotenz y muchos otros echéis una mano a quien quiera conseguir la mejor TV posible, dentro de sus necesidades y presupuesto, para su Xbox.

PD: por favor, que los mencionados no malinterpreten la mención conjunta ;)

Un saludo.


Dentro de mis limitados conocimientos en la materia siempre intento aportar o intentar ayudar a que alguien con una duda o problema pueda optar por la mejor opción.

Ya sea en éste hilo o en otro seguiré aportando dentro de mis limitados conocimientos y espero que el resto a los que mencionas y foreros en general sigan poniendo su granito de arena.

De esto al final nos beneficiamos todos.
N-N escribió:Buenas tardes a todos.

No se si os habéis dado cuenta pero, entre todos, hemos desvirtuado el hilo hasta el punto en que no sirve, no ayudamos a nadie.

Se supone que aquí entra la gente a ver qué TV se puede comprar para su Xbox, a pedir consejo a la hora de elegir TV para su Xbox o a comparar Tvs para su Xbox.

Si esto sigue así quizá sea mejor cerrarlo y que se abra un hilo en multiplataforma sobre TVs en general.

Yo estoy cansado y seguro que vosotros también.

Un saludo.


Amén, el hilo es para recomendar tvs, aportar impresiones, comentar ofertas, discutir sanamente sobre tecnologías puntualmente.. todo el tema ya técnico sobre DV y demás se escapa y espanta a la gente, a mí incluido.

Y como muevas el hilo a general yo al menos no entraré, sólo miro el foro de xbox, de hecho entro directo a él siempre, los otros ni los huelo jeje.
@N-N


Yo no veo el problema, no entiendo por que alguien te ha reportado algo , porque se estaba discutiendo bien sobre temas que, vale pueden ser muy tecnicos o no tener nada que ver con recomendar una TV, pero mientras nadie se pase a pedir consejo, pues vamos no veo el problema de hablar de otras cosas relacionadas con las televisiones.

Pero eh que si decis que no, pues no.

Pero claro si alguien suelta un dato y es, o creemos que es erroneo que hacemos?, tampoco se le puede rebatir?

Por que todo esto vino a raiz de un comentario sobre dos Panasonic , y que el compañero @SuperDan2000
recomendo una por encima de la otra por tener dolby vision, a raiz de ahi una discusion sobre el DV pero donde no creo que haya pasado nada para que se haya reportado.
, salvo que alguno tenga la piel muy muy muy fina, pero vamos !!!



@BitratE

Probe lo de nativo y original, para empezar me lie yo, tome como nativo que respetaba el color nativo de la entrada y es que adapta la entrada a la capacidad de la TV, el automatico es el que respeta la señal entrante.

No se si soy yo, pero si me preguntan gama de color que quiero y pongo nativo doy por hecho que estoy diciendo que no toquen nada, en fin cosas de Samsung, o mias que lo pillo al reves [toctoc] [toctoc] .

Luego tras probar uno u otro la diferencia es que en nativo da mas contraste, y ligeramente mas oscura la imagen. Igual si voy probando con mas juegos si noto mas diferencias.

No obstante ya sabiendo que automatico es respetar la señal de entrada lo dejare ahi..

Gracias por advertirme del error. [beer]
@Ashtyr cosas de Samsung y sus nomenclaturas.

Prueba también en Personal y en la opción gama de colores cambias a BT.2020 y vuelves a ponerlo en automático.

Tu modelo es más cercano a conseguir un espacio de color mayor por lo que en rec.2020 puedes conseguir mejores gradaciones en HDR
@Ashtyr

No es que no se pueda debatir sobre temas técnicos pero también entiende que, si alguien entra a pedir consejo sobre una TV y ve que las últimas páginas del hilo son unos "tochos" técnicos, es bastante posible que ni pregunte.

De hecho, estabais debatiendo sobre 12 bits en BR, sobre películas. Y no es el tema del hilo.

Un saludo.
Este hilo se ha convertido en un "monstruo" muy dificil de manejar. Por mi parte, pese a haber editado 10 veces este post, creo que sencillamente lo voy a dejar en un "os veo desde la barrera".

El que quiera consejos y ayuda, por privado. Si buscas líos, ni te molestes, no contestaré.

Ya estoy cansado de discutir y perder un tiempo que puedo aprovechar para otras cosas. Lo siento y siendo dar tantos quebraderos a @N-N
Te repites mas que el ajo, tres post seguidos diciendo que lo dejas que blablablablabla.

Pareces un niño pequeño en busca de afecto la virgen, si quieres ayudar ayuda, si no quieres discutir es tan facil como no hacerlo, que quieres que te supliquemos que no te vayas o algo. [facepalm].

Aqui nadie ha buscado lios, pero se ha rebatido informacion que a veces no ha sido correcta. tanto por tu parte como por la de otros, yo incluido, en el ultimo caso tanto tu como yo estabamos equivocados en lo de DB, que parece que sea lo que te molesta, que alguien pueda rebatirte las cosas.

@BitratE

Te odio!!!, pero te quiero tambien, ya por MP, que si no desvio el hilo [rtfm]

Resumen se ve mucho. MUCHO mas realista la iluminacion y colores en Bt 2020.

Imagen

Imagen

Imagen

Imagen


Tirar a ese azul casi celeste es un error, pero lo di por bueno pues bueno es un juego, el tirar a añil es lo correcto en esa condicion de luz, en BT 2020 lo hace correctamente.


Me falta probarlo en mas juegos, solo llevo dos mirados, pero el resultado esta siendo el mismo.
18218 respuestas