YouTube añade soporte HDR a sus vídeos

1, 2, 3
mmiiqquueell escribió:
SIRDRAK escribió:
Claro, porque es lo mismo obtener una imagen que sigue teniendo 8 bits de color (16 millones de colores) tras hacer el 'Tone Mapping' (verdadero nombre de la mal llamada técnica HDR de fotografía) combinando varias fotos, que la imagen generada en una pantalla HDR con una paleta de 10 o 12 bits de color (más de mil millones de colores). Igualito vamos...


Me intentas dar clases del HDR cuando me estas comparando un procesado de imagen con una pantalla, BRAVO!
Las FOTOS HDR se basan en la captura de varias fotos con diferentes exposiciones lo que la suma de ellas da una imagen de un tono más real y colorido a la realidad usando 8, 10 o 12 bits según la cámara si es o no compatible y ademas representa una mayor calidad de imagen que el vídeo por tomarse muchas más imágenes. El tone mapping es un subproceso para mejorar la iluminación de las imágenes, tanto si es HDR como si es LDR o SDR.

En los VÍDEOS HDR se hace en post producción mediante Software de manera que no es HDR. En algunos casos se utilizan 2 cámaras con 2 exposiciones diferentes y luego se fusionan en post producción e incluso hay cámaras que hacen esta función automáticamente. Es imposible capturar HDR en un vídeo con una sola cámara por ahora y se utilizan 2 exposiciones diferentes en vez de varias como la foto lo cual el resultado no es como una fotografía.

Luego APARTE están los TV HDR que ofrecen un rango de colores mayor para apreciar mejor esos colores que se han generado que un TV normal no puede mostrar.


Quieras o no es lo mismo y antes de dar por hecho que alguien no tiene ni idea miratelo porque me has dejado claro que no sabes como funciona el HDR. (Toda esta información está en la Wikipedia)


Perdona, pero sigues confundiendo el HDR de fotografía (que en el extracto que me pegas de la Wikipedia SIGUE refiriéndose al mismo efecto aplicado a video), con el HDR de las pantallas o TVs, que aunque se llamen igual no son lo mismo. El primero sigue siendo un efecto artificial obtenido a partir de la información de color de más de una fuente (dos o más fotos o archivos de vídeo, por eso la Wikipedia menciona que hacen falta dos cámaras porque no existen cámaras de video que lo hagan directamente) o postproducción a posteriori, mientras que el HDR de TVs y monitores lo 'unico' que posibilita es poder mostrar toda la información de color y luminosidad que no te dá una pantalla normal no HDR, por lo que NO NECESITA que la fuente original de video sea obtenida a partir de un proceso artificial de combinación de varias fuentes diferentes o con diferente exposición, sino de cámaras capaces de captar color de 10 o 12 bits, que las hay a montones a nivel profesional, por cierto. De esta forma, una TV HDR muestra colores más fieles y más reales que una TV normal, evita pérdidas de detalles en zonas de alto contraste sin falsear los colores, mientras que las técnicas HDR de fotografía, a menudo lo que hacen es lo contrario.

Con lo cual el que no sabe de lo que habla eres tú, que además se las vá dando de listo porque busca información en la Wikipedia. Como dependas de la Wikipedia como fuente de información fiable, en más de una y de dos cosas vas listo.

Por cierto, de nada te sirve que una imagen obtenida con la técnica de HDR en fotografía tenga 10 o 12 bits de color si no la visualizas en una pantalla con un panel de 10 bits, con lo que seguirás limitado a los 16 millones de colores que es capaz de mostrar una pantalla normal.
estragos escribió:¿En que momento vamos a saber que nuestra TV es compatible con este HDR de Youtube? En Netflix por ejemplo la TV se percata de que la señal es HDR y modifica a ese tipo de visualización automáticamente, pero soy consciente de que otras fuentes necesitan que se modifique de forma manual el tipo de visualización. La cuestión es que yo puedo poner "imagen HDR" en cualquier momento, pero el resultado son imágenes supersaturadas e irreales. ¿Sabeis si con Youtube os modifica directamente el tipo de visualización? (Para aquellos que tengáis uno de los dispositivos compatibles que ha anunciado Youtube de primeras).


Youtube ha optado por elegir el codec VP9.2 en lugar de HEVC que usa Netflix y demás, para ahorrarse un dinero. Así que muchas teles actuales necesitan una actualización de software para reproducir sus videos HDR, y una versión optimizada de la App de Youtube, y muchas otras no podrán reproducirlos jamás porque su hardware no soporta esta decodificación, así que a comprar un chromecast de los nuevos si realmente te interesa el asunto, aunque con la calidad tan regulera que da youtube para todo lo 4k, no se yo...

Parece que por ahora solo los modelos de Samsung mas nuevos lo reproducen correctamente sin más actualizaciones

@SIRDRAK Bien explicado. Además añadiría como detalle curioso que todas las películas, por antiguas que sean, rodadas analógicamente (con cámaras no digitales) conservan toda la información de rango completo en el celuloide original, el cual se "perdió" al comprimirlas en formato digital para su post-producción y distribución. Por lo que podrían sacar reediciones de todas esas películas con HDR para pantallas con HDR sólo buscando los celuloides originales y comprimiéndolos de nuevo manteniendo toda la información de rango completo. En cambio sería más complicado en aquellas donde el cambio de analógico a digital se hizo de manera temprana y todo el trabajo de post-producción se hizo sobre fuentes ya digitales, tendrían que repetir toda la post-producción en estos casos.
HDR TV es simplemente un standar , cualquier tevision o monitor 10bits de color y un de contraste minimo con un pico maximo de negros defino (en standard 1 es de 1000 nits por 0.05 de pico de negro)

Muchos aqui tendreis monitores de PC casi compatibles y ni lo sabreis.(seran 10bits y se acercaran al pico de negros/brillo, si son paneles IPS)


Por cierto, HDR en fotografia y en TV ES LO MISMO , que estais bastante perdidos. Simplemente se basa en hacer "STOPS" de rango, vamos poner exposiciones de -10 -8 - 6 -4 y combinar los resultados, asi en una unica imagen tendras todas las zonas con detalles, . Lo unico que dado que combinas una imagen con muchas exposiciones los rangos de colores y de contrastes van a ser muy amplios y es por eso que para ver esa gama de contrastes y colores necesitas al menos una pantalla 10bits y con un pico de negros definido, que es los que se llama "HDR compatible"

Y tienes camaras de fotos que captan HDR , empezando por iphones y samsungs galaxys
yeye2 escribió:HDR TV es simplemente un standar , cualquier tevision o monitor 10bits de color y un de contraste minimo con un pico maximo de negros defino (en standard 1 es de 1000 nits por 0.05 de pico de negro)

Muchos aqui tendreis monitores de PC casi compatibles y ni lo sabreis.(seran 10bits y se acercaran al pico de negros/brillo, si son paneles IPS)


Por cierto, HDR en fotografia y en TV ES LO MISMO , que estais bastante perdidos. Simplemente se basa en hacer "STOPS" de rango, vamos poner exposiciones de -10 -8 - 6 -4 y combinar los resultados, asi en una unica imagen tendras todas las zonas con detalles, . Lo unico que dado que combinas una imagen con muchas exposiciones los rangos de colores y de contrastes van a ser muy amplios y es por eso que para ver esa gama de contrastes y colores necesitas al menos una pantalla 10bits y con un pico de negros definido, que es los que se llama "HDR compatible"

Y tienes camaras de fotos que captan HDR , empezando por iphones y samsungs galaxys


No, no es así... Para encontrar monitores con paneles de 10 bits, hasta hace bien poco te tenías que ir a monitores profesionales de marcas como NEC, Eizo y otros similares (todos los demás eran de 8 bits, sean o no IPS), y además, hasta la aparición del HDMI 2.0, la única posibilidad de conseguir color de 10 bits o más en una pantalla era a través de una conexión DisplayPort (ni DVI ni HDMI de 1.4 para abajo, ya que les falta el ancho de banda necesario para ello). También eran necesarias gráficas profesionales tipo Quadro y FirePro para conseguir una salida de 10 bits hasta hace un par de generaciones en las gráficas. Y no, para que una tele o monitor se clasifique como HDR NO ES NECESARIO, repito, NO ES NECESARIO, modificar la imagen con técnicas como esa, sólo mostrar color de 10 bits. El simple hecho de usar una paleta de color enormemente más amplia, y una luminosidad superior ya consigue un nivel de detalle superior en las imágenes, degradados mucho mucho más suaves, COLORES MÁS FIELES Y REALES, sencillamente porque la imagen ya lleva mucha más cantidad de información asociada. Seguís empeñados en que hay que usar forzosamente las técnicas HDR de fotografía Y NO ES ASÍ.

Y por cierto, la técnica de fotografía de HDR la conozco y la he usado desde al menos el 2005/2006, porque soy aficionado a la fotografía desde hace muchos años, así que sé bastante bién de lo que hablo. Y además también llevo años metido en temas de ilustración digital, por lo que todas estas cosas hace tiempo que las conozco (temas relativos al tratamiento y fidelidad del color, etc...).

Decir también que ahora mismo no hay ningún móvil con pantalla de 10 bits por muy IPS o AMOLED que esta sea, y que las fotos que consigues en cualquier móvil en un formato diferente del RAW (y tiene que ser un RAW que soporte 10 bits o más por canal) son todas a 8 bits de color por mucho HDR que hayas aplicado.
@yeye2

Otro igual!, pues mucha suerte encontrando un monitor con panel de 10-bit, con suerte 400 nits (necesitas 1000 nits para HDR10), y compatible con ITU-R BT.2020. De hecho te va a ser imposible encontrar uno que cumpla una sola de estas características

Y no, todo lo demás que has dicho es falso, las películas de hollywood no se producen como se hacen las fotos HDR de hace una década interpolando imágenes con distinta exposición, sino que se ruedan con ópticas de alto rango y se codifican en 12-16 bit.

http://www.panoramaaudiovisual.com/2016/11/10/fujifilm-pone-de-relieve-en-sevilla-su-excelencia-en-opticas-para-4k-uhd/
yeye2 escribió:HDR TV es simplemente un standar , cualquier tevision o monitor 10bits de color y un de contraste minimo con un pico maximo de negros defino (en standard 1 es de 1000 nits por 0.05 de pico de negro)

Muchos aqui tendreis monitores de PC casi compatibles y ni lo sabreis.(seran 10bits y se acercaran al pico de negros/brillo, si son paneles IPS)


Por cierto, HDR en fotografia y en TV ES LO MISMO , que estais bastante perdidos. Simplemente se basa en hacer "STOPS" de rango, vamos poner exposiciones de -10 -8 - 6 -4 y combinar los resultados, asi en una unica imagen tendras todas las zonas con detalles, . Lo unico que dado que combinas una imagen con muchas exposiciones los rangos de colores y de contrastes van a ser muy amplios y es por eso que para ver esa gama de contrastes y colores necesitas al menos una pantalla 10bits y con un pico de negros definido, que es los que se llama "HDR compatible"

Y tienes camaras de fotos que captan HDR , empezando por iphones y samsungs galaxys


Eso no es cierto, es algo que se repite como un mantra, pero NO es cierto.

Sí es cierto que partiendo de varias fotografías expuestas tanto en un lado como en otro, logras una imágen HDR (guardada en un archivo .HDR o .EXR) que luego te valdrá para:

1) Generar un mapa de reflexiones o de entorno en programas de Animación 3D (es lo que se lleva haciendo LUSTROS)

2) Generar una imagen de 8 bits fusionando altas y bajas luces para obtener una imagen "balanceada" (Tone Mapping) en 8bits. Con la variante de que aquí va en gustos estéticos (buenos y malos)

3) Generar una imagen "doblemente expuesta" (que permite ver por ejemplo el interior de una habitación y el exterior de la ventana, al tener expuestas las dos variantes). Esto es tan antiguo como la propia fotografía y se llama "doble exposición". Es más, puedes realizar ese truco en digital con el uso de flash y manteniendo obturación (así se generan muchos trucos de "fantasmas", entre otras cosas)

En el caso del HDR para vídeo, se parte de una imagen expuesta normal, pero que se registra a 16 bits o más, además de capturar la imagen con una curva de gamma logarítmica, que ofrece una imagen poco contrastada, lavada de color y en general poco atractiva (el tan famoso "look ikea" de hace unos años). Esa imagen tiene los suficientes "stops" como para más adelante poder sacar una versión en HDR que permita no solo retener el detalle en las sombras, sino potenciar las altas luces más allá de los 100nits (que es el límite en vídeo SDR).

Pero claro, todo esto sin verlo en vivo, es complicado de explicar. Hay que verlo desde la imagen original, ver como es, ver como se crea el HDR. Es tan radicalmente diferente al falso HDR fotográfico, que no tiene NADA, NADA, NADA que ver.

Y al que tenga dudas al respecto, tiene las puertas de mi despacho abiertas. No me importa explicarlo 1000 veces, pero hay que VERLO para entenderlo.
105 respuestas
1, 2, 3