Samsung actualiza sus televisores 4K de 2016 para hacerlos compatibles con YouTube HDR

Los propietarios de un televisor Samsung de última generación están de enhorabuena. El fabricante surcoreano ha hecho público que durante este mes de diciembre desplegará una actualización de software que entre otras cosas activará el soporte HDR para los vídeos de YouTube, una característica que fue incorporada por la filial de Google hace apenas unas pocas semanas.

De acuerdo con Samsung, esta actualización estará disponible para "todos los televisores quantum dot y UHD" modelo 2016.

La noticia llega después de que la propia Google anunciara que Samsung sería uno de los primeros fabricantes en ofrecer soporte para HDR en YouTube, que estará disponible en los televisores de la compañía a través de la ya habitual aplicación para Smart TV. Según el comunicado, los usuarios no tendrán que perder el tiempo buscando vídeos con HDR para apreciar las diferencias en brillo y contraste que brinda esta tecnología, puesto que habrá una categoría específica dentro del canal 4K de YouTube. Estos vídeos siguen el estándar HDR10.

La disponibilidad de YouTube HDR en los televisores de Samsung resulta interesante, puesto que con la difusión de esta actualización de software habrá probablemente más televisores compatibles que monitores de ordenador. La tecnología HDR apenas está dando los primeros pasos en el mercado informático, comenzando con monitores de corte profesional o dirigidos a jugadores exigentes.

Es de imaginar que los televisores de Samsung lanzados a lo largo del próximo año ya vendrán con esta prestación activada de serie. Sobre estos futuros lanzamientos, la publicación surcoreana ETNews señala que los televisores quantum dot que llegarán al mercado en 2017 ofrecerán mejoras en el volumen del color y el contraste, ofreciendo un negro más puro para rivalizar en mejores condiciones con la nueva generación de pantallas OLED. Samsung (como el resto de los principales fabricantes de la industria) presentará sus próximos lanzamientos en la feria CES 2017, que tendrá lugar a comienzos de año en Las Vegas.

Fuente: Samsung
Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.
A ver que tal resulta, que tengo ganas de probarlos, aunque seran pocos, en mi ks7000.

Ademas a ver si en la actualización va ya la aplicacion de HBO para que podamos ver esta plataforma desde la TV sin usar Chromecast.
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.


"Alto Rango Dinámico". Es una función que permite mayor rango entre las partes oscuras y blancas.
Y los de 2015, qué? nos jodemos? :/
No soy muy experto en paneles, pero una actualización por SW no sube los bits del panel, creo que eso viene por el hardware que incorpore la TV. Lo demás son chapucillas resultonas, pero no reales...
Igualito que los de Lg que lo único que hacen es quitar cosas por incompatibilidad.
SNK75 escribió:No soy muy experto en paneles, pero una actualización por SW no sube los bits del panel, creo que eso viene por el hardware que incorpore la TV. Lo demás son chapucillas resultonas, pero no reales...



Pero habilita que los paneles de 10bits puedan mostrar el color real, que actualmente la app de youtube no muestra :/
El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.
Ya la desactivaran en un futuro igual que han hecho con mi Samsung del 2014 ya.
Ahora porque son tv nuevas pero luego te borran la App y tan panchos.

Obsolescencia programada le llaman.
Y tan programada. [+risas]
Se instaló hace unas semanas con la última actualización de mi ks8000, aparece un indicativo cuando el video es HDR aunque por ahora no hay muchos videos.
Pero seran todos los televisores UHD? Actualizaran mi Samsung UE50JU6800?
Bien hecho por Samsung !
kai_dranzer20 está baneado por "Game Over"
skyrim escribió:Pero seran todos los televisores UHD? Actualizaran mi Samsung UE50JU6800?


solo los que tengan páneles de 10bits, si la tuya tiene ese panel pues sí
Entiendo que los que tenemos TV 4K sin el HDR no sirve para nada esta actualización o ni actualizará.
Edy escribió:El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.


Si y no... El tema está en que la famosa técnica HDR de fotografía y el actual HDR de televisores no son lo mismo aunque se llamen igual. Se podría decir que el HDR de fotografía es un Alto Rango Dinámico 'falso', pues lo que hace en realidad es combinar la información de varias fotos con diferente exposición en una sola (de modo que se 'rellenan' de forma artificial las zonas donde se pierde información por el alto contraste de la imagen inicial con la información de las otras tomas con diferente exposición). El resultado es una foto que sigue siendo de 8 bits de color por canal (una imagen con un máximo de 16 millones de colores), en la que se aprecian los detalles en zonas en las que de otra manera no se vería nada (los típicos cielos blancos quemados o zonas en sombra indistinguibles) pero también se falsean los colores, que ganan saturación y se distancian de los reales, por lo que con frecuencia las fotos HDR tienen un aspecto irreal.

Sin embargo, el HDR actual de las nuevas TVs 4K se hace de una forma totalmente diferente, y se podría decir que es un Alto Rango Dinámico real. En lugar de combinar la información de varias imágenes, se opta por captar las imágenes con una paleta de color de 10 o 12 bits por canal (lo que quiere decir que la imagen resultante, en lugar de tener un máximo de 16 millones de colores, podrá tener miles de millones de colores) y mostrarlos en un panel que igualmente tiene la capacidad de mostrarlos, y además, una capacidad de mostrar un brillo muy superior al de las TVs tradicionales (las teles HDR actuales andan por los 1000 nits, pero el objetivo es llegar a multiplicar esa cifra por 10 en el futuro). El efecto a nivel visual de esto es que, a diferencia de lo que pasaba con el HDR de fotografía, los colores son mucho más reales, no están falseados, y la mejora a nivel visual es considerable. Y lo mejor, para el tema de juegos de consolas/Pc es que usar HDR no implica consumo de recursos extra. Además, a modo de curiosidad, la películas grabadas con medio no digitales (con película) tienen el rango de color completo necesario para reeditarlas directamente en HDR.
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.

Sirve para convencerte de que si no lo tienes tu movil o tv esta obsoleto por lo que debes incinerarlo y comprar uno nuevo que tenga esas 3 siglas.
Y en el ambito puramente técnico es un estandar que mejora un poco el color y el contraste de las imágenes y los videos; digamos que, a grandes rasgos, da una mayor paleta de colores lo que hace que las imágenes se vean mejor.
Personalmente no me parece una mejora suficiente para cambiar de TV, Monitor o Teléfono movil.
Una gran noticia para los poseedores de dichos paneles.

Yo tengo pocas esperanzas con el HDR en la app de mi Hisense.
Estoy viendo la serie "The OA" en formato HDR a través de Netflix, y las imágenes son bastante impresionantes.

Aunque yo no he tenido que instalar ninguna app ni actualizar, tengo una LG 4K con Web OS... supongo que la TV me llegaría con el software actualizado.
Donde este un Oled que se quieten todas espas porquerias de pantallas LED con sus asquerosos angulos de vision.
skyrim escribió:Pero seran todos los televisores UHD? Actualizaran mi Samsung UE50JU6800?

No, tu modelo no es de 2016, es 2015. Son las KU y las KS.
SIRDRAK escribió:
Edy escribió:El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.


Si y no... El tema está en que la famosa técnica HDR de fotografía y el actual HDR de televisores no son lo mismo aunque se llamen igual. Se podría decir que el HDR de fotografía es un Alto Rango Dinámico 'falso', pues lo que hace en realidad es combinar la información de varias fotos con diferente exposición en una sola (de modo que se 'rellenan' de forma artificial las zonas donde se pierde información por el alto contraste de la imagen inicial con la información de las otras tomas con diferente exposición). El resultado es una foto que sigue siendo de 8 bits de color por canal (una imagen con un máximo de 16 millones de colores), en la que se aprecian los detalles en zonas en las que de otra manera no se vería nada (los típicos cielos blancos quemados o zonas en sombra indistinguibles) pero también se falsean los colores, que ganan saturación y se distancian de los reales, por lo que con frecuencia las fotos HDR tienen un aspecto irreal.

Sin embargo, el HDR actual de las nuevas TVs 4K se hace de una forma totalmente diferente, y se podría decir que es un Alto Rango Dinámico real. En lugar de combinar la información de varias imágenes, se opta por captar las imágenes con una paleta de color de 10 o 12 bits por canal (lo que quiere decir que la imagen resultante, en lugar de tener un máximo de 16 millones de colores, podrá tener miles de millones de colores) y mostrarlos en un panel que igualmente tiene la capacidad de mostrarlos, y además, una capacidad de mostrar un brillo muy superior al de las TVs tradicionales (las teles HDR actuales andan por los 1000 nits, pero el objetivo es llegar a multiplicar esa cifra por 10 en el futuro). El efecto a nivel visual de esto es que, a diferencia de lo que pasaba con el HDR de fotografía, los colores son mucho más reales, no están falseados, y la mejora a nivel visual es considerable. Y lo mejor, para el tema de juegos de consolas/Pc es que usar HDR no implica consumo de recursos extra. Además, a modo de curiosidad, la películas grabadas con medio no digitales (con película) tienen el rango de color completo necesario para reeditarlas directamente en HDR.



Si, pero no queria entrar tanto en cuanto a descripciones tecnicas, porque curiosamente (algo que no se llego a usar) era como el Deepcolor de las pantallas a 36Bits de rango colometrico, o similares. El caso es que igualmente, ese aumento de calidad es relativo, porque al final, todo tiene que tener la capacidad de reproducir HDR, desde la pelicula, reproductor, pantalla, proyector, ampli, etc etc etc. Me recuerda al Dolby Atmos, solo que para configurarlo todo y tenerlo todo como toca .... es mas jodido que la hostia conseguir "demos" que lo soporten.
Edy escribió:
SIRDRAK escribió:
Edy escribió:El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.


Si y no... El tema está en que la famosa técnica HDR de fotografía y el actual HDR de televisores no son lo mismo aunque se llamen igual. Se podría decir que el HDR de fotografía es un Alto Rango Dinámico 'falso', pues lo que hace en realidad es combinar la información de varias fotos con diferente exposición en una sola (de modo que se 'rellenan' de forma artificial las zonas donde se pierde información por el alto contraste de la imagen inicial con la información de las otras tomas con diferente exposición). El resultado es una foto que sigue siendo de 8 bits de color por canal (una imagen con un máximo de 16 millones de colores), en la que se aprecian los detalles en zonas en las que de otra manera no se vería nada (los típicos cielos blancos quemados o zonas en sombra indistinguibles) pero también se falsean los colores, que ganan saturación y se distancian de los reales, por lo que con frecuencia las fotos HDR tienen un aspecto irreal.

Sin embargo, el HDR actual de las nuevas TVs 4K se hace de una forma totalmente diferente, y se podría decir que es un Alto Rango Dinámico real. En lugar de combinar la información de varias imágenes, se opta por captar las imágenes con una paleta de color de 10 o 12 bits por canal (lo que quiere decir que la imagen resultante, en lugar de tener un máximo de 16 millones de colores, podrá tener miles de millones de colores) y mostrarlos en un panel que igualmente tiene la capacidad de mostrarlos, y además, una capacidad de mostrar un brillo muy superior al de las TVs tradicionales (las teles HDR actuales andan por los 1000 nits, pero el objetivo es llegar a multiplicar esa cifra por 10 en el futuro). El efecto a nivel visual de esto es que, a diferencia de lo que pasaba con el HDR de fotografía, los colores son mucho más reales, no están falseados, y la mejora a nivel visual es considerable. Y lo mejor, para el tema de juegos de consolas/Pc es que usar HDR no implica consumo de recursos extra. Además, a modo de curiosidad, la películas grabadas con medio no digitales (con película) tienen el rango de color completo necesario para reeditarlas directamente en HDR.



Si, pero no queria entrar tanto en cuanto a descripciones tecnicas, porque curiosamente (algo que no se llego a usar) era como el Deepcolor de las pantallas a 36Bits de rango colometrico, o similares. El caso es que igualmente, ese aumento de calidad es relativo, porque al final, todo tiene que tener la capacidad de reproducir HDR, desde la pelicula, reproductor, pantalla, proyector, ampli, etc etc etc. Me recuerda al Dolby Atmos, solo que para configurarlo todo y tenerlo todo como toca .... es mas jodido que la hostia conseguir "demos" que lo soporten.


Donde se aprecia más es en los juegos... A ver si llega la actualización Creators Update de Windows 10, que entre otras cosas da soporte nativo al HDR a nivel de sistema operativo y también hace posible activar el modo de pantalla completa en los juegos de la Windows Store (por ahora sólo se pueden poner en modo 'Ventana sin Bordes' y por eso los juegos de la Store no soportan de momento HDR mientras que sus mismas versiones para Xbox One si, como el Forza Horizon 3, por ejemplo).
korchopan escribió:
skyrim escribió:Pero seran todos los televisores UHD? Actualizaran mi Samsung UE50JU6800?

No, tu modelo no es de 2016, es 2015. Son las KU y las KS.




No puede ser...Porque la UE40KU6100 no tiene HDR real, osea el de 10bits... ¬_¬
Protek escribió:
korchopan escribió:
skyrim escribió:Pero seran todos los televisores UHD? Actualizaran mi Samsung UE50JU6800?

No, tu modelo no es de 2016, es 2015. Son las KU y las KS.




No puede ser...Porque la UE40KU6100 no tiene HDR real, osea el de 10bits... ¬_¬

??? Y qué tiene que ver?

Lo activarán en las de este año sea de 10 bits o de 8 el panel. De todos modos no sé qué tiene que ver eso con lo que yo respondí. Las JU son del 2015 y las KU de 2016
manlore escribió:Se instaló hace unas semanas con la última actualización de mi ks8000, aparece un indicativo cuando el video es HDR aunque por ahora no hay muchos videos.

Interesante. La noticia de Samsung hacía ver que era algo que comenzaba a ser desplegado ahora.

Un saludo.
korchopan escribió:
Protek escribió:


No puede ser...Porque la UE40KU6100 no tiene HDR real, osea el de 10bits... ¬_¬

??? Y qué tiene que ver?

Lo activarán en las de este año sea de 10 bits o de 8 el panel. De todos modos no sé qué tiene que ver eso con lo que yo respondí. Las JU son del 2015 y las KU de 2016


Tiene que ver en que si tu tele no reune las condiciones (panel de 10 bits) no te saldrá la opción, así de simple. Si tu panel es de 8 bits (con lo que sólo puede mostrar un máximo de 16 millones de colores) no puedes tener HDR (1070 millones de colores o más).
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.

Para entenderlo fácil sin tanto tecnicismo copiado de la wikipedia que veo por ahí, es la "resolución del color". El estándar de siempre ha sido imágenes con 256 tonos de rojo, 256 de verde y otros 256 de azul. Con el HDR se añaden mas tonos de por medio. Ahora el estándar siguiente pasa de 256 tonos a 1024 por cada color.

Igual que los avances han añadido resolución a las imágenes con el FullHD y el 4K. El HDR añade también resolución al color, se muestran mas colores por imagen.
SIRDRAK escribió:
korchopan escribió:
Protek escribió:


No puede ser...Porque la UE40KU6100 no tiene HDR real, osea el de 10bits... ¬_¬

??? Y qué tiene que ver?

Lo activarán en las de este año sea de 10 bits o de 8 el panel. De todos modos no sé qué tiene que ver eso con lo que yo respondí. Las JU son del 2015 y las KU de 2016


Tiene que ver en que si tu tele no reune las condiciones (panel de 10 bits) no te saldrá la opción, así de simple. Si tu panel es de 8 bits (con lo que sólo puede mostrar un máximo de 16 millones de colores) no puedes tener HDR (1070 millones de colores o más).

Mi tele no es esa que ha dicho, ni he nombrado nada de modelos concretos, solo series que vienen definidas por letras y que corresponden con el año. JU 2015 KU 2016, la KU 7000 por ejemplo es panel 10 bits. De todos modos que el HDR sea fulero no quiere decir que no lo reproduzca, obviamente se le saca partido en los paneles de 10 bits pero eso no tiene que ver, una KU con HDR del mercadillo, que no es lo mismo que el HDR+ que solo es un filtro, también reproduce vídeos y juegos con modo HDR, pero no se van a ver tan bien claro. De todos modos como digo hablaba de series, no de modelos, no sé si hay KU no compatible con HDR aunque sea a 8 bits. También hay televisiones con paneles de 10 bits que no son HDR (no digo de esta serie que no lo sé hablo por ejemplo de Lg)
BoXTeR escribió:
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.

Para entenderlo fácil sin tanto tecnicismo copiado de la wikipedia que veo por ahí, es la "resolución del color". El estándar de siempre ha sido imágenes con 256 tonos de rojo, 256 de verde y otros 256 de azul. Con el HDR se añaden mas tonos de por medio. Ahora el estándar siguiente pasa de 256 tonos a 1024 por cada color.

Igual que los avances han añadido resolución a las imágenes con el FullHD y el 4K. El HDR añade también resolución al color, se muestran mas colores por imagen.


Cuidado, que eso sólo es así con el HDR de las teles, como expliqué antes. El de las cámaras de fotos y los móviles no funciona así, es un 'falso' HDR que sigue usando los 256 tonos que mencionas, como comenté antes. Lo expliqué de la forma más sencilla posible para que se entienda la diferencia y se eviten las confusiones que hay ahora (la verdad es que no han sido muy listos usando el mismo término, los lumbreras [facepalm] )
SIRDRAK escribió:
Edy escribió:El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.


Si y no... El tema está en que la famosa técnica HDR de fotografía y el actual HDR de televisores no son lo mismo aunque se llamen igual. Se podría decir que el HDR de fotografía es un Alto Rango Dinámico 'falso', pues lo que hace en realidad es combinar la información de varias fotos con diferente exposición en una sola (de modo que se 'rellenan' de forma artificial las zonas donde se pierde información por el alto contraste de la imagen inicial con la información de las otras tomas con diferente exposición). El resultado es una foto que sigue siendo de 8 bits de color por canal (una imagen con un máximo de 16 millones de colores), en la que se aprecian los detalles en zonas en las que de otra manera no se vería nada (los típicos cielos blancos quemados o zonas en sombra indistinguibles) pero también se falsean los colores, que ganan saturación y se distancian de los reales, por lo que con frecuencia las fotos HDR tienen un aspecto irreal.

Sí y no también.

Tirando en RAW hoy en día no hay cámara que no te saque 16 bits de color, hasta las más cutres lo hacen. Incluso desde hace unos años se está empezando con los 32 bits y hace ya un tiempo que photoshop da soporte para ello. La gracia del blonding es precisamente rellenar con varias imágenes para no hacer retoques "artificiales", pues cada zona de la imagen tiene la exposición correcta, no hay relleno artificial, no hay pérdida de información, esa es la gracia del HDR en fotografía.

Podrías lograr el mismo efecto simplemente levantando sombras y bajando altas luces pero ahí sí que se pierde información porque de partida no existía información al estar quemada, aunque eso no es tan así con los nuevos sensores.

Vamos, que con la fotografía actual consigues mucha más profundidad de color que con esta tecnología, la gran ventaja del HDR en teles es la gran gradación que hay en la luminancia, cosa inherente al panel.

Sin embargo, el HDR actual de las nuevas TVs 4K se hace de una forma totalmente diferente, y se podría decir que es un Alto Rango Dinámico real. En lugar de combinar la información de varias imágenes, se opta por captar las imágenes con una paleta de color de 10 o 12 bits por canal (lo que quiere decir que la imagen resultante, en lugar de tener un máximo de 16 millones de colores, podrá tener miles de millones de colores) y mostrarlos en un panel que igualmente tiene la capacidad de mostrarlos, y además, una capacidad de mostrar un brillo muy superior al de las TVs tradicionales (las teles HDR actuales andan por los 1000 nits, pero el objetivo es llegar a multiplicar esa cifra por 10 en el futuro). El efecto a nivel visual de esto es que, a diferencia de lo que pasaba con el HDR de fotografía, los colores son mucho más reales, no están falseados, y la mejora a nivel visual es considerable. Y lo mejor, para el tema de juegos de consolas/Pc es que usar HDR no implica consumo de recursos extra. Además, a modo de curiosidad, la películas grabadas con medio no digitales (con película) tienen el rango de color completo necesario para reeditarlas directamente en HDR.

No es del todo así, porque las cámaras actuales ya captan a más de 10-12 bits. El problema estaba más bien en como almacena la información el sensor, pues "cabe" mucha más información en la parte de las luces que en las sombras y había trucos para aprovechar esto. Pero con los sensores modernos ya se puede almacenar gran información en las sombras.

La gran ventaja del HDR sobre lo que ya había es lo que nombras de los nits.
dark_hunter escribió:
SIRDRAK escribió:
Edy escribió:El HDR es un modo de correccion de sobre exposicion de iluminosidad en escenas en donde hay mucha luz y poca en otras. Ejemplo, una foto en la que estas dentro de un local pero enfocas hacia una ventana donde en el exterior hay mucha luz. En la mayoria de casos, la imagen quedaria o demasiado iluminada (la luz de la ventana) o demasiado apagada (en la zona interior del local).

Este modo en TVs, lo que consigue es equilibrar la iluminacion de manera dinamica en todos aquellos fotogramas en los que los contrastes de unas zonas u otras queden perfectamente equilibradas. En realidad no es nada verdaderamente espectacular (por lo menos en videos) pero en determinados juegos es realmente interesante.


Si y no... El tema está en que la famosa técnica HDR de fotografía y el actual HDR de televisores no son lo mismo aunque se llamen igual. Se podría decir que el HDR de fotografía es un Alto Rango Dinámico 'falso', pues lo que hace en realidad es combinar la información de varias fotos con diferente exposición en una sola (de modo que se 'rellenan' de forma artificial las zonas donde se pierde información por el alto contraste de la imagen inicial con la información de las otras tomas con diferente exposición). El resultado es una foto que sigue siendo de 8 bits de color por canal (una imagen con un máximo de 16 millones de colores), en la que se aprecian los detalles en zonas en las que de otra manera no se vería nada (los típicos cielos blancos quemados o zonas en sombra indistinguibles) pero también se falsean los colores, que ganan saturación y se distancian de los reales, por lo que con frecuencia las fotos HDR tienen un aspecto irreal.

Sí y no también.

Tirando en RAW hoy en día no hay cámara que no te saque 16 bits de color, hasta las más cutres lo hacen. Incluso desde hace unos años se está empezando con los 32 bits y hace ya un tiempo que photoshop da soporte para ello. La gracia del blonding es precisamente rellenar con varias imágenes para no hacer retoques "artificiales", pues cada zona de la imagen tiene la exposición correcta, no hay relleno artificial, no hay pérdida de información, esa es la gracia del HDR en fotografía.

Podrías lograr el mismo efecto simplemente levantando sombras y bajando altas luces pero ahí sí que se pierde información porque de partida no existía información al estar quemada, aunque eso no es tan así con los nuevos sensores.

Vamos, que con la fotografía actual consigues mucha más profundidad de color que con esta tecnología, la gran ventaja del HDR en teles es la gran gradación que hay en la luminancia, cosa inherente al panel.

Sin embargo, el HDR actual de las nuevas TVs 4K se hace de una forma totalmente diferente, y se podría decir que es un Alto Rango Dinámico real. En lugar de combinar la información de varias imágenes, se opta por captar las imágenes con una paleta de color de 10 o 12 bits por canal (lo que quiere decir que la imagen resultante, en lugar de tener un máximo de 16 millones de colores, podrá tener miles de millones de colores) y mostrarlos en un panel que igualmente tiene la capacidad de mostrarlos, y además, una capacidad de mostrar un brillo muy superior al de las TVs tradicionales (las teles HDR actuales andan por los 1000 nits, pero el objetivo es llegar a multiplicar esa cifra por 10 en el futuro). El efecto a nivel visual de esto es que, a diferencia de lo que pasaba con el HDR de fotografía, los colores son mucho más reales, no están falseados, y la mejora a nivel visual es considerable. Y lo mejor, para el tema de juegos de consolas/Pc es que usar HDR no implica consumo de recursos extra. Además, a modo de curiosidad, la películas grabadas con medio no digitales (con película) tienen el rango de color completo necesario para reeditarlas directamente en HDR.

No es del todo así, porque las cámaras actuales ya captan a más de 10-12 bits. El problema estaba más bien en como almacena la información el sensor, pues "cabe" mucha más información en la parte de las luces que en las sombras y había trucos para aprovechar esto. Pero con los sensores modernos ya se puede almacenar gran información en las sombras.

La gran ventaja del HDR sobre lo que ya había es lo que nombras de los nits.


Cierto, pero salvo que seas aficionado avanzado de fotografía y tu cámara lo permita, la gran mayoría de usuarios de móviles y cámaras habituales (sobre todo de móviles) hacen sus fotos en jpg, no en Raw, y por lo tanto limitadas a 8 bpc. Precisamente cuando las cámaras mencionadas hacen una foto, el procesado de la misma incluye en la compresión el paso a una imagen de 8 bits por canal (y entre otras cosas esa es una de las razones de que un RAW ocupe tanto). Si has usado la técnica HDR en fotografía (yo la llevo usando desde el 2003), cuantas más tomas combinas más 'extraño' e irreal es el resultado en cuanto a color (prueba a hacer HDR combinando 6 o 9 tomas y me cuentas). La gran mayoría de compactas 'baratas' y de cámaras de móvil (incluso de algunos de gama alta) no permiten hacer fotos en Raw, sino en jpg, y sus paneles tampoco son de 10 bits (aunque parece que a partir del año que viene esto va a cambiar).

En lo que respecta al HDR, no es sólo el tema de los nits, sino que se exige también que se cubra al menos el 90% de DCI-P3 (pero el objetivo es alcanzar el rango completo de color BT.2020), lo que quiere decir que tiene que cumplir también esas exigencias mínimas en cuanto a fidelidad de color. No es suficiente con que el panel sea de 10 bits, por tanto.
SIRDRAK escribió:Cierto, pero como dices, salvo que seas aficionado avanzado de fotografía y tu cámara lo permita, la gran mayoría de usuarios de móviles y cámaras habituales (sobre todo de móviles) hacen sus fotos en jpg, no en Raw, y por lo tanto limitadas a 8 bpc. Precisamente cuando las cámaras mencionadas hacen una foto, el procesado de la misma incluye en la compresión el paso a una imagen de 8 bits por canal (y entre otras cosas esa es una de las razones de que un RAW ocupe tanto).

Exacto, tirando a jpg es 8 bits, pero ojo, lo es uses panel normal o HDR. Pero en RAW tienes 16, de hecho los 16 se están empezando a quedar obsoletos y desde hace unos 2 años se están introduciendo los 32.

Si has usado la técnica HDR en fotografía (yo la llevo usando desde el 2003), cuantas más tomas combinas más 'extraño' e irreal es el resultado en cuanto a color (prueba a hacer HDR combinando 6 o 9 tomas y me cuentas).

Discrepo, pero también es verdad que yo tiro de blending, no del HDR automático de Photoshop o Lightroom que hace auténticos estropicios. Te pongo dos fotos colgadas en el hilo de fotografía de este foro:
Imagen
Imagen

Una está hecha a partir de 5 tomas y la otra con 6, ahora no recuerdo y sin embargo ni siquiera parecen un HDR. En la primera lo hice porque si exponía correctamente la piedra, la cascada de la cueva aparecía totalmente en negro y si exponía bien la cascada la piedra se quemaba. En la otra es el caso típico de HDR, cielo quemado y suelo casi negro. Con el blending cuantas más tomas usas mejor queda, pero más tiempo lleva porque se hace de forma manual.

La gran mayoría de compactas 'baratas' y de cámaras de móvil (incluso de algunos de gama alta) no permiten hacer fotos en Raw, sino en jpg, y sus paneles tampoco son de 10 bits (aunque parece que a partir del año que viene esto va a cambiar).

En lo que respecta al HDR, no es sólo el tema de los nits, sino que se exige también que se cubra al menos el 90% de DCI-P3 (pero el objetivo es alcanzar el rango completo de color BT.2020), lo que quiere decir que tiene que cumplir también esas exigencias mínimas en cuanto a fidelidad de color. No es suficiente con que el panel sea de 10 bits, por tanto.

El espacio de color realmente es algo externo a como se capta la foto así como no lo son los bits, es más característico de la reproducción de la fotografía. DCI P3 es muy similar al añejo (de 1998) Adobe RGB, sólo que con mejores rojos y peores verdes. Yo trabajo con Photopro, un espacio de color muy superior a DCI P3 y Adobe RGB, pero cierto es que para exportar uso Adobe RGB o incluso si va para web, sRGB. Aquí sí que supondrá una mejora porque ya no tendré por qué volver a usar sRGB para guardar los datos, pues los monitores ya soportarán un espacio superior.

No todo iban a ser ventajas, 16 bits a veces se quedan cortos hasta para Adobe RGB (ni te cuento Photopro), por eso se están introduciendo los 32. Eso supone un problema, porque 10 bits son insuficientes para un espacio DCI P3, lo cual supone que se aumenta el espacio de color a cambio de la gradación tonal. Si se pasa a BT2020 tendrán que pasarse a 32 bits.
Donde se ponga una OLED que quite todo lo que saca samsung.
sabeis como entrar en el menu service oculto de las nuevas ku para ver que panel lleva ? en concreto la 49ku6100
pixius escribió:sabeis como entrar en el menu service oculto de las nuevas ku para ver que panel lleva ? en concreto la 49ku6100

si te refieres a los bits, ya te digo yo que 8 bits, hasta el modelo ku7000 son todas 8 bits
radeonxt escribió:Y los de 2015, qué? nos jodemos? :/

Eso digo yo.....compre la hu8500 curve el año pasado y me costo 2000 boniatos....ya ves tu la putisima gracia....lo que la mia no se ni si es compatible con hdr....alguien me lo aclara??
radeonxt escribió:Y los de 2015, qué? nos jodemos? :/

¿Pero tu tele era HDR? Porque si no lo era te daría igual que lo sacaran o no, esto es un tema hardware de poco sirve poder acceder a vídeos HDR si tu panel no es HDR, los verías igual o incluso peor.
epi99 escribió:Donde se ponga una OLED que quite todo lo que saca samsung.

El problema de las OLED, que son las de LG es que te tienes que tragar su sistema operativo por WebOs, dicho de otro modo, que tarda en aparecer las apps y las actualizaciones mas tarde frente a las Android TV (las mejoras a dia de hoy suelen ser las Sony) o las Tyzen de Samsumg (que normalmente son un port de android)
silfredo escribió:
epi99 escribió:Donde se ponga una OLED que quite todo lo que saca samsung.

El problema de las OLED, que son las de LG es que te tienes que tragar su sistema operativo por WebOs, dicho de otro modo, que tarda en aparecer las apps y las actualizaciones mas tarde frente a las Android TV (las mejoras a dia de hoy suelen ser las Sony) o las Tyzen de Samsumg (que normalmente son un port de android)



Yo creo que webos va bastante bien, pero aun así para mí lo primordial es la calidad de la imagen.
silfredo escribió:
epi99 escribió:Donde se ponga una OLED que quite todo lo que saca samsung.

El problema de las OLED, que son las de LG es que te tienes que tragar su sistema operativo por WebOs, dicho de otro modo, que tarda en aparecer las apps y las actualizaciones mas tarde frente a las Android TV (las mejoras a dia de hoy suelen ser las Sony) o las Tyzen de Samsumg (que normalmente son un port de android)


Claro, por eso mi LG y las OLED que mencionas ha sido de las primeras en recibir soporte de HDR en YouTube y en Netflix y Prime Video antes que muchas otras de la competencia. Hay que decir que WebOs funciona muy bién y es bastante cómodo de manejar, sobre todo con el mando este que trae que es como los de la Wii.
SIRDRAK escribió:
silfredo escribió:
epi99 escribió:Donde se ponga una OLED que quite todo lo que saca samsung.

El problema de las OLED, que son las de LG es que te tienes que tragar su sistema operativo por WebOs, dicho de otro modo, que tarda en aparecer las apps y las actualizaciones mas tarde frente a las Android TV (las mejoras a dia de hoy suelen ser las Sony) o las Tyzen de Samsumg (que normalmente son un port de android)


Claro, por eso mi LG y las OLED que mencionas ha sido de las primeras en recibir soporte de HDR en YouTube y en Netflix y Prime Video antes que muchas otras de la competencia. Hay que decir que WebOs funciona muy bién y es bastante cómodo de manejar, sobre todo con el mando este que trae que es como los de la Wii.

Yo me refiero lo que tardo en llegar Yomvi a las LG y para rematar lo que tardara en llegar la app de HBO, ahora mismo el talon de aquiles de HBO, no digo que WebOs sea malo como sistema, pero tambien es verdad que para los programadores es mas facil hacer una app para smartv primero en Android y luego portarla a Tyzen (samsumg facilito y mucho los ports).
SIRDRAK escribió:
BoXTeR escribió:
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.

Para entenderlo fácil sin tanto tecnicismo copiado de la wikipedia que veo por ahí, es la "resolución del color". El estándar de siempre ha sido imágenes con 256 tonos de rojo, 256 de verde y otros 256 de azul. Con el HDR se añaden mas tonos de por medio. Ahora el estándar siguiente pasa de 256 tonos a 1024 por cada color.

Igual que los avances han añadido resolución a las imágenes con el FullHD y el 4K. El HDR añade también resolución al color, se muestran mas colores por imagen.


Cuidado, que eso sólo es así con el HDR de las teles, como expliqué antes. El de las cámaras de fotos y los móviles no funciona así, es un 'falso' HDR que sigue usando los 256 tonos que mencionas, como comenté antes. Lo expliqué de la forma más sencilla posible para que se entienda la diferencia y se eviten las confusiones que hay ahora (la verdad es que no han sido muy listos usando el mismo término, los lumbreras [facepalm] )

Cierto, podríamos decir que eso que comentas es lo que al re-escalado de imagen interpolando pixeles [sonrisa]
johham escribió:Que es eso de HDR?, yo lo tengo en el móvil pero en una tele no se para que sirve.


un saca cuartos que casi no se nota
43 respuestas