¿Mejora un 4K en una tele 1080? [RESUELTO]

Buenas.No sé si debería estar este post aquí o en pc general.Que moderación actúe.

A la espera de pasarme a las teles 4K,he hecho un experimento para ver si noto mejoría reproduciendo 4K en mi tele 1080 de toda la vida.
He puesto Nosferatu (2024) porque es muy oscura y creo que en las escenas oscuras es cuando cantan los malos ripeos.Lo dicho,he reproducido la peli en 4K en mi tele y he notado mucho la mejora con el ripeo en 1080 que tengo.
¿Puede ser esto posible o es una sensación mía?.No sé si la resolución tiene algo que ver o el bitrate o las dos cosas.Que la resolución tenga algo que ver lo dudo porque no puedo ver a mas de 1080 ¿no?
Saludos
Pues no, en general no veras mucha diferencia...
Imagen

y la mejoria la notarias mas por un RIP o emision streaming bien codificada que usar una imagen de mayor resolucion y luego reescalada a la resolucion nativa del panel que es menor. Es basicamente lo mismo a inicios de este siglo que notaron quienes usaban video HD o FHD [720 y 1080] en pántallas de television SD [definicion estandar], que en el mejor de los casos serian pantallas 480i, del que aunque fuera mayor la resoluciomn en realidad no notaban un cambio en la calidad de la imagen. Un video de mayor bitrate comparadso a uno e menor bitrate se puede distinguir algo en una pantalla SD, pro hasta un limite, ya despues de eso por mas bitrate que le des no se notara, y podemos extrapolar ese resultado al hablar de un video a resolucion UHD [2160i/p] visto en una pantalla FullHD

Tambien ayuda mucho una codificacion a 10bit de color [sin importar el formato de video empleado] en la cual el banding y otras anomalias de la compresion a 8bit es mucho menor. Entonces un RIP creado desde un buen video original [RAW] codificado a 10bit de color y aun siendo a 480i se vera mejor que el mismo video codificado a 8bit de color, ademas de que sera de un 10-14% menor en cuanto al peso del archivo. Por eso es que hace años se comenzo a popularizar en circulos mas exigentes la codificacion en Hi10 del formato h264 [que es de 10bit de color] incluso usando resoluciones SD [480i y 480p], no importa que la pantalla no sea de 10bit de color nativos, el software [o el hardware] de reproduccion hace el ajuste del mapa de colores para que se vea correcto

Un video a 2160i/p normalmente esta codificado a 10bit de color, precisamente para mejorar la compresion [como en el formato h264], ademas de que los formatos masa recientes como h265, av1, y h266 estan mas optimizados para usarse a esos 10bit de color.
Imagen


En Resumen.

Notas una buena imagen no por la resolucion, ni el formato de video sino porque usaron una codificacion a 10bit de color, asi se minimiza el banding; el cual es originado por la compresion con perdidas que usan estos formatos de video.
Imagen
Muchas gracias maestro por la explicación.
@mefisto1201 por nada, y entonces ya resuelta la duda y satisfecha la curiosidad es hora de editar el titulo del hilo para agregar la etiqueta [RESUELTO] y asi otros con la misma duda le den prioridad al hilo.
3 respuestas