Diferencia a la vista entre 1080 y 4K

Buenas.
Llevo coleccionando blu rays muchos años y ahora me estoy replanteando centrarme en el 4K porque en un futuro a corto plazo quiero comprarme una tele,digamos de 65 y un buen reproductor 4K para el salón.
No teniendo un ojo clínico y no siendo alguien demasiado exigente con las calidades os planteo si merece la pena el cambio.Porque la verdad,el blu ray se ve de lujo pero el 4K no lo he visto nunca.No sé como se ve.¿La diferencia merece el cambio?
Saludetes.
La respuesta es depende.

La verdad es que SI se nota si vas hacer una prueba o algo (lo que comentas del ojo clínico), pero que te merezca la pena depende de muchos factores.

Alguien que lea "tele de 65" te dirá de primeras que Sí, que directo a 4K, pero es que depende de la distancia de visionado, porque por "mucho" tamaño inicial que sea, hay una distancia a la que deja de apreciarse.

La buena noticia es que hablamos de películas, no un juego que la gráfica tenga que mover a X fps y de ello dependa la experiencia y jugabilidad.
(Cambia mucho la cosa mover un juego a 1080p y a 4K)
En ese sentido, al tratarse de pelis, diría que SI es buena idea almacenar contenido 4K para reproducirlo tanto en 4K como en 1080p prácticamente sin pérdida en la conversión del visionado en 1080p.
Pero invertir en equipo (tv, reproductor, etc..) pues eso, depende de cada caso yo creo...
Hay una cosa muy buena tanto si haces el cambio como si no: La relación de píxeles entre 1080p y 4K es exactamente 2:1 en horizontal y en vertical.

¿Qué quiere decir esto? Que si compras una tele 4K, puedes seguir viendo contenido a 1080p sin perder nada de calidad frente a verlo en una tele 1080p del mismo tamaño. Incluso yendo a resoluciones mayores, cuando el ratio no es exacto la imagen se emborrona ligeramente, que no es deseable.

Como casi todo en esta vida "cuanto más mejor, pero más caro también". Si puedes cambiar todo, genial. Si tienes una colección de películas grande... pues de entrada cambia la TV, mira a ver si te convence, y si no valora cambiar todo lo demás también.

Saludos
1080p en 4K pierde calidad porque la imagen se estira, no se nota tanto como 720p pero se nota.


Lo bueno es que dentro de nada habrá upscalers por IA en muchos dispositivos, de hecho nvidia no hace mucho implementó en las RTX un upscaler que permite ver el contenido a una resolución superior "super resolution", al que se reproduce.

Me refiero, te metes en youtube, ves un vídeo 1080p que solo ha sido subido a 1080p y te lo upscalea a 4K en tiempo real, te metes a ver una peli por los mares del sur a 1080p o 720p te la upscalea en tiempo real a 4K
katatsumuri escribió:1080p en 4K pierde calidad porque la imagen se estira, no se nota tanto como 720p pero se nota.

Eso no es correcto. 1080p es 1920x1080, 4K es 3840x2160. La relación de aspecto también es la misma (16:9)

3840 es exactamente 1920x2
2160 es exactamente 1080x2

Eso significa que 4 píxeles de 4K (2 a lo alto y 2 a lo ancho) hacen 1 píxel de 1080p. No solo no se estira sino que sería absolutamente rebuscado conseguir un método de escalado que lo hiciera.

720p también escala perfectamente a 4K (en este caso con 3:1 en ancho y en alto). Lo que se nota es que el bitrate es más bajo y hay mucha menos información que mostrar, pero eso no es culpa del escalado, es culpa del contenido original.

Saludos
@Pollonidas Sí, generalmente se percibe una pérdida de calidad al ver contenido con una resolución de 720p en una pantalla 4K. Esto se debe a que la resolución del contenido (720p) es significativamente menor que la resolución nativa de la pantalla (4K), lo que resulta en una imagen estirada para llenar la pantalla.

Cuando un video con una resolución inferior se reproduce en una pantalla con una resolución más alta, cada píxel del video debe ser agrandado para que coincida con los píxeles físicos de la pantalla. Este proceso de agrandamiento, conocido como "upscaling" o "escalado", puede resultar en una imagen borrosa o pixelada, ya que la información visual no está disponible en la resolución nativa de la pantalla.

Por otro lado, si el contenido tiene una resolución nativa más cercana a la resolución de la pantalla, como 1080p o 4K, la calidad de la imagen suele ser mejor, ya que hay más información visual disponible para llenar la pantalla sin la necesidad de agrandar demasiado los píxeles.

El escalamiento implica que el televisor debe interpolar y estimar información adicional para llenar los píxeles adicionales de la pantalla 4K. Este proceso puede mejorar la apariencia de la imagen, pero no puede crear detalles que no están presentes en la imagen original. En algunos casos, puede haber una mejora perceptible, pero no será tan nítida como si el contenido fuera nativo de 4K.


En resumen, para obtener la mejor calidad de imagen en una pantalla 4K, es preferible utilizar contenido con una resolución igual o cercana a la resolución nativa de la pantalla. El escalado de resolución puede resultar en pérdida de calidad.
Yo diría que siempre hay algo de pérdida al reescalar, incluso aunque coincida con el límite exacto del pixel, al menos es lo que yo percibo en la práctica.
Al final es un proceso que tiene que hacer el dispositivo en tiempo real que provoca cierta borrosidad.
Aun con todo, la mayoría preferirá esa borrosidad o pérdida de calidad con tal de que ver el contenido de marco a marco de la TV.

Por otro lado, si empiezas a acostumbrar al ojo al 4K, las pelis que te pongas en 1080p con el tiempo te van a ir rechinando mas, aunque solo sea por el factor psicológico que te juega en contra.

Si estás contento con la calidad y tal, yo no cambiaría digamos "por cambiar", distinto es que tengas que renovar algún dispositivo por avería o algo y quieras aprovechar la ocasión.

Date cuenta que una peli en 4K no se ve literalmente el doble mejor que una a 1080p, porque aunque se suba la resolución al doble, hablamos de un límite, no que la calidad esté alcanzando ese límite siempre ni todo el rato.
Además es solo un factor mas entre otros que repercuten en la calidad final, como puede ser el bitrate o una excelente iluminación al grabar X plano o secuencia que se verdad explote y aproveche la calidad se grabación, y eso llegue a marcar la diferencia entre la versión 1080p

Hace tiempo que no veo pelis, pero en el pasado, teniendo una duda similar a la tuya, paradógicamente me encontré mas de una peli en 4K que prácticamente no aportaba mejora respecto a la versión 1080p, incluso fijándome como te digo. Aunque lo habitual es que se note cierta mejora, obvio.
Otro impedimento que me encontré es que solo algunos títulos salían en 4K, un poco similar a lo que ocurre con el HDR, aunque supongo que todo ésto ha ido evolucionando un poco mas, hace rato que no trasteo con ello...
Gracias compis.
Una gran duda que tenía me la habéis resuelto que es si en una tele grande 4K,las resoluciones menores iban a cantar demasiado.Por lo que comentáis parece que no pierde nada.
Otra cosa.¿Hay alguna norma que diga cual es la distancia adecuada a cada pulgada de un televisor?
mefisto1201 escribió:¿Hay alguna norma que diga cual es la distancia adecuada a cada pulgada de un televisor?


Aquí hay algo de info
https://www.rtings.com/tv/reviews/by-si ... lationship
mefisto1201 escribió:[.. ]porque en un futuro a corto plazo quiero comprarme [..] y un buen reproductor 4K para el salón.
No teniendo un ojo clínico y no siendo alguien demasiado exigente con las calidades os planteo si merece la pena el cambio.[..].

Olvidandonos de peliculas y calidades, yo compraria un reproductor UHD SI-o-SI por el simple hecho de poder reproducir video en HEVC y ademas video a 10bit de color.

Ahora dando opinion como alguien que desde el siglo pasado hace codificaciones de video digital; como digitalicaciones transfer de videos familiares a VCD, DVD-Video y BRD-Video y Rips te puedo decir ademas que...

La calidad final que veas dejando de lado por un momento la resolucion es que tan bien se codifico el video, tanto en el formato y capacidades de dicho formato asi como el bitrate y todo eso sin olvidar la calidad de la fuente original [mejor si fue rodado a UHD o si se digitaliza desde algun master en cinta]. Porque hay mucho video comercial que tiene malas codificaciones y no se ve como deberia, aparte de que algunos estan tomados de fuente de menor resolucion y solo reescalaron [y sin prestar atencion al trabajo del algoritmo de reescalado].Eso ya se ha discutido en la seccion de cine y series del foro.
foro_off-topic-series-y-cine_219

Entonces, ¿que si veras diferencia entre un video FHD a uno UHD?, pues si, teniendo una buena pantalla y tenemos una buena codificacion y una fuente original de calidad, pues la diferencia sera mas que notoria [y por mucho]. Por el contrario, si fue mal codificado y tambien se uso un reescalado de un original de menor resolucion, pues se seguiar notando diferencia, pero mas se notaran los problemas de la codificacion y que es un reescalado en algunas escenas 'complicadas' [muchas texturas, movimientos bruscos, etc.].

Hablandio de la codificacin y dejando de lado la relacion de aspecto y relacion de pantalla del video, algunas codificaciones se crearon y optimizaron para X resolucion; por ejemplo hice algunas codificaciones que me esforze en hacer la matriz de cuantificacion que se veia 'perfecta' en los televisores a ED [enhanced definition que serias mas o menos 480p], pero ya en pantallas HD ya se notaba por aqui y por alla algunos bajones en la calidad, y ni que decir al verse en pantalla FHD, lo mismo con algunas codificaciones que realize despues en HD y en FHD ya se notaban algunos 'detallitos'. Y esas optimizaciones se hacen para aprovechar lo mejor posible el bitrate o ancho de banda, tener una 'buena' calidad con el menor peso del video para poder usar mas espacio en la calidad del audio o tener mas pistas de audio o tener mas tiempo de video en el disco... jiji, rara vez piensas en el salto de resolucion de las pantallas cuando hacias eso.

Asi que mi consejo es simple y llanamente: Si te vas comprar una pantalla moderna y de calidad, pues compra de una vez un reproductor [llamemoslo reproductor BRD-UHD] que pueda sacarle provecho, que ya despues se ira llenando la estanteria con esos videos que le saquen provecho a esa inversion, lo mismo que los RIPs.

Y el televisor compralo pensando en el futuro cercano -y mirando al futuro a mediano alcance-: Que tenga HDMI 2.1 de preferencia y que tenga pantalla de 10bit de color reales y no de 8bit con FRC para; mediante patrones de pixeles, dar la apariencia de mas colores. Asi si quieres usar el HDR que tengas un HDR Real y que realmente cumpla con las tonalidades y efectos que se espera del HDR y asi no te decepcione.

En esta pagina encuentras las especificaciones tecnicas de muchas marcas y modelos de monitores y pantallas, asi podras comparar y ver que tecnologias ofrecen, sobre todo en el tema de la pantalla, como Contraste Estatico [contraste real], que entre mas grande se tendra una imagen mas nitida y colorida, los pixeles para el color y si usa el truco de FRC para dar la apariencia de mas colores.
-->displayspecifications.com

Y si vamos a ser fan del cine, para que conformarse con una pantallita; asi sea de 100", un proyector es mas efectivo donde ¡EL TECHO ES EL LIMITE! y si vas al jardin o patio ya ni eso te limita en los tamaños, y mejor si es un proyector DLP o un proyector D-ILA


hilo_ver-pelis-en-3d-con-proyector-dlp_2294990
hilo_proyectores-de-bajo-coste_1344041
hilo_hilo-de-proyectores-dudas-consejos-modelos_1869822
En 65" si vas a notar bastante el 4k. Otro tema es la calidad del reescalado que haga tu TV desde los 1080p, hay modelos que reescalan muy bien y se ven muy dignamente, pero obviamente no es lo mismo que 4k nativos.
No hay nada que interpolar. Si el ratio entre las dos resoluciones es exacto (en ancho y en alto, claro) un número entero de píxeles de la "nueva" resolución representa cada píxel individual de la vieja, y los bordes de los píxeles también coinciden perfectamente. Os recomiendo dejar de usar ChatGPT para desinformaros a vosotros mismos.

De 4K a 1080p este número son 4 píxeles (2 en ancho y 2 en alto). De 4K a 720p este número son 9 píxeles (3 en ancho y 3 en alto)

Tampoco es cierto que una resolución más cercana se escala mejor. Por ejemplo, de 1440p a 4K el ratio de píxeles es 2:3, por lo que hay que interpolar (ahora sí) un 33% de los píxeles en pantalla, emborronando la imagen en el proceso.

Es como si me decís que preferís un plano dibujado sobre una cuadrícula en centímetros (con valores enteros, no decimales), porque si se dibuja el mismo plano sobre una cuadrícula en milímetros se pierde información o las diagonales quedan raras o algún otro motivo (que no es verdad).

Saludos
No he usado GPT en mi vida hulio... yo hablo desde mi experiencia a nivel usuario.
Imagino que al Hard/Soft que reescala se la pela si es entero o decimal, hace su trabajo y ya está, se lo come todo y saca 4K de ahí.
Y que el que sea "en tiempo real" tampoco ayuda a la calidad, claro. Pero al final es práctico.
alvaro101 escribió:No he usado GPT en mi vida hulio... yo hablo desde mi experiencia a nivel usuario.
Imagino que al Hard/Soft que reescala se la pela si es entero o decimal, hace su trabajo y ya está, se lo come todo y saca 4K de ahí.
Y que el que sea "en tiempo real" tampoco ayuda a la calidad, claro. Pero al final es práctico.

No lo decía por ti. Alguna de las otras respuestas parece sospechosamente salida de ChatGPT. Pero igual es cosa mía, que estoy viejo ya y veo cosas donde no las hay.

El software de reescalado como dices soporta varias entradas y saca 4K, tanto si es un múltiplo entero como si es decimal. Pero si el sistema de reescalado que sea redondea 2.00 a algo que no sea 2, es que está mal hecho. Porque no solo es peor, sino que es más costoso en recursos y más complejo de hacer. Reescalar en tiempo real a un múltiplo exacto es prácticamente gratis en recursos. Y suele haber hardware dedicado a ello en cualquier dispositivo que se precie.

Mi opinión es que la pérdida de calidad que notas es simple y llanamente que estás viendo los artifacts por falta de bitrate y demás defectos del material original en un panel mejor y más grande.

Saludos
13 respuestas