Duda herzios y fps

Buenas pues tengo una duda, el otro dia viendo el hobbit 3 en 48 fps me hizo plantearme algo, mi television tiene 400 hz y las peliculas se ve mucho mas rapido de lo normal, entonces queria saber la diferencia entre herzios y fps o la relacion, a mas herzios mas fps? o no tiene nada que ver, y por que se me ve mi television como la peli del hobbit? o es lo que me parece a mi?
Ningun televisor tiene 400Hz, eso no se lograba en el mundo analogico, que es mas sencillo, mucho menos en el de video digital que es mas complejo. Sera a lo mucho 120 o 180Hz reales, lo demas se logra por interpolacion [crear mas cuadros que dan la ilusion de suavidad].

En realidad los hercios o Hertz [Hz] o ciclos por segundo, se usaban en el mundo analogico de los televisores antiguos que usaban un cañon de rayos catodicos [un acelerador de electrones que se proyectaban a la pantalla para crear un punto luminoso en ella], era una forma de SINCRONIZACION para hacer conicidir el transmisor de la imagen [las camaras de television] con el receptor que recreaba la imagen [el televisor] y de esta manera no hubiera 'parpadeos', es decir ausencia de un cuadro/imagen. En la actualidad se sigue empleando el hercio o hert, solo por convencionalismo a las tecnologias que dieron origen a la television. Para lograr dicha sincronizacion debia haber algo en comun que marcara 'el ritmo', y tenia que ser barato y he aqui la gran idea: Utilizar los Hertz de la linea electrica, que como ya saben es en base a corriente alterna, que para europa su linea es de 50Hz mientras que para america es de 60Hz. Con esto y como todo aparato electrico/electronico usa la misma linea electrica que ya esta estandarizada es como las televisoras lograron esta sincronizacion entre sus camaras del estudio y los aparatos televisores en las casas, y de ahi que en television, en europa sean las imagenes de 25hz [25 imagenes en un segundo] y en america de 30Hz [30 imagenes].

Entonces los Herzios es solo la manera de medir cuantas veces el televisor esta preparado para recibir una imagen, por ejemplo, en un televisor HD o FullHD comun, el estandar es de 60Hz, es decir, el televisor esta esperando se le envien 60 imagenes en un segundo. Generalizando digamos que es la limitacion del hardware del televisor, monitor o proyector.

Los FPS es la medida de los cuadros/imagenes REALES que se han generado para ser mostrados, si es un video juego el motor grafico es el encargado de crear estas imagenes y el # de imagenes dependera de la potencia grafica del hardware, hardware mas potente creara mayor cantidad de imagenes, hardware menos potente pues creara menos imagenes; a diferencia de un videopelicula donde la cantidad de cuadros ya esta fija y determinada desde que se encodeo el video. Generalizandom, digamos que esto es puramente del software encargado de crear [motor grafico en video juegos] o reconstruir esas imagenes [un reproductor de video].

Asi que la relacion Hz y FPS es que, los primeros son los datos [imagenes] que el televisor puede mostrar por las limitaciones de su hardware, mientras los FPS son las imagenes por segundo que el software esta creando.

Idealmente y para no ver parpadeos, o brincos de la imagen, el software deberia generar la misma cantidad de imagenes que el televisor o monitor o proyector puede mostrar por segundo, si el software crea menos imagenes veremos parpadeos y como que la imagen se arrastra, mientras que si hay mas imagenes creadas que las que puede mostrar veremos en ocasiones pequeños brincos.

Para logra esta sincronizacion es que en un video juego se suele usar la funcion VSync, que obliga al video juego a mostrar la misma cantidad de imagenes que el televisor/monitor/proyector puede mostrar, mientras que en un reproductor se suele usar un algoritmo [un programa o modulo de programa] que interpola imagenes, es decir, a partir de dos cuadros/imagenes REALES crea una intermedia, para ser mas claro y ejemplificando, un televisor como decia comunmente muestra 60 imagenes por segundo, pero un video/pelicula usa valores estandarizados de cine o de television analogica, que son 24 fps para el primero y 25 y 30fps para lo segundo, asi que con la interpolacion se crean mas cuadros para llegar a esos 60 cuadros que pide el televisor.




.
Por nada, y aprovechando el post, aqui un poco sobre Vsync para los videojuegos.

hilo_problemas-con-30fps-falsos_2073988#p1738173366
3 respuestas