Framerate y el Ojo Humano. Toda la verdad

Bueno, he estado viendo por los foros que la gente no tiene nada claro cuantas imagenes por segundo pueden ver sus ojos, y gente dando palos de ciego y opinando sobre porqué notan la diferencia entre un juego a 30fps y otro a 60fps. Algunos estan de verdad pegados a más no poder diciendo que si diferencias entre imagen analógica e imagen digital [qmparto] [qmparto] [qmparto] cuando las dos cosas son lo mismo para el cerebro humano. Otros de verdad se creen que su visión puede percibir 60 imagenes por segundo X-D X-D

Bueno, para empezar, la visión humana SÓLO puede percibir 25 imágenes por segundo, algunos individuos pueden percibir 25.11 y otros 24.70 (por poner un ejemplo, pero vamos se redondea en 25)

Entonces... ¿porque notamos más suave un juego a 60 fps que otro a 30 fps?

Pues hay varios motivos, pero el más importante es porque las imagenes que toma nuestro ojo no estan sincronizadas en el tiempo con la imagen que produce la TV. De esta manera, cuando nuestro ojo toma una imagen de la TV se produce un desfase de tiempo con respecto a la siguiente imagen que se toma de la TV y esto multiplicado por 25 veces en un segundo reduce la sensación de movimiento.

Con otras palabras. Tu ojo percibe una imagen y la siguiente imagen que percibe es la misma que la anterior, pero la siguiente imagen que percibe esta dos cuadros más adelantada (te has saltado una imagen de la animación). pues esto reduce el realismo de la animación.

¿habeis probado a grabar con una videocámara a 25fps un videojuego en una televisión? el movimiento ya no parece perfecto, sólo que en el ojo humano no se hace tan evidente por la imperfección humana.

Cuando ves un juego a 60 fps se nota la diferencia porque el ojo percibe este desfase de tiempo en mucha menor medida al estar apareciendo imagenes mucho más rapido, es más dificil que se perciban imagenes muy distintas entre "captura y captura", el movimiento nos parece más perfecto, pero nosotros sólo seguimos viendo 25 imagenes por segundo.

Tambien hay que tener en cuenta que en los juegos el framerate no es siempre igual, y que varía segun la cantidad de cosas y efectos en pantalla dependiendo de la potencia de la maquina, lo cual joroba todavía más la sensación de movimiento y la sincronización con la visión humana al ser el intervalo entre imagenes totalmente irregular. en juegos limitados a 30 fps esto es más evidente porque suelen tener caidas por debajo de los 25 fps con lo cual no se dan las condiciones mínimas de lo que se llama movimiento artificial.

Si a esto le sumamos que realmente y en todo caso en una pantalla de TV las imagenes aparecen SIEMPRE a 50 o 60 hz (refresco de pantalla por segundo) independientemente de la velocidad a la que este renderizando gráficos la consola (30 o 60) hay que añadir un desfase adicional entre la consola y la TV que empeora la sensación de movimiento. En casos en que la imagen del juego es sincronizada con el refresco de la TV (vsync) se produce que el intervalo entre un fotograma del juego mostrado en la TV y el siguiente fotograma no es siempre igual para mantener la sincronización. Y en casos en que no se sincroniza la imagen del juego con el de la TV (no vsync) se añade que se produce un efecto que llaman "tearing" al estar enviando la consola imagenes cuando aun la TV no ha terminado de mostrar la imagen anterior y da sensación de "imagen cortada horizontalmente".

Tambien hay elementos que influyen en menor medida, como el tiempo de respuesta de la pantalla, la luminosidad, etc...

En definitiva, si hubiera un conjunto Consola/TV capaz de producir 25 imagenes por segundo de manera sincronizada con nuestro ojo y sin un tiempo de "imagen en negro" entre fotograma y fotograma, la sensación sería de movimiento perfecto y no notaríamos la diferencia entre un juego a 30 o a 1200 fps, pero claro, esto no ocurrirá porque el ojo de cada uno tiene una sincronización y velocidad propia.

Espero haber sabido explicarlo bien y que me entendais, los que dicen que notan las iferencias entre 30 y 60 fps tienen razón, los que dicen que eso es imposible porque el ojo humano no ve más de 25 tambien la tienen. pero nadie tiene la verdad absoluta ;)

Saludos.
Muy buena explicacion, si señor. Chapeau!! :cool:
Mil gracias tio, ahora ya se porque tanto efecto cambiando del Rsc2 al pgr2 [jaja] [jaja]



Saludos! [sonrisa]
Bueno, y comentar una cosilla más. A veces da mejor resultado hacer un juego que de siempre 30fps, que hacer el mismo juego con el límite puesto en 60 fps y estos no se mantengan constantes.

Si el juego esta bien hecho y el indice de frames por segundo lo consiguen mantener lo más cercano posible a los 30 fps en todo momento, la sensación de movimiento es más uniforme y fluida que en el mismo juego corriendo limitado a 60 fps y en el que a veces la velocidad desciende a 40 fps y luego vuelve a subir, etc..

Las variaciones bruscas de fps hacen que el intervalo entre fotogramas sea más irregular todavía.

Pero claro, si limitas el juego a 30fps y luego a veces desciende a 20 fps, entonces no hemos arreglao nada ;) [burla3]

Saludos!
mmm... la sincronización de la Tv poco tiene que ver con el ojo.

El ojo humano, o mejor dicho, el cerebro humano obtiene un efecto "blur" viendo la realidad debido a que le llega información de forma constante. Bajo esta teória, sale la ley del cine "analógico" por la cual con 24 imagenes por segundo la animación es perfecta (ya que el cine "analógico" genera por su naturaleza el mismo "blur" que genera nuestro cerebro al observar la realidad recibiendo información constante.

los Tv cambian la imagen cada X milisegundos. No hay intervalo en negro, si no una falta de cambio constante de información, que el cerebro SI es capaz de interpretar, y es capaz de obtener hasta 84 imagenes diferentes de esa animación no "continua" sin blur.

La solución a todo esto es generar los juegos (2D o 3D) con un blur simulando a la realidad. Esto haría que los juego irian perfectos a 24 fps, el problema viene con todo lo demás que implica al juego, q se vuelve muchisimo más complejo, ya que se debería seguir realizando todos estos calculos a no menos de 60Hz (eventos por segundo).

Es un tema demasiado complejo. Pero quedaros con que el ojo recibe infromación de forma CONSTANTE y la envia al cerebro de forma CONSTANTE. No hay intervalos de tiempo, no hay esperas, no hay "negros".

Salu2
Si señor, a este paso puedes ir para profesor, aunk yo no lo kiero xk komo te token alumnos komo yo [666] [666] [666] [jaja] [jaja] lo llevas crudo

saludos [bye]
Sauron-Jin escribió:
En definitiva, si hubiera un conjunto Consola/TV capaz de producir 25 imagenes por segundo de manera sincronizada con nuestro ojo y sin un tiempo de "imagen en negro" entre fotograma y fotograma, la sensación sería de movimiento perfecto y no notaríamos la diferencia entre un juego a 30 o a 1200 fps, pero claro, esto no ocurrirá porque el ojo de cada uno tiene una sincronización y velocidad propia.

Saludos.


Esto es falso , como bien se ha dicho antes la percepcion de ojo en la realidad se hace sobre un continuo aunque luego procesemos x fotogramas por segundo , con 25 fps no percibiriamos una sensacion de blur igual que el de la realidad a menos que este este simulado ( como en el cine ) sin embargo con un juego a 1200 fps si podriamos obtener una sensacion de motion blur proxima a la realidad sin ningun procesamiento adicional sobre los fotogramas ( blur falseado pre calculado pa nuestros ojos )
shadow land escribió:mmm... la sincronización de la Tv poco tiene que ver con el ojo.

El ojo humano, o mejor dicho, el cerebro humano obtiene un efecto "blur" viendo la realidad debido a que le llega información de forma constante. Bajo esta teória, sale la ley del cine "analógico" por la cual con 24 imagenes por segundo la animación es perfecta (ya que el cine "analógico" genera por su naturaleza el mismo "blur" que genera nuestro cerebro al observar la realidad recibiendo información constante.


Un segundo de cine está compuesto por 24 fotogramas distintos, hasta ahi bien, pero en la proyección, el cine "analógico" emplea 48 fotogramas por segundo, ya que proyecta la misma imagen dos veces en un segundo. La imagen aparece y desaparece dentro del mismo segundo y por ello la sensación es mas suave.
Jhonny escribió:
Un segundo de cine está compuesto por 24 fotogramas distintos, hasta ahi bien, pero en la proyección, el cine "analógico" emplea 48 fotogramas por segundo, ya que proyecta la misma imagen dos veces en un segundo. La imagen aparece y desaparece dentro del mismo segundo y por ello la sensación es mas suave.


yo creo que te estas confundiendo con el formato pal ... eso que dices seria el efecto de convertir el formato cine al pal pero no el cine en si...
... es la misma historia que cuando vemos girar los radios de una rueda de un carro, que parece que la rueda gira hacia sentido contrario, y es por el instante de muestreo del ojo.

Saludos
Camtrack escribió:
yo creo que te estas confundiendo con el formato pal ... eso que dices seria el efecto de convertir el formato cine al pal pero no el cine en si...


Que ganaria el formato pal con 48 fotogramas por segundo??

Esta tecnica se utiliza para suavizar la sensacion de movimiento.
Aparte no he tenido nunca un proyector de cine en la mano para asegurar si es cierto o no, pero yo te digo lo que se, y lo se porque me lo han explicado.
Jhonny escribió:
Que ganaria el formato pal con 48 fotogramas por segundo??

Esta tecnica se utiliza para suavizar la sensacion de movimiento.
Aparte no he tenido nunca un proyector de cine en la mano para asegurar si es cierto o no, pero yo te digo lo que se, y lo se porque me lo han explicado.


el formato pal en teoria tiene 25 fotogramas por segundo , pero en la practica lo que hacen los televisores es dibular primero las lineas impares y despues las lineas pares quedando 50 fotogramas por segundo ( es decir en la practica un fotograma son dos fotogramas mezclados en uno solo ,compartiendo la resolucion vertical ) si tienes una capturadora y capturas un video podras comprobarlo , el cine siendo 24 fotogramas no entrelazados al pasarlo a pal no puede convertirse magicamente a 50 fotogramas por segundo (a menos que usemos programas que interpolen fotogramas ) asi que lo que se hace es repetir 2 veces cada frame para mostrarlo por tu televisor , desconodco como funcionan los proyectores digitales , pero supongo que en este caso seran parecidos a los monitores de ordenador
ojo, que 48 fotogramas no son lo mismo que "48fps" un "frame" se considera a una imagen individual DISTINTA de la anterior y siguiente. Si en el cine se usa esa imagen extra duplicada es simplemente para reducir el tiempo entre fotogramas, ya que entonces SI veriamos los huecos negros entre las imagenes.

El de la rueda... la vemos que va "al reves" por que gira más rapido de lo que nuestro cerebro puede procesar. Pero la información recibida sigue siendo continua. Por eso muchas veces no se ven los radios de una rueda, si no una cosa "extraña".
shadow land escribió:ojo, que 48 fotogramas no son lo mismo que "48fps" un "frame" se considera a una imagen individual DISTINTA de la anterior y siguiente. Si en el cine se usa esa imagen extra duplicada es simplemente para reducir el tiempo entre fotogramas, ya que entonces SI veriamos los huecos negros entre las imagenes.


A eso me referia.
El rollo de cine sigue teniendo 24 fotogramas por cada segundo de pelicula, pero en la proyección, se pasa dos veces el mismo fotograma para que la sensacion sea mas contínua, y por tanto lo que acaba percibiendo el ojo son 48 "cambios de luz" por segundo, y asi se reduce la fatiga.
shadow land escribió:mmm... la sincronización de la Tv poco tiene que ver con el ojo.

No hablaba de la sincronizacion de la TV, sino de la sincronización de las imágenes que emite la TV y las que el cerebro procesa.

shadow land escribió:los Tv cambian la imagen cada X milisegundos. No hay intervalo en negro, si no una falta de cambio constante de información, que el cerebro SI es capaz de interpretar, y es capaz de obtener hasta 84 imagenes diferentes de esa animación no "continua" sin blur.



shadow land escribió:ojo, que 48 fotogramas no son lo mismo que "48fps" un "frame" se considera a una imagen individual DISTINTA de la anterior y siguiente. Si en el cine se usa esa imagen extra duplicada es simplemente para reducir el tiempo entre fotogramas, ya que entonces SI veriamos los huecos negros entre las imagenes.


Pues esto último es lo que ocurre en las pantallas CRT, y entre escaneado y escaneado (50/60hz) de la imagen en pantalla si hay "hueco en negro", hablo de escaneado progresivo, en escaneado entrelazado aunque la imagen completa se haga "en dos veces" los electrones no quedan en pantalla más tiempo que en progresivo asi que tambien hay "espacio en negro", las únicas pantallas sin "espacio en negro" son las pantallas TFT que son capaces de mantener la iluminación de los pixels entre refresco y refresco.
Sauron-Jin escribió:Pues esto último es lo que ocurre en las pantallas CRT, y entre escaneado y escaneado (50/60hz) de la imagen en pantalla si hay "hueco en negro", hablo de escaneado progresivo, en escaneado entrelazado aunque la imagen completa se haga "en dos veces" los electrones no quedan en pantalla más tiempo que en progresivo asi que tambien hay "espacio en negro", las únicas pantallas sin "espacio en negro" son las pantallas TFT que son capaces de mantener la iluminación de los pixels entre refresco y refresco.


no hay ningún hueco "negro", se actualizan las lineas mediante un barrido, no todo el frame de golpe. Cuando se acaba la ultima fila de pixeles (abajo), se empieza a actualizar la primera fila de pixels (arriba).

nunca hay "negros". Esa situación SOLO se da en el cine o cualquier cosa proyectada mediante "diapositivas"

Salu2
Yo estuve investigando al respecto en su día, y llegué a la conclusión de que 24-25fps no es al máximo que capta el ojo humano, sino que es el mínimo aceptable para una animación fluída. De hecho en el cine, en los travellings se nota mucho la falta de fluidez.

Sobre fotogramas analógicos vs digitales... no sé si habrá alguna diferencia (con la realidad, obviamente la hay, pero parece que metéis al cine en el saco de la animación analógica ein?), pero en cuanto a imágenes puramente digitales (videojuegos), un ojo humano, dependiendo de su sensibilidad y entrenamiento puede captar diferencias de fluidez hasta a 400fps.

Saludos.
400?? joder, yo ya he leido en muchos sitios que los cientificos habían marcado el maximo "digital" en 84 imagenes (eventos es más exacto) por segundo...

lo del cine... a ver como lo explico para que lo captes.

los fotogramas de cine son como los de una camara de fotos, cuando dejas el obturador abierto (la cosa que se cierra y abre en el objetivo) el suficiente tiempo, y mueves la camara, la imagen sale "movida", eso queda marcado en el fotograma y es lo que forma el "blur" del cine, y lo que diferencia el cine y la televisión (imagen "analógica") de las computadoras (imagen "digital"). Por que la cuestión no esta en como se muestra, si no en como se genera.

Y si, las panorámicas del cine "dan saltitos" y en vhs y otros "analógicos" no se notaba tanto, pero con el DVD canta un huevo en pelis como "el retorno del rey".

Saludos :P
shadow land escribió:
no hay ningún hueco "negro", se actualizan las lineas mediante un barrido, no todo el frame de golpe. Cuando se acaba la ultima fila de pixeles (abajo), se empieza a actualizar la primera fila de pixels (arriba).

nunca hay "negros". Esa situación SOLO se da en el cine o cualquier cosa proyectada mediante "diapositivas"

Salu2


lo siento, pero te equivocas, es cierto lo del barrido y yo no he dicho lo contrario, pero cuando los electrones cruzan el tubo de imagen y chocan contra la pantalla su efecto tiene una duración muy limitada y despues se apagan "mucho" antes de que la siguiente imagen sea dibujada. Prueba a poner tu monitor a 50 hertzios y verás como te da la sensación de que parpadea en escenas claras, con 60 Hz tambien se nota pero algo menos.

Las que no tienen "negros" son las pantallas TFT, en las que la matriz de puntos de la pantalla sigue encendida hasta que se actualiza, por eso son mucho más relajantes para la vista.
ya se lo de los CRT, por eso el vesa group trata de subnormales a todos esos que trabajan a 60Hz con monitores crt (el 99% del personal no dedicado a gráficos)

y los TFT no actualizan toda la pantalla, solo aquellos puntos que son ESTRICTAMENTE necesarios.

si tu pones una imagen estatica, ele TFT NO actualiza la pantalla hasta que no la cambias.
Creo que estais confundidos, los 25 fps son el minimo para poder apreciar una imagen en movimiento.
No se cual es el tope, pero estoy seguro que 25 no son. Joder... no hay mas que mirar una pelicula y luego mirar alrededor para darse cuenta.
obviamente que no son 25, pero con blur si son perfectamente "suficiente" para simular una animación fluida.

De todas formas, los "genios" de las 3D ya han dicho que el futuro hay que mirar a los 30fps más blur real. Que eso es "perfecto", el problema es poner todo lo demás a 60 o 120Hz mínimo incluso en los gráficos... :S
shadow land escribió:ya se lo de los CRT, por eso el vesa group trata de subnormales a todos esos que trabajan a 60Hz con monitores crt (el 99% del personal no dedicado a gráficos)

y los TFT no actualizan toda la pantalla, solo aquellos puntos que son ESTRICTAMENTE necesarios.

si tu pones una imagen estatica, ele TFT NO actualiza la pantalla hasta que no la cambias.


yo creo recordar que hacen barridos.. ( de algo los hz) igual que lo hacian los lcds normales ...
los TFT de matriz activa (el resto de lcds supongo que serán igual), no hacen barridos.

Los Hz es por que la señal viene de forma analógica o digital, d aigual, mandando X imagenes por segundo (los Hz), y los Hz en un TFT solo indica el maximo de imagenes por segundo que es capaz de analizar (que no necesariamente mostrarlas).

Salu2
mmm sera algo a tener en cuenta para cuando haya dinero pa uno de 17"
no he dicho nada, confundí las pantallas LCD clásicas con las TFT de matriz activa.
los TFT no actualizan por barridos. Pero la entrada de datos por compatibilidad va por frames completos. Si una tarjeta es capaz de lanzar más de 1 imagen en el intervalo de tiempo que tarda un monitor en alcanzar el tiempo de "muestra", se forma el tearing, pero esto no tiene NADA que ver con el barrido, y menos en monitores digitales como los TFT donde se procesa la imagen SIEMPRE digitalmente antes de mostrarla (plasma, tft, lcd, etc...). Y los Tv lo mismo, pero eso si es por que se dibuja directamente...
está claro que 25 no es el limite, pero si que a partir de 25 se empieza a notar una sensacion de imagen "completa".

O es que ninguno de vosotros ha jugado con el osciloscopio en clase???

a 30 hz muchas veces me cuesta medir una señal porque se nota mucho el parpadeo y hasta que no lo subo por encima de 100 no se ve "comodo". Se ve entera y del tirón, pero se nota el retrazado del tubo.
27 respuestas