Se supone que el ojo humano ve con claridad 24~26fps, pero "percibe" muchos mas. Puedes distinguir con gran exactitud cuando un juego se está jugando a 30fps y cuando a 60fps, e incluso inconscientemente aprecias mejor el "movimiento" y respondes a ello con mas exactitud, por lo que hay mucha mas información extra que complementa a esa supuesta cantidad de imágenes por segundo que ojo puede ver con claridad.
Si acaso personalmente creo que cualquier juego por debajo de los 25fps empieza a ser incomodo/molesto de jugar. También depende de si es una velocidad estable o tiene bajones.
También tenemos el tema de la sincronía con la pantalla, estas no esperan. (las habituales, despues hay cosas como el G-sync de Nvidia o Freesync de AMD) De 26fps ya que pones el ejemplo habría frames que estarían en pantalla mas que otros, apreciándose una imagen "no tan continua". 30fps en una pantalla de 60hz (60fps) es una imagen cada 2hz, pero 26fps es cada 2.3076, no puedes sincronizar en decimales (no puedes sincronizar 2 y un tercio) por lo que alguna imagen dentro de ese segundo estará durante 3hz de la pantalla en vez de 2hz.
Ahora lo que hay es pantallas gaming con tecnologías de Nvidia (gsync) y AMD (freesync) que lo que hacen es que es la pantalla la que sincroniza con las imágenes (siempre que haya un mínimo, en AMD no se cuanto es, pero Nvidia G-sync es de 44fps en adelante)