Unter Gamern sorgt die Frage immer wieder für Diskussionen: Wie viel FPS kann das menschliche Auge noch sehen / unterscheiden bzw wie viel mehr ist noch sinnvoll?
Ab 30 FPS gelten Spiele im allgemeinen gerade einmal als „spielbar“, die meisten bevorzugen eher ab 60 FPS aufwärts (was sicher auch daran liegt, dass die verbreitetsten Monitore aktuell noch nicht mit mehr als 60Hz arbeiten, auch wenn sich das langsam ändert), im Gegensatz zu Filmen muss man in Computerspielen allerdings auch zeitnah auf Veränderungen auf dem Bildschirm reagieren können, es reicht also nicht immer wenn es „nur“ flüssig ist, nur 24 FPS würden dort beispielsweise schon einer Latenz von 42ms entsprechen, was in schnellen Shootern oder Rennspielen durchaus schon mal entscheidend sein kann.
Doch wie viel ist denn nun wirklich noch sinnvoll?
Wenn man diversen Tests glauben schenkt, dann können selbst die geübtesten Zuschauer, zumindest bei Filmen, nicht mehr als maximal 75 Einzelbilder pro Sekunde auseinander halten, daher haben z.B. auch Hersteller von Geräten wie der Oculus Rift sich für eine Bildwiederholfrequenz von 90Hz entschieden, ein 120Hz Monitor anstelle eines alten 60Hz Gerätes kann also für Gamer durchaus noch sinnvoll sein, bei noch höheren Bildwiederholfrequenzen müsste man sich aber wohl schon mehr darauf konzentrieren einen Unterschied zu erkennen als auf das Spielgeschehen selbst.
Letztlich muss natürlich jeder selbst für sich herausfinden was sich für ihn/sie „flüssig genug“ anfühlt, doch einen wirklichen Vorteil (abgesehen eben von dem „Gefühl“, dass es flüssiger scheint) gibt es natürlich nicht unbegrenzt, bei circa 120Hz (und entsprechend natürlich 120 FPS, bzw etwas mehr, um FPS-Drops mit einzubeziehen) dürfte wohl so langsam der Punkt erreicht sein, wo der Spieler nicht mehr tatsächlich „profitiert“, z.B. dadurch, dass er schneller reagieren kann, als es mit geringerer FPS / Wiederholfrequenz möglich wäre, und je höher man geht, desto unbedeutender wird natürlich auch dieser gefühlte Unterschied.