Niemand macht sich bewusst Gedanken darum, spannend ist die Frage dennoch: Wie haben die Bilder eigentlich laufen gelernt und ist das heutzutage überhaupt interessant? Sie werden gleich sehen, dass wir es hier mit einem spannenden Thema zu tun haben – das heute übrigens immer noch eine Rolle spiel.

Das müssen sie wissen:
Die Entwicklung
Wir unternehmen zunächst einmal eine kleine Zeitreise. Vor noch gar nicht so langer Zeit wurden Kinofilme noch weitgehend analog produziert. Die Szenen wurden auf einem Film aufgenommen – je nach Produktion auf 35 oder 70 mm Rollen – die anschließend entwickelt und händisch nachbearbeitet werden mussten.
Aus eben dieser Zeit kommt der Vorläufer der Bildwiederholfrequenz. Seinerzeit wurde diese in fps angegeben (frames per second, dt.: Bilder pro Sekunde). Dahinter verbirgt sich ein Trick, der sich zunutze macht, dass das menschliche Auge nicht imstande ist, eine schnelle Bildabfolge differenziert wahrzunehmen. Also lassen wir uns unzählige Einzelbilder vorsetzen, die sich Bild für Bild in bestimmten Nuancen unterscheiden. Dadurch entsteht die Illusion einer flüssigen Bewegung.
Als üblicher Wert hatte sich eine Bildwiederholrate von 24 fps eingebürgert. Sekunde für Sekunde bekommen wir hierbei also 24 Bilder vorgesetzt.
Vom Kino zur Glotze
Schließlich kam der Fernseher in die Wohnzimmer der Menschen – und damit auch eine neue Norm: Die Bildwiederholfrequenz betrug nunmehr 50 Bilder pro Sekunde – oder griffiger: 50 Hertz.
Um Kinofilme in optimaler Qualität auch auf der Mattscheibe wiedergeben zu können, wurde ein neues Verfahren eingeführt, das sogenannte Zeilensprungverfahren, auch als Interlace bekannt. Hierbei werden Einzelbilder in zwei Frames aufgeteilt, wobei die Bildzeilen alternierend wiedergegeben werden.
Diese Norm hielt sich für einige Jahrzehnte ziemlich hartnäckig, auch die frühen Computermonitore (anfangs auch noch Röhrengeräte) verwendeten mehr oder weniger diese Frequenz. Wer seinerzeit für längere Zeit während der Arbeit mit dem PC auf den Monitor starren musste, stellte früher oder später fest, dass die Augen gewaltig ermüdeten. Auch wenn wir das Flimmern nicht bewusst wahrgenommen hatten, war es da. Das menschliche Auge bekam dergleichen aber sehr wohl mit und die Folge war in der Regel, dass zwischendrin Bildschirmpausen erforderlich waren, um die Augen nicht über Gebühr zu strapazieren. Es war also Zeit für ein Upgrade.

Riesige Röhrenmonitore waren gestern. Inzwischen sparen Flachbildschirme viel Platz und hohe Bildraten schonen die Augen.
Fotos: shutterstock.com (N Universe, Frame Stock Footage)
Von 100 Hertz zu Flachbildschirmen
So kam also der Tag, an dem die Entwickler m al wieder ihre Lötkolben anwarfen und in der Folge einen Bildspeicher zusammenzimmerten. Dieser fand flugs Einzug in die letzten Generationen der Röhrenfernseher, die nunmehr mit 100 Hz flimmerten, was wesentlich schonender für das Auge war. Auch die Grafikkarten der PCs bekamen solch ein Ding verpasst und schon bald war auch die Arbeit am Computermonitor nicht mehr ganz so ermüdend.
Danach kamen die Flachbildgeräte und die Welt ist nicht mehr dieselbe. Die ersten Geräte gingen noch mit ziemlich niedrigen Frequenzen an den Start, inzwischen spielt die Bildwiederholfrequenz nur noch eine untergeordnete Rolle – mittlerweile sind wir bei Werten von mehreren hundert Hertz.
und wie sieht das bei Smartphones aus?
Auch bei Smartphones gibt es diese Norm. Bei billigeren Modellen sind 60 Hz Standard, immer häufiger kommen hingegen 120-Hertz-Modelle auf den Markt. Wer richtig tief in die Tasche greift, kann auch Geräte mit 144 Hz erwerben.
Hierbei gilt allerdings auch, dass höhere Frequenzen einen deutlich höheren Akkuverbrauch bedeuten, sodass hier oft ein gangbarer Weg gesucht wird, der einen Kompromiss zwischen Displayqualität und Stromverbrauch ermöglicht.