Länderauswahl:
Du wurdest von unserer Mobile-Seite hierher weitergeleitet.

Special - G-Sync/FreeSync : Im Gleichschritt Marsch

  • PC
Von  |  | Kommentieren

Seit immer neue Monitore auf den Markt kommen, die FreeSync oder G-Sync unterstützen, rühren die Grafikkartenhersteller ebenso wie die Display-Hersteller kräftig die Werbetrommel. Doch worum geht es bei den beiden Technologien eigentlich? Welche Vorteile verbergen sich dahinter? Und welche Nachteile gibt es? Wir gehen diesen Fragen auf den Grund.

Als NVIDIA vor längerer Zeit wortreich und jubelnd mit der G-Sync-Technologie auf den Markt kam, verpuffte der Effekt zunächst. Gleiches gilt für AMDs FreeSync-Technologie. Der Grund dafür war einfach: Zwar unterstützten die neueren Grafikkarten mit DisplayPort die Technologie, aber es mangelte an passenden Displays. Mittlerweile wurde in dem Bereich kräftig nachgelegt, immer mehr neue Bildschirme unterstützen die neuen Technologien. Gerade ACER und ASUS haben in diesem Jahr reichlich neue Monitore mit entsprechender Unterstützung auf den Markt gebracht.

Worum geht es eigentlich?

Doch was verbirgt sich dahinter? Das grundsätzliche Problem liegt darin, dass Bildschirme aller Art über lange Zeit mit festen Bildraten von 50 oder 60 Hz arbeiteten. Grafikkarten hingegen arbeiten anders und rendern mit ganz unterschiedlichen, variablen Framerates innerhalb kürzester Zeit und schicken ihre Bilder entsprechend an den Monitor. Erhält der Monitor allerdings ein neues Bild, bevor das vorherige vollständig dargestellt werden konnte, kommt es zu einer Überlagerung der beiden Bilder. Diesen Effekt nennt man Tearing, quasi ein vertikaler Versatz zwischen den beiden dargestellten Bildfragmenten.

Bisher wurde dieser Effekt in den meisten Spielen durch die überwiegend optionale V-Sync-Option vermieden. Diese sorgt sozusagen dafür, dass die Grafikkarte in jedem Refresh-Intervall nur vollständige Bilder ans Display liefert, die Frames werden gewissermaßen kurzzeitig gepuffert. Dadurch wird zwar die Darstellung von „unfertigen“ Frames vermieden, aber dafür kann es zu Rucklern oder verzögerten Latenzen bei der Darstellung kommen.

Schafft die Grafikkarte nämlich die Framerate des Displays nicht, werden Einzelbilder im Rahmen der Bildwiederholzyklen doppelt dargestellt, um die Lücke zu füllen. Werden hingegen mehr Frames geliefert, als das Display verarbeiten kann, fallen Frames gleichsam heraus. Weiterer Nachteil: Framerates von unter 60 Hz werden von Vsync auf 30 fps gekappt, was den Ruckeleffekt noch verstärken kann. Der Gelegenheitsspieler wird diese „Mikroruckler“ kaum wahrnehmen, aber gerade E-Sportler bemerken sie sofort.

Monitor unter Anpassungsdruck

G-Sync und FreeSync gehen dieses Problem nun damit an, die bisher feste Bildrate der Displays zu entkoppeln und an den Output der Grafikkarte anzupassen. Es wird also nicht mehr versucht, die GPU mit dem Display zu synchronisieren, sondern das Display mit der GPU. Das bedeutet natürlich, dass der Monitor genau das anzeigt, was er aktuell von der Grafikkarte bekommt. Läuft ein Spiel mit 35 fps, wird auch das Display auf 35 fps getaktet. Somit werden ausschließlich vollständige Frames dargestellt, ohne dass es zu den Wartezeiten kommt, die bisher zu Ruckeln und Latenzverzögerungen geführt haben. Sprich, die Bilddarstellung wird sichtbar flüssiger.

Das klingt alles fast zu schön, um wahr zu sein, hat allerdings einen Haken. Um diese Entkopplung der Framerate zu erzeugen, müssen Grafikkarte und Display entsprechend aufeinander abgestimmt sein. Das wiederum hat nun dazu geführt, dass AMD und NVIDIA jeweils eigene Lösungen auf den Markt gebracht haben – G-Sync und FreeSync sind nicht miteinander kompatibel. Wer also eine NVIDIA-Karte mit G-Sync-Unterstützung hat, braucht auch einen Monitor mit G-Sync-Unterstützung, ansonsten nutzt ihm der Effekt nichts.

AMDs FreeSync setzt hingegen auf eine Lösung ohne eigene Module, die auf der seit 2009 eingeführten Adaptive-Sync-Technologie beruht, die inzwischen Teil der Display-Port-1.2a-Spezifikation ist. Das heißt, bei FreeSync-tauglichen Monitoren muss die entsprechende Unterstützung in Form eines entsprechenden Scalers vorhanden sein. Ganz rund läuft aber auch diese Lösung nicht, denn bei Spielen, in denen die maximale Framerate des Bildschirms überschritten wird, arbeitet auch diese Lösung nicht 100-prozentig und Vsync muss nichts selten trotzdem zugeschaltet werden. NVIDIA-Karten hingegen unterstützen Adaptive-Sync bisher gar nicht.

Zwei funktionstaugliche Alternativen

Egal, wie man es dreht, wer eine der Sync-Technologien nutzen will, benötigt einen passenden Monitor. Zudem steht die Frage im Raum, welche Technologie eigentlich die bessere ist. Schwer zu sagen, wobei die NVIDIA-Lösung zwar teurer, aber durch die gezielte Abstimmung von Grafikkarte und Display durch die nötigen Chips etwas effektiver wirkt. Das unter anderem durch einen Blindtest von Tom's Hardware belegt, in dem von 48 Probanden eine Mehrheit den G-Sync-Effekt offenbar als wirksamer wahrnahm.

Wie auch immer man sich entscheidet: Beide Lösungen erfüllen ihren Zweck, nämlich die Darstellung von Spielen flüssiger zu gestalten, ohne das hässliche Tearing und ohne Ruckler oder Latenzverzögerungen. Mittlerweile sind genügend passende Monitore auf dem Markt und man darf gespannt sein, welche Lösung sich am Ende durchsetzt – die proprietäre, aber effektive NVIDIA-Lösung oder die preislich attraktive, ebenfalls funktionelle AMD-Lösung, die NVIDIA unter Umständen dazu zwingen könnte, auf lange Sicht doch noch Adaptive Sync zu unterstützen.

Kommentarezum Artikel