Wieso G-SYNC oder FREESYNC auf lange Sicht Geld sparen....

Wenn sich No Sync und FreeSync/G-Sync bei gleicher Framerate aufgrund identischen technischen Grundlagen gleich anfühlen dann hat das doch eine allgemeine Gültigkeit.
Eben nicht.
Nur weil es für dich so ist, ist das nicht für alle so.
Du willst halt nicht verstehen, dass die gleiche Gegebenheit für 2 Menschen völlig unterschiedlich sein kann.
Dafür wurden dir auch schon mehrere Beispiele genannt.
Aber sowas wird von dir gekonnt ignoriert.
Es passt anscheinend nicht in dein Weltbild, dass dein Gefühl nicht das Gefühl aller Menschen wiedergibt.

Ich könnte jetzt noch ne Menge anderer Sachen anbringen, bei denen Menschen unterschiedlich auf die gleiche technische Gegebenheit reagieren.
Das wäre aber Zeitverschwendung, da du das wieder eh nicht wahrhaben willst/kannst.
Ob nun aus Ignoranz, Unwissenheit oder irgendeinem anderen Grund, wer weiss das schon.
 
Aber es geht doch um die gleiche Person am gleichen PC und nicht um verschiedene Personen. Du fühlst ja auch keinen Unterschied zwischen G-Sync und FreeSync
oder zwischen G-Sync heute und G-Sync morgen. Wie willst du also einen Unterschied zwischen No Sync und G-Sync merken wenn es die gleiche Performance ist !?
Das kannst du nur sehen weil ohne Sync Tearing entsteht. Machst du hingegen V-Sync an dann fühlst du sofort einen Unterschied, zumindest bei weniger FPS als Hz.
 
Ich verstehe was du sagen möchtest aber es ist technisch unmöglich. Wenn jemand wirklich behauptet ein Spiel fühlt sich bei gleicher Framerate ohne Sync schlechter an als mit FreeSync/G-Sync
dann meint er, es sieht wegen Tearing etwas schlechter aus. Hätte es wirklich eine schlechtere Gaming Performance die man fühlen kann dann wären alle Leute die ohne Sync zocken im Nachteil.
Also Millionen von Gamern und auch Alle die professionell spielen. Glaubst du, daß wäre denen nicht schon längst aufgefallen ? Nur im Vergleich zu V-Sync fühlt sich FreeSync/G-Sync besser an !
 
Öhm, es ist fakt, dass z.B. 45 FPS auf einem 60 Hz Display ohne Adaptive Sync niemals flüssig sein können. Das liegt in der Natur der Sache.

Ein Monitor ohne Adaptive Sync aktualisiert sich alle 16,66 ms. Wenn die GPU aber nur alle 22,2 ms einen Frame fertig rendert, dann kann der Monitor nicht plötzlich alle 22,22 ms nen Frame anzeigen, sondern wird das weiterhin alle 16,66 ms tun, komme was wolle. Wenn kein neues Frame da ist, dann wird eben das alte nochmal angezeigt.

Das führt zwangsläufig dazu, dass (wenn Vsync aktiv ist) jeder zweite Frame einfach zwei Refreshes lang angezeigt wird.

Frame 1 wird dann 16,66 ms lang angezeigt (=ein Refresh) und Frame 2 wird 33,33 ms lang angezeigt (=2 Refreshes) und das geht dann immer so weiter. 16,66 ms, 33,33 ms, 16,66 ms, 33,33 ms.
Bei 45 FPS (liegt genau zwischen 60 und 30 FPS) ist der Anteil der Frames pro sekunde, die mit 16,66 ms bzw. 33,33 ms angezeigt werden ekat 50:50 %. Das entspricht dann der Abfolge wie oben genannt.
Gehen die FPS richtung 60 FPS, reduziert sich der Anteil der 33,33 ms Frames pro Sekunde. Gehen die Frames richtung 30 FPS, erhöht sich der Anteil der 33,33 ms Frames. So hat man dann bei ca. 50 FPS eine Abfolge, die in etwa so aussieht: 16,66 ms, 16,66 ms. 33,33 ms. 16,66 ms, 16,66 ms, 33,33 ms. usw

Im Endeffekt kann also alles zwischen 30 und 60 FPS auf einem 60 Hz Monitor nur durch das schnelle hin und her zwischen einfach und doppelt angezeigten Frames erreicht werden, so dass man eben pro Sekunde im Durchschnitt auf die FPS kommt, die die Grafikkarte ausgibt.
Das KANN niemals flüssig sein, da die Frametime sich ständig bei jedem n-ten Frame verdoppelt, was man als Ruckler wahrnimmt.


Man kann jetzt zwar Vsync deaktivieren, das reduziert die Ruckler aber nur zum Teil. Frames die vorher 2 refreshes lang angezeigt werden, sind auch bei deaktiviertem Vsync zwei Refreshes lang zu sehen. Z.B. der untere Teil des Frames im ersten Monitorrefresh und der obere Teil des frames im zweiten Refresh.
Da aber beim zweiten Refresh schon ein Teil des nächsten Frames mit eingescannt und dargestellt werden kann, dauert es nicht mehr ganz solange, bis die Bildinformationen auf den Schirm wandern. Ohne Vsync ist das Ruckeln deswegen subjektiv ein wenig abgemindert, technisch bedingt ist es aber immernoch vorhanden.
Zusätzlich hat man nun Tearing, was den Bildfluss auch wieder stört und dafür sorgt, dass die obere bzw. untere Bildhälfte ständig hinterherhängt. Das Ruckeln bezieht sich somit nicht mehr auf das gesamte Bild, sondern auf die Tearing "Bruchstücke".


Wenn man adaptive Sync verwendet fällt beides Weg. Tearing gibt es nicht mehr und das Ruckeln, welches durch die ungleichmäßige Verteilung der Frames auf das fixe 60 Hz Raster entstehen werden eliminiert, da es eben kein fixes Bildwiederholraster mehr gibt. Der Monitor kann nun, wenn z.B. 50 FPS ausgegeben werden auf 50 Hz schalten. Bzw. anders herum. Das Bildsignal bestimmt von nun an, wann der Monitor ein neues Bild darstellt bzw. einen Displayrefresh durchführt.



Kurz gesagt: Es ist technisch bedingt eine essenzielle Eigenschaft von Adaptive Sync, dass Viele Bildraten deutlich flüssiger dargestellt werden können. Oder sagen wir "ruckelfrei". Denn wie schon gesagt wurde. Mit Adaptive Sync fühlen sich 40 FPS nicht plötzlich wie 60 FPS an. Aber sie sind eben ruckelfrei und das ist wichtig.
Auf einem 60 Hz Monitor merkt jemand, der empfindlich ist sofort, wenn die Framerate von 60 FPS auf 59 FPS fällt, weil man dann 1x pro Sekunde diesen einen Frame hat, der 33,33 ms lang statt 16,66 ms lang angezeigt wird. Diesen einen Ruckler, merkt man eben.

Man muss folglich aber auch sagen, dass 60 FPS auf einem 60 Hz Display bei aktivem Vsync exakt genauso flüssig sind, wie 60 FPS auf einem Adaptive Sync Display. Folglich würde ich auch nicht unbedingt sagen, dass ein Adaptive Sync Display mir den kauf neuer Grafikkarten erspart. Mit z.B. 40 FPS werden Games auch auf nem Adaptive Sync Display "zäh". Man merkt zwar keine störenden Ruckler mehr, man merkt aber trotzdem, dass das Spiel "langsamer" läuft.
 
Zuletzt bearbeitet:
Ein langer Text aber bereits die 1. Zeile ist entweder falsch oder falsch fomuliert denn warum sollten 45FPS@60Hz ohne Bildsynchronisation weniger flüssig sein als 45FPS mit FreeSync/G-Sync = 45Hz ?
 
Ein langer Text aber bereits die 1. Zeile ist entweder falsch oder falsch fomuliert denn warum sollten 45FPS@60Hz ohne Bildsynchronisation weniger flüssig sein als 45FPS mit FreeSync/G-Sync = 45Hz ?

Ganz einfach, nehmen wir wieder den 60 Hz Monitor @45 FPS. Wenn du Tearing hast, dann wird ein Teil eines Frames im ersten Refresh angezeigt und der zweite Teil des Frames im zweiten Refresh. Ich glaube, soweit sollte es klar sein, sonst gäbe es ja kein Tearing. Ein Refresh dauert 16,66 ms.

Nun ist es aber so, dass der Bildinhalt dieses Frames, nun eben auf ZWEI Refreshes aufgeteilt wird.
Du siehst den Inhalt dieses Frames zu Teilen also insgesamt über einen Zeitraum von 33,33 ms, statt der eigentlich gewollten 22,22 ms.

Der Frame ist also noch auf dem Schirm zu sehen, obwohl er da eigentlich gar nichts mehr zu suchen hat. Das stört vor allem die Bildfolge des Contents. Die Frames die aufeinander folgen passen aus zeitlicher Sicht nicht mehr zusammen, was eben auch für diese Tearing Linien sorgt. Die Linie bzw. der Versatz der Bildhälften bzw. Bruchstücke entspricht dem zeitlichen Delta vom eigentlichen Soll... :ugly:

Oder anders ausgedrückt, wenn du in der unteren Hälfte ne bewegung bzw. Bildänderung vom einen Frame zum anderen Frame wahrnimmst, dann wird diese im oberen bereich des Bildes erst im nächsten Display Refresh angezeigt. Folglich bleiben im Wechsel immer ganz kurz die untere und dann wieder die obere Bildhälfte kurz "stehen". So oder so, der Frame bzw. die Teile des Frames sind zu lange sichtbar.
Wenn ein Frame eben nicht innerhalb von 16,66 ms vollständig dargestellt werden kann, wird der rest eben in den nächsten 16,66 ms angezeigt und dann hast du eben schon verloren....


Tearing wird erst dann ruckelfrei, wenn die Framerate deutlich höher ist, als die Display refreshrate. Denn dann ist der Versatz bzw. das Zeitliche Delta zwischen den Frames so gering, dass der Versatz an den Tearing linien nicht mehr auffällt und irgendwann auch komplett verschwindet.
 
Bei 45FPS@60Hz werden einfach 15 der 45 Bilder doppelt angezeigt was keinerlei Auswirkung auf die Performance hat.
Tearing ist zwar sichtbar aber nicht spürbar. Das Gameplay ist definitiv identisch mit FreeSync/G-Sync bei 45FPS@45Hz.
 
Nö, komplett doppelt angezeigte Bilder hast du nur bei aktivem Vsync. Dass dann bei 45 FPS 15 Bilder doppelt angezeigt werden ist richtig. Das führt aber zwangsläufig zu ruckeln, da die Frametime bei den genannten 15 Bildern auf 33,33 ms geht. Das entspricht kurzzeitig quasi 30 FPS....

Wenn du Vsync deaktivierst, dann findet keine Aufteilung der Frames aufs 60 Hz Raster statt. Es gibt dann kein Framepacing. Die 45 FPS werden einfach 1:1 rausgehauen. Die Grafikkarte sendet alle 22,22 ms ein Bild. In Folge dessen hast du quasi in JEDEM Display Refresh Tearing, was eben dazu führt, dass Frames bzw. Teile davon insgesamt 33,33 ms lang zu sehen sind. Und immer wenn ein Frame länger zu sehen ist, als gewollt, hast du nen Ruckler in deiner Bewegungsabfolge.
 
Zuletzt bearbeitet:
Laggy.NET hat absolut recht mit seiner Darstellung.

Das ist auch der Grund, warum Spielen ohne VSync für mich nie in Frage kommt. Denn man sieht dann immer nur einen Bruchteil des aktuellen Bilds, ein Teil des Schirms lagged immer mindestens ein Bild zurück.

Was man übrigens auch schön sehen kann, und zwar um so leichter, je höher die Framerate ist: Wenn man (VSync aus, kein G- oder Freesync) mit der Maus schneller rechts-links Bewegungen macht, dann scheint der untere Teil des Bildes vorauszueilen und der obere zurückzubleiben. Was daran liegt, dass obere Teile des Schirms immer "ältere" Frames zeigt als der untere Teil.


Wo kann ich den Nvidia Inspector auf der Nvidia Webseite runterladen und von welchem Datum ist die aktuelle Version ?
Auch wenn NVidia die Option im eigenen Control-Panel nicht einstellbar macht, so ist es trotzdem der Treiber, der sie ausführt. Und das hattest Du bestritten und ich habe das mit "Wrong" kommentiert. Aus der Nummer kommst Du nicht mehr raus, falsch ist falsch und bleibt falsch.

Warum ist er nicht wie AMD's Frame Limiter (Frame Rate Target Control) standardmäßig im Nvidia Treiber integriert ?
Ist er. Die Funktion wird vom Treiber selbst umgesetzt.

Warum ist dir nicht bekannt, daß er genau den gleichen Input Lag erzeugt wie V-Sync (klick) und deshalb sinnlos ist !?
Erst mal: Es steht Dir nicht zu, einfach mal zu postulieren, dass ich irgendetwas weiß oder nicht weiß, ok?
Ein Fps-Limiter kann das künstliche Delay entweder VOR oder NACH dem tatsächlichen "Present()"-Call im Treiber einbauen. Welche Variante besser ist, darüber lässt sich wunderbar diskutieren. Den Delay vorher einzufügen, so wie der NV-Treiber das vermutlich macht, hat tatsächlich eine ähnliche Wirkung wie VSync (ohne aber die Vorteile zu haben, d.h. man hat weiterhin Tearing). Das Delay NACH dem Present einzufügen, ist zwar ein klein wenig besser für den Lag (m.E. bei hohen Limitwerten aber nur messbar, nicht fühlbar), dafür hat man aber ein ungleichmäßigere Framerate, weil der Treiber ja nicht wissen kann, wie lange die Engine für die Berechnung des nächsten Frames braucht und deswegen der Delay mal zu lange oder zu kurz sein kann.

Unterm Strich bleibt: Ich halte einen Fps-Limiter für Mumpitz. VSync ist besser, in jedem Fall. Eben auch aus dem Eingangs dieses Postings genannten Grund - der Bildschirm zeigt mit VSync immer ein zusammengehörendes Bild an und nicht zwei oder mehr unzusammenhängende.


Nur als Anmerkung: Vor Jahren habe ich mal im Rahmen vom nHancer mit einem eigenen Modul experimentiert, dass die Framerate im SLI Betrieb ausbalancieren sollte, also die SLI Mikroruckler mildern sollte. Das hat nicht gut funktioniert, genau aus den oben beschrieben Gründen. Weswegen ich das dann auch schnell aufgegeben habe. Das nur als Anmerkung, dass ich durchaus weiß, wovon ich schreibe.
 
Zuletzt bearbeitet:
Unterm Strich bleibt: Ich halte einen Fps-Limiter für Mumpitz. VSync ist besser, in jedem Fall.
Auf einem Monitor mit hoher Aktualisierungsrate und FreeSync/G-Sync kann man V-Sync als Frame Limiter missbrauchen aber es ist nicht die optimale technische Lösung
denn auch mit FreeSync/G-Sync merkt man Frameschwankungen sowie Framedrops. Läuft ein Spiel z.B. nur mit 80-144 FPS dann macht ein Frame Limit auf 100 FPS Sinn.

Du würdest vermutlich die Aktualisierungsrate auf 100Hz stellen und wieder V-Sync nutzen. AMD Nutzer stellen im Treiber einfach Frame Rate Target Control auf 100.
Je näher minimale und maximale Framerate bei einander liegen desto besser ist das Spielgefühl. Da der Nvidia Inspector Input Lag verursacht muss man RTSS benutzen.
 
Auf einem Monitor mit hoher Aktualisierungsrate und FreeSync/G-Sync kann man V-Sync als Frame Limiter missbrauchen aber es ist nicht die optimale technische Lösung
denn auch mit FreeSync/G-Sync merkt man Frameschwankungen sowie Framedrops. Läuft ein Spiel z.B. nur mit 80-144 FPS dann macht ein Frame Limit auf 100 FPS Sinn.
Framerateschwankungen hast Du immer, denn kein Spiel rendert immer völlig gleichmäßig. Auch längere Stotterer kommen bei fast jeder Engine mal vor, speziell wenn sie OpenWorld ist und mal nachladen muss. Framedrops, also dass ein berechnetes Frame gar nicht zur Anzeige kommt, kann es bei GSync/Freesync nicht geben.

Ein Framelimit auf 100 FPS macht eigentlich nie Sinn. Wenn ich Strom sparen will und sowieso genügend FPS habe, dann reduziere ich das Powerlimit (mache ich tatsächlich, das steht bei mir meist auf 75%). Das ist in jedem Fall besser als ein künstliches Delay einzubauen.

Du würdest vermutlich die Aktualisierungsrate auf 100Hz stellen und wieder V-Sync nutzen. AMD Nutzer stellen im Treiber einfach Frame Rate Target Control auf 100.
Je näher minimale und maximale Framerate bei einander liegen desto besser ist das Spielgefühl. Da der Nvidia Inspector Input Lag verursacht muss man RTSS benutzen.

Korrekt, ich würde die Wiederholrate auf 100 Hz begrenzen, wenn ich unbedingt die Framerate auf 100 Hz limitieren wollte. Und der Fps-Limiter im AMD Treiber mag vlt. besser implementiert sein, die grundsätzlichen Probleme, die ich vorher beschrieben habe, kann er auch nicht magisch lösen. Ich bleibe dabei: Fps-Limiter sind sinnlos. Entweder die Engine macht das selbst oder man lässt es besser bleiben bzw. nutzt VSync.
 
Wenn du Vsync deaktivierst, ... Die 45 FPS werden einfach 1:1 rausgehauen ... Und immer wenn ein Frame länger zu sehen ist, als gewollt, hast du nen Ruckler in deiner Bewegungsabfolge.
Ist das nicht ein Widerspruch ? Ein beliebiges Spiel und vor dem Screenshot im Kreis gedreht:

No Sync 100 FPS@144Hz:
Anhang anzeigen 978379

G-Sync 100FPS@90Hz:
Anhang anzeigen 978380

Absolut gleiches Spielgefühl und identische Frametimes ohne Mikroruckler oder Stuttering.
Einziger Unterschied ist ohne Sync das Tearing bei Bewegung was aber auf 144Hz gering ist.
 
Zuletzt bearbeitet:
Synchronisationseffekte lassen sich prinzipiell nicht in Videos darstellen, da die immer neu synchronisiert sind.
No Sync bedeutet keine Bildsynchronisation und weil man das Tearing nicht bildlich darstellen kann habe ich es erwähnt
aber was hat sichtbares Tearing mit dem spürbaren Gameplay zu tun ? Die Drehungen sind für den Frametime Graphen !

Framerateschwankungen hast Du immer, denn kein Spiel rendert immer völlig gleichmäßig.
Genau darum mach ein Frame Limiter gerade Sinn. Besonders jetzt wo es mehr als 60Hz gibt ! Eine Framerate von mindestens 60FPS für ein smoothes Gameplay auf 60Hz ist leicht zu schaffen
aber auf 144Hz immer 144FPS zu halten ist viel schwerer. Da hilft auch kein FreeSync/G-Sync wenn die FPS auf 80 droppen sondern ein Framelimiter auf 100 für weniger Frameschwankungen.

Ein Framelimit auf 100 FPS macht eigentlich nie Sinn. Wenn ich Strom sparen will und sowieso genügend FPS habe, dann reduziere ich das Powerlimit ...
Was macht man auf 144Hz bei einem 120FPS CPU Limit mit schlechten Frametimes die zu Mikrorucklern und Stuttering führen ? Man entlastet das System mit einem Frame Limiter auf 100FPS.
Durch ein geringeres PL der GPU oder weniger Takt der CPU verringert sich doch die Leistung und ein Frame Limiter wäre noch sinnvoller. Hast du überhaupt einen Monitor mit mehr als 60Hz ?
 
@Ossi Dein Kommentar dazu? ;)
Sagt er in dem Video, dass man ohne Bildsynchronisation ein schlechteres Gameplay hat oder daß es sich schlechter anfühlt ? Nein ! Nur im Vergleich zu V-Sync ist das der Fall !
Wie oft soll ich das eigentlich noch wiederholen. Deaktiviere auf deinem WQHD 144Hz Monitor G-Sync und zocke The Witcher ohne Sync. Es spielt sich genauso wie mit G-Sync.
Einziger Unterschied ist das sichtbare Tearing was aber auf 144Hz viel weniger störend ist als auf 60Hz wie in dem Video. Wen das nicht stört der braucht kein FreeSync/G-Sync.

Da FreeSync kostenlos ist nutzt man es natürlich aber da G-Sync 150€ Aufpreis kostet muss man abwägen ob es sich wirklich lohnt oder ob man lieber mit leichtem Tearing lebt !?
Nimmt man die gesparten 150€ für eine stärkere Grafikkarte (in deinem Fall statt GTX1060 dann GTX1070) bekommt man mehr FPS und hat ohne Sync ein besseres Spielgefühl !

Bezogen auf The Witcher 3 hier mal Rechenbeispiele:

FreeSync 27" WQHD 75Hz IPS 300€ + RX580 300€ = 600€ für 50FPS ohne Tearing
FreeSync 27" WQHD 144Hz IPS 500€ + RX580 300€ = 800€ für 50FPS ohne Tearing
G-Sync 27" WQHD 144Hz IPS 700€ + GTX1060 300€ = 1000€ für 50FPS ohne Tearing <--- Das hast du gekauft und willst den Leuten etwas von Geld sparen erzählen ?

FreeSync 27" WQHD 75Hz IPS 300€ + GTX1060 300€ = 600€ für 50FPS mit starkem Tearing
FreeSync 27" WQHD 144Hz IPS 500€ + GTX1070 400€ = 900€ für 75FPS mit leichtem Tearing
FreeSync 27" WQHD 144Hz IPS 500€ + GTX1080 500€ = 1000€ für 100FPS mit leichtem Tearing <--- Das ist die Alternative für Leute die leichtes Tearing nicht stört !
 
Zuletzt bearbeitet:
Wie lang soll ich noch die Frage wiederholen ob diese Beobachtung zu Gsync/Freesync An/Aus aus deiner
selber gemachten Erfahrung stammt, oder ist es nur deine Theorie das es so sein müsste?
 
Zurück