Adaptives Vsync - totaler Schwachsinn???

Slaughter84

Komplett-PC-Käufer(in)
Hallo zusammen,

ich habe mich schon etwas in die Materie eingelesen, allerdings hab ich die Vorteile noch nicht so ganz erfasst.
Es gibt ja im Nvidia Treiber die Möglichkeit Vsync auf 1) anwendungsgesteuert 2) adaptive 3) ein 4) aus zu stellen.
Grundsätzlich kämpfe ich bei fast allen Spielen mit Tearing wenn ich kein Vsync einschalte. Ich habe aktuell im Treiber die Einstellung 1) anwendungsgesteuert aktiviert.

Vsync aktiviere ich immer im Game selbst und wenn vorhanden, dann auch möglichst Triple Buffering um die FPS drops von 60 auf 30 zu vermeiden.
Bei machen Games (z.B. AC IV Black Flag) muss ich halt den D3D Overrider nutzen um das Tiple Buffering zu erzwingen...wieso AC IV keine Einstellung für Triple Buffering hat versteh ich ohnehin nicht!

Meine Frage ist nun folgende: Wo liegt der Unterschied zwischen normalem Vsync (60/30 fps) + Triple Buffering (Frames flexibel auch zwschen 60 und 30 fps) und dem nvidia adapitve Vsync (ebenfalls felixibel zwischen 60 und 30 fps).

Ich hab mir das mal so zusammengerheimt:
Adaptive Vsync nutzt Vsync ausschließlich wenn im Game 60 FPS anliegen...droppen die Frames unter 60 so wird Vsync vorübergehend deaktiviert bis wieder 60 FPS stabil erreicht werden...
Vorteil: keine FPS drops von 60 auf 30 (flexible Frames zwischen 30 und 60 FPS)
Nachteil: kein Vsync im Bereich unterhalb von 60 FPS --> man hat also wieder Tearing < 60 FPS

Normales Vsync im Game aktviert ohne Triple Buffering: Vsync durchgehend aktiv (--> nie Tearing) aber FPS drops von 60 auf 30 falls das System keine konstanten 60 FPS aufwärts schafft.
Normales Vsync im Game + Triple Buffering im Game aktiviert: Vsync durchgehend aktiv (--> nie Tearing) und keine FPS drops von 60 auf 30 da auch flexible Frameraten dazwischen ausgegeben werden können.

Seh ich das richtig, dass adaptive Vsync eigentlich totaler Unfug ist und keinen Vorteil gegenüber normalem Vsync + Triple Buffering hat...Im Gegenteil...mit adaptive Vsync hat man sogar Tearing im Bereich unterhalb von 60 fps...

Tolles Feature dieses adaptive Vsync...wir als Innovation vermarktet und ist komplett nutzlos in Realität.
Würde nur ggf. Vorteile bringen wenn Games zwar Vsync aber kein Triple Buffering unterstützten --> dafür gibts aber halt D3DOverrrider
Bitte korrigiert mich, falls ich falsch liege.

Grüße
 
Zuletzt bearbeitet:
Ein ganz klares JAIN.:D
Auf den ersten Blick stimmt es natürlich, VSync + TB (inkl. D3DOverrider) gibt dir unter 60 fps die beste Bildqualität und höhere FPS.*Punkt*
Ein Nachteil von (forciert oder integriert) TB ist aber ein höheres Inputlag. Und da kommts auf die subjektive Wahrnehmung an, manche stört der lag immer....manche gar nicht.
Erschwerend kommt hinzu, dass sich dieser lag von Anwendung zu Anwendung unterscheidet.
 
Zuletzt bearbeitet:
Ok, danke erstmal für Deine Erklärung.
Von Input lag hab ich nix festgestellt...Framedrops von 60 auf 30 FPS (normales Vsync ohne TB) bzw. massives Tearing (adaptive Vsync zwischen 30-60 FPS) finde ich weitaus störender...
Liegt vielleicht daran, dass ich schon immer mit Vsync + TB spiele und mein Auge / Nervensystem sich schon an den Inputlag gewöhnt hat und diesen als normal empfindet...wahrscheinlich würde ich es ohne TB als abnormal empfinden xD
Kann man in etwa beziffern in welchem Bereich der inputlag liegt? Sollte sich rein rechnerisch ja im Bereich von wenigen millisekunden bewegen...was für Spiele wie AC IV Black Flag z.B. vollkommen belanglos sein dürfte...
Vielleicht bei Multiplayer Egoshootern ala BF / CS etc. könnte ich mir vorstellen, dass es professionelle Spieler stören könnte, aber Hobbyspieler wie mich stört Tearing und FPS drops deutlich mehr.

EDIT:
Input-Lag durch TB sollte sich rein rechnerisch ja exakt auf einen frame beschränken (der eine Frame der im Vergleich zu Double Buffering mehr vorausberechnet werden muss).
Bei einem 60 Hz Bildschirm beträgt das 1/60 Sekunden also 16,67 ms...
Betrachtet man mal im Bezug auf Onlinegaming den durchschnittlichen Ping (Hausnummer 50ms) so scheinen mir die 16ms von oben nicht wirklich ins Gewicht zu fallen...
 
Zuletzt bearbeitet:
Seh ich das richtig, dass adaptive Vsync eigentlich totaler Unfug ist und keinen Vorteil gegenüber normalem Vsync + Triple Buffering hat...Im Gegenteil...mit adaptive Vsync hat man sogar Tearing im Bereich unterhalb von 60 fps...
Das mit dem Unfug ist deine persönliche Meinung, einige sehen es anders ;). Du hast dir die Funktionsweise richtig zusammengereimt.

Warum ich es mag: Es hat keinen Inputlag wie Tripple-Buffering und es gibt keine unnötigen 30-FPS-Drops, wenn die Grafikkarte mal nur 50 oder 55 FPS darstellen kann. Das Tearing unterhalb der 60 FPS stört mich deutlich weniger als das Kaugummi-Gefühl...
 
Ganz richtig. Tripple Buffering kostet etwa 17 ms. Bei einem Ping von 50 ms mag das nicht viel ausmachen, bei einem von 20 ms geht es aber schon an die Hälfte und das macht sich, wenn man darauf angewiesen ist bemerkbar.
Es ist erstanlich welche Reaktionsgeschwindigkeiten hardcore Shooter-Spieler (besonders CS) an den Tag legen. Daher optimieren sie an ihrem Setup jede Millisekunde. Das betrifft nicht nur Software-Einstellungen, wie Double- oder Tripple-Buffering auch der Input-Lag vom Monitor und die Verzögerung, die die Eingabegeräte haben werden für Verbesserungen in Betracht gezogen.
Mancheiner schwört auf mechanische Tastaturen und den alten PS2-Anschluss. VGA soll auch schneller sein als digitale Übertragung (DVI oder HDMI) der Bildinformationen.

Für den normalen Gamer spielt sowas aber kaum eine Rolle.

Nvidias adaptive VSync hat überigens keinen zusätzlichen Input-Lag, da kein zusätzliches Frame zwischengespeichert wird. Stattdessen wird das eingesetzte Double-Buffiering ausgesetzt solage die Framerate zu niedrig ist.
Meiner Ansicht nach kein totaler Schwachsinn, sondern eine Frage der Prioritäten.
 
Zuletzt bearbeitet:
Das mit dem Unfug ist deine persönliche Meinung, einige sehen es anders ;). Du hast dir die Funktionsweise richtig zusammengereimt.

Warum ich es mag: Es hat keinen Inputlag wie Tripple-Buffering und es gibt keine unnötigen 30-FPS-Drops, wenn die Grafikkarte mal nur 50 oder 55 FPS darstellen kann. Das Tearing unterhalb der 60 FPS stört mich deutlich weniger als das Kaugummi-Gefühl...

OK, da Tearing für mich ein absolutes NO-GO ist und meine Hardware leider nicht immer 60fps+ bei max settings erreicht ist Vsync+TB für mich die einzige Lösung.
Von wegen Kaugummi Gefühl...habe ich noch nicht feststellen können bei meinen Games (Crysis3/FarCry3/DeadIsland/AC IV BF/WoW/MWO).
Für Multiplayer Shooter wo es mir rein auf den Input ankommt und nicht auf die saubre Darstellung würd ich halt komplett auf Vsync verzichten und mit Tearing leben, dafür aber ohne alle Sync und Buffering Optionen --> sollte die direkteste Eingabe ermöglichen
 
Da kommt auch die frage ,was man sich antun will in der geräuschentwicklung.
Für mich ein wesentlich wichtigerer punkt ,tearing gibt's hier so gut wie garnicht.
Mit 60Fps macht die graka gut und gerne mal 50% lüfterspeed(oc)
Mit 45 sind es dann +-40% und fast unhörbar.
Die meisten games laufen so einfach konstanter und spahren deutlich was an Strom ein .
Des weiteren finde ich 45Fps konstant besser als der dauernde wechsel zwichen 60 und 30 fps was mein mausgefühl extrem stört (crysis3 oder noch schlimmer bioschock infinite zum beispiel)
Online shooter wie Css spielt man btw traditionell ohne vsync und Frame Limit da man den ping nicht noch verschärfen will(der so gut wie immer das Limit ist)Details oder antialiasing reduzieren geschieht hier alles im namen von lags und maximaler Konstanz...)
 
Da kommt auch die frage ,was man sich antun will in der geräuschentwicklung.
Für mich ein wesentlich wichtigerer punkt ,tearing gibt's hier so gut wie garnicht.
Mit 60Fps macht die graka gut und gerne mal 50% lüfterspeed(oc)
Mit 45 sind es dann +-40% und fast unhörbar.
Die meisten games laufen so einfach konstanter und spahren deutlich was an Strom ein .
Des weiteren finde ich 45Fps konstant besser als der dauernde wechsel zwichen 60 und 30 fps was mein mausgefühl extrem stört (crysis3 oder noch schlimmer bioschock infinite zum beispiel)
Online shooter wie Css spielt man btw traditionell ohne vsync und Frame Limit da man den ping nicht noch verschärfen will(der so gut wie immer das Limit ist)Details oder antialiasing reduzieren geschieht hier alles im namen von lags und maximaler Konstanz...)

Geräuschentwicklung ist mir total egal...die MSI gtx770 TwinFrozr ist auch bei 60 fps und 60°C gpu temp wirklich ausserordentlich leise.
Also wechsel zwischen 30 und 60 fps hab ich ja nicht wegen TB. Klar Vsync ohne TB ist diesezüglich ne Katastrophe.
Ich spiele mit 60 FPS Framelimit und Vsync (anwendungsgesteuert) ein und TB über D3DOverride. So habe ich weder Tearing (in allen FPS-Bereichen) und keine Sprünge zwischen 30 und 60 FPS. Am Beispiel von AC IV BF spiele ich mit max. Settings auf 1920x1080 mit 4xMSAA konstant zwischen 40 und 50 fps!
Meine Rede...wenns mir wirklich auf optimalen Input ankommt (CS/BF etc.) dann schalt ich Vsync / TB sowieso komplett ab...
Also ist adaptives Vsync recht nutzlos xP
 
Zuletzt bearbeitet:
Ganz richtig. Tripple Buffering kostet etwa 17 ms. Bei einem Ping von 50 ms mag das nicht viel ausmachen, bei einem von 20 ms geht es aber schon an die Hälfte und das macht sich, wenn man darauf angewiesen ist bemerkbar.
Es ist erstanlich welche Reaktionsgeschwindigkeiten hardcore Shooter-Spieler (besonders CS) an den Tag legen. Daher optimieren sie an ihrem Setup jede Millisekunde. Das betrifft nicht nur Software-Einstellungen, wie Double- oder Tripple-Buffering auch der Input-Lag vom Monitor und die Verzögerung, die die Eingabegeräte haben werden für Verbesserungen in Betracht gezogen.
Mancheiner schwört auf mechanische Tastaturen und den alten PS2-Anschluss. VGA soll auch schneller sein als digitale Übertragung (DVI oder HDMI) der Bildinformationen.

Für den normalen Gamer spielt sowas aber kaum eine Rolle.

Nvidias adaptive VSync hat überigens keinen zusätzlichen Input-Lag, da kein zusätzliches Frame zwischengespeichert wird. Stattdessen wird das eingesetzte Double-Buffiering ausgesetzt solage die Framerate zu niedrig ist.
Meiner Ansicht nach kein totaler Schwachsinn, sondern eine Frage der Prioritäten.

Für CS hab ich hier noch ne Alte 19" Röhre und ne IBM-Bombe.
 
Ist halt wie vor meinem post angesprochen geschmackssache :daumen:
Ich nutz selbst immer einfach vsync+frametarget,meinen pc kann man garnicht hören so mag ichs also selbst unter 3dmark+prime (etwas praxisfern,aber da unhörbar ist dann auch unhörbar)
Die DC2 gehört auch mit zum leisesten was derzeit verfügbar ist( wenn nicht die leiseste karte)Nachts ist reduziertes Power target gang und gebe.. Ich habe dann die boxen sehr,sehr leise oder werd mal geboxt .
Was auch auffällt ist das ich hier einfach so gut wie nie tearing habe,entweder ich spiel zuviel Bf3 und Crysis3 (beides eher lowsense und sehr langsam vs Q3A )oder ich merks nichtmal :D
So brauch ich nur das Geschrei von 1kind hier und 2 unten auszuhalten :devil:
 
EDIT:
Input-Lag durch TB sollte sich rein rechnerisch ja exakt auf einen frame beschränken (der eine Frame der im Vergleich zu Double Buffering mehr vorausberechnet werden muss).
Bei einem 60 Hz Bildschirm beträgt das 1/60 Sekunden also 16,67 ms...
Betrachtet man mal im Bezug auf Onlinegaming den durchschnittlichen Ping (Hausnummer 50ms) so scheinen mir die 16ms von oben nicht wirklich ins Gewicht zu fallen...
Wenn du 60 fps hast, brauchst du keinen Triple Buffer, da du dann auf einem 60Hz Monitor problemlos VSync mit Double Buffering nutzen kannst. Der Triple Buffer ist ja gerade für fps unter 60 gedacht. Bei 30 fps sind es dementsprechend schon 33ms.

Adaptive VSync ist aber eh für Anwendungen, die kein Triple Buffering unterstützen, gedacht. D3D Overrider Spielereien verletzen die D3D Spezifikationen, weshalb man den TB in DX nicht mittels Treiber erzwingen kann. Man ist hier auf den Spiele-Entwickler angewiesen. Daher kann man ein solches Programm nicht als Argument, dass Adaptive Vsync nutzlos wäre, anbringen.

Du hast nun also zwei gute Gründe für adaptives VSync: Input Lag und Wahrung der DirectX Spezifikationen
 
Ok, da ich mich aber i.d.R im Bereich von 50-60 fps aufhalte sind es eher 20ms, und damit kann ich deutlich besser leben als mit zerrissenen Bildern und Framedrops von 60 auf 30 und zurück... da ist mir die Dx-Spezifikation ehrlich gesagt relativ egal...

Aber trotzdem danke für die Erklärung.
 
Tolles Feature dieses adaptive Vsync...wir als Innovation vermarktet und ist komplett nutzlos in Realität.
Ok, da ich mich aber i.d.R im Bereich von 50-60 fps aufhalte sind es eher 20ms, und damit kann ich deutlich besser leben als mit zerrissenen Bildern und Framedrops von 60 auf 30 und zurück... da ist mir die Dx-Spezifikation ehrlich gesagt relativ egal...
Achso, wir reden hier nur über deine Meinung und nicht über die technischen Ursachen, warum mal jemand Adaptive VSync eingeführt hat. Sag das doch gleich.
 
Bin gerade über den Thread gestolpert. Also so wie ich die ganze Vsync Sache verstehe, hat man mit TB auf jeden Fall auch eine Wechsel zwischen 30 und 60 FPS!!! Genauer: Es gibt frames, die 16,7 ms angezeigt werden und welche die 33,3 ms lang angezeigt werden. Anderes wäre eine vertikale Synchronisierung auf einem 60 Hz Display ja nicht möglich. Die durch Fraps angezeigen FPS sind ein Mittelwert über eine ganze Sekunde, daher werden auch zB 45 FPS angezeigt.
Der Vorteil von adaptive Vsync ggü Vsync+TB ist neben dem verringerten Inputlag meiner Meinung nach, dass es eben nicht nur Anzeigedauern von 16 oder 33 ms kommt. Mit Vsync+TB müsste daher bei angezeigten 45 Fps ein deutliches Stottern bemerkbar sein?
 
Nein, der Vorteil von TB ist eben nicht der sprunghafte Wechsel zwischen 30 und 60 Frames, es sind alle ganzzahligen Zwischenstufen möglich, da man neben dem Framebuffer und dem Backpuffer noch einen zweiter Backbuffer zur Verfügung hat, welcher geschrieben werden kann, während der Framebuffer angezeigt wird und der Backbuffer vorgehalten.

Die Frames werden solange angezeigt, bis der SWAP Befehl kommt, da der Backbuffer als bereit gemeldet wird. Das heißt es gibt kein festes Inverall (=feste Framerate), sondern die FPS richten sind ganz nach der Leistung der Karte.
 
Zuletzt bearbeitet:
Korrekt, die FPS richten sich mit TB nach der Leistung der Karte. Wenn die Karte 45 FPS schafft, werden diese auch pro Sekunde angezeigt. ABER wegen VSync werden einzelne Bilder nur für 16ms oder für 33ms angezeigt! Ansonsten hätte man ja tearing! Es kann also bei 45 FPS sein, dass Bild 1 für 16ms angezeigt wird, Bild 2 für 33ms, Bild 3 für 16ms, Bild 4 für 33ms, Bild 5 für 16ms,... Das ergibt eben über eine Sekunde gemittelt 45 Frames, aber ein Stottern müsste mMn auftreten!
 
Zurück