RTX 2080 Ti und Freesync: Vermeintlicher Clou offenbart sich als Irrtum

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu RTX 2080 Ti und Freesync: Vermeintlicher Clou offenbart sich als Irrtum

Tech Report staunte nicht schlecht, als in Kombination mit einer Geforce RTX 2080 Ti plötzlich die Freesync-Lampe des Monitors zu leuchten begann. Tests zeigten, dass es tatsächlich kein Tearing mehr gab, obwohl keinerlei Vsync aktiviert war. Doch offenbar hatte man sich zu früh gefreut ...

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: RTX 2080 Ti und Freesync: Vermeintlicher Clou offenbart sich als Irrtum
 
Hat sich der Spaß eigentlich mit HDMI 2.1 erledigt ? ich meine Falls neue NVIDIA -Karten mit 2.1 kommen, werden die ja wohl kaum sagen können: NEE NEE also manche HDMI 2.1 Features funktionieren bei uns halt nicht!
 
Wäre schon cool wenn das irgendwie funktionieren würde..

Ich habe meinen gsync bedarf letzte Woche gedeckt in dem ich bei ebay Kleinanzeigen mir einen gebrauchten 27 zoll 1440p acer predator mit 165 Hz und ips panel für 300 € geschossen habe.. nix dran und Grad mal n jahr alt..
Neupreis liegt iwo zwischen 600 und 700€
Also es lohnt sich auch schon mal auf den GebrauchtMarkt zu gucken
 
Hat sich der Spaß eigentlich mit HDMI 2.1 erledigt ? ich meine Falls neue NVIDIA -Karten mit 2.1 kommen, werden die ja wohl kaum sagen können: NEE NEE also manche HDMI 2.1 Features funktionieren bei uns halt nicht!

Genau das ist doch der Grund weswegen "HDMI 2.1 zu spät zertifiziert wurde"... Wers glaubt.
Man möchte ums verrecken seinen proprietären Standard weiter durchdrücken und kein Adaptive Sync unterstützen, was mit 2.1 ja hätte sein müssen.

Wie hier in der News zu lesen: "HDMI 2.1 wurde zu spät spezifiziert" - Geforce RTX 2080 (Ti) im Test: Nvidias Turing-Grafikkarten sind konkurrenzlos - Golem.de-Forum
 
also nvidia grafikkarten mit freesinc,das hätte ich auch gerne das es funktioniert.Das Kombi habe ich ja schon,nur unterstützt wird es ja leider nicht,echt schade.
 
Genau das ist doch der Grund weswegen "HDMI 2.1 zu spät zertifiziert wurde"... Wers glaubt.
Man möchte ums verrecken seinen proprietären Standard weiter durchdrücken und kein Adaptive Sync unterstützen, was mit 2.1 ja hätte sein müssen.

Fällt denen dann für die nächste Gen was neues ein um es nicht umzusetzen? :D
 
warum wird eig nie über Nvidia fast sync berichtet?
Bei Fast Sync handelt es sich um eine Art V-Sync mit Triple Buffering, der aber nicht die Latenzen von klassischen V-Sync aufweist, da keine Frames mehr zurückgehalten und damit unnötig verzögert werden.
Fastsync ist also so schnell wie gsync oder freesync, benötigt aber keinen speziellen Bildschirm.
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Weil das Feature nur bei Frameraten funktioniert, welche deutlich über dem Limit der Monitor-fps agieren. Für alle Spieler wo dies für ihr System nicht zutrifft bietet Fastsync keinen Mehrwert. Zudem ist es eigentlich sowieso nur ein Treiberseitiger Framelocker, wie er in den meisten davon betroffenen Spielen per se auch so schon angeboten wird und zudem dort dann auch Grafikkartenhersteller unabhängig ist.
 
Hat einer schon getestet ob Freesync via 2400g mit einer RTX 2080 funktioniert ? Mit einer GTX 1080TI /1060 und 1050 Ti funktioniert es ja habe ich mittlerweile selbst schon getestet.
 
Weil das Feature nur bei Frameraten funktioniert, welche deutlich über dem Limit der Monitor-fps agieren. Für alle Spieler wo dies für ihr System nicht zutrifft bietet Fastsync keinen Mehrwert. Zudem ist es eigentlich sowieso nur ein Treiberseitiger Framelocker, wie er in den meisten davon betroffenen Spielen per se auch so schon angeboten wird und zudem dort dann auch Grafikkartenhersteller unabhängig ist.
ich habe einen "normalen" 60Hz Bildschirm und spiele ohne v-sync,
ich stelle nur im Treiber den frame-rate-limiter
auf 60,7fps, solange die 60fps gehalten werden habe ich so kein tearing oder Verzögerung.
Ist das ein normales Verhalten oder ist da im Hintergrund Fastsync aktiv?
 
Du widersprichst dir selbst, Alyva. Wenn man FPS deutlich über den Hz benötigt, wäre ein Framelocker sinnfrei.
Bei FastSync rechnet die GraKa weiterhin so viele FPS wie ihr möglich ist = kein Framelock.

Die FPS müssen aber über den Hz liegen. Wobei es egal ist ob 1 oder 100FPS darüber.
 
dabei entscheidet nicht nur der bildschirm oder der Grafikkarten Treiber.Wenn Frameslooks bei spielen vorliegen dann bringt diese Technik auch nichts.Frameloks bei 60 FPS.Hat nämlich das Pc SPiele Universe AT war angriffs Ziel Mission Erde.
 
Also wenn der Tester keinen Unterschied zwischen V-Sync und Freesync beim Spielen gemerkt hat, dann spricht das nicht grade für Freesync ...,oder den Tester.^^
 
Zuletzt bearbeitet:
ich habe einen "normalen" 60Hz Bildschirm und spiele ohne v-sync,
ich stelle nur im Treiber den frame-rate-limiter
auf 60,7fps, solange die 60fps gehalten werden habe ich so kein tearing oder Verzögerung.
Ist das ein normales Verhalten oder ist da im Hintergrund Fastsync aktiv?

Fastsync ist nichts anderes als ein Framelocker. Darauf wollte ich hinaus. Das Verhalten ist also so oder so normal.

Du widersprichst dir selbst, Alyva. Wenn man FPS deutlich über den Hz benötigt, wäre ein Framelocker sinnfrei.
Bei FastSync rechnet die GraKa weiterhin so viele FPS wie ihr möglich ist = kein Framelock.

Die FPS müssen aber über den Hz liegen. Wobei es egal ist ob 1 oder 100FPS darüber.

Was ich damit zum Ausdruck bringen wollte ist, dass Tearing schon ein wenig mehr als 1-10 FPS über dem Limit des Monitors benötigt um des öfteren auch bemerkt zu werden. da treffen die 50-100 Fps drüber schon eher zu, wo das Feature dann auch Sinn ergibt.
 
Also wenn der Tester keinen Unterschied zwischen V-Sync und Freecync beim Spielen gemerkt hat, dann spricht das nicht grade für Freesync ...,oder den Tester.^^

Der Unterschied kristallisiert sich im Regelfall dann heraus, wenn die GPU *tatsächlich* an ihrer Leistungsgrenze arbeiten muss, um spielbare fps zu produzieren. Bei den hier genutzten Karten muss man sich dafür allerdings ordentlich ins Zeug legen. Falls der gute Mann nicht zufällig gerade Ultra Presets @ 4K gebencht hat, als ihm die Nummer auffiel, ist der Irrtum m.M.n. absolut verzeihlich.
 
Zurück