RTX 2080 Ti und Freesync: Vermeintlicher Clou offenbart sich als Irrtum

Ich verstehe deine Sprache nicht.


Ich erkläre es dir noch mal genauer.

Es gibt nicht nur Grafikkarten seitig wie freesync oder gsync oder Vsinc.


Wenn spiele entwickler 60 fps fokusieren,dann wird man egal wie gut die Grafikkarte auch sein mag nicht über die 60 FPS kommen.Das nennt sich Framelook bei Spiele entwicklern.Dann Greift auch freesync oder gsync oder auch Vsinc nicht.Weil man ja nie über die 60 fps kommen kann.

Es ist wie wenn man selber auf 60 fps limitiert.Nur das es bei meinem Beispiel Spiel der Entwickler für einen erledigt hatte.Durch sowas wird es ja hinfällig.Und ich muss sagen,es spielt sich dadurch sehr flüssig.Wenn es auf 60 limitiert ist.

Dadurch werden gewiss noch bessere Frametimes erreicht.Sollte ich wohl bei allen spielen limiteren.Erreiche bei einigen 300 - 500 fps.Wird sich sicher auch bei 60 fps flüssig anfühlen.Und dadurch spart man sich auch sicher etwas bei stromverbrauch bei der Grafikkarte.


Ist wie wenn man da wo eine Grafikkarte mit 1 x 6 Pin hat,den Stecker vergessen hat zu stecken.Lief aber dennoch hoch,nur sagte aber nur immer das es nur eingeschränkt funktioniert.
 
Fastsync ist nichts anderes als ein Framelocker. Darauf wollte ich hinaus. Das Verhalten ist also so oder so normal.
Falsch. FaystSync ist einfach nur Tripple-Buffering - KEIN framelocker.



Was ich damit zum Ausdruck bringen wollte ist, dass Tearing schon ein wenig mehr als 1-10 FPS über dem Limit des Monitors benötigt um des öfteren auch bemerkt zu werden. da treffen die 50-100 Fps drüber schon eher zu, wo das Feature dann auch Sinn ergibt.

Auch Falsch. Tearing kann unabhöngig der Framerate und Refreshrate auftreten.
Auf nem 60 Hz Monitor mit 61 FPS kann man "schönstes" Tearing bekommen.
 
Ein framelimit hilft 0 gegen tearing!
Gegen tearing hilft nur eine Synchronisation von Monitor und Graafikkarte.
Framelocks in Spielen dienen auch weniger dazu die Spiele flüssiger zu machen, sondern es hängen meist bestimmte Spielmechaniken an dem eingestellten framelock.
 
Framelocks in Spielen dienen auch weniger dazu die Spiele flüssiger zu machen, sondern es hängen meist bestimmte Spielmechaniken an dem eingestellten framelock.

Exakt, und/oder es ist ein Überbleibsel der Portierung bzw. eine Erfordernis für die Portierung.

Dir tatsächlichen Argumente für einen treiberseitigen Framelock wurden hier ja auch bereits genannt.
 
Warum sollten NVidia Kunden Freesync wollen wenn doch Gsync so viel toller ist? Kost ja auch nur 150-500€ mehr und das isses sicher auch wert. *hust*
Der Nvidia Kunde legt doch wert auf exklusive proprietäre Features und bezahlt das auch gern.
Also brauch niemand irgendwelche Hacks um das unterlegene Freesync auf einer tollen GTX/RTX laufen zu lassen.
 
Warum sollten NVidia Kunden Freesync wollen wenn doch Gsync so viel toller ist? Kost ja auch nur 150-500€ mehr und das isses sicher auch wert. *hust*
Der Nvidia Kunde legt doch wert auf exklusive proprietäre Features und bezahlt das auch gern.
Also brauch niemand irgendwelche Hacks um das unterlegene Freesync auf einer tollen GTX/RTX laufen zu lassen.

Na ist es aber nicht so, dass GSync besser funktioniert? Oder hat sich die Situation bisweilen angepasst? Also anfangs ging GSync einfach in niedrigere FPS-Bereiche los bis hin zum max. des Monitors, während AMD irgendwelche strikten Bereiche hat - wenn ich mich recht entsinne.
Und ganz ehrlich, wenn es 150€ Unterschied sind, spricht das eher für NV.

Und keine Sorge, ich habe weder ein G- noch Freesync-Monitor bevor das Fanboigerede losgeht. Danke.
 
Dann Greift auch freesync oder gsync oder auch Vsinc nicht.Weil man ja nie über die 60 fps kommen kann.
Also kann man bei weniger als 60FPS nie ohne Tearing/Bildrisse zocken ? Es wäre doch genial wenn es eine Bildsynchronisation gibt die schon bei 10FPS oder sagen wir 30FPS anfängt ! :daumen:
 
Warum sollten NVidia Kunden Freesync wollen wenn doch Gsync so viel toller ist? Kost ja auch nur 150-500€ mehr und das isses sicher auch wert. *hust*
Der Nvidia Kunde legt doch wert auf exklusive proprietäre Features und bezahlt das auch gern.
Also brauch niemand irgendwelche Hacks um das unterlegene Freesync auf einer tollen GTX/RTX laufen zu lassen.

GSync hat - für die längste zeit zumindest - eine höhere Mindestqualität garantiert als FreeSync. (jetzt ist FreeSync2 zumindest dem Standard-GSync so weit ich weis von den Mindestanforderungen überlegen)
hat aber nichts damit zu tun das eben manche trotzdem gerne den günstigeren Monitor hätten - man mag es kaum glauben aber man muss kein Nvidia Fanboy sein um eine nvidia Karte zu besitzen - kann durchaus sein das einfach nvidia Karten günstiger waren, oder das man die beste Leistung haben wollte.

Wo bleibt der Beweis, häh!? Herrje!!!

XDD Ach - der her KnSN - der immer mit so "tollen" aussagen daher kommt wie höhere Auflösung würde die GPU entlasten.
Was soll ich da beweisen - das Tearing existiert wenn die Bildausgabe nicht mit der Bildberechnung Synchronisiert ist? :ugly:
Soll ich dir jetzt auch noch beweisen das es Monitore gibt? Viel kann man zu deinen "Kommentaren" ja nicht sagen.
 
Also kann man bei weniger als 60FPS nie ohne Tearing/Bildrisse zocken ? Es wäre doch genial wenn es eine Bildsynchronisation gibt die schon bei 10FPS oder sagen wir 30FPS anfängt ! :daumen:

Macht Freesync doch. Durch Low Frame Rate Compensation funktioniert Freesync auch unterhalb der angegebenen Mindestframerate.
Die NVIDIA-Fanboys scheinen dass noch nicht ganz kapiert zu haben.
 
Macht Freesync doch. Durch Low Frame Rate Compensation funktioniert Freesync auch unterhalb der angegebenen Mindestframerate.
Die NVIDIA-Fanboys scheinen dass noch nicht ganz kapiert zu haben.

G-Sync nutzt das auch...nur mal so zur Info, sogar seit Anfang an. Trotzdem ist ein Unterschied zu spüren wenn die Framerate unter die eigentliche Synchro-Rate fallt!
 
Naja, ob nun 30fps Gsync mit 30Hz oder 29fps Gsync framedoubling mit 58Hz, ist jetzt beides nicht wirklich toll.
 
Dafür braucht es AFAIK nur einen FreeSync-Monitor, dessen obere Hz-Limit mind. doppelt so hoch ist wie das untere Hz-Limit.
Da alles andere praktisch Sinnfrei ist, kann man diese Modelle gleich von der Liste der potentiellen Monitore streichen.
 
Zurück