LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Wenn Free-Sync rein Treiberbasiert ist, könnte man dann nicht auch ein Programm schreiben das dies auch für Nvidia GraKas ermöglicht, und somit einen teuren G-Sync Montior zu umgehen ?

Der "teure G-Sync-Monitor" hat halt in Hardware einen extra Chip verbaut, der die Bildwiederholrate an die tatsächliche Bildausgabe der GraKa anpasst, das ist der feine Unterschied. Sollte das stimmen sollte man GSync der Vorzug geben.
 
Ob wohl auch mal Fernseher mit einer dieser Techniken rauskommen werden, oder bleibt sowas "Monitor exklusiv"?
Ich frage weil ich der Typ - Couch und mindestens 65 Zoll TV - bin. :) Monitore sind auch grundsätzlich viel zu klein für meinen Sitzabstand.
 
Mal abwarten ob FreeSnyc wirklich schlechter wird, aber möglich könnte es durchaus sein. In diesem Fall würde ich mir auf jeden Fall G-Sync zulegen. Aber einen neuen Monitor brauche ich momentan ohnehin noch nicht. Wenn 4K halbwegs spielbar wird mit Singele GPU, dann kaufe ich mir erst wieder einen. Ich rechne mit maximal 2 Jahren dafür.
 
Darf ich mal als jemand der sich mit dem Thema noch 0 befasst hat ganz idiotisch fragen worum es sich hierbei handelt?
Mit G-Sync sind 40 Frames dann gefühlte 60 oder was?
 
Der Monitor haut nicht einfach 60mal pro Sekunde in gleichmäßigen Abständen ein Bild raus, sondern die Graphikkarte sagt ihm: „Ein neues Bild ist fertig, jetzt stell es dar!“
Der Sinn ist, ohne Tearing und ohne Vsync geschmeidiges und flüssiges Spielen zu ermöglichen.
Variable Bildraten die nicht die Hertzzahl des Bildschirms treffen fühlen sich besser an, das Bild wird nicht zerrissen und störenden Inputlag gibt's auch nicht.
Der Monitor tanzt damit also nach der Pfeife der Graphikkarte und nicht umgekehrt.
 
Zuletzt bearbeitet:
Darf ich mal als jemand der sich mit dem Thema noch 0 befasst hat ganz idiotisch fragen worum es sich hierbei handelt?
Mit G-Sync sind 40 Frames dann gefühlte 60 oder was?


Folgendes: Wenn deine FPS unter die bildwiderholfrequenz deines Monitors fallen, hast du Tearing. Um das Tearing zu eliminieren wurde bisher V-Sync benutzt. Jedoch hatte dies den Nachteil, dass ein gewisser Inputlag und Stuttering (wenn die FPS erneut unter Frequenz sinken) entstanden sind. G-Sync und Freesync machen in der Theorie deine Bildwiderholfrequenz variabel. Das bedeutet, wenn deine FPS auf 40 Fallen, reguliert das Sync Modul die Frequenz runter auf 40, sodass du weder Tearing noch Stuttering hast. Dein Bild fühlt sich zwar mit 40 nicht an wie 60, aber das Bild ist nicht "kaputt". Sozusagen kontinuierlich flüssiges Bild ohne Nebeneffekte. Ich hoffe ich konnte das etwas näher bringen.
 

Ne, das kommt nicht in Frage. Die Couch ist unschlagbar. ;) Das nächste Dingen soll 85 Zoll,4k OLED werden. Wenn mal bezahlbar und die Langlebigkeit einigermaßen getestet wurde, also ist noch lange Zeit... Wäre schön wenn ein TV Hersteller mal diese Technik mit implementieren würde, aber irgenwie glaube ich nicht so Recht dran.
Für wahrscheinlich die meisten, die auf einem Monitor spielen, jedenfalls ein sehr interessantes Feature. Hoffe das beide Seiten zufrieden gestellt werden, die ersten Tests werden es zeigen.
Ich für mein Teil komme aber auch noch mit vsync gut klar. Graka ist (noch) stark genug, spiele eh "nur" in Full HD.
 
spiele eh "nur" in Full HD.
Aber wie lange noch :D

65"+? Sieht da FHD nicht scheußlich aus?

Sind doch die Pixel bestimmt bald so groß wie früher bei 640x480. :ugly:

Das nächste Dingen soll 85 Zoll,4k OLED werden..
Link bitte?

Ne, das kommt nicht in Frage. Die Couch ist unschlagbar.
zwinker4.gif
Maus und Couch verträgt sich schlecht.
Für viele geht die Steuerung vor. ;)
 
Zuletzt bearbeitet:
Paar Überlegungen meinerseits:
Warum unterstützen denn GCN 1.0 Karten Freesync nur bei Videos und für Stromsparfunktionen und ab GCN 1.1 wird das erst bei Games laufen?
Könnte es vielleicht sein, dass für Videos die GPU eben einfach die erwarteten Frames an den Monitor sendet (z.B. 25fps) und sich der Monitor deshalb an diese anpasst? Ergebnis, smoothes Bild und Stromersparnis durch lediglich 25Hz.
Ab GCN 1.1 wird dann das ganze auch für Gaming unterstützt, wahrscheinlich liegt der Unterschied eben in den variablen Frameraten. Ansonsten macht es doch keinen Sinn, dass die eine Architektur es bei Videos und Desktop nutzen kann, aber erst die Aktuelle auch bei Spielen.

Denke, das würde mit der Aussage des anonymen Typen zusammen Sinn machen, da es eben verschiedene Varianten gibt. Der hatte sich vielleicht einfach nur halb informiert. Oder die Treiber unterstützen den Gaming Support einfach noch nicht.

Quelle: Which AMD Radeon? GPUs are compatible with Project FreeSync?

Und was soll das heißen, ist alles Software/Treiber? Deshalb braucht man auch explizit Monitore und explizit GPUs die das unterstützen (siehe nichtmal GCN1.0 Support für Games), weil ja alles einfach im Treiber ist. Tststs.

HM also ich glaube mit meinen Augen stimmt was nicht in merke beim spielen nix von tearing etc auch bei SLI merke ich nix von mikro ruckeln und ich spiele immer am Fernseher im Wohnzimmer, ich verstehe nicht warum ich sowas nicht wahrnehmen kann obwohl fast alle Leute in Foren meinen das man ein Spiel so nicht genießen kann und es unaustehlich ist, das einzige was mir wichtig is sind fhd hohe Details und 35 fps, alles was drüber is merke ich nicht hmmmm meint ihr das ich vielleicht ne seh schwäche habe oder woran kann das liegen ?

Spielst du vielleicht mit Vsync? Das ist nämlich die Standard-Einstellungen bei so gut wie allen Spielen. Falls ja, kannst du auch kein Tearing sehen und deine Augen sind in Ordnung. :D
 
Zuletzt bearbeitet:
Würde es den so kommen, wäre das echt nicht gut für AMD. Plausibel klingt es ja. Bin auf die Tests gespannt. Aber bisher bin ich mit Lightboosthack und meinen BenQ immer ganz gut um Tearing und Co. rum gesteuert. Dazu noch z.T. Framelimiter und/oder adaptive V-Sync und alles konnte bisher halbwegs unterbunden werden. Macht sich aber G-Sync eben bezahlt und ich kann meiner GTX 770 ebenfalls 4K mit mehr Details anbieten, wäre ein Wechsel zu solch einen Monitor eine Alternative.
 
Ich finde die Formulierung mit dem Preis etwas komisch. Für Adaptive Sync fallen keine Lizenzgebühren an, wenn man selbst Mitglied bei der VESA ist. Der neue Scaler der gebraucht wird, kostet wahrscheinlich mehr und wenn man den 34" von LG mit und ohne Freesync vergleicht gibt es bereits in der UVP einen Preisunterschied von 50€ und im Vergleich mit dem aktuellen Marktpreis ein Unterschied von 100€. So wie es im Artikel beschrieben ist (und man es auf vielen anderen Seiten auch lesen kann) klingt es so als würden keine weiteren Kosten für die Hersteller anfallen was aber offensichtlich nicht der Fall ist. Die Zusatzkosten liegen zum Start niedriger als damals bei G-Sync aber auch da sinkt der Aufpreis. Ich bin gespannt wie die Preise der anderen angekündigten Monitore aussehen wird und ob die Hersteller Adaptive Sync weiter unterstützen werden, wenn AMD aufhört groß Werbung dafür zu machen.

Ansonsten ist das was in der News steht nicht wirklich etwas neues. Bereits letztes Jahr gab es auf anderen Seiten ähnliche Berichte von Redakteuren das Freesync bei schwankenden Framerates nicht so gut funktioniert wie bei G-Sync wobei man damals nicht sagen konnte ob es jetzt einfach an der von AMD umgesetzten Implementierung lag oder dass das ganze an einem Laptop bzw. Vorserien Monitor getestet wurde.

Das Nvidia da noch nichts konkretes zu gesagt hat ist auch zu erklären. Es geht ja nicht direkt um Adaptive Sync, was ja genau so funktioniert wie G-Sync, sondern um Freesync was anscheinend in Intervallen die Framerate abschätzt und entsprechend die Bildwiederholrate anpasst. Das hat den Vorteil das man Freesync auch einsetzen kann, wenn die GPU keine Informationen über die Framerate erhalten kann was außerhalb von Spielen der Fall sein kann. Selbst wenn Freesync in seiner jetzigen Form schlechter sein sollte als G-Sync liegt der Unterschied nicht in der Technik an sich, sondern an der Implementierung im Treiber. Mit Treiberupdates kann das Problem wahrscheinlich gelöst werden.
 
Wenn man den 34" von LG mit und ohne Freesync vergleicht gibt es bereits in der UVP einen Preisunterschied von 50€ und im Vergleich mit dem aktuellen Marktpreis ein Unterschied von 100€. So wie es im Artikel beschrieben ist (und man es auf vielen anderen Seiten auch lesen kann) klingt es so als würden keine weiteren Kosten für die Hersteller anfallen was aber offensichtlich nicht der Fall ist.
Nur weil keine Kosten anfallen kann der Hersteller trotzdem mehr verlangen, wenn die Kundschaft bereit ist das zu zahlen. Ob das Gerät auch wirklich teurer in Herstellung/Entwicklung ist, ist dem Hersteller hierbei egal.
 
Ansonsten ist das was in der News steht nicht wirklich etwas neues. Bereits letztes Jahr gab es auf anderen Seiten ähnliche Berichte von Redakteuren das Freesync bei schwankenden Framerates nicht so gut funktioniert wie bei G-Sync wobei man damals nicht sagen konnte ob es jetzt einfach an der von AMD umgesetzten Implementierung lag oder dass das ganze an einem Laptop bzw. Vorserien Monitor getestet wurde.
Quatsch. Es gab dazu noch überhaupt keinen Bericht, weil es dazu auch noch keine Demonstration gab.
 
Die Beißreflexe hier, herrlich! :D

Eine nicht namentlich genannte Quelle ist nicht grundsätzlich schlecht, man muss sich mal
die möglichen Konsequenzen für ihn oder sein Unternehmen vorstellen als "Nestbeschmutzer".
Als Gegenargument darf ich die AMD PR-Abteilung nennen die Monitore herbeigeredet hat die es nicht gibt.
Da hat der Name auch nix genützt. ;)

Ich halte es zumindest für möglich das es so ist.
War von Anfang an skeptisch ob die aufwändige Lösung von NV so "einfach" anders umgesetzt werden kann.
Andererseits war ich von den zwischenzeitlichen Meldungen über Bereiche wo Freesync besser sein soll (=niedrige fps möglich als bei G-Sync) durchaus angetan.

Naja, warten wir es mal ab was da so rauskommt.
Zumal eine treiberbasierte Lösung sicher auch Optimierungspotenzial bietet.

Letztlich kann es mir eh Wurst sein ob es besser ist oder nicht.
Aufgrund meiner hardware-Basis werde ich sicher nicht zu einem Freesync-Gerät wechseln, denn soviel besser als G-Sync wird es vermutlich auch nicht werden.

Und mit dem ultimativen Gerät (120/144Hz, G-Sync, Freesync, IPS ohne glow mit ordentlichem Schwarzwert) wird uns ganz sicher keine Firma beglücken, das wird uns nach und nach in Häppchen serviert. ;)
 
Liebe Autoren,

in dem vorliegenden Beitrag suggeriert ihr in der Überschrift, aber allen voran in der Einleitung, dass ihr einen Test von AMD's neuer Technologie durchgeführt habt .. wo ist dieser dann? Ihr beleuchtet nur die Rohdaten des Monitors und gebt eine namentlich unbekannte Quelle wieder! Bezogen auf die Einleitung und die Überschrift ist dieser Artikel somit eine klare Themaverfehlung^^ Weder Kabelstandards, noch das Für / Wider eines Curved-Displays sind direkter Inhalt der Freesync Technologie .. wenn ihr keinen Test vorliegen / durchgeführt habt, dann bewerbt auch bitte den Artikel damit nicht :rollen:
 
Ich werde am Ende der besseren Technik den Vorzug geben, welche auch immer.
Tearing und die Nachteile von Vsync gehen mir so dermaßen gegen den Strich, dass ich auch den Aufpreis für Gsync bezahlen würde.
 
"Kein spürbarer Lag" heißt aber nicht garkeiner. Gsync verursacht etwa 3-5ms extra lag - klar, ist nicht wirklich viel. Aber es ist da.

Wenn man sich einmal die Idee von so einer adaptiven Bildwiderholrate ansieht:

Die Grafikkarte rendert ein Spiel. Dabei kannst du niemals mit 100%iger Sicherheit vorhersagen wie schnell der nächste Frame berechnet wird, geht nicht.
Das heißt es gibt in meinen Augen zwei Möglichkeiten :

1. Freesync: Man schätzt mit einer Heuristik anhand der Zeit für die letzten Frames wie lange der nächste brauchen könnte. Besser wirds nich, die Heuristik kann toller werden - aber raten ist raten.

2. Gsync: Das Gsync fpga modul nimmt einen Frame entgegen, schaltet den Monitor richtig und gibt das Bild weiter - das benötigt kaum Zeit, ist aber vorhanden.
Da aber auch Gsync keiner Wunder wirken kann wird das ebenso Probleme bekommen wenn die Framerate zu unregelmäßig wird. z.B wenn der Monitor den Frame nichtmehr halten kann und nichts neues kommt.

Was anderes bleibt dir nicht übrig. Entweder der Monitor wird also teurer (und im Falle von Gsync dann auch noch Nvidia only, das ist einfach mist) oder man muss den Kompromiss von Freesync eingehen.
Da aber Freesync wohl offensichtlich sehr sehr gut läuft wenn man einen Framelimiter benutzt ist das in meinen Augen garkein Problem - unregelmäßige Framerate ist eh mist und unerwünscht.
 
Zurück