LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Kann AMDs Freesync-Technologie wirklich Tearing und Lags beziehungsweise Stuttering so gut wie Nvidias Gsync verhindern? PC Games Hardware macht den Test mit LGs neuer 1080p-Enthüllung im 21:9-Format. Von Benjamin Kratsch und Ryan Southardt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?
 
Kein wunder das sie es dann kostenlos anbieten. Aber man wird denn unterschied wahrscheinlich sowieso nicht sehen.
 
Wenn Free-Sync rein Treiberbasiert ist, könnte man dann nicht auch ein Programm schreiben das dies auch für Nvidia GraKas ermöglicht, und somit einen teuren G-Sync Montior zu umgehen ?
 
Wenn Freesync ein solches Verhalten bei wechselnden fps an den Tag legt, dann ist mal wieder viel versprochen aber kaum was gehalten.
 
@theCoyoteJa, aber nur, wenn die Grafikkarte selbst auch in der Lage ist, die Intervalle zu senden bzw. die Befehle.
Die Aussage von dem " Anonymen " Entwickler - nun... ist irgendwie nichts Wert, soweit zum Schluss kann man auch kommen, ohne vor beiden Varianten gesessen zu haben.
Und wenn der Monitor, dies nur anhand der " Belastung " der Grafikkarte tut passt es vorne und hinten nicht..... das selbe, wenn man die Digitale Tacho-Anzeige dahingehend aufbaut, dass sie anhand der Hitze im Motor bestimmt, wie schnell das Auto fährt... Hallo?! Die Drehzahl wäre da doch Sinniger...

Die Grafikkarte weiß doch selbst wie viel FPS sie liefert, spätestens der Treiber tut es. Nur der Monitor weiß es nicht, und da die GPU das nun kann, weiß auch der Monitor das, weil die GPU sprichwörtlich der Chef im Käfig ist und bestimmt... genau hier wurde ja angesetzt, dass der Monitor in der Lage ist, von einer Grafikkarte fremdbestimmt zu werden.
Wenn es nur via Belastung geschieht, braucht man kein Standard bei VESA einführen, sondern nur einen Scaler der von einer Software Manipuliert werden kann, denn selbst FRAPs wäre dann dazu in der Lage, die FPS zwackt Fraps ja via DX ab, was wiederum vom Treiber/GPU abzwackt...
Wieso dann " nur " über die Belastung. Völliger Schwachsinn.


Anonym... dahinter steht kein Wert... kann auch irgend son Praktikant gewesen sein, der den Entwicklern beim Kaffee bringen über die Schulter geschaut hat :D
Oder er saß davor, wo AMD noch keine Treiber dafür hatte.

Egal, abwarten bis die Teile in der Presse landen.


Ende Feb bekomme ich 2 Modelle und dann Vergleiche ich ebenfalls selbst. Anders geht es eh nicht. Via Video ist das immer sone Sache :-)
 
Zuletzt bearbeitet:
Da bei FreeSync (wo keine Zusatzplatine im Monitor verbaut wird) wirklich die komplette Arbeit vom Treiber übernommen wird, und die ersten Endkunden FreeSync erst in ein paar Monaten haben werden, ist wohl davon auszugehen, dass in dieser Zeit noch sehr viel an diesem Teil des Treibers verbessert wird. Also nicht verrückt machen lassen und abwarten :) Bald wird sich der Vorhang heben, und dann kann man objektiv vergleichen, wie sich beide Verfahren schlagen (hoffentlich in einem ausführlichen PCGH-Test).

Wenn Free-Sync rein Treiberbasiert ist, könnte man dann nicht auch ein Programm schreiben das dies auch für Nvidia GraKas ermöglicht, und somit einen teuren G-Sync Montior zu umgehen ?
Das müsste Nvidia schon selbst in ihren Treiber reinschreiben (oder jemand anderes muss sich die Treiber-Quelltexte besorgen und es da rein schreiben :D). Zwischen irgendeinem Programm und der Hardware sitzt immer der Treiber. Ein Programm kann nichts an die Grafikkarte schicken, nur an den Treiber. Der kann sich dann überlegen, was er daraus macht (und das ist gut so, sonst könnte Schadsoftware z.B. ohne weiteres deine Hardware zerstören ^^ So was gab's ganz früher mal, zu DOS-Zeiten).
 
Zu Glück sind die Autoren nicht einfach nur auf Klicks aus…..

Eine Namentlich nicht genannte Quelle hat eine Behauptung aufgestellt und kann sie bestenfalls mit sehr fragwürdigen Argumenten stützen(GPU-Last --> FPS wtf? :wall:).
Natürlich muss das in die Überschrift zum LG Curved-Display.:schief:

Zum Monitor selbst, cooles Teil….
 
Ganz grosses Kino, PC Games Hardware hat etwas durch einen anonymen Entwickler rausgefunden was die Experten von AMDs grössten Konkurrenten NVidia noch nicht mal rausgefunden haben, oder was denkt ihr warum NVidia darauf noch nicht hingewiesen hat?
Gruss an den Redakteur, vielleicht erst man nachdenken bevor man schreibt.
 
Ich bin auch sehr auf Tests zwischen G-Sync und FreeSync gespannt. Grundsätzlich denke ich schon, dass an der Aussage des Entwicklers was dran ist. Warum sonst sollte nVidia eine extra Platine für die Monitore brauchen, wenn es auch einfacher geht.

Zudem war AMDs FreeSync ja quasi nur eine mehr oder weniger schnelle Antwort auf G-Sync. Ich denke, dass man mit FreeSync das Problem eindämmen kann, aber wahrscheinlich eben nicht so gut wie G-Sync.
 
Ich bin auch sehr auf Tests zwischen G-Sync und FreeSync gespannt. Grundsätzlich denke ich schon, dass an der Aussage des Entwicklers was dran ist. Warum sonst sollte nVidia eine extra Platine für die Monitore brauchen, wenn es auch einfacher geht.
Zudem war AMDs FreeSync ja quasi nur eine mehr oder weniger schnelle Antwort auf G-Sync. Ich denke, dass man mit FreeSync das Problem eindämmen kann, aber wahrscheinlich eben nicht so gut wie G-Sync.

Naja auch FreeSync braucht spezielle Hardware im Monitor die adaptive Refreshraten möglich macht, genau wie GSync. Nur dass die Scalerhersteller diese halt ohne Lizenskosten herstellen können und sie am Ende nicht nur auf FreeSync/AMD beschränkt ist, während bei dem Nvidia Modul Lizenskosten an Nvidia anfallen. Aber was welche Technik am Ende wirklich leistet wird sich erst zeigen müssen. Trozdem ist die Überschrift echt mies gewählt. Reißerische Überschrift aber am Ende nichts dahinter das glaubwürdiger wäre als "Der Freund eines Bekannten eines Freundes hat gesagt..." Sieht verdammt nach Klickgeilheit hoch 3 aus :daumen2:
 
34" mit nur 1080P?
WTF?

Die Antwort: Um den Preis im bezahlbaren Rahmen zu halten. Das 34-Zoll-Display kostet mit 1080p-Auflösung attraktive 549 Euro. Da 1440p-Panels im 21:9-Format noch nicht in riesigen Stückzahlen gefertigt würden, seien die Preise noch ziemlich hoch. Der große Bruder des 34UM67, der 34UM95, kostet, ohne gebogen zu sein und ohne Freesync, knapp 730 Euro, stellt dafür aber die 3.440 × 1.440 Pixel dar. Abgesehen davon sieht das IPS-Panel der CES-Enthüllung fantastisch aus. Die Farben sind sehr lebhaft, der Schwarzwert gut und das Bild auch in 1080p durchaus scharf.

Und jetzt rate mal woher ich die Antwort habe:rollen:

Wer braucht schon so eine mittelalterliche Auflösung?

Niemand! Du kannst ja einfach genug Knete auf den Tisch legen - dann bekommst Du 3440x1440
 
Zuletzt bearbeitet:
"Ausprobiert" bedeutet zumindest in meiner Welt "die wichtigsten Features mal ein wenig angetestet" und auch die Überschrift und sogar die Teilüberschriften suggerieren, dass FreeSync ausprobiert hättet---erst, wenn man ganz am Ende angekommen ist erfährt man, dass ihr keine neuen Infos habt! Schwach, schwach... :daumen2:
 
Die Überschrift is bildzeitungsmäßig.... eine unvoreingenomme Überschrift hätte lauten müssen: z.B. -Was is besser Freesync oder GSync?... zum Glück kaufe ich eure Print nicht mehr.. sowas geht mir ziemlich auf die Nerven :daumen2:

Meint ihr eigentlich eure Leser sind bescheuert? So manchem Redakteur würde ich das zutrauen... stottern sich was zusammen sodass man richtig merkt, dass derjenige eigentlich 0 PLAN hat und den ganzen "Mist" nur

auswendig lernt.

Und übrigens: das ist natürlich nicht das einzige Mal dass sowas passiert bei euch.... nur schreibe ich oft einfach nichts dazu...

So und noch was: aus zuverlässiger Quelle habe ich erfahren, dass ihr überwiegend NVidia Fanboys bei euch beschäftigt: merkt ihr was?
 
Zuletzt bearbeitet:
@Laggy.NET,

wtf... schalt mal runter, welche GPU bereits diesen VBLANK-Befehl ausführen konnte... und dann siehe auf das Release Datums dieser Grafikkarte...
Wie ich nachplappler hasse....

:wall:

Pass auf die Radeon R7 260 unterstützt es, die Radeon R7 260 also Bonaire - 2013...

Eine Antwort gab keiner.
 
Zuletzt bearbeitet:
Zurück