• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Für wie wichtig haltet ihr G-Sync

averlanche

Kabelverknoter(in)
Hallo zusammen,

die Frage lautet, wie im Titel beschrieben "Wie wichtig ist G-Sync".

Ich habe mir im letzten Jahr einen neuen Monitor gekauft. und zwar den AOC 31,5 L AG322QC4. ER hat allerings "nur" Freesync 2, kein G-Sync.
Sowiet bin ich mit ihm zufrieden. Ich plane gerade die Anschaffung einer neuen Grafikkarte 3080 oder 6800 XT. Je nachdem an was ich früher ran kommen sollte. Sollte es nun die 3080 werden, stellt sich mir die oben genannte Frage ...

Ich habe zZt noch eine 1080, von daher sollte man ja meinen, das ich es selbst beurteilen könnte. Mir fehlt aber leider jeglicher vergleich , daher wende ich mich an euch. Wirkliches Screen Tearing ist mir so beim zocken noch nicht wirklich aufgefallen. Allerdings mag es auch daran liegen, dass ich es für "normal" halte und deshalb nur nicht bemerke so im Alltag. Bei dem Nvidia G-Sync Test sehe ich es schon ... wäre cool ein paar Erfahrungen von euch zum Thema zu bekommen.

Es ist einfach so, dass ich mir schon ein wenig blöd vorkomme ein GPU für ~ 900 Euro (inkl Wakü wahrscheinlich eher 1100) zu kaufen und dann die "volle Pracht" garnicht mit zu bekommen....

1.) Wie hoch ist dein Kapital bzw. der Preisrahmen in dem du dich bewegen kannst?
500-600 Euro

2.) Besitzt du noch einen alten Monitor bei dem du dir nicht sicher bist, ob sich ein Upgrade bzw. Neukauf lohnen würde?
AOC 31,5 L AG322QC4

3.) Welche Grafikkarte ist in deinem PC verbaut? (Wichtig bezüglich der Auflösung!)
vermutlich wird es eine 3080

4.) Wie sieht der geplante Verwendungszweck schwerpunktmäßig aus? Gaming, Film/Foto-Bearbeitung, Office oder Allround?
ausschließlich FPS; also Gaming.

5.) Hast du spezielle Wünsche oder Anforderungen an das Produkt?
~ 32"; 1440p; kurze Reaktionszeit; HDR wäre schön, ist aber kein muss

Den alten Monitor würde ich "in Zahlung geben" sprich verkaufen, das ist aber in den max ~ 600 Euro schon einkalkuliert.

Danke für eure Hilfe
 

Richu006

Software-Overclocker(in)
Denke solange du es nicht kennst, wirst du es auch nicht vermissen.

Allerdings wenn du schon ein Freesync Monitor hast würde ich allenfalls eine AMD GPU bevoorzugen.

Ich zb. habe G-Sync monitore und für mich war von Anfang an klar deswegen bei nvidia zu bleiben.
 

Rolk

Lötkolbengott/-göttin
"Nur" Freesync 2 ist besser, weil du dich beim GPU-Kauf an keinen Hersteller bindest und dabei auch noch Aufpreis zahlst.
 

PCGH_Manu

Redakteur
Teammitglied
Ich spiele seit Jahren mit G-Sync und mag nicht mehr ohne. Selbst bei 200 Fps sehe ich noch Tearing, was mich mehr stören würde als ne etwas geringere Bildrate. Zwischen Freesync und "echtem" G-Sync gibt es ja den Unterschied des adaptiven Overdrive. Habe aber kaum Displays mit Freesync erlebt, wo das in der Praxis tatsächlich ein Problem ist. Daher würde ich heutzutage auch einfach einen Freesync-Monitor kaufen, wenn ich müsste. Hatte damals recht günstig ein G-Sync-Display bekommen. Das ist noch immer gut und nu bin ich halt GPU-seitig noch immer an Team Grün gebunden...
 

Schori

Software-Overclocker(in)
Seit Ich meinen 165 Hz Monitor habe ist Freesync bzw. G-Sync Kompatibel aus, ich sehe absolut kein Tearing egal bei welchen FPS.
 
TE
A

averlanche

Kabelverknoter(in)
Hmm okay, sorry aber wirklich schlauer bin nicht geworden. Was auch daran liegen mag, dass ich mich wirklich überhaupt garnicht mit Monitoren auskenne. Ich kann ein Buch über Wasserkühlung, übertakten usw schreiben, aber Monitore... Keine Ahnung.

So: VRR habe ich gegoogelt bezieht sich doch aber so wie ich es verstanden habe eher auf Fernseher oder?

Wieso ist Freesync 2 besser? Lait Nvidia Control Center ist mein Monitor nicht GSYNC compatible...

Einfach eine 6800 XT kaufen wäre eine Option, allerdings sind die Preise dafür noch unverschämter als die der 3080. Die billigste 6800 XT ist bei Alternate für 950 Euro vorbestellbar. Eine 3080 TUF habe ich für 880 vorbestellt... Ich sehe nicht wirklich ein für eine "schlechtere" (ist sie nicht ich weiß aber lassen wir es einach mal so stehen) mehr zu bezahlen.

Ich könnte mir halt tatsächlich vorstellen, vielmehr glaube ich das tatsächlich, daß ich es nicht nicht sehe, weil ich nicht weiß wie es ohne aussieht. Ähnlich der Hauskatze die zufrieden ist weil sie nie draußen war... Ich denke ich muss in den sauren Apfel beißen und einfach mal so nen scheiß Teil kaufen... Oder ich sterbe einfach dumm...
 

ΔΣΛ

PCGH-Community-Veteran(in)
Egal ob FreeSync oder G-Sync, das ist nicht die Eierlegende Wollmilchsau, das will dir die Werbung einreden, aber stimmen tuts deswegen sicher nicht.
Das läuft auch nicht immer sauber, egal ob nativ oder G-Sync Kompatibel, Probleme damit liest man immer wieder in den Foren.
Diese Technik hilft meiner Meinung nur wenn man zu wenig FPS hat, deutlich unter der maximalen Hz deines Monitors, da wo Tearing (zerreißen des Bildes) am meisten auffällt.
Sonst ist Nvidias Sync Methode Schnell echt toll, aber auch Adaptiv finde ich toll.
Das ganze kommt auf das Spiel an was am besten funktioniert, FreeSync oder G-Sync zu glorifizieren halte ich für unkundig.
 

Incredible Alk

Moderator
Teammitglied
Also ich halte es für völlig unwichtig - was aber nicht an der technik sondern an mir liegt. Ich bin erstens der gemütlichere Typ der keine 200fps-Shooter spielt und zweitens komme ich mit 60 (und je nach Spiel sogar 30!) fps sofern diese stabil sind sehr gut klar, bedeutet die 144 beispielsweise sind für mich kein sooo großer Mehrwert auch wenn ich den Unterschied erkenne.

Von daher reichen mir stabile 60 minFPS und es sind keine 70-100 G-Sync-FPS nötig.
 

RtZk

Lötkolbengott/-göttin
Für völlig irrelevant. Entweder ich sehe Tearing schlicht nicht oder ich habe es in keinem einzigen Spiel.
Daher sehe ich wenig Sinn dahinter zusätzlichen Inputlag zu verursachen.
 

Incredible Alk

Moderator
Teammitglied
Es kommt bei mir extrem aufs Spiel an. Es gibt Spiele da hab ich Tearing aus der Hölle wenn die fps kurz von 60 auf 58 fallen, dagegen spiele ich Witcher3 @4K/Ultra/Modded auf 30 fps (einfach weil ne 2080 da nur 30-45 schafft je nach Szene bzw. die 60 minFPS nur mit ner RTX3080+ erreichbar wären) und da ist sogar wenns mal nur 29 sind kaum Tearing zu sehen. Und die konstanten 30fps sind weit angenehmer als 30-45 schwankend ohne adaptive vSync (und stromsparender ists auch noch^^).
 

Schnitzel1979

Freizeitschrauber(in)
möchte mir auch einen neuen Moni holen, wenn der Rechner mal da ist; geplant ist eine 3090 mit Hdmi 2.1, da die 5900x Cpu zur Zeit nicht verfügbar ist, werde ich warten; gucke auf einen 4k Moni mit 144Hz und GSync, glaube Acer will so einen Anfang nächsten Jahres rausbringen
 

Incredible Alk

Moderator
Teammitglied
gucke auf einen 4k Moni mit 144Hz und GSync
Solche Monitore wollen alle möglichen Hersteller schon seit 2014 "in Kürze" rausbringen.
Jetzt ohne Quatsch, ich hab mir 2014 nen 32''-4K TFT gekauft für damals ein Heidengeld und da hieß es schon "das 120Hz Modell kommt demnächst". Jetzt sind fast 7 Jahre vergangen und es gibt da noch immer so gut wie gar nichts, in der Größe 30-35'' glaube ich tatsächlich gar nichts. Also außer Ankündigngen, die gabs das ganze Jahr über haufenweise.

Ich will dir da nicht die Lust nehmen aber am Monitormartkt auf etwas warten kann eine SEHR langwierige Sache werden... :ugly:
 

Richu006

Software-Overclocker(in)
gucke auf einen 4k Moni mit 144Hz und GSync, glaube Acer will so einen Anfang nächsten Jahres rausbringen
Gibts doch schon seit mindestens 2 Jahren?
Ich jedenfalls hab seit dann ein Asus Rog Swift Pg 27 UQ...
Der hat 144HZ(übertacktet, sonst 120)
4K, G Sync ultimate mit HDR1000

Und genau da macht g sync absolut sinn!
In 4k hat man auch mit net 3090 teils nichtmal 60 fps. Und da bringt g sync, dann schon eine ordentliche Ladung "Tearingfreihe smoothness".
Für alles unter 4K mit 120+ Fps kann ich auch auf g sync verzichten, da merke ich fast kein tearing mehr.
 

Incredible Alk

Moderator
Teammitglied
Ja, zu kleine (was soll man mit 4K auf 27 Zoll und weniger?) und zu große (wo soll man bitte 40+++ Zoll aufn Schreibtisch stellen?) Modelle gibts mittlerweile... :-_-:
 

HisN

Kokü-Junkie (m/w)
Der ist sein Geld nicht wert.
Hängt bei mir an der Wand (weil der @Incredible Alk ihn ja nicht auf den Schreibtisch bekommt^^).

Das Panel ist zu lahm für 144hz und Farben verblassen zum Rand hin.
Allerdings war er zum Release-Zeitpunkt alternativlos.
 

Incredible Alk

Moderator
Teammitglied
Hängt bei mir an der Wand (weil der @Incredible Alk ihn ja nicht auf den Schreibtisch bekommt^^).
Vor meinem Schreibtisch ist leider keine Wand sonst hätte ich die Option schon in Betracht gezogen^^
Es ist kompliziert (und unnötig hier zu erklären) aber es geht halt mit den verfügbaren Modellen fast nicht ohne wirklich ALLES umzubauen hier und das ists nicht wert. Der 43UQ würde mit Gewalt irgendwie passen aber für so ein Monster ist mein Sitzabstand einfach zu klein - und für letzteren zu vergrößern ist die WOhnung zu klein, denn die Wand befindet sich ziemlich nah hinter mir. :-D

Mirs gar nicht aufgefalen dass der so schwer lieferbar ist... die letzten Monate war der überall lagernd. Gibts denn Alternativen? Bestenfalls nicht die, die 150W fressen undn Lüfter brauchen :ugly:
 

JoM79

Trockeneisprofi (m/w)
@averlanche
Du hast jetzt aber schon Gsync compatible im Treiber aktiviert?
Wenn nicht, mach das erstmal.
Wenn es schon aktiv ist, weißt du doch wie es aussieht.
 

Richu006

Software-Overclocker(in)
Ja, zu kleine (was soll man mit 4K auf 27 Zoll und weniger?) und zu große (wo soll man bitte 40+++ Zoll aufn Schreibtisch stellen?) Modelle gibts mittlerweile... :-_-:
Also ich finde 27/28 Zoll sehr angenehm zum Zocken.

Und vonwegen was bringt 4k??? Der Unterschid zu WQHD ist problemlos sichtbar. Ich habe noch ein WQHD 25 Zöller, der erscheint total pixelig dagegen.

Die Frage ist doch, wie weit entfernt man sitzt. Und nicht die grösse.

Oder was denkst du wieso man bei kleinen Handy displays mittlerweile auf 4K und höher geht?
 

Richu006

Software-Overclocker(in)
Weil die Leute grosse Zahlen lieben und 4K ein so tolles Schlagwort ist.
Also wer bei 27 zoll... den Unterschin zwischen WQHD und 4K nicht sieht, ist entweder Blind oder sitzt 5 Meter vom Monitor entfernt.

Bei normalem "Büro Monitor Abstand" von 0.6 bis 1m sieht man das zimlich deutlich
 

JoM79

Trockeneisprofi (m/w)
Zwischen etwas sehen und wirklich brauchen ist ein riesiger Unterschied.
UHD bei 27" muss ich skalieren, was mir bei der Schrift doch auffällt.
Im Spiel habe ich ne Ecke weniger fps und einen für mich nicht so tollen optischen Vorteil.
Also habe ich für mich entschieden, dass UHD nicht nötig ist.
 

Incredible Alk

Moderator
Teammitglied
Und vonwegen was bringt 4k???
Du hast nicht bemerkt dass ich seit 7 Jahren nen 4K habe und es grade darum geht dass man keine guten 4K Tfts im 32'' Bereich mut mehr als 60Hz bekommt?

Ich will seit Jahren nen 32er 4K mit 120+Hz haben. Von mir aus für 2000€. Es gibt nur keinen. 27 ist mir einfach zu klein ("zocken" macht weniger als 5% der Nutzung aus, ich brauche Arbeitsfläche) und 43 zu riesig.
 

Richu006

Software-Overclocker(in)
Du hast nicht bemerkt dass ich seit 7 Jahren nen 4K habe und es grade darum geht dass man keine guten 4K Tfts im 32'' Bereich mut mehr als 60Hz bekommt?

Ich will seit Jahren nen 32er 4K mit 120+Hz haben. Von mir aus für 2000€. Es gibt nur keinen. 27 ist mir einfach zu klein ("zocken" macht weniger als 5% der Nutzung aus, ich brauche Arbeitsfläche) und 43 zu riesig.
Ok verstehe ich... Arbeitsflächen bedingt macht 27 zoll nicht viel Sinn.

Ich kritisiere dich nicht. Mag sein, das für dein Anwendungsfall da wirklich nichts vernünftiges existiert.

Ich kritisiere die Aussage, das 27 Zoll zu klein ist für 4k und man deswegem nichts davon hat. Dem ist nämlich definitiv nicht so.

Ja ich bin auch kein Fam von den übergrossen Monitoren...

Das mag als Fernseh ersatz dienen und zum zocken vom Sofa aus.

Aber am Pc zum arbeiten finde ich son 43 Zoll+ auch nicht so prickelnd.

Ich fahre ganz gut mit 2x 27 Zoll 4K zum Arbeiten.

Wobei 32 zoll auch nicht schlecht klingen muss ich zugeben :).

Aber schreinbar ist der Markt da zu klein. Sonst gäbe es bestimmt Hersteller
 

Incredible Alk

Moderator
Teammitglied
Anscheinend ist da wirklich keine Zielgruppe. Es gab öfter Ankündigungeb für schnelle 32er aber es ist nie wirklich was erschienen.

Es ist ja verschmerzbar, da ich eh kaum spiele sind die 120Hz nur nice to have. Aber dass seit so langer Zeit da wirklich nix neues besseres kommt ist halt schade. Eigentlich wollte ich nicht nochmal ein 60Hz Ding kaufen wenn meiner irgendwann mal stirbt.
Bei Nutzungszeiten von gefühlt 10 Jahren wär mir wie gesagt auch der Preis fast egal aber offenbar will kein Hersteller mein Geld haben. :ka:
 

Threshold

Großmeister(in) des Flüssigheliums
oki, danke für die Infos; hab mal nach folgendem Modell geguckt: Asus Rog Swift PG43UQ; leider schwer lieferbar
Den hatte ich mir mal gekauft und wieder zurück geschickt. Für den Preis absolut lächerlich.
Ich warte immer noch auf bessere Monitore und solange läuft mein Iiyama mit seinen 60Hz problemlos weiter.
 

HisN

Kokü-Junkie (m/w)
Wie gesagt, er war zum Release-Zeitpunkt alternativlos. Während ihn @Threshold wieder zurückgeschickt hat, habe ich ihn behalten, weil er besser als mein alter 40" UHD von Phillips war, und weil es keine Alternativen für mich gab, und ich nach 6 Jahren dann einfach einen neuen Monitor haben wollte.
Aber ja, er leistet nicht das, was er verspricht und ist unverschämt teuer dafür, dass er das macht^^
 

Richu006

Software-Overclocker(in)
Zwischen etwas sehen und wirklich brauchen ist ein riesiger Unterschied.
UHD bei 27" muss ich skalieren, was mir bei der Schrift doch auffällt.
Im Spiel habe ich ne Ecke weniger fps und einen für mich nicht so tollen optischen Vorteil.
Also habe ich für mich entschieden, dass UHD nicht nötig ist.
Und ich habe mich entschieden, das ich es genau so mag!
Ja Windows selbst habe ich auf 150% skaliert. Aber die Skalierung von Windows 10 funktioniert recht gut. Die Schrift etc. Alles gestochen scharf.

Das lässt sich nicht vergleichen mit einer Skalierung bei spielen, wo alles unscharf wird sobald man nicht mehr die native Auflösung fährt. Windows machr da ein super job. Und ich möchte nichts anderes mehr. Ich gehe soweit zusagen das ich ab 40" dann sogar 8K haben möchte um eine ähnliche "Pixeldichte" zu erhalten

Aber so sind geschmäcker verschieden.
Einige mögen hohe "Pixeldichte", andere mögen mehr Platz auf dem desktop und wieder andere mögen ein schnelles Panel 120HZ+

Darf ja jeder selbst entscheiden am Ende
 

Incredible Alk

Moderator
Teammitglied
Ich nehm gerne alles (Fläche, Pixeldichte und Geschwindigkeit), aber halt in für mich sinnvollen Grenzen.
Ich brauche keine 200+ppi am Monitor wenn ich jetzt schon viel näher als normal ran muss um die Pixel zu erkennen (und ja meine Sehschärfe ist noch immer über 100%). Der Hype im oberen Pixeldichtebereich ist finde ich stark übertrieben weil sich hohe Auflösungen halt gut verkaufen lassen, vor allem im Smartphonebereich wo Pixeldichten erreicht werden die schon lange nicht mehr sichtbar sind auch wenn man sich das ding direkt vor die Rübe hält.

Ich sehe da als Sweetspot WQHD für 27'' und 4K für 32''. Man kann jetzt nach persönlicher Neigung noch be Stufe rauf oder runter gehen (4K auf 27'' sind noch vertretbar) aber NOCH mehr (8K) halte ich für völligen Unsinn. Solche Auflösungen sind fürs Heimkino mit zwei und mehr meter Diagonalen geil (wenns 2040 oder so mal Material dafür gibt :ugly:) aber als Tft ist das doch Käse.
 

Schnitzel1979

Freizeitschrauber(in)
hatte mal überlegt, den 8k Moni von Dell zu holen; aber einfach zu teuer und Spiele laufen dann auch nicht mehr gescheid; wenn es wirklich keine guten Geräte mit 4k und 144 Hz gibt, gäbe es eurerseits Empfehlungen für einen
4k, 32 Zoll, 60 Hz, Gsync, Hdmi 2.1 Monitor ? danke Euch !
 
Zuletzt bearbeitet:

DARPA

Volt-Modder(in)
Möchte auch nochmal kurz meinen Senf zu VRR abgeben, da oft nur das Thema Tearing angesprochen wird.

Ein großer Vorteil ist natürlich die Vermeidung von Tearing, ohne den input lag durch zuschalten von VSync zu erhöhen.
Aber mir ist noch ein ganz anderes Phänomen positiv aufgefallen.

Ich war seit Jahren auf fixed 60 fps @ VSync konditioniert. Und wenn die Bildrate zwischendrin auch nur um 1 oder 2 fps gefallen ist, hab ich das sofort wahrgenommen (auch ohne OSD). Das ist dann dieses breiige Gefühl. Weiss nicht wie ich es sonst beschreiben soll.
Und genau solche Schwankungen kann VRR super abfangen. Da hab ich mich dann schon erwischt, dass ich in einer Szene nach ner Weile dachte: Ich glaub, jetzt läuft es nicht mehr mit 60 fps. Dann schaue ich ins OSD und sehe 48 fps ^^

Klar, je tiefer man fällt, desto geringer wird der Effekt und 30 fps sind auch mit VRR kagge (für mich). Aber dieser Luxus, auch mal Dips um 10 fps vertragen zu können, ohne das es mir beim zocken direkt auffällt bzw stört, ist gold wert.
Wie gesagt, vorher hab ich nen Anfall bekommen, wenn es auch nur um 1 fps gedropt ist. Entsprechend musste ich auch immer die Setting im Spiel so wählen, dass selbst im worst case die Bildrate nicht fällt. Dadurch verschenkt man natürlich auch Potential im restlichen Spiel.
 

Richu006

Software-Overclocker(in)
Möchte auch nochmal kurz meinen Senf zu VRR abgeben, da oft nur das Thema Tearing angesprochen wird.

Ein großer Vorteil ist natürlich die Vermeidung von Tearing, ohne den input lag durch zuschalten von VSync zu erhöhen.
Aber mir ist noch ein ganz anderes Phänomen positiv aufgefallen.

Ich war seit Jahren auf fixed 60 fps @ VSync konditioniert. Und wenn die Bildrate zwischendrin auch nur um 1 oder 2 fps gefallen ist, hab ich das sofort wahrgenommen (auch ohne OSD). Das ist dann dieses breiige Gefühl. Weiss nicht wie ich es sonst beschreiben soll.
Und genau solche Schwankungen kann VRR super abfangen. Da hab ich mich dann schon erwischt, dass ich in einer Szene nach ner Weile dachte: Ich glaub, jetzt läuft es nicht mehr mit 60 fps. Dann schaue ich ins OSD und sehe 48 fps ^^

Klar, je tiefer man fällt, desto geringer wird der Effekt und 30 fps sind auch mit VRR kagge (für mich). Aber dieser Luxus, auch mal Dips um 10 fps vertragen zu können, ohne das es mir beim zocken direkt auffällt bzw stört, ist gold wert.
Wie gesagt, vorher hab ich nen Anfall bekommen, wenn es auch nur um 1 fps gedropt ist. Entsprechend musste ich auch immer die Setting im Spiel so wählen, dass selbst im worst case die Bildrate nicht fällt. Dadurch verschenkt man natürlich auch Potential im restlichen Spiel.
Auch meine Erfahrung...
Und für mich gerade deswegen vorallem in UHD sehr hilfreich wo man doch mal etwaige drops Erleben muss :)
 
Oben Unten