• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Upgrade Gsync Kaufkriterium ? 3080 oder 6800XT

butzbert

PC-Selbstbauer(in)
Hallo zusammen,

tue mich in der aktuellen Lage echt schwer mit einen Grakka Update. Warum musste Nvidia auch so mit dem VRAM bei der 3080 geizen:daumen2:

Spiele auf einen UWQD mit Gsync hab allerdings auch noch einen Full HD mit 144 Hertz, da zocke ich aktuell nur noch BF5 drauf ansonsten ist der mehr ein Desktop Sekundär TFT.

Aktuell hätte ich gerne mehr Leistung für meinen UWQD in Spielen wie :
-Anno1800
-Red Dead Redemption 2
-Cyberpunk (wenn mal gepatcht)
und was sonst noch so kommt.

Mein Limit sind 1000€ max. mit Wasserblock Upgrade, gerne auch direkt eine Karte mit Block. Soweit mal irgendetwas Verfügbar ist zum lukrativen Preis. Hab jetzt auch kein Problem mit ein Block nachrüsten, dann darf die Karte allerdings nicht mehr Kosten wie 850€.

Was meint ihr ist bei meinem Setup Sinnvoller ?
- Auf Gsync verzichten, lieber mehr Vram nehmen bei der hohen Auflösung von 3440X1440
-Oder doch mehr drauf hoffen das die 10GB VRam nicht zum Flaschenhals werden

Gerade wenn die Frames in 1-2 Jahren einbrechen, hat eventuell das Gsync einen Mehrwert.

Wenn die Karte 3 Jahre für mich ausreicht währe ich schon zufrieden.

Vielleicht weiß noch jemand ob der LG34GK950G-B eventuell auch Freesync kann ?
Muss das immer ausdrücklich bei der Beschreibung dabei stehen ? Hab mal was gelesen das Teilweise TFT beides
können auch wenn es nicht in der Beschreibung steht.
Hier mal der Link zum TFT:
 
Zuletzt bearbeitet:

Averey

PC-Selbstbauer(in)
Vielleicht weiß noch jemand ob der LG34GK950G-B eventuell auch Freesync kann ?
Muss das immer ausdrücklich bei der Beschreibung dabei stehen ? Hab mal was gelesen das Teilweise TFT beides
können auch wenn es nicht in der Beschreibung steht.
Hier mal der Link zum TFT:
Der LG34GK950G-B kann kein Freesync mWn, da ein G-Sync Modul verbaut ist. Da gibt es das Schwestermodell LG34GK950F-B, das Freesync 2 unterstützt und da Nvidia für Freesync Monitore die adaptive Wiederholung auch freigeschaltet hat, kannst du damit auch eine Nvidia Karte nutzen.

Laut Testberichten aus dem Netz, funktioniert Gsync mit dem LG34GK950F-B auch, das Modell hat auch eine bessere Farbdarstellung mit 8bit+FRC statt nur 8bit bei dem LG34GK950G-B, HDR-Unterstützung und 144 Hz statt 120, sowie die besagte Freiheit zwischen einer Nvidia und AMD Karte.

Würde mich auch wundern wenn es nicht funktionieren würde, bei meinem LG27GL850-B funktioniert G-Sync prima mit einer 2080 Ti sowie Freesync als ich noch die 5700 XT hatte, da er kein G-Sync modul hat aber Freesync 2 und G-Sync compatible ist. Der einzigste Unterschied ist, das mit einem G-Sync Modul du niedrige FPS unter z.B. 48 (LG34GK950F-B hat ein 48-144 Hz Range) besser auffangen kannst, da er im Fall von LG34GK950G-B einen 30-120 Hz Bereich hat.

Du hast also die Wahl zwischen einer besserer Farbdarstellung, HDR-Unterstützung und höherer Aktualisierungsrate sowie Grafikkarten-Unterstützung beider Hersteller bei dem LG34GK950F-B und etwas besserer low-fps Abdeckung bei dem LG34GK950G-B.
Wobei dank LFC (low frame compensation) der LG34GK950F-B selbst unter 48 fps eine gute Figur machen wird (wie bei meinem LG27GL850-B wo sich unter 48 fps LFC einschaltet und Tearing gut entgegenwirkt).
Was dir am Ende mehr Wert ist, ist deine Entscheidung. ;)
 
Zuletzt bearbeitet:
TE
butzbert

butzbert

PC-Selbstbauer(in)
Der LG34GK950G-B kann kein Freesync mWn, da ein G-Sync Modul verbaut ist. Da gibt es das Schwestermodell LG34GK950F-B, das Freesync 2 unterstützt und da Nvidia für Freesync Monitore die adaptive Wiederholung auch freigeschaltet hat, kannst du damit auch eine Nvidia Karte nutzen.

Laut Testberichten aus dem Netz, funktioniert Gsync mit dem LG34GK950F-B auch, das Modell hat auch eine bessere Farbdarstellung mit 8bit+FRC statt nur 8bit bei dem LG34GK950G-B, HDR-Unterstützung und 144 Hz statt 120, sowie die besagte Freiheit zwischen einer Nvidia und AMD Karte.

Würde mich auch wundern wenn es nicht funktionieren würde, bei meinem LG27GL850-B funktioniert G-Sync prima mit einer 2080 Ti sowie Freesync als ich noch die 5700 XT hatte, da er kein G-Sync modul hat aber Freesync 2 und G-Sync compatible ist. Der einzigste Unterschied ist, das mit einem G-Sync Modul du niefrige FPS unter z.B. 48 (LG34GK950F-B hat ein 48-144 Hz Range) besser auffangen kannst, da er im Fall von LG34GK950G-B einen 30-120 Hz Bereich hat.

Du hast also die Wahl zwischen einer besserer Farbdarstellung, HDR-Unterstützung und höherer Aktualisierungsrate sowie Grafikkarten-Unterstützung beider Hersteller bei dem LG34GK950F-B und etwas besserer low-fps Abdeckung bei dem LG34GK950G-B.
Wobei dank LFC (low frame compensation) der LG34GK950F-B selbst unter 48 fps eine gute Figur machen wird (wie bei meinem LG27GL850-B wo sich unter 48 fps LFC einschaltet und Tearing gut entgegenwirkt).
Was dir am Ende mehr Wert ist, ist deine Entscheidung. ;)
Danke für die Info. Ich habe bereits das Gsync Modell. Also kann ich mir da nix mehr aussuchen :-(

In dem Fall ist nur noch die Frage 3080 oder RX6800XT
 

Averey

PC-Selbstbauer(in)
Danke für die Info. Ich habe bereits das Gsync Modell. Also kann ich mir da nix mehr aussuchen :-(

In dem Fall ist nur noch die Frage 3080 oder RX6800XT
In dem Fall würde ich klar zu einer Nvidia Karte tendieren, denn auf adaptiven Sync würde ich persönlich nicht verzichten wollen. Und adaptives Sync mit einer 6800 XT wird mit dem Monitor da er ein hardwareseitiges G-Sync Modul verbaut ist, nicht funktionieren. Hat aber den oben beschriebenen Vorteil dass sich dein Monitor auch mit 30 fps noch synchronisiert, mit einer Nvidia Karte.

3080 ist schon an sich eine gute Wahl, vor allem dank besserer nativer DXR-Implementierung sowie DLSS, das gänzlich auf 6800 XT fehlt (und auf absehbare Zeit auch nicht zur Verfügung stehen wird, da AMD kein neuronales AI Netzwerk entwickelte und zur Verfügung hat wie Nvidia).

Bleibt die Frage nach Speicher, u mMn nach reichen 10 Gib auch vollkommen aus zur Zeit. Bis vor einem Jahr war 8 Gib das meiste was du noch bei AMD bekommen hast. Wenn du allerdings noch etwas warten kannst oder gewillt bist, laut Videocardz, die schon über die 3060 Ti Recht hatten, plant Nvidia eine 3080 Ti die zwischen einer 3080 und 3090 performen wird, mit 20 Gib GDDR6x (was auch schneller ist als GDDR6 bei 3060Ti/3070 oder 6800/6800/6900XT). Wird dementsprechend auch etwas mehr kosten als die 3080, wäre aber die wohl sicherste Wahl sowohl bezogen auf die wichtigsten Features (ich würde heute keine Karte ohne DLSS-Unterstützung kaufen, gerade mit einem G-Sync Monitor) wie auch die Speichermenge.
 

Eivor

PC-Selbstbauer(in)
Bei mir funktioniert FreeSync auch mit einer Nvidia Karte. :ka: g sync compatible nennt sich das im Treiber
 
TE
butzbert

butzbert

PC-Selbstbauer(in)
Danke für eure Antworten. Hatte damals eine R9 290. Das war damals echt eine Super Karte, bis die irgendwann nur noch schlechte Treiber als Update hatten.

Beim Monitor Kauf damals, war das schon für mich ein ganz bitterer Beigeschmack. Das man sich an Hersteller mit ein System bindet. Aber Anfang des Jahres hab ich AMD Grafikkarten, für mich persönlich als unrealistisch empfunden.

Das ganze zeigt mir nur wieder, egal wie lange du überlegst und die Hardware Glaskugel rausholst, was die Zukunft bringt ist immer Glückssache.

Find es auf jeden Fall toll es endlich wieder Konkurrenz zu Intel und Nvidia gibt
 

cimenTo

Komplett-PC-Aufrüster(in)
Wenn ich meinen G-Sync Monitor anschließe und den Radeon Treiber installiere, kommt bei mir der Hinweis, dass ich ein Adaptive Sync fähiges Gerät angeschlossen habe. Als ich mit einigen Programmen wie G-Sync Pendel oder Freesync Windmill getestet habe, konnte ich jedoch sehen wie sich die Schlieren deutlich reduziert bzw. ganz verschwunden sind. Im Radeon Treiber muss dazu Adaptive Sync an sein. Kein Plan ob der Monitor per Firmware offiziell Freesync kann, denn im Grunde ist es ein echter G-Sync Monitor.

Es handelt sich um diesen hier:

 

cimenTo

Komplett-PC-Aufrüster(in)
Ja das hatte ich gelesen, aber laut Produktionsdatum ist meiner vom Juni 2019 (gekauft vor 2 Monaten) und diese News dass manche G-Sync Monitore das können kam doch erst November 2019 oder so. Jedenfalls steht nirgends bei meinem dass Freesync möglich ist. Keine Ahnung ob der das halt wirklich kann und ob die Meldung im Treiber, dass ein Adaptive Sync Gerät angeschlossen wurde, auch wirklich genau und korrekt ist.
 

Averey

PC-Selbstbauer(in)
Beim Monitor Kauf damals, war das schon für mich ein ganz bitterer Beigeschmack. Das man sich an Hersteller mit ein System bindet. Aber Anfang des Jahres hab ich AMD Grafikkarten, für mich persönlich als unrealistisch empfunden.
War ja mit Freesync früher genauso. Hast du dir mal einen Freesync Monitor geholt, konntest du damit kein Gsync nutzen (außer durch inoffizielle Hacks, wo man dann letztlich nicht wusste ob es korrekt funktioniert). Da jetzt Nvidia es aber freigeschaltet hat, kann ein Gsync- und Freesync-compatible Monitor beides nutzen, es muss halt nur kein Hardware-seitiges Modul verbaut sein, weil die Funktionsweise bezüglich des Sync-Bereichs anders ist bzw mehr Bereiche in low-FPS abdeckt.

Mit deinem Gsync-Modul wird ja dein Monitor sich prima mit einer Nvidia Karte syncen lassen bis 30 FPS, ohne das du Tearing kriegst. Bei einem Freesync Moni ohne LFC (gibts immer noch zu genüge) kriegst du Tearing, sobald die FPS unter 48 fallen.

Wenn ich meinen G-Sync Monitor anschließe und den Radeon Treiber installiere, kommt bei mir der Hinweis, dass ich ein Adaptive Sync fähiges Gerät angeschlossen habe. Als ich mit einigen Programmen wie G-Sync Pendel oder Freesync Windmill getestet habe, konnte ich jedoch sehen wie sich die Schlieren deutlich reduziert bzw. ganz verschwunden sind. Im Radeon Treiber muss dazu Adaptive Sync an sein. Kein Plan ob der Monitor per Firmware offiziell Freesync kann, denn im Grunde ist es ein echter G-Sync Monitor.

Es handelt sich um diesen hier:

Ist auch kein Wunder da dein Monitor nicht "G-Sync" entspricht sondern G-Sync Compatible, laut offizieller Nvidia Webseite, somit auch kein G-Sync Modul hat und beide Standards, sowohl Freesync als auch G-Sync unterstützt.
 

JoM79

Trockeneisprofi (m/w)
Ist auch kein Wunder da dein Monitor nicht "G-Sync" entspricht sondern G-Sync Compatible, laut offizieller Nvidia Webseite, somit auch kein G-Sync Modul hat und beide Standards, sowohl Freesync als auch G-Sync unterstützt.
Wie meinen?
 

Anhänge

  • lenovo.PNG
    lenovo.PNG
    31,6 KB · Aufrufe: 23

Averey

PC-Selbstbauer(in)
Mein Fehler, hab mich da tatsächlich verguckt.

Ja, der Y27GQ20 ist G-Sync und nicht G-Sync compatible, hat somit auch den Modul.

Geht wohl bei dir auch mit Freesync ohne offizielle Spezifikation, ist doch nice. Wird aber wahrscheinlich trotzdem mit der 48 FPS Untergrenze in Freesync-Modus betrieben, I presume (da Freesync und G-Sync unterschiedliche Werte haben) Ob das auch mit einem anderen Monitor mit hardwareseitigem G-Sync klappt, vermag ich allerdings nicht zu sagen.
 

Gurdi

Kokü-Junkie (m/w)
Die 48Hz ziehst du einfach via CRU grade und fertig, selbst auf meinem TV konnte ich die noch anpassen, wenn auch dort nur geringfügig. Ein Monitor ist da nochmal deutlich zugänglicher.
 

Averey

PC-Selbstbauer(in)
So einfach ist das auch nicht. Du kannst dir nicht einfach 1-144 Hz einstellen und damit die Leistung eines G-Sync Moduls erreichen. Man kann zwar versuchen einen Monitor mit 30-144 Hz statt 48-144 zu betreiben, aber wenn du Pech hast, kriegst du nichts anderes als Artefakte. Und die Unterschiede sind sogar innerhalb einer Modellreihe, ein Monitor packt 40 Hz, der andere nicht mal 45.

Würde mich auf so Tricks nicht verlassen beim Monitorkauf.
 

Averey

PC-Selbstbauer(in)
Ich hoffe, du weisst auch das LFC keine 100% Garantie gegen Tearing hat, es möglichst eliminiert aber ab und zu tritt es trotzdem auf? Es ist eine Software-Lösung, im Gegensatz zu der harwareseitigen mit einem Modul.

Ganz abgesehen davon das je nach Modell, eine Custom Refresh Rate sich großzügig einstellen lässt oder gar nicht.
 
Oben Unten