G-Sync Compatible ... - das sagen die PCGH-Redakteure dazu

Habs bei mir getestet mit der 1080 und nem Acer XF0 XF270HUAbmiidprzx. Bei manchen Spielen geht es ohne Probleme, bei andern wie PUBG fängt es unregelmässig an zu flackern.

Hab das Feature wieder deaktiviert da ich sonst auch kein wirkliches Tearing sehe und das Sync zu erzwingen bei mir aktuell für mehr Probleme als für positive Effekte sorgt.
 
Das passt aber nicht zu den aktuellen Marktanteilen.
Grafikkarten - Marktanteile von Nvidia und AMD bis Q3 2018 | Statistik
Wenn man fast 75% der Gesamtnutzer auf seiner Plattform hat wird man in der Regel versuchen diese zu binden und nicht krampfhaft versuchen die restlichen 25% zu bekommen.

Persönlich sehe ich den Schritt nach wie vor als Vorbereitung auf HDMI 2.1 . So bleibt der Eindruck aus genau mit Einführung dieser Schnittstelle zu VRR Support gezwungen zu werden.

Klingt logisch... Denn ich hatte auch nicht den Eindruck, dass der Druck auf Nvidia mittlerweile so groß geworden wäre, dass sie keine andere Wahl mehr gehabt hätten. Als Marktführer hat man ein paar Freiheiten... Gleichzeitig ist jeder verkaufte G-Sync-Monitor ein Kunde mehr, der auf Jahre im Nvidia-System ist.
 
Aber deren treiber...das wirkt richtig antik gegen AMDs Treiber Menü. Und es fehlen bei Nvidia einige wichtige Settings. Warum kann z.B ich nicht die FPS Limitieren? Warum muss wie von Raff erwähnt den Treiber hacken? und mit anderen Tools nachhelfen? :what: Auch habe ich wenn ich mal ein Video im Vollbild starte ein kurzen Blackscreen.

Den Nvidia Inspector zu installieren für Frameratebegrenzung ist es aber nicht zu viel Aufwand.

Sicher wäre es mal nett wenn es bei Nvidia direkt im Treiber ginge. Aber für OC Afterburner oder Precision X1 zu nutzen war bisher auch kein Beinbruch.

Und Freesync selber...das Ergebnis wirkt "ok" Zwar keine Bildrisse mehr direkt aber ich finde trotzdem das dass Bild mit aktivierten Vsync (inkl. Freesync) fehlerfreier wirkt als wenn nur Freesync an ist (Und Vsync aus) Ka ob mein Monitor Freesync nicht so gut kann oder der Treiber hier noch etwas rumzickt. Oder ich hatte einfach zu hohe Erwartungen :schief::ugly:

Wenn man keinen Monitor hat der über 100Hz hat sollte man wohl eh V-Sync anlassen. Macht Digital Foundry oder Hardware Unboxed ja auch. Da man schnell über die Range geht und es dann unruhig wird wenn Freesync deaktiviert und wieder aktiviert wird.

Ein Framelimit kann ebenfalls für leichte Unruhe sorgen.
Gleiche wenn man mit 144Hz z.B ein Video mit 60 Bilder sich ansieht. Wirkt wegen zusätzliche eingestreute Bilder auch unrunder als wenn man bei 120Hz nur die Bilder verdoppelt.

Ich habe eine Range von 40-60 bei meinem LG und lasse da auch V-Sync an. Sieht galt besser aus auch wenn der Input-Lag natürlich etwas höher bleibt.


Das mehr als nur paar Monitore gehen zeigt ja auch dieses Video:

YouTube
 
Die Kits waren ja trotzdem erst ab Jänner 2014 verfügbar. Für den im Artikel erwähnten Asus VG248QE:
VG248QE G-Sync Upgrade Kit Now Available | ROG - Republic of Gamers Global
(15. Jänner 2014)

Oder übersehe ich da was? :huh:
Falls ja, dann mea culpa.

Wenn ich es richtig verstanden habe, ging es im Wortwechsel darum ob G-Sync oder Adaptive Sync als erstes entwickelt wurde. Dafür ist nicht die Markteinführung entscheidend, die ersten Adaptive-Sync-Desktop-Komponenten gab es ja sogar erst mit Freesync, sondern die ersten Vorführungen. Und da hat Nvidia klar als erster VRR auf externen Displays gezeigt.
 
Wenn ich es richtig verstanden habe, ging es im Wortwechsel darum ob G-Sync oder Adaptive Sync als erstes entwickelt wurde. Dafür ist nicht die Markteinführung entscheidend, die ersten Adaptive-Sync-Desktop-Komponenten gab es ja sogar erst mit Freesync, sondern die ersten Vorführungen. Und da hat Nvidia klar als erster VRR auf externen Displays gezeigt.
Achso, nein, das Nvidia hier die Nase vor AMD hatte bestreite ich gar nicht. Mir ging es eher um die Darstellung, dass es Adaptive Sync ohne Nvidia nicht geben würde, bzw. dass es vor G-Sync nichts in der Richtung gab.

Wie aber auch schon von anderen erwähnt wurde gabs die Geschichte schon in gewisser Form bei Notebooks über den eDP-Standard. Hier müsste Intel die Nase vorn gehabt haben, sofern ich mich nicht irre? Nvidia war ja mit Adaptive VSync auch schon auf Notebooks unterwegs, bevor G-Sync ein Thema wurde.
 
Hauptsache der jeweils gewählte Sync Kram funktioniert für einen, egal was.
Macht doch einfach, was ihr wollt. So lange die Spiele Spaß machen, is alles richtig ! :daumen:
 
Und ich bin dann jetzt mit meinem G-Sync Monitor der gelackmeierte, wenn ich mich irgendwann Mal für eine AMD oder Intel Grafikkarte entscheide? Oder wurde schon etwas im Bezug G-Sync Monitore und deren Kompatibilität mit Free-Sync veröffentlicht.

Ja bist du.


Also nach etwas testen muss ich auch sagen das ich etwas ernüchtert bin. Zu einen weil mein Monitor leider standardmäßig nur Freesync be 48-70 HZ greift was arg wenig ist. Damit daraus mehr wird musste ich ebenfalls mit den CRU Teil nachhelfen was ziemlich gut ging (Nun 35-70HZ) Gut dafür kann Nvidia nichts.

Aber deren treiber...das wirkt richtig antik gegen AMDs Treiber Menü. Und es fehlen bei Nvidia einige wichtige Settings. Warum kann z.B ich nicht die FPS Limitieren? Warum muss wie von Raff erwähnt den Treiber hacken? und mit anderen Tools nachhelfen? :what: Auch habe ich wenn ich mal ein Video im Vollbild starte ein kurzen Blackscreen.

Und Freesync selber...das Ergebnis wirkt "ok" Zwar keine Bildrisse mehr direkt aber ich finde trotzdem das dass Bild mit aktivierten Vsync (inkl. Freesync) fehlerfreier wirkt als wenn nur Freesync an ist (Und Vsync aus) Ka ob mein Monitor Freesync nicht so gut kann oder der Treiber hier noch etwas rumzickt. Oder ich hatte einfach zu hohe Erwartungen :schief::ugly:

Das liegt wohl kaum an Freesync sondern am NV Treiber mit G Compatibel.
Die Treiber bei Nvidia kann man nur noch als völlig veraltet beschreiben, sowohl im puncto komfort, funtionsumfang wie auch Optik.
 
Mit meiner 1080 und Asus MG248QR funktioniert es ohne Fummeln.

Treiber aktualisiert und das war es. Nix einzustellen und in Pubg hat es direkt funktioniert. Nix flimmert, flackert o. ä.

das OSD bestätigt die Funktion und zeigt die zu den FPS passende Frequenz an.
 
Ich kann mir vorstellen, dass da hinter den Kulissen deutlich mehr geht und Nvidia möglicherweise Schwierigkeiten hat das zu pushen, was früher einfach war und man deshalb jetzt etwas die Strategie wechselt.
Klar, im Desktop PC Bereich hat Nvidia die Nase vorn, aber in den Konsolen steckt AMD und in den neuen Generationen soweit man weiß auch wieder AMD.

Wieso sollte ein großes Studio bei Cross-Plattform Titeln dann proprietäre Nvidia Sachen implementieren, die dann nur für eine Plattform relevant sind?
 
Den Nvidia Inspector zu installieren für Frameratebegrenzung ist es aber nicht zu viel Aufwand.

Sicher wäre es mal nett wenn es bei Nvidia direkt im Treiber ginge. Aber für OC Afterburner oder Precision X1 zu nutzen war bisher auch kein Beinbruch.



Wenn man keinen Monitor hat der über 100Hz hat sollte man wohl eh V-Sync anlassen. Macht Digital Foundry oder Hardware Unboxed ja auch. Da man schnell über die Range geht und es dann unruhig wird wenn Freesync deaktiviert und wieder aktiviert wird.

Ein Framelimit kann ebenfalls für leichte Unruhe sorgen.
Gleiche wenn man mit 144Hz z.B ein Video mit 60 Bilder sich ansieht. Wirkt wegen zusätzliche eingestreute Bilder auch unrunder als wenn man bei 120Hz nur die Bilder verdoppelt.

Ich habe eine Range von 40-60 bei meinem LG und lasse da auch V-Sync an. Sieht galt besser aus auch wenn der Input-Lag natürlich etwas höher bleibt.


Das mehr als nur paar Monitore gehen zeigt ja auch dieses Video:

YouTube

Thx für den Tip werde es mal ohne Framelimiter testen (Bis jetzt wurde mir immer dazu geraten) Aber aus Intreresse: V-sync im Treiber oder im Spiel an?
 
V-sync im Treiber oder im Spiel an?

Habe Beides die Tage probiert. Macht nicht wirklich viel Unterschied. Habe nur das Gefühl dass es über den Treiber kurz am Anfang bei paar Games zu 1-2 Ruckler mehr kommt. Aber im Grunde spielt es sich gleich und verhält sich so. Framerate passt sich innerhalb der Range immer an.
DF und Hardware unboxed hatten es jedenfalls über das Game an.
Wenn ich meinen PC am TV wieder anschließe müsste ich über das Spiel nicht immer anpassen.


Wenn man es über das Game macht muss natürlich "Einstellung für 3D Anwendung verwenden" im Treiber hinterlegt sein.

So zumindest meine Wahrnehmung außer es kennt Jemand genauere Test.
 
Habe mal den GS Artikel gelesen: G-Sync auf Freesync-Monitoren - Anleitung und Test zu G-Sync Compatible - GameStar Da gilt: FPS Limiterier vor V-Sync. Wohl wegen den Inputlag wo ich aber ganz ehrlich sagen muss > Bis auf Counter Strike ist mir das nie so negativ aufgefallen.

Da hatte PCGH die etwas bessere Anleitung obwohl alle vergessen zu erwähnen das G-Sync-Compatible NICHT mit WIN 7 funktioniert:
http://www.pcgameshardware.de/Monit...ce-Compatible-Test-Anleitung-Treiber-1273243/

Für mich war Nvidia G-Sync Geldmacherei und das hat mich zum Glück nicht beeinflusst denn ich zocke mit einer 1080 auf einem Freesync-4K-Monitor und bin zufrieden. AMD hat für mich auch richtig reagiert mit Freesync und keinen Aufpreis verlangt während Monitore mit G-Sync doch um einiges teurer sind. Einen offenen Standard auszubeuten macht keinen guten Eindruck und ich konnte nie Leute verstehen die sagten das sie eine Nvidia haben und extra einen G-Sync-Monitor kaufen oder andersrum die eine Radeon haben einen Freesync-Monitor kaufen. Die mit einer Radeon haben natürlich ein kostenloses Feature mitgenommen aber Nvidia hat die Kunden mal wieder schön über den Tisch gezogen was sie auch derzeit mit Raytracing machen. Hat Nvidia Raytracing erfunden? NEIN, aber sie machen wieder Geld daraus. Wäre genauso wenn AMD Geld für einen offenen Standard verlangen würde wie Vulkan da die Radeons ja darauf besser laufen.
Deswegen ist auch mein Motto in allen Lebnslagen das man aufpassen muss was die Firmen einen andrehen wollen und Gerade wenn es um Hardware geht ist doch PCGH und auch Gamestar eine gute und informative Quelle. Doch letztendlich liegt es an uns Gamern was wir uns andrehen lassen ;-)
 
Da hatte PCGH die etwas bessere Anleitung obwohl alle vergessen zu erwähnen das G-Sync-Compatible NICHT mit WIN 7 funktioniert:
http://www.pcgameshardware.de/Monit...ce-Compatible-Test-Anleitung-Treiber-1273243/

Für mich war Nvidia G-Sync Geldmacherei und das hat mich zum Glück nicht beeinflusst denn ich zocke mit einer 1080 auf einem Freesync-4K-Monitor und bin zufrieden. AMD hat für mich auch richtig reagiert mit Freesync und keinen Aufpreis verlangt während Monitore mit G-Sync doch um einiges teurer sind. Einen offenen Standard auszubeuten macht keinen guten Eindruck und ich konnte nie Leute verstehen die sagten das sie eine Nvidia haben und extra einen G-Sync-Monitor kaufen oder andersrum die eine Radeon haben einen Freesync-Monitor kaufen. Die mit einer Radeon haben natürlich ein kostenloses Feature mitgenommen aber Nvidia hat die Kunden mal wieder schön über den Tisch gezogen was sie auch derzeit mit Raytracing machen. Hat Nvidia Raytracing erfunden? NEIN, aber sie machen wieder Geld daraus. Wäre genauso wenn AMD Geld für einen offenen Standard verlangen würde wie Vulkan da die Radeons ja darauf besser laufen.
Deswegen ist auch mein Motto in allen Lebnslagen das man aufpassen muss was die Firmen einen andrehen wollen und Gerade wenn es um Hardware geht ist doch PCGH und auch Gamestar eine gute und informative Quelle. Doch letztendlich liegt es an uns Gamern was wir uns andrehen lassen ;-)

Wozu sollte man noch erwähnen das win7 nicht unterstützt wird. Dieses Windows is am Ende seinen Lebens angelenagt. Das solte mittlerweile jedem klar sein, und jeder selber Schuld der bis jetzt noch mit diesem veraltetem Windows arbeitet.
 
Ja es ist schon ein überraschend positiv anmutender Zug von Nvidia.
Auch ich als GTX 1080 Besitzer freue mich über diese Entwicklung.

Ich habe mir das ganze Spektakel natürlich live angeschaut und hatte seitdem einiges an Zeit mir darüber Gedanken zu machen und so kam ich nun darauf, wie das alles zusammen passen könnte.

Die herablassende Art und unwahren Behauptungen von Jensen, der öffentlich dargestellte Betrachtungswinkel und die an die Freigabe gekoppelten Bedingungen führen mich dazu, es für wahrscheinlich zu halten, dass man bisherige Radeon Nutzer die auf Freesync nicht verzichten wollen, abholen möchte. Aber damit nicht genug, auch deren bisheriger fFreesync Monitor bekommt ja nicht alle Funktionen gestattet die ein wahrer G Sync Monitor bieten würde, sollten Sie sich tatsächlich die nächste GeForce anstatt Radeon gekauft haben. Und schon muss auch ein G Sync Monitor her.

Die Strategie lautet also: "anfixen" der Hardware Junkies um auf Nvidia-roin" umzusteigen.

Sollte es tatsächlich in die von mir vermutete Richtung gehen ist das 'ne ziemlich linke Nummer von Nvidia, der Wolf im Schafspelz sozusagen...
 
Also mich freut es total, dass Nvidia nun Freesync unterstützt.

Habe mir Ende 2016 den LG 38UC99 geholt und hatte damals noch ne Radeon 290x. Wenn Freesync denn mal sauber lief, dann war das damals schon nicht schlecht. Leider hatte ich öfters das Problem mit sporadisch auftretenden Blackscreens und Flickering. Habe damals 5 verschiedene DP-Kabel probiert um das Problem zu beseitigen und mit dem teuersten Kabel gingen zumindest die Blackscreens weg. Das Flickering trat aber trotzdem noch regelmäßig auf, weswegen ich es dann wieder deaktivierte und mich auf 60Fps Vsync beschränkt habe.
Ein Jahr später wurde die 290x dann gegen eine 1080ti getauscht und ich verabschiedete mich im Geiste schon mal gänzlich von Freesync.
Aber dann lese ich letzte Woche auf pcgh dass Nvidia ab dem 15.1. Freesync unterstützen wird.:wow::daumen:
Die Vorfreude wurde etwas eingedämmt aufgrund des Hinweises das es wohl nicht auf allen Modellen gut funktioniert und zum Start nur ein Dutzend Monitore offiziell unterstützt wird, beim Rest ist es ein Glücksspiel.

Naja installiert und kurz und knapp: Soooo geil, Freesync läuft perfekt auf dem LG ohne auch nur das geringste Problem. Habe es seit Dienstag ausgiebig mit diversen Games getestet und es läuft butterweich ohne Tearing, auch in der 40-50Fps Range! War vorher nicht beides zusammen möglich. Generell werden Framerateschwankungen super ausgeglichen. Man merkt kaum einen Unterschied zwischen 75 und 50Fps. Vorher hat man das sehr deutlich wahrgenommen.
Blackscreens oder Flickering Null!!!
Also ich bin begeistert und freue mich über diesen Treiber.:daumen::)

gruss Robert
 
Die Treiber bei Nvidia kann man nur noch als völlig veraltet beschreiben, sowohl im puncto komfort, funtionsumfang wie auch Optik.
Dafür funktionieren sie zumindest zuverlässiger als bei AMD und das ist es doch, was zählt. Was bringt mir ein Treiber der schick aussieht und unzuverlässig ist? Für mich war das einer der Gründe damals nach langem nutzen von ATI/AMD Grafikkarten auf Nvidia und die GTX 670 zu setzen. Das letzte AMD Experiment hatte ich mit einer Vega 56, wo der Treiber einfach desaströs war. Ich hoffe AMD versaut es mit Navi mit Hard- und Software nicht, den ich möchte gerne auf die Serie wechseln.
 
Wenn ich es richtig verstanden habe, ging es im Wortwechsel darum ob G-Sync oder Adaptive Sync als erstes entwickelt wurde. Dafür ist nicht die Markteinführung entscheidend, die ersten Adaptive-Sync-Desktop-Komponenten gab es ja sogar erst mit Freesync, sondern die ersten Vorführungen. Und da hat Nvidia klar als erster VRR auf externen Displays gezeigt.


Hier ist ein Patent von ATI (!) von 2006, das nichts anderes beschreibt als das Prinzip von Gsync (nämlich die Refresh Rate eines Displays variable zu halten
und diese Kontrolle einem separatem Chip zu übertragen):

https:// patentimages.storage.googleapis.com/b7/c0/d9/fa9aae50e7f642/US20080055318A1.pdf

Das Grundprinzip dahinter hatten aber auch schon andere, wie zB von Dell 1994 oder anderen angemeldet:

https://patentimages.storage.googleapis.com/99/05/ad/edb9bb5e2aa6f0/US6717578.pdf

https://patentimages.storage.googleapis.com/57/a2/ad/e79e176e68ab53/US5808952.pdf - Silicon Magic 1996

https://patentimages.storage.googleapis.com/77/f0/6a/033da858854c37/US5841418.pdf - Cirrus Logic 1995

https://patentimages.storage.googleapis.com/42/4c/dc/388095d0c41a9d/US6658056.pdf
https://patentimages.storage.googleapis.com/ef/6d/1d/6612848ecece83/US20080309652A1.pdf - Sony 1999 und 2007

https://patentimages.storage.googleapis.com/67/2e/c8/558b688935daea/US20090237391A1.pdf - Sharp 2006

https://patentimages.storage.googleapis.com/9c/90/55/fda437b15b4e10/US20050134735A1.pdf - Genesis Microchip Inc

Ich finde es jetzt nicht mehr, aber von Nvidia gab es ähnliches erst 2006 - und in dem Patent ging es ausschliesslich ums Stromsparen,
was damals jetzt keine Neuigkeit war, dafür wurde VRR mehrheitlich noch genutzt. Kann übrigens nur jedem empfehlen, diese Google-Suche zu nutzen, zumindest für mich
war es doch sehr interessant. So gesehen hatte diese Diskussion ja auch was Gutes.
 
Zurück