NVIDIA G-SYNC

firestarter111

Komplett-PC-Aufrüster(in)
Warum ist da noch keine News online, pcgameshardware;-)?

(dagegen ist die gtx 780ti ein witz)
(edit.2: immer noch keine news? das ist das dickste ding für bildqualitätsfanatiker seit jahren? ihr haut lieber gta 5 news raus o_O?)

NVIDIA G-SYNC

G-SYNC Makes Montreal the Doorway to Gaming Heaven

AnandTech | NVIDIA's G-Sync: Attempting to Revolutionize Gaming via Smoothness

Das hört sich von der technischen Seite höchst beeindruckend an. Kurz zusammengefasst ein Chip im Monitor der die Bildwiederholrate des Monitors an die fps Ausgabe der Grafikkarte anpasst. Im Gegensatz zum bekannten v-sync allerdings ohne tearing, shuttering und mit wenig inputlag.

Nächstes Jahr kommt der derzeitige 144hz 24er Asus mit dem Ding auf den Markt und kostet so um die 399 us dollar. Das Modul wollen sie wohl auch seperat veröffentlichen und du kannst deinen alten Asus aufmotzen. Geht momentan nur mit diesem Modell: Asus’s VG248QE. Modelle mit integriertem G-Sync Chip werden dann aber auch von Ben-Q und anderen Marken kommen.

Zahlreiche Entwickler wie Mark Rein (epic), John Carmarck (id, oculus) aber auch einer von Dice (MaNTLE; ANYONE?) sind vom Bild begeistert.

Wie gesagt, technisch ne tolle Sache, ABER:

-Nvidia exklusiv, geht nur mit kepler 650ti aufwärts.
-und ich habe mir erst den 144hz von benq geholt und könnte mir in den hintern beissen. ich hoffe die bieten da auch ein do-it-yourself kit an wie beim asus.
 
Zuletzt bearbeitet:
Ich glaube nicht, dass sich G-Sync mit so hohen Hürden durchsetzen wird.
Grafikkarte aufrüsten? -> nur noch von Nvidia zu Nvidia, vorausgesetzt man will G Sync behalten. Sollte Nvidia nun aber kein für einen persönlich passendes "Gesamtpaket" bieten, und man plant zu AMD zu upgraden, war der teuere Monitor Geldverschwendung.
Es gefällt Kunden auch nicht, wenn sie so in Ihrer Entscheidung beeinflusst werden. Niemand will sich verbindlich festlegen, dass er von nun an nur noch die Karten eines Herstellers kauft! Zwar tendiere ich zu AMD, aber würde mich auch nicht auf AMD festlegen wollen. Für Desktops sehe ich also keine rosige Zukunft für G Sync.
Jeder rational denkende Mensch würde sich nicht freiwillig so binden.
Für Laptops schon eher, wo ein Grafikkarten-Wechsel nur bei einigen Gamer-Laptops drin ist, und preislich nicht ratsam!
 
Ich wiederhole auch hier gerne meine Aussage nochmal:
Aber der funktioniert dann nur mit NVidia GEforce-Grafikkarten, wetten?
Zum Kotzen. Ich möchte als Spieler nicht zwischen Sodom und Gomorrah wählen müssen. Entweder kein Mantle/Eyefinitiv oder kein PhysX/G-Sync, das ist echt *******.

konkurrenz belebt das geschäft, leider mit dem nachteil sich entscheiden zu müssen :D
..
 
Wer spielt den schon mit VSync ? ^^ aber ansich , welcher normaler Spieler holt sich dann so ein Monitor für viel Geld wenn es ein anderer genauso tut. ? Wenn es nur wegen Tearing etc ist dann ist das es mir nicht wert
 
Wer spielt den schon mit VSync ?
Ich spiele alles mit Vsync!
Wer mag schon Tearing? :kotz:

G-Sync könnte interessant werden. Aber wieso glaubt ihr alle das die Monitore damit kommen werden? :what:
Viel logischer wäre, würde Nvidia das in ihren Treiber einbauen. Denn der Monitor an sich verursacht doch nicht das Problem, sondern die Grafikkarte

Wenn ich falsch liege, korrigiert mich bitte
 
Naja ist ja ganz nett aber wenn es dann wieder NV only wird, wäre das sehr schade.
Ich kann ohne Adaptives VSync auch nicht mehr.
 
Mh, echt nette Idee, nur müsste ich dazu meine Monitore austauschen ... und es wäre nVidia only, was schade wäre, da ich grade mit dem Gedanken Spiele aufgrund diverser Treiber-Abfucks in den letzten Wochen meine Titan durch 'ne 290X zu ersetzen ...
 
G-Sync könnte interessant werden. Aber wieso glaubt ihr alle das die Monitore damit kommen werden? :what:
Viel logischer wäre, würde Nvidia das in ihren Treiber einbauen. Denn der Monitor an sich verursacht doch nicht das Problem, sondern die Grafikkarte

Alle 3 Komponenten (Treiber, Graka, Monitor) müssen mitspielen. Mit herkömmlichen Monitoren funktioniert es nicht, es sei denn man besitzt ein Modell bei dem man die Platine nachrüsten kann: Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)
 
Ich spiele alles mit Vsync!
Wer mag schon Tearing? :kotz:

G-Sync könnte interessant werden. Aber wieso glaubt ihr alle das die Monitore damit kommen werden? :what:
Viel logischer wäre, würde Nvidia das in ihren Treiber einbauen. Denn der Monitor an sich verursacht doch nicht das Problem, sondern die Grafikkarte

Wenn ich falsch liege, korrigiert mich bitte

Wenn ich das richtig verstanden hab muss der Monitor G-Sync Haredwareseitig unterstützen. Der Grafikkartentreiber kann dem Monitor ja nichts neues beibrinegen ;-)

Ja, ich kann mich eigentlich nur der Mehrheit anschließen. Geile Technik aber diese Hersteller-Only Trends führen doch dazu dass Niemand die gesamte Grafikpracht bewundern kann. Dann hab ich iwann z.b. entweder nen Spiel mit toller Physik aber matschiger Grafik oder eben umgekehrt. Ist doch sch... wenn Konkurennz so sehr das technisch Mögliche verhindert. Sollen sie die Technik(en) patentieren und von AMD (bzw. Nvidia) lizensieren lassen. Dann ist die Technik halt bei AMD teurer, das ist ja auch Ok, sie habens eben nicht erfunden. Aber wenigstens könnte man dann alle Techniken nutzen wenn man sich High End Karten holt.
 
Finde die Idee absolut klasse. Man merkt das NVIDIA die Probleme intelligenter angeht als AMD. Was nützt schon ne tolle Mantle API die vielleicht 20% mehr FPS raus hämmert und trotzdem stottert, weil die Framerate einfach IMMER varieren wird und solang nicht selbst im worst-case trotzdem > 60 FPS dargestellt werden können leidet einfach das Spiele-Erlebnis. Wer kann schon immer > 60 FPS garantieren bei vollen Details gerade bei Auflösungen über FullHD wie sie hoffentlich in Zukunft die Norm werden?
 
Ich spiele alles mit Vsync!
Wer mag schon Tearing? :kotz:

G-Sync könnte interessant werden. Aber wieso glaubt ihr alle das die Monitore damit kommen werden? :what:
Viel logischer wäre, würde Nvidia das in ihren Treiber einbauen. Denn der Monitor an sich verursacht doch nicht das Problem, sondern die Grafikkarte

Wenn ich falsch liege, korrigiert mich bitte

Nein, das eigentliche Problem ist wirklich der Monitor, da wenn du V-Sync an hast, jedoch weniger FPS als die refresh rate deines Monitor hast gibt es Lags und Stutter, weil die "langsameren" Frames in einen späteren Scan des Monitors verschoben werden ! Wenn du V-Sync ausgeschaltet hast gibt es Tearing, (wenn du nicht exakt die gleichen FPS hast (je nach refresh rate des Monitors) da z.B. das erste Frame noch schnell genug berechnet wurde um in den 1 Scan zu kommen, das 2te jedoch schon zu lange benötigt und z.B. am Ende des 2. Scans und am Anfang des 3. Scans dargestellt wird. Durch G-Sync passt der Monitor die refresh rate immer an die FPS an, die die Grafikkarte gerade "produziert". Dabei gibt es dann weder Lag, noch Stutter, noch Tearing, da ja ein Frame ! immer ! In den richtigen Scan des Monitors passt und nicht in den nächsten verschoben werden muss ;)
Also braucht man einen speziellen Monitor, der eine variable refresh rate hat, deswegen kann es auch nicht für jeden x-Beliebigen Monitor ein G-Sync Modul geben ...
 
Zuletzt bearbeitet:
Ich finde es echt schade, dass es NVidia exklusiv ist, wäre schön echt gut, wenn das ganze auch auf Konsolen laufen würde, man keinen wirklichen Unterschied mehr zwischen 30 und 60 FPS sieht und die Grafikpower dann anders eingesetzt werden kann. Naja die Träumerei wieder :ugly:
 
Vermutlich wird es dann eine AMD- Fangemachten Treiberhack geben mit dem man ähnlich wie mit den PhysX Karten dann halt ne Gsynch Karte verbaut...
Ich persönlich kann nur sagen, dass ich sowohl auf meinem 600HZ TV noch auf meim 120HZ Acer Screen jemals starke Tearing oder Lagprobleme hatte und ich die Pressekonferenz von Nvidia eher albern als vielversprechend fand, da sie Szenen zeigten in denen fast schon übertriebenes Tearing vorkam...
So als müssten sie ihr Produkt rechtfertigen.
 
Ich finde es echt schade, dass es NVidia exklusiv ist, wäre schön echt gut, wenn das ganze auch auf Konsolen laufen würde, man keinen wirklichen Unterschied mehr zwischen 30 und 60 FPS sieht und die Grafikpower dann anders eingesetzt werden kann. Naja die Träumerei wieder :ugly:

Naja dann bräuchte man wiederum eine Glotze die das unterstützt. Aber ja, es wäre schön wenn das Ganze nicht nVidia-exklusiv wäre denn so entsteht nun die nächste Insellösung.
 
Das wird dort kein Inputlag reduzieren, da zwei Grafikkarten immer zuerst auf einer Grafikkarte das eine dann das andere Bild auf der zweiten Grafikkarte berechnen wird, daher ist der Inputlag fast immer doppelt so lange bis das Bild ausgeben wird als mit einer Singelkarte.
Viel wichtiger wäre es aber zu wissen ob es was geben Microruckler bewirkt, wobei da kann man auch schon viel selber dagegen machen.
Diese Einstellungen erhöhen zwar weiter die Eingabeverzögerung aber mir persönlich nicht so wichtig.
 
Zuletzt bearbeitet:
Naja dann bräuchte man wiederum eine Glotze die das unterstützt. Aber ja, es wäre schön wenn das Ganze nicht nVidia-exklusiv wäre denn so entsteht nun die nächste Insellösung.

Wenn es nicht exklusiv wäre und die Konsolen das auch könnten , was glaubst du wie schnell dann solche Fernseher auf den Markt kommen würden? Bei dem großen Konsolenmarkt will doch schließlich jeder was vom Kuchen abhaben ;)
 
1) Nette Idee von nvidia, aber zum Kotzen, wenns nicht bei AMD-hw geht.
2) sli könnte evtl. profitieren, wenn die frames durch die g-sync Karte zugteilt werden, aber wie sich das dann auf inputlag usw. auswirkt keine Ahnung
3) Alles mit vsync spielen, wer hat bock auf höhere Reaktionszeiten, das geht vllt bei Rennspielen klar.

mfg, crae
 
Zurück